Tom 18v3 - Początek

Transkrypt

Tom 18v3 - Początek
STUDIA I MATERIAŁY
POLSKIEGO STOWARZYSZENIA
ZARZĄDZANIA WIEDZĄ
Redaktor tomu: dr Arkadiusz Januszewski
Komitet Redakcyjny:
dr hab. inŜ. Waldemar Bojar prof. UTP
prof. dr hab. Ryszard Budziński
prof. dr hab. Andrzej Straszak
Polskie Stowarzyszenie Zarządzania Wiedzą
www.pszw.edu.pl
Bydgoszcz 2009
2
Recenzenci:
prof. dr hab. inŜ. Ryszard Budziński
prof. dr hab. Witold Chmielarz
prof. dr hab. inŜ. Ludosław Drelichowski
prof. dr hab. Olgierd Hryniewicz
prof. dr hab. Janusz Kacprzyk
dr hab. inŜ. Jan Studziński
Opracowanie redakcyjne i korekta:
inŜ. Waldemar Kępa
ISSN 1732-324X
Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc
3
Spis treści
IRENEUSZ BIELSKI
Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej ............................................... 5
JAROSŁAW BECKER ......................................................................................................................
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach
elektronicznych ........................................................................................................................... 13
MIESZKO BOJAR .............................................................................................................................
Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego
ryzyka ......................................................................................................................................... 26
JACEK CHMIELEWSKI ...................................................................................................................
Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę
.................................................................................................................................................... 35
MAGDALENA CISZCZYK, EMMA KUSZTINA ...........................................................................
Model systemu informatycznego wspierającego realizację procesu nauczania opartego na
kompetencjach w środowisku repozytorium wiedzy................................................................... 45
MAGDALENA CISZCZYK, PRZEMYSŁAW RÓśEWSKI, EMMA KUSZTINA.........................
Definicje i standardy repozytorium wiedzy zbudowanego dla potrzeb prowadzenia procesu
nauczania .................................................................................................................................... 53
LUDOSŁAW DRELICHOWSKI, AGNIESZKA BOGDAŃSKA.....................................................
Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich 61
TOMASZ DUDEK, BOśENA ŚMIAŁKOWSKA ............................................................................
Architektura ekspertowego systemu oceny jakości..................................................................... 69
ARKADIUSZ JANUSZEWSKI .........................................................................................................
Cechy systemów klasy Business Intelligence stosowanych w controllingu ................................ 78
WALDEMAR KARWOWSKI, ALEKSANDRA SAWCZUK, ARKADIUSZ ORŁOWSKI ...........
Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX...... 86
BERNARD F. KUBIAK, ANTONI KOROWICKI ...........................................................................
Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji .................. 95
ANTONI KOROWICKI, BERNARD F. KUBIAK ...........................................................................
Rola wiedzy w określaniu przydatności i zastosowań technologii informacji i komunikacji
w organizacji............................................................................................................................. 104
EDWARD MICHALEWSKI..............................................................................................................
MoŜliwości audytu systemowego sektora bankowego w Polsce............................................... 114
MATEUSZ PIWOWARSKI...............................................................................................................
Wielokryterialna analiza decyzyjna w systemach GIS.............................................................. 123
MATEUSZ PIWOWARSKI, PAWEŁ ZIEMBA...............................................................................
Metoda Promethee II w wielokryterialnej ocenie produktów ................................................... 135
4
OREST POPOV, ANNA BARCZ, PIOTR PIELA ............................................................................
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu
nauczania .................................................................................................................................. 145
IZABELA ROJEK..............................................................................................................................
Podejścia stosowane we wspomaganiu sterowania siecią wodociągową .................................. 158
BOśENA ŚMIAŁKOWSKA, TOMASZ DUDEK ............................................................................
Ocena metod wersjowania baz i hurtowni danych .................................................................... 167
KRZYSZTOF ŚMIATACZ ................................................................................................................
Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego na
przykładzie badań rynku telefonii komórkowej ........................................................................ 177
TATIANA TRETYAKOVA ..............................................................................................................
Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji...... 184
PIOTR WELENC, ..............................................................................................................................
Bernard Madoff – historia mitu uczciwości .............................................................................. 194
JAROSŁAW WĄTRÓBSKI, AGNIESZKA GARNYSZ ..................................................................
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii..................... 201
ANTONI WILIŃSKI..........................................................................................................................
Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego .................... 215
JOLANTA KONDRATOWICZ-POZORSKA...................................................................................
Komunikacja marketingowa w zdobywaniu przewagi konkurencyjnej polskich gospodarstw
ekologicznych ........................................................................................................................... 225
T
Ireneusz Bielski
Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej
5
IRENEUSZ BIELSKI
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
WSPÓŁCZESNE PRZEDSIĘBIORSTWA O DUśEJ ZDOLNOŚCI KONKURENCYJNEJ
Streszczenie
Artykuł opisuje poszukiwania cech przedsiębiorstw innowacyjnych. W rezultacie
wieloetapowych badań realizowanych od 1997 roku na populacji około 500 przedsiębiorstw, głównie z regionu kujawsko-pomorskiego, stwierdzono, Ŝe podstawową
cechą przedsiębiorstw odnoszących sukcesy rynkowe jest ich innowacyjność.
W pracy zdefiniowano pojęcie innowacyjności oraz zdolności konkurencyjnej, dla
której zaproponowano teŜ model analityczny. W świetle badań II etapu, największą
aktywność innowacyjną wykazują prywatne , małe i średnie przedsiębiorstwa produkcyjne, działające w przemyśle maszynowym i uczestniczące w międzynarodowym
transferze wiedzy. Przedsiębiorstwa te tworzą systemy zarządzania informacją, prowadzą działalność B&R, realizują strategie przedsiębiorcze, są elastyczne i tworzą
efektywną konfigurację społeczną. Zaprezentowano cztery przedsiębiorstwa z Regionu spełniające większość kryteriów firm doskonale zarządzanych. Filarami sukcesu
są w nich charyzmatyczne przywództwo, traktowanie innowacji i czasu jako głównych czynników sukcesu oraz powszechnie akceptowany system wartości aktywizujący zasoby ludzkie przedsiębiorstwa.
Słowa kluczowe: przedsiębiorstwa innowacyjne, zarządzanie wiedzą, przywództwo
1.Wprowadzenie
Zmieniające się szybko i radykalnie warunki środowiskowe, zwłaszcza zaś globalizacja
gospodarki oraz narastająca konkurencja sektorowa powodują, Ŝe przedsiębiorstwa chcące
odnieść sukces powinny być wyczulone na zmiany i gotowe do traktowania ich jako okazję a nie
zagroŜenie. Kształtując poŜądane relacje z otoczeniem powinnozaś zaakceptować zasadę, Ŝe
„decydujący dla przeŜycia systemu otwartego jest stosunek jego własnej zmienności do zmienności
1
systemów , z którymi pozostaje on w interakcji” . Przedsiębiorstwa działające w sektorach
o zróŜnicowanej strukturze i warunkach środowiskowych mogą i powinny, przystosowując się do
tych warunków, róŜnić się między sobą wieloma cechami. Wydaje się jednak wielce
prawdopodobne, Ŝe istnieje znaczący zbiór cech przedsiębiorstwa, niezbędnych dla odniesienia
sukcesu rynkowego. W literaturze spotkać moŜna wiele róŜnych podejść do tego zagadnienia,
w których autorzy koncentrują się na odmiennych aspektach funkcjonowania organizacji. Ph.W.
2
Harris skupia się na elementach kultury organizacyjnej stwarzających przesłanki sukcesu
1 prawo poŜądanej zmienności, sformułowane przez W.R. Ashby’ego ,cyt. za: Z. Dworzecki, Zarządzanie strategiczne
przedsiębiorstwem, Przegląd Organizacji 1989, nr 4, s.40.
2 Ph.W. Harris, Management in Transition, Jossey - Bass Publishers, San Francisco - London 1985, s.45-55
6
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
3
rynkowego przedsiębiorstwa. T.J. Peters i R.H.Jr. Watermann podają osiem cech doskonałej
przedsiębiorstwa natomiast do analiz i poszukiwań cech przedsiębiorstwa doskonałego
wykorzystują model „7S”. W modelu tym aŜ cztery wyróŜnione obszary związane są bezpośrednio
z zasobami ludzkimi, co moŜe sugerować , iŜ to właśnie w nich upatrywać naleŜy głównych
determinant sukcesu a takŜe wskazywać kierunek dalszych poszukiwań szczegółowych cech
przedsiębiorstwa doskonale konkurencyjnego. Przyjęto, Ŝe
konkurencyjność jest cechą
przedsiębiorstwa utrzymującego się na rynku ( a zatem moŜe być oceniana wyłącznie ex post)
dzięki posiadanej zdolności konkurencyjnej, natomiast zdolność konkurencyjna to umiejętność
długotrwałego i efektywnego dostarczania oferty akceptowanej przez rynek i jest funkcją wielu
zmiennych a jej model przedstawia się w następujący sposób:
Zkp = f ( O, Po, Ś, t, Z, M)
gdzie: Zkp – zdolność konkurencyjna przedsiębiorstwa; O – środowisko; Po – percepcja
stanu środowiska, ze szczególnym uwraŜliwieniem na jego zmienność – wraŜliwość; Ś –
świadomość , rozumiana jako zasób wiedzy umoŜliwiający wykorzystanie sygnału uzyskanego
dzięki wraŜliwości i postawie decydenta; t – czas, w szczególności czas reakcji innowacyjnej, czyli
czas od wystąpienia zdarzenia inspirującego do momentu wdroŜenia innowacji, będącej
odpowiedzią na to zdarzenie; Z – zasoby przedsiębiorstwa, w szczególności kapitał intelektualny,
umoŜliwiający reakcję innowacyjną ; M – motywacja - system aktywizowania zasobów ludzkich
(źródło: opracowanie własne).
Ponadto we wszystkich zaleceniach na czoło wysuwają się te czynniki, które związane są
z moŜliwością reakcji innowacyjnej przedsiębiorstwa , przesądzającej o jego moŜliwości
konkurowania na obsługiwanych rynkach. Przedsiębiorstwa mogą przetrwać i odnieść sukces
w zmieniających się realiach rynkowych, „jeśli potrafią z innowacji zrobić odrębny, waŜny biznes,
jeśli będą zdolne systematycznie i z zaangaŜowaniem odchodzić od wczorajszej przedsiębiorczości,
4
instalując taką organizację finansową i menedŜerską, jakiej innowacja wymaga” . Uzasadnione
więc wydają się poszukiwania cech przedsiębiorstwa konkurencyjnej wśród przedsiębiorstw
o duŜej aktywności innowacyjnej.
2. Cechy przedsiębiorstw o duŜej zdolności konkurencyjnej
Przedsiębiorstwa osiągają wysoki poziom konkurencyjności wtedy, gdy potrafią przewidzieć,
zaobserwować i wykorzystać zmiany w środowisku dla swoich celów. Podstawowym miernikiem
efektywności gospodarowania jest zysk. Pośrednio lub bezpośrednio pojawia się on w wiązce
celów strategicznych przedsiębiorstwa. Zdaniem P.F. Druckera mylne jest przekonanie, iŜ
dostatecznie zyskowna i najmniej ryzykowna jest przeciętna pozycja w branŜy 5. Jego zdaniem
zyskowne jest tylko przywództwo na rynku. A to oznacza zajęcie jednej z dwu skrajnych pozycji:
albo dyktującego standardy lidera, albo specjalisty w wąskim segmencie, posiadającego przewagę
wiedzy. KaŜda z tych pozycji moŜliwa jest do zdobycia tylko dla przedsiębiorstw innowacyjnych.
Innowacyjność dotychczas nie była precyzyjnie definiowana, zazwyczaj do tej grupy zalicza się
3 T. J.Peters, R.H.Jr. Waterman, In Search of Excellence: Lessons from Americas Best Run Companies, New York 1982,
s.30.
4 P.F. Drucker, Zarządzanie w czasach burzliwych, Nowoczesność, Warszawa 1995, s.66.
5 P.F. Drucker, Zarządzanie... op. cit., s.67
Ireneusz Bielski
Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej
7
przedsiębiorstwa wykazujące duŜą aktywność w tym zakresie 6. Na podstawie przeprowadzonych
badań ( badania autora prowadzone w 5. etapach od 1997 roku , w tym II. etap obejmujący lata
1996-2000 na populacji 226 róŜnych przedsiębiorstw, zlokalizowanych głównie w regionie
kujawsko-pomorskim, poświęcone aktywności innowacyjnej i jej determinantom i IV. etap ( lata
2005- 2006) na populacji 155. firm , w tym 100 przedsiębiorstw przemysłu maszynowego,
dotyczący percepcji zjawisk ekonomicznych przez kadrę kierowniczą i relacjom pomiędzy
poglądami kadry i wynikami ) określono niektóre cechy przedsiębiorstwa konkurencyjnego
a w dalszym etapie poszukiwania cech przedsiębiorstw innowacyjnych ograniczono do
przedsiębiorstw prywatnych, małych i średnich (na 1. innowację w roku składa się wysiłek 6
pracowników w firmach zatrudniających do 10. osób, w zatrudniających ponad 2000 potrzeba juŜ
1179. zatrudnionych !), producentów z przemysłu maszynowego, uczestniczących w eksporcie,
które to przedsiębiorstwa wykazały się najwyŜszą aktywnością innowacyjną..
Przedsiębiorstwa takie dostrzegają, przewidują zmiany w otoczeniu i wykorzystują je dla
swoich celów. DąŜąc do ich osiągnięcia dokonują efektywnej transformacji
zasobów
w szczególności zaś:
a) tworzą system pozyskiwania i przetwarzania danych oraz rozpowszechniania informacji
wewnątrz przedsiębiorstwa;
b) śledzą trendy konsumenckie oraz trendy w zakresie technologii i produktów;
c) posiadają przywódców7 i mają wizję rozwoju;
d) prowadzą działalność badawczo-rozwojową i przeznaczają na to odpowiednie nakłady finansowe. Ponad proporcjonalny przyrost ilości innowacji występuje tylko w przedziale,
który w przybliŜeniu moŜna określić na 12-25% dochodu . Jednak koszty jednostkowe liczone w procentach dochodu na 1. innowację, w całym przedziale, wzrastają w tempie
szybszym niŜ przyrost ilości innowacji.
e) traktują czas, jako podstawowy zasób i wykorzystują go w walce konkurencyjnej;
f) realizują strategie przedsiębiorcze 8;
6 Najczęściej przyjmuje się (za GUS), iŜ przedsiębiorstwa, które w ciągu roku wprowadziły 4 innowacje są silnie innowacyjne, te które wprowadziły 3 innowacje – średnio innowacyjne, zaś mniejsza ilość innowacji świadczy o słabej innowacyjności. W badaniach autora przyjęto skumulowany wskaźnik innowacyjności o wartości od 0 do 100, wyliczany jako
suma poszczególnych innowacji w roku, o róŜnym stopniu oryginalności: patent-20;wzór uŜytkowy-10;znak towarowy-5;
nowe w branŜy-10;nowe na rynku docelowym-5; nowe w firmie-2 pkt.
7 Przywództwo jest jednym z najwaŜniejszych czynników sukcesu tych organizacji. W niektórych publikacjach lokowane
jest na pierwszym miejscu . Wymieniane cechy przywództwa to: wizja, siła autorytetu, skłonność do podejmowania ryzyka, chęć rywalizacji, odwaga i zdecydowanie, oportunizm, wdzięk w momentach napięcia i innowacyjność [ J.L.Stanton ,
R.L. George , Success Leaves A Marketer’s Guide to Winning Strategy, J.LStanton & R.J.George, Philadelphia USA
1994, s.17-18]. W innych źródłach akcentuje się takie cechy idealnego menedŜera, jak: umiejętność komunikowania się
i motywowania, wizja firmy, gotowość ponoszenia ryzyka ale teŜ umiejętność kalkulowania i potrzeba stałego rozwoju,
dąŜenie do mistrzostwa [J. Penc, Przedsiębiorstwo w burzliwym otoczeniu, OPO, Bydgoszcz 2002, s.114-115]; zaangaŜowanie, energia, zapał i wytrwałość, pragmatyzm i zdolność do wytyczania celów uwzględniających wielu interesariuszy
[Ch. Coates, MenedŜer wszechstronny, WPSB, Kraków 1996, s.263]; świadomość ograniczonej moŜliwości obserwowania rzeczywistości i unikanie uproszczonego wnioskowania, otwarty i analityczny umysł [B. Pełka, Zarządzanie przedsiębiorstwami i menedŜeryzm, ORGMASZ, Warszawa 1996,s. 186-189, cyt. za J. Penc op. cit., s.118] oraz umiejętność
myślenia systemowego, działania w wielokulturowym otoczeniu , gotowość do permanentnej nauki , twórczość i bycie
„trochę uczniem a trochę nauczycielem”[C.K. Prahalad Rola menedŜerów nowej ery na konkurencyjnym rynku, [w:]
Organizacja przyszłości, red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1998, s.191-192].
8
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
g) koncentrują się na kluczowych kompetencjach i dokonują inwestycji w ich obszarze;
h) uczestniczą w transferze wiedzy, wdraŜają nowe technologie, dostarczają nową wiedzę.
Istotnym elementem transferu wiedzy jest uczestnictwo w targach, konkursach i wystawach
oraz w eksporcie, wymuszające wysoki poziom innowacyjności ( Tab.1) ;
Tablica 1. Porównanie aktywności innowacyjnej przedsiębiorstw eksportujących i pozostałych
Przedsiębiorstwa
Średnia przypadająca na 1. przedsiębiorstwo w roku
Patent
Eksportujące (35)
0,07
Wzór
uŜytkowy
0,13
Pozostałe (191)
0,002
0,01
Nowe
w branŜy
0,34
Nowe na rynku
lokalnym
1,13
Nowe
w firmie
2,41
Liczba
innowacji
4,08
0,12
0,34
1,32
1,792
Źródło: badania własne ( II etap)
i) są organizacjami uczącymi się. Zmiany traktowane są jako oś, wokół której koncentruje się
9
proces uczenia się organizacji, a takŜe tworzenia nowej wiedzy ;
j) zarządzanie wiedzą traktują jako kluczowy czynnik sukcesu;
k) tworzą efektywną konfigurację społeczną opartą na prostej i spójnej koncepcji zatrudniania
, szkolenia, oceny i motywowania pracowników . W ramach tej koncepcji pracownicy wykonują
odpowiedzialne zadania, posiadają duŜą autonomię i ograniczony jest ich lęk przed pomyłkami w
10
procesie innowacji ;
l) są firmami elastycznymi i tworzą elastyczne struktury organizacyjne umoŜliwiająca
swobodne przepływy informacji, transfer wiedzy wewnątrz organizacji oraz szybką reakcję na
sygnały rynkowe. Szczególne znaczenie w takich strukturach odgrywają pracownicy zaplecza
11
badawczego pozostający w ścisłych kontaktach z pracownikami innych organizacji (np. na
uczelni lub instytutów naukowo-badawczych);
m) dostarczają na rynek nowe produkty, które mając odpowiednio duŜy udział w wolumenie
12
produkcji kształtują wizerunek przedsiębiorstwa .
n) w podejściu do kształtowania przedsiębiorstwa decydującym jest dla nich system wartości,
który określa zarówno podejście do biznesu oraz do ludzi, którym w tych przedsiębiorstwach
zapewnia się szanse rozwoju. Istniejący realnie system wspólnych wartości zwiększa lojalność
8 „strategie przedsiębiorcze to zarazem strategie zarządzania innowacjami w przedsiębiorstwie” B. Wawrzyniak, Polityka strategiczna przedsiębiorstwa, PWE, Warszawa 1989, s.109.Algorytm strategii przedsiębiorczej opisano w pracy: I.
Bielski, Marketing w przedsiębiorstwie. Poszukiwanie efektywności, OPO, Bydgoszcz 2002, s.206
9 M. Brzeziński , Proces uczenia się zmian, Przegląd Organizacji 2000, nr 3, s.19
10 T.Peters nawołuje do „ogłoszenia poraŜki częścią Ŝycia i ograniczania lęku pracowników przed pomyłkami”.
T.Peters, Get Innovative or Get Dead , California Management Review 1991,nr 33 s.18 cyt. za: M.D. Hutt , T.W. Speh ,
Zarządzanie marketingiem. Strategia rynku dóbr i usług przemysłowych, Wydawnictwo Naukowe PWN, Warszawa 1997,
s.354
11 S.J. Harryson, How Canon and Sony Drive Product Innovation Through Networking and Application – Focused R&D,
Journal of Product Innovation Management 1997, s.295
12 Dynamizm, kreatywność i szybkość działania oraz program asortymentowy są czynnikami budującymi wizerunek firmy. „Dobry wizerunek firmy pełni rolę mnoŜnika wartości produktu”. Zob. J.Altkorn , Wizerunek firmy jako marka, Marketing w praktyce 1996 nr 4, s. 8,9
9
Ireneusz Bielski
Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej
pracowników wobec organizacji oraz ułatwia akceptację dla jej celów oraz wytęŜonej i ofiarnej
13
pracy .
o) stosowane są teŜ w praktyce zasady obowiązujące w „3M” - przywódcy : zapewniają
pracownikom swobodę myślenia, usuwają organizacyjne tabu, pozwalają popełniać błędy,
doceniają innowacyjne pomysły, promują wymianę myśli i poglądów, są przywódcami
w innowacyjnych przedsięwzięciach,
angaŜują kluczowych klientów w procesy innowacyjne, pamiętają, Ŝe innowacje mogą mieć
róŜne źródła,
traktują technologie jako własność całego przedsiębiorstwa, są przygotowani na przeszkody
we wdraŜaniu innowacji.
p) wydajność pracy i pracowitość jest dla menedŜerów tych przedsiębiorstw wyzwaniem. Bez
14
dodatkowych nakładów zwiększają ją nieustannie – pracownikom stawiają wysokie wymagania .
r) innowacja traktowana jest jako instrument marketingowy i przypisuje mu się duŜą wagę.
Waga przypisywana innowacji pozostaje w ścisłych relacjach z innowacyjnością przedsiębiorstw
15
i ich kondycją ekonomiczną .
3. Przykłady przedsiębiorstw innowacyjnych
Wybitne firmy funkcjonują nie tylko w rankingach FORTUNE czy Inc.Wśród kilkunastu
znakomitych przedsiębiorstw uczestniczących w badaniach na szczególną uwagę zasługują
BOHAMET, CIMAT, HYDRAPRESS oraz WAMET.
Tablica 2. Wybrane przedsiębiorstwa innowacyjne regionu kujawsko- pomorskiego
Nazwa
przedsiębiorstwa
BOHAMET
CIMAT
HYDRAPRESS
WAMET
1.Rok załoŜenia
1983
1988
1984
1990
2.Forma własności
Sp. jawna
Sp. z o.o.
Sp. z o.o.
Sp. z o.o.
3.Rodzaj
działalności
Produkcja
4.Zatrudnienie
240
5.SprzedaŜ na
1 zatrudnionego
Produkcja i usługi Produkcja i usługi
przemysłowe
przemysłowe
26
50
Produkcja i usługi
przemysłowe
80
0,13 – 0,38 mln PLN
13 J.M. Kouzes , B.Z. Posner , Siedem lekcji na temat kierowania wyprawą w przyszłość, [w:] Lider przyszłości, red. F.
Hesselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1997, s.122
14 Działania w tym obszarze są uporządkowane – od wyboru obszarów i celów, określenie minimum, wyraźne i stanowcze określenie oczekiwań i delegowanie odpowiedzialności poprzez monitorowanie aŜ do rozwoju i rozszerzania procesu
poprawy wydajności. R.H.Schaffer ,śądaj więcej od swoich pracowników, Harvard Business Review Polska, 2004 kwiecień, s.114-117.
15 I. Bielski, Innowacje w kreowaniu zdolności konkurencyjnej przedsiębiorstwa,Wydawnictwa Uczelniane Uniwersytetu
Technologiczno-Przyrodniczego w Bydgoszczy Rozprawy nr 125, Bydgoszcz 2007, s.112-120
10
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
Nazwa
przedsiębiorstwa
7.Udział nowych
produktów w sprzedaŜy
8. Ilość innowacji w
2005 ( pkt. )
9.Ilość patentów
wzorów uŜytk.
i
10.Eksport ( od kiedy)
% w 2005
BOHAMET
CIMAT
HYDRAPRESS
WAMET
10%
50%
90%
50%
20
80
60
100
20
4
5
12
Od 1996
50
Od 2000
25
Od 1994
20
Od 1995
20
Mgr inŜ., inŜ.
Mgr inŜ., Mgr inŜ..
11. Wykształcenie
Mgr , Mgr inŜ. Dr inŜ., dr inŜ. dr
inŜ.
załoŜycieli
pracowników
WyŜsze - 33,75% w tym techniczne - 28,75 %
Średnie - 43,75 % w tym techniczne - 37,50 %
12. Wydatki na B&R
(% dochodu)
5-10
5-10
PoniŜej 5
5-10
13.Udział w targach
( rocznie)
Więcej niŜ 3
razy
1
2-3
Więcej niŜ 3 razy
Wiele, min.
Wiele min.
Wiele, min. elitarny Około 100. min.
Gazela Biznesu
certyfikat
Teraz Polska 2001,
Eurotool,
2004
Złoty Medal MTP
TS16949
2002
Gazela Biznesu 2005
15.Pozycja na rynku Ok.40% świa- Wysoka specjaliza- Wysoka specjaliza- Wysoka specjalizacja.,
towego rynku cja., wąski segment
cja.,
duŜy rynek Główny
okien okrętogłównie wykonania krajowy producent.
wych
jednostkowe .
14. Nagrody
i wyróŜnienia
Źródło: opracowanie własne na podstawie wywiadów z właścicielami (V etap badań-2006).
4. Podsumowanie
Przedsiebiorstwa działające w roŜnych warunkach, aby odnieść sukces rynkowy muszą,
pozostając w zgodzie z deklarowaną misją, transformować swoje zasoby do stanu zgodnego
z zaplanowaną strategią. W kaŜdych warunkach istnieje optymalna konfiguracja zasobów,
specyficzna dla konkretnej sytuacji rynkowej. Uniwersalne wydają się jednak takie cechy
i zachowania jak: utrzymywanie ścisłych kontaktów z nauką , uczestnictwo aktywne w twórczości
technicznej i transferze wiedzy oraz upatrywanie w rozwoju własnym właścicieli i wszystkich
Ireneusz Bielski
Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej
11
pracowników szansy na wygrywanie walki konkurencyjnej na światowych rynkach, bez względu na
16
to, jak dynamicznie będą się one zmieniać w przyszłości . Podstawową przesłanką, uzasadniającą
tę wiarę w sukces jest umiejętność przyciągania, rozwijania i utrzymywania w swoich szeregach
najlepszych, najbardziej uzdolnionych ludzi17 .
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
Altkorn J. , Wizerunek przedsiębiorstwa jako marka, „Marketing w praktyce” 1996, nr 4
Bielski I, Innowacje w kreowaniu zdolności konkurencyjnej przedsiębiorstwa,
Wydawnictwa Uczelniane Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy
Rozprawy nr 125, Bydgoszcz 2007
Bielski I., Marketing w przedsiębiorstwie. Poszukiwanie efektywności, OPO, Bydgoszcz
2002
Brzeziński M.,, Proces uczenia się zmian, Przegląd Organizacji 2000, nr 3
Coates Ch., MenedŜer wszechstronny, WPSB, Kraków 1996
Drucker P.F., Zarządzanie w czasach burzliwych, Nowoczesność, Warszawa 1995
Dworzecki Z., Zarządzanie strategiczne przedsiębiorstwem, „Przegląd Organizacji” 1989,
nr 4
Hamel G., Prahalad C.K., Strategy as Stretch and Leverage, “Harvard Business Review”
March-April 1993
Harris Ph.W., Management in Transition, Jossey - Bass Publishers, San Francisco London 1985
Harryson S.J., How Canon and Sony Drive Product Innovation Through Networking and
Application – Focused R&D, “Journal of Product Innovation Management” 1997, nr 14
Hutt M.D. , Speh T.W., Zarządzanie marketingiem. Strategia rynku dóbr i usług
przemysłowych, Wydawnictwo Naukowe PWN, Warszawa 1997
Kouzes J.M. , Posner B.Z., Siedem lekcji na temat kierowania wyprawą w przyszłość,
[w:] Lider przyszłości, red. F. Hesselbeim, M. Goldsmith, R. Beckhard, Business Press,
Warszawa 1997
Kwiatkowski S., O psie, płocie, paradygmacie teorii organizacji i przyszłości praktyki
zarządzania (II), „Przegląd Organizacji” 1996, nr 1,
Pełka B., Zarządzanie przedsiębiorstwami i menedŜeryzm, ORGMASZ, Warszawa 1996
Penc J., Przedsiębiorstwo w burzliwym otoczeniu, OPO, Bydgoszcz 2002
Peters T., Get Innovative or Get Dead , “California Management Review” 1991,nr 33
Peters T.J., Waterman R.H.Jr. , In Search of Excellence: Lessons from Americas Best
Run Companies, New York 1982
16 „Globalna konkurencja nie polega na przeciwstawieniu produktu produktowi, firmy firmie, czy handlowego ugrupowania handlowemu ugrupowaniu. Polega na przeciwstawieniu sposobu myślenia sposobowi myślenia” G. Hamel, C.K.
Prahalad , Strategy as Stretch and Leverage, Harvard Business Review March-April 1993,s.77 cyt. za S. Kwiatkowski , O
psie, płocie, paradygmacie teorii organizacji i przyszłości praktyki zarządzania (II), Przegląd Organizacji 1996, nr 1,
s.11.
17A. Smith , T. Kelly , Kapitał ludzki w gospodarce cyfrowej, [w:] Organizacja przyszłości, red. F. Hasselbeim, M.
Goldsmith, R. Beckhard, Business Press, Warszawa 1998, s.228
12
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
18. Prahalad C.K., Rola menedŜerów nowej ery na konkurencyjnym rynku, [w:] Organizacja
przyszłości, red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa
1998
19. Schaffer R.H. ,śądaj więcej od swoich pracowników, „Harvard Business Review Polska”
2004 kwiecień
20. Smith A., Kelly T. , Kapitał ludzki w gospodarce cyfrowej, [w:] Organizacja przyszłości,
red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1998
21. Stanton J.L., George R.L. , Success Leaves A Marketer’s Guide to Winning Strategy, J.L.
Stanton & R.J.George, Philadelphia USA 1994
22. Stoner J.A.F. , Wankel Ch., Kierowanie , PWE, Warszawa 1994
23. Wawrzyniak B., Polityka strategiczna przedsiębiorstwa, PWE, Warszawa 1989
CONTEMPORARY ENTERPRISES ENCOMPASSED
A GREAT COMPETITION CAPACITY
Summary
This text describes searching of features of excellent companies. As a result of
multistage researches it was found out that innovation is a main feature of successful
enterprises. It was defined the concept of innovativeness and competition ability, and
moreover model of this one. Outstanding achievements in innovation activity have
small and medium, private enterprises acting in machinery industry which take part
in international transfer of knowledge. Polish excellent companies build an information management system, leading R&D activity and realizing enterprising strategy.
They are flexible and create effective social configuration. Charismatic leader,
treatment of time and innovation just as a main instruments of management, universally accepted shared values, these are pillars of the success of really existing firms
which are presented in this work.
Keywords: innovation enterprise, knowledge management, leadership
Ireneusz Bielski
Katedra InŜynierii Zarządzania
Wydział Zarządzania
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
85-970 Bydgoszcz, Al. S. Kaliskiego 7
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
13
JAROSŁAW BECKER
Zachodniopomorski Uniwersytet Technologiczny
MODEL GENERATORA SYSTEMÓW DECYZYJNYCH DLA RELIZACJI PROCESÓW
PRZETARGOWYCH W AUKCJACH ELEKTRONICZNYCH
Streszczenie
W artykule zaprezentowano rezultaty pracy badawczej nad architekturą automatycznego wprowadzania zadań (problemów) decyzyjnych do wyspecjalizowanych
systemów aukcyjno-przetargowych w kontekście zakresu ich funkcjonowania. RozwaŜania metodyczne koncentrują się na algorytmicznym ujęciu funkcji generatora
systemów wspomagania decyzji. W tym zakresie omówiono wybrane metody wielokryterialnego wspomagania decyzji, zasady definiowania zadań decyzyjnych oraz
funkcję generowania komponentów dla zautomatyzowanych systemów wspomagania
decyzji (klasy DSS).
Słowa kluczowe: wspomaganie decyzji wielokryterialnych, systemy wspomagania decyzji (SWD),
generator SWD
1. Wprowadzenie
W systemach przetargowych relacja kupującego z wieloma sprzedającymi w celu zawarcia
transakcji jest formalnie wspomagana technologią informacyjną w formie elektronicznej licytacji.
Jest to taki tryb udzielania zamówienia, w którym wykonawcy składają swoje oferty za pośrednictwem formularza umieszczonego na stronie internetowej. Jednak poza mechanizmami szeregowania (sortowania) ofert według wybranych cech, nie dostrzega się w tych rozwiązaniach wyraźnie
postawionego problemu (algorytmu) wyboru ofert najlepszych z punktu widzenia wiązki preferowanych celów konsumenta. Problemem do rozwiązania jest wspomaganie i automatyzacja procesu
7decyzyjnego wyboru produktów lub usług przez konsumenta (dysponenta środków finansowych),
zgodnie z jego kryteriami i indywidualną skalą preferencji.
RozwaŜania metodyczne koncentrują się na algorytmicznym ujęciu funkcji generatora systemów wspomagania decyzji. Jako metodę przyjęto koncepcję zadania WPL (Wielokryterialnego
Programowania Liniowego), w którym maksymalizuje się odpowiednią postać funkcji uŜyteczności
dla róŜnie zdefiniowanych (niestandardowych) problemów decyzyjnych. W tym zakresie dokonano
przeglądu wybranych metod WWD (Wielokryterialnego Wspomagania Decyzji), omówiono ideę
definiowania szablonów zadań decyzyjnych, które stanowią podstawę dalszej dyskusji nad funkcjonowaniem modułu generatora i systemów wspomagania decyzji przetargowych.
2. Lokalizacja zadań decyzyjnych
Generatory DSS (ang. Decisions Support System) są to pakiety programów, pozwalające na łatwe i szybkie zbudowanie konkretnej aplikacji DSS. W zaproponowanym rozwiązaniu działanie
generatora sprowadza się do wspomagania projektanta w kreowaniu zadań decyzyjnych (definio-
14
Jarosław Becker
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych
w aukcjach elektronicznych
wanie szablonu), weryfikacji ich na danych testowych oraz automatycznym wygenerowaniu na ich
podstawie uŜytkowych systemów DSS (rys. 1).
specyficzne
DSS
1
2
3
?
…
n
generator
DSS
narzędzia
DSS
CA VO,
Solver,
HTML, …, PHP
Rys. 1. Technologie budowy systemów DSS
Zadaniem generatora DSS jest wspomaganie procesu budowy wyspecjalizowanych systemów
wspomagania decyzji (pewnej ich kategorii) dla problemów związanych z wyborem ofert, które
uznaje się za najlepsze z punktu widzenia preferencji decydenta (dysponenta środków finansowych). NaleŜy zauwaŜyć, Ŝe formułowane zadania wyboru mogą mieć róŜną postać. MoŜna je podzielić na dwie kategorie. Do pierwszej zaliczymy zadania związane z organizacją przetargu na
zakup usługi lub produktu (np. samochodu, komputera, kredytu, ubezpieczenia itd.) przez podmioty z sektora publicznego, prywatnego lub osoby fizyczne. W drugiej grupie znajdą się zadania podziału środków na określone cele gospodarcze. Na przykład problem rozdysponowania funduszy z
Unii Europejskiej przyznawanych organizacjom (np. gminom, firmom) w formie dotacji na realizację określonych inwestycji (patrz: [17]). RóŜnica w tych dwu podejściach polega na tym, Ŝe w
pierwszym przypadku bloki W1,W2,…,Wn stanowią wnioski zapisane pod postacią pojedynczych
zmiennych (najczęściej typu binarnego). Natomiast w drugim, kaŜdy z bloków moŜe być kolekcją
zmiennych w przedziale od 1 do 99 róŜnego typu, co umoŜliwia szerszy opis pojedynczego wniosku (W1,W2,…,Wn). Odpowiednia konstrukcja tego bloku daje moŜliwość „samodzielnego dostosowania się” wniosku (oferty) do wymogów optymalizacji globalnej całego zadania.
Ogólnie zakłada się, Ŝe organizacja pracy w kaŜdym wygenerowanym internetowym systemie
wyboru najlepszych ofert nakłada na uŜytkowników wymóg wypełnienia określonych formularzy
wejścia. Po stronie organizatora – dysponenta środków finansowych – wprowadza się globalne
warunki i zasady wyboru ofert w przetargu oraz precyzuje lokalne rygory dla wniosków (rys. 2,
etap 1). W kolejnym kroku definiuje się zbiór kryteriów oceny wniosków i w formie dialogu określa się ich preferencje. W efekcie tych działań, po wprowadzeniu wszystkich informacji zostaje
zdefiniowany szablon wraz z rygorami walidacji do wprowadzania danych przez wnioskodawców
(rys. 2, etap 2). Po wprowadzeniu danych (wniosków ofertowych), automatycznie budowany jest
wielokryterialny model o maksymalnym rozmiarze 70 tys. zmiennych decyzyjnych (rys. 2, etap 3).
Następnie, wykonywane są obliczenia optymalizacyjne i wielokierunkowo edytowane wyniki rozwiązania decyzyjnego. Trzeba przy tym podkreślić, Ŝe po przeprowadzeniu obliczeń naleŜy zwrotnie dostarczyć uŜytkownikowi jego wniosek wraz z wynikami rozwiązania pozytywnego
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
15
i negatywnego (rys. 2, etap 4). W przypadku uzyskania wyniku negatywnego ma to duŜe znaczenie,
bowiem wiadomo, co naleŜy poprawić w następnym zgłoszeniu.
Rys. 2. Przetwarzanie danych w internetowym systemie wyboru najlepszych ofert
Źródło: [17]
WaŜnym problemem związanym z budową systemu informatycznego klasy DSS jest jego motor decyzyjny; algorytm najczęściej generujący rozwiązania planistyczne dla określonego problemu decyzyjnego. Rzecz staje się bardziej skomplikowana, gdy chcemy zbudować system informatyczny dla róŜnie definiowanych zadań decyzyjnych (modeli WPL). Często przeprowadzamy dyskusje na tematy formalistyczne, co wyraźnie odstrasza adresatów budowanych modeli. Najtrudniejszym momentem wdroŜenia nawet najbardziej udanej konstrukcji modelowej zadania decyzyjnego
jest moŜliwość posługiwania się nią w praktyce. Przyjmuje się, Ŝe modele te na pewnym abstrakcyjnym poziomie muszą posiadać ujednoliconą postać, stanowiącą szablon dla róŜnych, niestandardowych zadań decyzyjnych. Chodzi przede wszystkim o to, aby moŜna było zastosować modele
matematyczne w systemie informatycznym do wielu zastosowań praktycznych. Dlatego konieczne
jest zastosowanie takiej obsługi informatycznej modeli WPL, która zwiększałaby przyjazność aplikacji.
16
Jarosław Becker
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych
w aukcjach elektronicznych
3. Wybrane wielokryterialne metody wspomagania decyzji
Definiując problem wyboru w systemie przetargowym rozwaŜa się sytuacje decyzyjne, gdzie
skończony zbiór wniosków ofertowych (wariantów decyzyjnych) W poddany jest ocenie według n
kryteriów g1,g2,…,gn, tworzących rodzinę G={1,2,…,n}. MoŜna załoŜyć, Ŝe im większa jest wartość funkcji kryterium gi(w), tym lepszy jest wariant w∈ W na kryterium gi, dla wszystkich i∈ G.
Tak definiowany problem wyboru moŜna dalej rozpatrywać z punktu widzenia trzech problematyk
decyzyjnych, mianowicie kiedy konsument (decydent) chce zgodnie z indywidualnymi preferencjami:
• wyodrębnić minimalny zbiór najlepszych wariantów decyzyjnych ze zbioru W (problematyka wyboru α),
• sklasyfikować warianty zbioru W według wcześniej zdefiniowanych kategorii (problematyka klasyfikacji β),
• skonstruować ranking wariantów zbioru W od najlepszego do najgorszego (problematyka
rangowania γ).[1]
W większości przypadków sytuacja decyzyjna konsumenta, będącego ze sprzedającymi w relacji przetargowej, lokalizuje się w ramach problematyki α i γ lub w ograniczonej formie tylko jednej z nich. Problematyka klasyfikacji β moŜe wspierać jedynie etap analizy i wstępnej selekcji ofert
rynkowych.
Problematyka wyboru α polega na postawieniu problemu w kategoriach wyboru jednego „najlepszego” wariantu przez poszukiwanie takiego podzbioru W’ zbioru dopuszczalnych wariantów
W, moŜliwie najmniej licznego i takiego, by dla kaŜdego wariantu z W\W’ istniał wariant naleŜący
do zbioru W’ preferowany przez decydenta, oraz by podzbiór ten był złoŜony z wariantów, które
decydent uznaje za wystarczające do tego, by odrzucić W\W’. W tej problematyce analityk winien
wypracować zalecenie podające z maksymalną ścisłością i dokładnością rodzaj wskazanej decyzji.
Problematyka porządkowania γ polega na postawieniu problemu w kategoriach porządkowania
wszystkich lub niektórych wariantów ze zbioru W, to znaczy na ukierunkowanie badań mających
na celu poszukiwanie klasyfikacji zdefiniowanej na podzbiorze W, aby wyodrębnić warianty „dostatecznie zadowalające”, w zaleŜności od ustalonego modelu preferencji. W problematyce porządkowania γ naleŜy dokonać wskazania porządku częściowego lub zupełnego klas grupujących
warianty oceniane jako równowaŜne lub przyjąć metodykę opartą na procedurze klasyfikacji wariantów ze zbioru W, nadające się do wielokrotnego zastosowania.[1]
Główna trudność przy wyborze, klasyfikacji czy porządkowaniu polega na uwzględnieniu
oceny wariantów z róŜnych punktów widzenia, czyli oceny wielokryterialnej.[1] W takiej sytuacji
waŜnym elementem procesu wspomagania decyzji jest wybór odpowiedniej metody modelowania
preferencji i agregacji ocen. Zdaniem R. Słowińskiego [2] w rozwoju metod wielokryterialnego
wspomagania decyzji (WWD) wykształciły się trzy klasy modeli agregacji preferencji:
• do funkcji uŜyteczności (wartości),
• do systemu relacyjnego (relacja przewyŜszania),
• zastosowanie zbioru reguł decyzyjnych (“jeŜeli ... to ...”).
Przegląd literatury [2], [3], [4] wskazuje na bardzo duŜą róŜnorodność procedur i metod wielokryterialnego wspomagania decyzji (ang. Multiple Criteria Decision Making – MCDM). W obszarze problematyki wyboru α moŜna wyróŜnić metodę Electre I [5], której istotą jest modelowanie
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
17
preferencji przy uŜyciu kryteriów prawdziwych i wyznaczenie podzbioru wariantów zawierających
najlepszą alternatywę, oraz metodę Electre IS [3], którą rozszerzono o moŜliwość modelowania
preferencji na zbiorze pseudo kryteriów. Poza tym w dziedzinie problemu α stosowana jest metoda
leksykograficzna [6] oraz metody wydzielania dla minimalnej i maksymalnej wartości atrybutu [6]
[7].
Kolejne wersje rozwinięć metody Electre I – takie jak: Electre II, III i IV [3] – wspomagają
problematykę γ, ich cechą szczególną jest to, Ŝe ranking wariantów uzyskujemy na podstawie
dwóch relacji przewyŜszania: słabej i silnej. Metoda MELCHIOR [8] to z kolei rozszerzenie wersji
Electre IV o relację porządkową wyraŜającą względną waŜność kryteriów. Równie interesującą
propozycję stanowi metoda NAIADE [9], u której podstaw leŜy zastosowanie operatora dystansowego, a zasilenia informacyjne mogą wystąpić w postaci róŜnych form preferencji (rozmytych,
stochastycznych).
Do grupy metod WWD stosowanych zarówno do problematyki wyboru α i szeregowania γ zaliczymy proste, addytywne metody wagowe [6] oraz ich wersje rozmyte [7]. W obu przypadkach
wybór najlepszego wariantu odpowiada najwyŜszej wartości globalnego wskaźnika, którego wartość wyznaczana jest jako suma ocen cząstkowych względem wszystkich kryteriów. Odmienny
i bardziej zaawansowany algorytm obliczeń posiadają metody, w których ranking wariantów oparty
jest na agregacji cząstkowych funkcji uŜyteczności o postaci addytywnej: metoda MAUT [10],
SMART [11] i UTA [12], oraz multiplikatywnej: metoda MAVT [10]. Przykładowo w metodzie
UTA uŜyteczności częściowe wyznaczane są (dezagregacja informacji preferencyjnej) przy uŜyciu
zasady regresji porządkowych. Na bazie tej metody R. Słowiński w pracy [2] proponuje nowe, interesujące podejście do rozwiązywania problemu porządkowania wariantów decyzyjnych według
wartości wynikającej z syntezy ocen wielokryterialnych, polecane szczególnie dla sytuacji,
w których preferencje decydenta są subiektywne i trudno definiowalne. Zaletą tego podejścia jest
ograniczenie informacji preferencyjnej do postaci łatwo wyraŜalnego rankingu referencyjnego oraz
moŜliwość interakcji z decydentem.
Klasyfikując metodę hierarchicznej analizy problemu (ang. AHP – Analytic Hierarchy Process) według wzorcowych problematyk decyzyjnych zauwaŜymy, Ŝe wyniki agregacji stanowią w
niej rozwiązanie problematyki γ i pośrednio α. Metoda AHP oparta jest na załoŜeniu kompensacyjnej strategii modelowania preferencji przy zachowaniu porównywalności wariantów. Uwzględnia specyfikę psychologicznych procesów wartościowania o charakterze hierarchicznym i relacyjnym. Wyniki otrzymane za pomocą tej metody są wartościami liczbowymi, określającymi hierarchię moŜliwych wariantów według zbiorczej i jakościowej oceny decydentów [13].
Analiza przydatności metod WWD do automatyzacji procesu wyboru konsumenta w postępowaniu przetargowym, wskazała na moŜliwość zastosowania ich w fazie przygotowawczej, kiedy
konsument (decydent) określa warunki formalne, kryteria wyboru i indywidualne preferencje. Na
uwagę zasługuje rozszerzona przez R. Słowińskiego procedura dialogowa metody UTA, w której
informacja preferencyjna pochodząca od decydenta ma postać preporządku zupełnego (tzw. rankingu referencyjnego) w niewielkim podzbiorze wariantów decyzyjnych. Drugą jest metoda AHP,
która wspiera artykułowanie preferencji decydenta, walidację ich relacji oraz wykorzystanie w procesie agregacji ocen.
Po określeniu warunków wyboru (faza przygotowawcza przetargu) dalsze postępowanie związane z rozstrzygnięciem tej decyzji mieści się w problematyce optymalizacji wielokryterialnej.
Zagadnienie to moŜna opisać pewną (adekwatną do rzeczywistości) zunifikowaną postacią zadania
18
Jarosław Becker
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych
w aukcjach elektronicznych
WPL. Opracowanie metody definiowania określonej kategorii zadań decyzyjnych ma tu zasadnicze
znaczenie ze względu na dąŜenie do budowy informatycznego systemu wyceny wielu ofert
i wyboru najlepszych z nich za pomocą np. inteligentnych agentów programowalnych na rynkach
elektronicznych.
4. Funkcje generatora DSS
W sprawnym poszukiwaniu rozwiązania spełniającego postulat syntezy globalnego modelu
preferencji decydenta (GMPD) R. Słowiński w pracy [14] wyróŜnia trzy podejścia: z aprioryczną
funkcją celu, z dialogowym trybem postępowania oraz z wyborem a posteriori rozwiązania uznanego za najlepsze. Formalne działania przetargowe nakładają na kupującego obowiązek jasnego
zdefiniowania warunków i reguł zakupu, które po ich ogłoszeniu i uruchomieniu procedury nie
powinny ulec zmianie, w przeciwnym wypadku całe postępowanie zostanie uniewaŜnione. W
przypadku syntezy a priori mamy do czynienia z taką informacją dostarczoną przez decydenta,
która pozwala na określenie wartości kryteriów przed rozpoczęciem obliczeń. Kryteria i ich wartości są znane, a poszukuje się rozwiązania najlepiej dostosowanego do zdefiniowanych wartości
celów. Jak sugerują Z. Galas i in. (1987) w takiej sytuacji moŜna posłuŜyć się przy wyborze rozwiązania końcowego funkcją uŜyteczności. Zbiór ocen osiągalnych, a przez to zbiór decyzji dopuszczalnych, zostaje preuporządkowany liniowo, a stąd zbiór decyzji najlepszych z punktu widzenia uŜyteczności (maksymalizujących funkcję uŜyteczności), moŜe stanowić podstawę podjęcia
decyzji końcowej.
ZałoŜono, Ŝe system informatyczny DSS będzie generował rozwiązania informatyczne (aplikacje) dla róŜnie definiowanych zadań decyzyjnych. Chodzi o to, aby koncepcja budowy zadań
WPL (i podporządkowana im architektura systemu informatycznego) dopuszczała moŜliwość formowania zadania dla pojedynczego odbiorcy (np. optymalizacja biznes planu) lub wielu uczestników (np. organizacja przetargu publicznego) oraz aby dawała moŜliwość indywidualizacji rozwiązań modelowych (bloków) całego zadania WPL. Zatem waŜna jest konstrukcja zadania WPL dla
wielu zastosowań, jego podstaw metodycznych i organizacji systemu informatycznego. Problemy
te przedstawiono w artykule J. Beckera [15], który stanowi podstawę całościowego opracowania w
ujęciu formalnym procedury definiowania zadań decyzyjnych w generatorze systemów klasy DSS.
Punktem startowym jest zdefiniowanie zadania decyzyjnego, którego postać pierwotna (startowa) jest pobierana z archiwum szablonów decyzyjnych. MoŜe on być dalej modyfikowany i uzupełniany przez operatora systemu. KaŜde zadanie (jego szablon z rekordem testowym) jest automatycznie archiwowane po przeprowadzeniu obliczeń za pomocą rekordu testowego. W archiwum
DSS wyróŜnia się dwojakiego rodzaju szablony startowe: systemowe, wprowadzane do pliku archiwum automatycznie przez system wraz z jego pierwszym uruchomieniem (oznakowanie
„AA, BB, …, ZZ” z uzupełniłem „00000”) oraz wszystkie występujące rozwiązania autorskie ze
wskazaniem pochodzenia „AA, BB, …, ZZ” i daty powstania wersji, które były wykorzystywane do
optymalizacji w systemie.
Celem generatora zadań decyzyjnych (rys. 3) jest opracowanie szablonu dla definiowania bloku oferty (wniosku) lub propozycji planistycznej, które w jednorodnej postaci matematycznej będą
lokowane w zadaniu głównym.
W szablonie wyróŜnia się następujące grupy nastawień konstrukcyjnych:
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
19
decyzje – definiowanie zmiennych decyzyjnych Xn (1 ≤ n ≤ 99); opcje obsługi to wprowadź, usuń i deklaracje rodzaju zmiennych (binarne, całkowitoliczbowe i zmiennoprzecinkowe),
• blok zadania – ustalanie relacji logicznych między zmiennymi w bloku zadania w postaci
opisu postaci bilansu i relacji względem zasobów,
• bilanse wspólne – ustalanie relacji logicznych między zmiennymi we wszystkich blokach
zadania w postaci opisu postaci bilansu i relacji względem wspólnych zasobów,
• kryteria – specyfikacja kryteriów cząstkowych, które będą uŜyte w dialogowym postępowaniu optymalizacyjnym (1 ≤ 99); w systemie określa się relacje mini/maks dla kaŜdego
z przyjętych celów cząstkowych (ewentualnie moŜna określić „cele do osiągnięcia”, które
winien spełnić system).
Kolejnym etapem jest określanie parametrów techniczno-ekonomiczne bn; cn; dn; oraz wartości
ograniczeń bbn; ccn; ddn; które będą podlegały aktualizacji w opcjach wprowadzania danych do
informatycznych systemu DSS.
•
Rys. 3. Okno projektowania (generator) bloku decyzyjnego wraz z przywołanym algorytmem
aktualizacji modelu (definiowanie parametru b1)
Źródło: [16]
20
Jarosław Becker
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych
w aukcjach elektronicznych
Standardowym wyposaŜeniem generatora są opcje testujące, które umoŜliwiają weryfikowanie
na bieŜąco poprawności obliczeniowej bloku zadania decyzyjnego. Podstawą jest rekord testowy,
który towarzyszy kaŜdej konstrukcji opracowywanej w generatorze. Jest on pobierany z archiwum
szablonów. Parametry techniczno-ekonomiczne rekordu testowego moŜna modyfikować w specjalnej programie „Test generatora”, którego opcje pozwalają na róŜnego rodzaju symulacje decyzyjne
w obrębie jednego bloku zadania.
Proces definiowania zadań decyzyjnych
Szablon
zadania
decyzyjnego
Projektowanie i testowanie
Formularze
wejścia
i wyjścia
Reguły
walidacji,
skrypty
sterujące
Struktury
informacyjne
bazy danych
modelu
Raporty
Automatyczne generowanie systemu DSS
Rys. 4. Proces definiowania i generowania systemu DSS
Sprawny i poprawny merytorycznie szablon modelu decyzyjnego jest zapisany za potwierdzeniem operatora w bazie danych systemu DSS oraz automatycznie zarchiwizowany z odpowiednim
oznaczeniem wersji w strukturze dziedziczonych rozwiązań. W ostatniej fazie generator konstruuje
dwa formularze HTML wraz ze skryptami sterującymi, regułami walidacji danych oraz zakłada
odpowiednie struktury informacyjne systemu DSS (rys. 4). Pierwszy formularz słuŜy do określenia
warunków globalnych (bilansów głównych, kryteriów i preferencji) przez dysponenta środków
finansowych (inicjatora sesji). Drugi do wprowadzania warunków lokalnych w poszczególnych
blokach wniosków ofertowych (wartości: parametrów, ograniczeń, celów cząstkowych) przez potencjalnych graczy gry decyzyjnej.
5. Funkcjonowanie systemów DSS
Warunki ogólne dla zadania, jako całości, gdy biorą udział w nim wszystkie oferty (bloki), są
określane przez dysponenta środków finansowych (inicjatora sesji przetargowej). Elementami nastawialnymi są parametry ograniczeń wspólnych, wartości kryteriów do osiągnięcia oraz preferencje dla kryteriów cząstkowych. Przy czym, moŜna w tym module dokonywać korekty kierunku
optymalizacji, czyli zmiany relacji mini\maks i wartości wag dla celów cząstkowych. Ta ostatnia
właściwość moŜe być dokonywana arbitralnie na zasadzie „jak mi się wydaje?” lub przy uŜyciu
wyspecjalizowanego pakietu AHP gwarantującego spójność ocen.
Parametry indywidualnie zgłoszonych ofert (wniosków przetargowych lub innych danych) to:
bn, bbn,, cn i dn, które dotyczą określonych bloków w macierzach cząstkowych (rys. 3). Główne
funkcje w systemie dotyczą gromadzenia danych operacyjnych (wprowadzanie określonego bloku
do wspólnego zadania lub jego usunięcie), aktualizacji parametrów techniczno-ekonomicznych
zgłoszonego bloku (oferty, wniosku) oraz automatycznego testu poprawności wprowadzonego bloku do zadania (optymalizacja cząstkowa zapisu modelowego akceptująca umieszczenie bloku w
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
21
całym zadaniu). Zadanie moŜe składać się z jednego bloku (blk), który moŜe być definiowany maksymalnie przez 99 zmiennych (zmn), ograniczeń i kryteriów oceny. Ograniczona jest takŜe liczba
bloków w zadaniu, których nie moŜe być więcej niŜ blk ≤ 70 000/zmn. Im mniej zmiennych w bloku, tym więcej bloków w zadaniu. Brak rozwiązania optymalnego dla aktualizowanego bloku
(oferty, wniosku) automatycznie usuwa ten blok z całego zadania (blok fizyczny jest zapisany, ale
niedostępny logicznie).
Rys. 5. Okno dialogu adaptacyjnego w postępowaniu optymalizacyjnym, źródło: [16]
W systemie występują róŜne postacie rachunku optymalizacyjnego. Wynika to z faktu, Ŝe rozpatruje się wiele funkcji systemu, w których konieczne jest zastosowanie algorytmu simpleks.
Główne opcje zawierające optymalizację to: podgląd, w którym weryfikujemy skuteczność pojedynczych korekt bloków, weryfikacja rekordu testowego dla roŜnych parametrów technicznoekonomicznych bloku i róŜnych parametrów funkcji celu oraz funkcja poszukiwania zasadniczych
rozwiązań decyzyjnych.
Ciekawym rozwiązaniem jest okno postępowania optymalizacyjnego (rys. 5) w formie dialogu, gdzie strona (w optymalizacji – nazwijmy umownie: ofertą lub wnioskiem) ma moŜliwość korekty swoich parametrów funkcji celu i innych elementów tego bloku zadania. Po dokonaniu korekty, oferta (wniosek przetargowy) moŜe dalej uczestniczyć w rachunku optymalizacyjnym.
Istotnym elementem, który wymaga dalszych prac nad algorytmem działania systemu DSS,
jest wiedza „o przyczynie nie wejścia” określonego bloku (oferty, wniosku) do grupy rozwiązań
22
Jarosław Becker
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych
w aukcjach elektronicznych
najlepszych (Pareto-optymalnych). Rozwiązanie tego problemu na poziomie zautomatyzowanej
procedury korekcyjnej ułatwiłoby szersze zastosowanie rozwiązań systemu DSS (patrz: agenty
programowalne) do praktyki wyboru w wielu sytuacjach decyzyjnych.
Pobierz dane dla
wniosku
wk (k = 1, 2, …, r)
Wybór
wniosku do
korekty
(t)
Wt ;(xj <1)
START
s
u' = ∑ c x
(t )
k
j =1
(t )
kj
(t )
j
Sortuj kryteria
cząstkowe według
waŜności : w k
(k’ = 1, 2, …, r)
(j = 1, 2, …, s)
Macierz
zadania
z ostatniej
sesji
Poprawiasz
parametry gry ?
TAK
NIE
Ustaw zmienną
algorytmu
k':=1
k := k + 1
Modyfikacja
parametrów gry :
Pobranie wartości
parametrów gry
u 'k(t,)max- oferowane
maksimum ,
pk(t ) - precyzja ,
NIE
Oblicz wartość skoku :
STOP
TAK
Brak kryteriów ?
k =r
TAK
(t )
(t )
(t )
uk + z k ≥ uk , max
Wnioski ofertowe
z k(t ) =
u k( t, )max − u k( t )
p k( t )
NIE
Podstaw do modelu :
Dodatek
SOLVER
Wnioski ofertowe
u k(t ) := u k(t ) + z k( t )
Macierz
zadania
z ostatniej
sesji
Symulacja
(optymalizacja )
Zapisz do zbioru :
u k(t )
TAK
Wszedł wniosek ?
Xj(t) = 1
Zapis danych
NIE
Rys. 6. Algorytm automatycznej korekty parametrów wniosku
Zaproponowany algorytm (rys. 6) słuŜy do zautomatyzowanego poszukiwania minimalnych
wartości korekty kryteriów cząstkowych, które zagwarantują konkurencyjność odrzuconym wnioskodawcom. W symulacji wykorzystuje się macierz zadania decyzyjnego z ostatniej rozgrywki
(sesji). Dla kaŜdego kryterium określa się indywidualne granice minimalnej i maksymalnej opłacalności. Wartość parametru precyzji dzieli przedział na równe odcinki, które stanowią wielkość
cząstkowej poprawki (skok) w badaniu symulacyjnym. Kolejność korygowania kryteriów realizowana jest według uporządkowanych malejąco wartości ich preferencji (od najbardziej do najmniej
preferowanych). Postępowanie iteracyjne w algorytmie (rys. 6) polega na:
1) zbadaniu i wyznaczeniu najbardziej preferowanego kryterium, którego wartość nie leŜy na
granicy minimalnej opłacalności,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
23
2) podstawianiu do macierzy zadania decyzyjnego z ostatniej rozgrywki lub symulacji nowej
wartości kryterium, powiększonej o wartość zdefiniowanego skoku,
3) przeprowadzeniu obliczeń optymalizacyjnych (symulacji) i porównaniu uzyskanych wyników:
a) jeśli korygowany wniosek wszedł do puli rozwiązań akceptowanych, procedura symulacyjna jest przerywana, a algorytm przychodzi do punktu 4;
b) jeśli korygowany wniosek wszedł do puli rozwiązań odrzuconych i wartość badanego
kryterium nie leŜy na granicy minimalnej opłacalności algorytm wraca do punktu 2;
c) jeśli korygowany wniosek wszedł do puli rozwiązań odrzuconych i wartości z przedziału opłacalności zostaną wyczerpane algorytm wraca do punktu 1 i podstawia kolejne kryterium;
4) przekazanie listy skorygowanych w symulacji wartości kryteriów, która stanowi punkt
wyjścia do automatycznej korekty parametrów wniosku w kolejnej rozgrywce postępowania ofertowego.
6. Uwagi końcowe
Ideą dialogowego toku postępowania jest umoŜliwienie wielokrotnego uczestniczenia strony w
procesie ofertowym. Jest to zgodne z dyrektywą komisji europejskiej, która definiuje aukcję elektroniczną odwróconą (przetarg) jako: „proces odbywający się przy pomocy urządzeń elektronicznych, polegający na proponowaniu przez oferentów nowych cen, korygowanych w dół podczas
aukcji, oraz innych wartości odnoszących się do istotnych elementów przetargu, które mogą być
oceniane automatycznie”. Najczęstszym efektem jest polepszenie jakości ofert przy jednoczesnym
ich (ofert, wniosków) potanieniu. Fakt, ten moŜe mieć ogromne znaczenie dla organizowania tego
rodzaju przetargów publicznych, np. w Internecie. Podobnie moŜna potraktować problem planowania regionalnego, rozdziału zasobów w regionie lub wyznaczanie zadań do realizacji. Innym
zastosowaniem moŜe być wykorzystanie opracowanej procedury optymalizacyjnej (jako algorytm
wyboru) w projektowaniu agentów programowalnych.
7. Literatura
1.
2.
3.
4.
5.
6.
Roy B., Wielokryterialne wspomaganie decyzji, WNT, Warszawa, 1990.
Słowiński R., Podejście regresji porządkowej do wielokryterialnego porządkowania
wariantów decyzyjnych, w: Techniki informacyjne w badaniach systemowych, pod red.
Kulczyckiego P., Hryniewicza O., Kacprzyka J., Wyd. Naukowo-Techniczne, Warszawa
2007.
Bouyssou D., Roy B., Aide Multicritere a la decision: Methodes et Cas. Economica, Paris,
1993.
Słowiński R., Greco S., Matarazzo B., Axiomatization of utility, out ranking and decisionrule preferencje models for multiple-criteria classification problems under partial
inconsistency with the dominance principle, „Control and Cybernetics”, Vol. 31.
Roy B., The outranking approach and the foundations of Electre methods, Theory and
decision 31, 1991.
Hwang C.L., Youn K., Multiple Attribute Decision Making - Methods and Application: A
State of the Art Survey, Springer-Verlag, New York, 1981.
24
Jarosław Becker
Model generatora systemów decyzyjnych dla relizacji procesów przetargowych
w aukcjach elektronicznych
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
Dubois D., Prade H., The use of Fuzzy Numbers in Decision Analysis w: Gupta, M.M.
and Sanchez, E., Fuzzy information and decision Processes, North-Holland, 1982.
Leclercq J.P., Propositions d’extension de la notion de dominance en présence de
relations d’ordre sur les pseudo-critčres: MELCHIOR, Mathematical Social Sciences, 8,
1984.
Munda G., Multicriteria evaluation in fuzzy environment, Theory and applications in
ecological economies, Physica-Verlag, 1995.
Keeney R., Raiffa H., Decision with Multiple Objectives; Preferences and Value TradeOffs, Wiley, New York, 1976.
Olson D. L., Decision Aids for Selection Problems, Springer-Verlag, New York, 1996.
Jacquet-Lagreze E.,, Siskos J., Assessing a Set of Additive Utility Functions for
Multicriteria Decision Making, European Journal of Operational Research 10, 1982.
Belton, V., Stewart T.J., Multiple Criteria Decision Analysis An Integrated Approach,
Kluwer Academic Publishers, London, 2002.
Słowiński R., Przegląd metod wielokryterialnego programowania liniowego, “Przegląd
Statystyczny”, nr 3/4, Poznań 1984.
Becker J., Architektura informatycznego systemu generowania wielokryterialnych
rozwiązań decyzyjnych: (cz. 1) Koncepcja budowy modelu WPL oparta na
niestandardowych zadaniach decyzyjnych, Seria IBS PAN: Badania Systemowe, Tom 64,
Wyd. Instytut Badań Systemowych PAN & Polskie Towarzystwo Badań Operacyjnych i
Systemowych, Warszawa 2008.
Becker J., Budziński R., Architektura informatycznego systemu generowania wielokryterialnych rozwiązań decyzyjnych: (cz. 2) Organizacja struktur informacyjnych i
funkcjonowanie systemu informatycznego, Seria: Badania Systemowe, Tom 62, Wyd.
Instytut Badań Systemowych PAN & Polskie Towarzystwo Badań Operacyjnych i
Systemowych, Warszawa 2008.
Budziński R., Becker J., Durka M., Modele wielokryterialne WPL w systemie aukcji
elektronicznej, w: Badania Operacyjne i Systemowe 2006, Metody i techniki, wydawca
IBS PAN, Warszawa 2006.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
25
MODEL OF THE GENERATOR OF DECISION SYSTEMS FOR REALIZATION
OF TENDER PROCESSES IN ELECTRONIC AUCTIONS
Summary
In the article presented are results of research work on architecture for automatic entry of decision-making tasks (problems) to specialized auction-tender systems in the context of selecting (the scope of) their operation. Methodical deliberations focus on the algorithmic perspective of the functions of a decision support systems generator. In this respect discussed: selected multiple criteria decision support
methods, principles of defining decision-making tasks and the function of generating
components for automated systems of the decision support (DSS class systems).
Keywords: support for multiple criteria decisions, decision support systems (DSS), DSS generator
Jarosław Becker
Katedra InŜynierii Systemów Informacyjnych
Wydział Informatyki
Zachodniopomorski Uniwersytet Technologiczny
71-210 Szczecin, ul. śołnierska 49,
e-mail: [email protected]
http://kisi.wi.ps.pl
26
Mieszko Bojar
Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych
w warunkach podwyŜszonego ryzyka
MIESZKO BOJAR
Bydgoszcz
ROLA I ZNACZENIE PODSTAW PRAWNYCH UBEZPIECZEŃ GOSPODARCZYCH
W WARUNKACH PODWYśSZONEGO RYZYKA
Streszczenie
Z przeprowadzonych studiów literatury przedmiotu oraz przeglądu moŜliwości
eksploracji wiedzy z zakresu przepisów prawa dotyczącego ubezpieczeń gospodarczych wynika, Ŝe usługi z tego obszaru naleŜą w gospodarce rynkowej do dynamicznie rozwijających się działań pozwalających zarządzać ryzykiem związanym ze zdarzeniami losowymi, co moŜe łagodzić skutki kryzysu finansowego zarówno dla osób
fizycznych jak i prawnych. Jest to efektem przeszczepienia na polski grunt zachodnich rozwiązań prawnych dokonywanym stopniowo przez polskiego ustawodawcę w
okresie transformacji. Upowszechnienie wiedzy z zakresu stosowania przepisów
prawnych poprzez rozwój i zastosowanie moŜliwości technologii informacyjnej w
propagowaniu wiedzy prawniczej z tego obszaru dokonuje się m. in. za pośrednictwem internetowych portali komercyjnych i niekomercyjnych, co wpływa znacząco
na rozwój rynku usług ubezpieczeniowych.
Słowa kluczowe: usługi ubezpieczeniowe, przepisy prawne, zastosowanie IT
1. Wprowadzenie
KaŜda aktywność gospodarcza i społeczna obarczona jest ryzykiem, ściśle związanym
z występowaniem nieprzewidzianych zdarzeń losowych. W szczególności stopień ryzyka wzrasta
w warunkach kryzysu finansowego, kiedy to podejmowanie i rozwijanie jakiejkolwiek działalności
gospodarczej obarczone jest prawdopodobieństwem nieprzewidzianych zachowań partnerów z
bliŜszego i dalszego otoczenia gospodarczego, jak równieŜ klienteli. We współczesnej gospodarce
rynkowej występują zasadniczo dwie metody zabezpieczania się przed negatywnymi finansowo
skutkami wystąpienia ryzyka.
Pierwsza metoda polega na samodzielnym, indywidualnym gromadzeniu rezerwy środków finansowych, druga zaś na przeniesieniu tego finansowego cięŜaru na inny podmiot gospodarczy.
Praktyka gospodarcza jednoznacznie wykazała, Ŝe zdecydowanie bardziej racjonalnym i efektywnym rozwiązaniem jest metoda druga, realizowana przez wyspecjalizowaną w tym zakresie instytucję. W literaturze ubezpieczenie definiuje się m.in. jako urządzenie gospodarcze, którego celem
jest łagodzenie lub całkowite likwidowanie negatywnych skutków zdarzeń losowych poprzez rozłoŜenie cięŜaru tego łagodzenia na wiele podmiotów, którym dane zdarzenia zagraŜają. Dzięki takiemu rozwiązaniu przedsiębiorstwo moŜe zminimalizować finansowy problem związany z wystąpieniem strat losowych, czyli strat w duŜej mierze od niej niezaleŜnych, a przy tym potencjalnie
nieuniknionych. WaŜną kwestią, która wymaga podkreślenia, jest fakt, iŜ do właściwego wykonywania przez ubezpieczyciela swojego nadrzędnego zadania wymagane jest zgromadzenie w ramach sytemu ubezpieczeń ogromnych środków pienięŜnych, na które składają się składki ubezpie-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
27
czeniowe oraz środki własne zakładów ubezpieczeń. Te tymczasowo wolne środki są przez zakłady ubezpieczeń zagospodarowywane na inne sposoby, np. w ramach prowadzonej przez nie działalności inwestycyjnej. Są one m.in. lokowane w róŜnego typu instrumenty finansowe, takie jak
poŜyczki hipoteczne, depozyty skarbowe, papiery wartościowe, terminowe wkłady pienięŜne
w bankach. Tym samym znaczna niekiedy część środków pienięŜnych gromadzonych przez zakłady ubezpieczeń zostaje włączona do obrotu finansowego, a przez to wykorzystana jest do finansowania róŜnych przedsięwzięć gospodarczych.
W piśmiennictwie podkreśla się, iŜ we współczesnych gospodarkach rynkowych instytucje
ubezpieczeniowe są zaliczane do największych inwestorów zarówno na rynku krajowym, jak
i na międzynarodowym rynku kapitałowym.
Niejednokrotnie pomijanym, ale waŜnym skutkiem działalności ubezpieczeniowej jest takŜe
przesunięcie bieŜących wydatków konsumpcyjnych obywateli na okres późniejszy oraz na zmianę
specyfiki tych wydatków. Dzieje się tak, dlatego, poniewaŜ składki na ubezpieczenia są wpłacane z
bieŜących dochodów ludności, co bezpośrednio przekłada się na ograniczenie aktualnych wydatków konsumpcyjnych pierwszej potrzeby. Natomiast środki uzyskane wskutek wypłaty odszkodowania i świadczeń są głównie przeznaczane na zakup przedmiotów trwałego uŜytku.
Usługi ubezpieczeniowe są często komplementarne z nabywanymi dobrami materialnymi.
Obserwuje się, Ŝe wzrost popytu na określone dobra materialne przekłada się na wzrost popytu na
konkretne produkty ubezpieczeniowe. Wzrost popytu na pojazdy mechaniczne oznacza zwiększony popyt na ubezpieczenia komunikacyjne. ZaleŜność ta występuje najczęściej, jeŜeli mamy do
czynienia z sytuacją, która polega na tym, Ŝe nabycie dobra materialnego wiąŜe się z obowiązkiem
zawarcia umowy ubezpieczenia.
W miarę wzrostu dobrobytu społeczeństw, pomnaŜania bogactwa i względnego nadmiaru posiadanych środków finansowych chęć i potrzeba zabezpieczenia się przed utratą nagromadzonych
dóbr upowszechnia się, a w ślad za tym rośnie popyt na usługi ubezpieczeniowe, wzrasta zatem i
podaŜ. Jednak wiarygodność świadczonych przez prywatne podmioty usług ubezpieczeniowych
musi być gwarantowana przez ścisły nadzór ze strony instytucji publicznych na mocy stanowionego prawa odpowiednio aktualizowanego do bieŜących potrzeb systemu społeczno-ekonomicznego.
Tym bardziej takie funkcje kontrolne są waŜne w warunkach globalnego kryzysu finansowego, kiedy to następuje znaczny spadek zaufania klientów do wszelkiego typu instytucji zajmujących się obrotem środków finansowych. Wówczas takŜe waŜny jest, obok poprawnie stanowionych
i egzekwowanych przepisów, dobry dostęp do informacji zainteresowanych korzystaniem z usług
ubezpieczeniowych w celu szybkiego upowszechniania wiarygodnej wiedzy na ten temat, co pozwoli minimalizować ryzyko podejmowania błędnych decyzji.
Podstawowym podziałem ubezpieczeń jest podział na ubezpieczenia społeczne i gospodarcze. Ubezpieczenia społeczne są narzędziem prowadzonej przez państwo polityki społecznej. Stanowią one zarazem jedną z technik zabezpieczenia społecznego rozumianego jako całokształt
urządzeń publicznych chroniących obywateli przed skutkami zdarzeń losowych [2].
Ubezpieczenia gospodarcze są w głównej mierze ubezpieczeniami dobrowolnymi. Zakłady
ubezpieczeń funkcjonujące na rynku ubezpieczeń gospodarczych oferują zarówno ubezpieczenia
osobowe, jak i majątkowe [2].
28
Mieszko Bojar
Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych
w warunkach podwyŜszonego ryzyka
2. Podstawy prawne i rozwój przepisów regulujących krajowy rynek ubezpieczeń
Ewolucja polskiego rynku ubezpieczeń, która dokonywała się na przestrzeni lat, pozostaje
w ścisły związku z wydarzeniami politycznymi i gospodarczymi, które determinowały warunki
wprowadzania nowych rozwiązań prawnych oraz systemowych do sektora ubezpieczeń. Powojenna gospodarka oparta na systemie nakazowo – rozdzielczym doprowadziła do ścisłego podporządkowania sfery ubezpieczeń i całego sektora finansowego władzy centralnej, czego efektem był
praktyczny monopol państwa w zakresie usług finansowych oraz ekstremalnie wyskoki stopień
koncentracji podaŜy tych usług. Sytuacja geopolityczna uniemoŜliwiała funkcjonowanie mechanizmu rynkowego do końca lat 80 XX w. Następstwem tego stanu rzeczy był niski poziom rozwoju
usług ubezpieczeniowych oraz niski poziom kultury ubezpieczeniowej. Przełom końca lat 80. doprowadził do stopniowej implikacji elementów rynkowych do gospodarki krajowej.
Wyrazem tego zjawiska było uchwalenie ustawy o ubezpieczeniach majątkowych
i osobowych w 1984 roku [3]. Wejście w Ŝycie tego aktu normatywnego formalnie zniosło dotychczasowy duopol Państwowego Zakładu Ubezpieczeń – w zakresie bezpośrednich ubezpieczeń krajowych oraz Towarzystwa Ubezpieczeń i Reasekuracji Warta S.A. – w zakresie ubezpieczeń związanych z obrotem dewizowym i reasekuracją, handlem zagranicznym oraz z Ŝeglugą morską.
Ustawa stworzyła tym samym warunki prawne do tworzenia za zgodą ministra finansów, innych
państwowych zakładów ubezpieczeń, spółdzielczych zakładów ubezpieczeń, a takŜe spółek kapitałowych z dominującym udziałem Skarbu Państwa. Kolejnym etapem liberalizacji sektora ubezpieczeń była nowelizacja ustawy o ubezpieczeniach majątkowych i osobowych z 1984 r. dokonana w
1989 r. [4].
Fundamentalne zmiany w zakresie funkcjonowania i organizacji polskiego rynku przyniosła
kolejna ustawa z 1990 roku [5]. Za pomocą tego aktu normatywnego ustawodawca uregulował
m.in. następujące zagadnienia dotyczące problematyki ubezpieczeniowej:
• wprowadzenie systemu ubezpieczeń obowiązkowych opartych na umowie ubezpieczenia,
• stworzenie podstaw prawnych do demonopolizacji rynku ubezpieczeń,
• określenie wymagań formalnoprawnych dla osób zarządzających działalnością zakładu
ubezpieczeń
• objęcie zakładów ubezpieczeń nadzorem państwowym,
• wprowadzenie wymagań formalnoprawnych do podjęcia działalności ubezpieczeniowej
przez podmioty gospodarcze,
• ustalenie norm ostroŜnościowych funkcjonowania zakładów ubezpieczeń (określenie marginesu wypłacalności i kapitału gwarancyjnego),
• ograniczenie działalności zakładów ubezpieczeń do działalności ubezpieczeniowej i z nią
związanej,
• ograniczenie formy prawnej działalności zakładów ubezpieczeń do spółek akcyjnych i zakładów ubezpieczeń wzajemnych,
• zakaz jednoczesnego prowadzenia działalności w dziale ubezpieczeń na Ŝycie i w dziale
pozostałych ubezpieczeń osobowych i majątkowych,
Ustawodawca dokonując m.in. reformy prawa ubezpieczeniowego w Polsce na początku lat
90. miał na celu doprowadzenie Polski do faktycznego zintegrowania gospodarczego z krajami
Europy Zachodniej, wynikało to z przyjętych priorytetów polityki zagranicznej państwa. Kryteria
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
29
podejmowania i prowadzenia działalności ubezpieczeniowej we Wspólnotach Europejskich były
wówczas regulowane na podstawie dyrektyw ogłaszanych przez Radę Unii Europejskiej. Zmierzały
one do ujednolicenia zasad świadczenia usług ubezpieczeniowych. Tak więc płaszczyzną odniesienia dla polskiego ustawodawcy w tej materii stały się równieŜ kolejne dyrektywy europejskie. Nowelizacja kodeksu cywilnego przeprowadzona w 1990 r. umoŜliwiła m.in. stosowanie zagranicznych warunków ubezpieczeń, co w pewnym zakresie potwierdziło dąŜenie do wprowadzenia
w przyszłości swobody zawierania umów [6].
Układ Europejski, który wszedł w Ŝycie 1 stycznia 1994 r., określił kolejne zmiany polskiego
prawa ubezpieczeniowego [7]. Jego postanowienia stanowiące umowę o stowarzyszeniu Polski ze
Wspólnotami Europejskimi i ich krajami członkowskimi, przewidywały konieczność stopniowego
dostosowywania polskiego ustawodawstwa do wymogów prawa wspólnotowego w róŜnych dziedzinach, w tym takŜe w sferze usług finansowych, a więc równieŜ obejmujących działalność banków i ubezpieczycieli.
W roku 1995 wprowadzono kolejną istotną nowelizację ustawy o działalności ubezpieczeniowej [8]. NajwaŜniejsze jej regulacje dotyczyły m.in. usytuowania nadzoru ubezpieczeniowego,
który wyłączony został z zakresu kompetencji ministra finansów. Doprowadzono do powstania
Państwowego Urzędu Nadzoru Ubezpieczeń, jako centralnego organu administracji państwowej
i zapewnienia bezpieczeństwa ubezpieczanych podmiotów.
Kolejnym wyrazem dostosowania polskiego prawa ubezpieczeniowego do norm europejskich, było otwarcie polskiego rynku dla podmiotów zagranicznych, co nastąpiło w dniu 1 stycznia
1999 roku [9]. UmoŜliwiono tym samym zagranicznym zakładom ubezpieczeń moŜliwość podejmowania i prowadzenia działalności w Polsce za pośrednictwem swojego głównego oddziału.
Końcowym etapem dostosowywania polskiej legislacji do faktycznego włączenia naszego
rynku ubezpieczeń do jednolitego rynku europejskiego było wprowadzenie kolejnych uregulowań
prawnych w 2000 roku [10]. Zmiany te polegały głównie na rozszerzeniu zakresu działalności
Ubezpieczeniowego Funduszu Gwarancyjnego, zdefiniowaniu działalności ubezpieczeniowej
i czynności ubezpieczeniowych oraz unormowaniu gospodarki finansowej zakładów ubezpieczeń
(zarządzania aktywami).
Obecnie w prawie krajowym świadczenie usług ubezpieczeniowych, czyli zasad zawierania
i wykonywania umów ubezpieczeniowych reguluje zestaw ustaw pochodzący z maja 2003 roku
[11].
Ustawa o działalności ubezpieczeniowej w sposób precyzyjny wymienia czynności, które
wchodzą w zakres takiej działalności i które mogą być wykonywane przez zakłady ubezpieczeń.
Pod pojęciem działalności ubezpieczeniowej naleŜy rozumieć wykonywanie czynności ubezpieczeniowych związanych z oferowaniem i udzielaniem ochrony na wypadek ryzyka wystąpienia
skutków zdarzeń losowych”. Jednocześnie w sposób jednoznaczny wprowadzono konieczność
ograniczenia aktywności gospodarczej zakładów ubezpieczeniowych tylko do działalności ubezpieczeniowej i innych bezpośrednio związanej ze świadczeniem usług ochrony przed skutkami
ryzyka. To zastrzeŜenie nie obejmuje jednak wykonywania przez zakłady ubezpieczeń działalności
akwizycyjnej na rzecz otwartych funduszy ubezpieczeń emerytalnych oraz usług związanych z zabezpieczeniem dokumentów ubezpieczeniowych sporządzanych na elektronicznych nośnikach informacji. Czynnościami ubezpieczeniowymi są m.in.
• zawieranie umów ubezpieczenia, umów reasekuracji, umów gwarancji ubezpieczeniowych
lub zlecanie ich zawierania uprawnionym pośrednikom ubezpieczeniowym,
30
Mieszko Bojar
Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych
w warunkach podwyŜszonego ryzyka
•
składanie oświadczeń woli w sprawach roszczeń o odszkodowania lub inne świadczenia naleŜne z tytułu zawartych umów,
• ustalanie składek i prowizji naleŜnych z tytułu zawieranych umów,
• ustanawianie w drodze czynności cywilnoprawnych, zabezpieczeń rzeczowych lub osobistych, jeŜeli są one bezpośrednio związane z zawieraniem umów,
• ocena ryzyka w umowach ubezpieczenia oraz umowach gwarancji ubezpieczeniowych,
• wypłacenie odszkodowań i innych świadczeń naleŜnych z tytułu zawartych umów,
• przejmowanie i zbywanie przedmiotów lub praw nabytych przez zakład ubezpieczeń
w związku z wykonywaniem zawartych umów,
• prowadzenie kontroli przestrzegania przez ubezpieczających lub ubezpieczonych obowiązków i zasad bezpieczeństwa odnoszących się do przedmiotów objętych ochroną ubezpieczeniową,
• prowadzenie postępowań regresowych oraz postępowań windykacyjnych odnoszących się
do wierzytelności ubezpieczającego, mających bezpośredni wpływ na zakres odpowiedzialności zakładu ubezpieczeń z tytułu zawartych umów,
• lokowanie środków zakładów ubezpieczeń.
Ustawa zalicza do czynności ubezpieczeniowych takŜe inne czynności, jeŜeli są wykonywane
przez zakład ubezpieczeń. Są nimi takie działania, jak:
• ustalanie wysokości szkód i rozmiaru odszkodowań oraz innych świadczeń naleŜnych
uprawnionym z tytułu zawartych umów,
• ustalanie przyczyn i okoliczności zdarzeń losowych,
• ustalenie wartości przedmiotu ubezpieczenia,
• czynności zapobiegania powstawaniu albo zmniejszania skutków wypadków ubezpieczeniowych lub finansowanie tych działań z funduszu prewencyjnego.
W obowiązującym prawie ubezpieczeniowym podtrzymany został podział ubezpieczeń na
dwa działy, a następnie na grupy i rodzaje ryzyka. Oddzielenie ubezpieczeń na Ŝycie od od pozostałych ubezpieczeń osobowych i ubezpieczeń majątkowych ugruntowuje zasadę niełączenia działalności w zakresie ubezpieczeń Ŝyciowych i pozostałych. Wynika to z przyjęcia jako podstawy
dokonania kwalifikacji ryzyk i podziału ubezpieczeń zaleceń I dyrektywy Rady EWG z 1973 r.
w sprawie koordynacji przepisów odnoszących się ubezpieczeń bezpośrednich innych niŜ ubezpieczenia na Ŝycie. Jedną z przyczyn takiego rozstrzygnięcia jest dąŜenie do jak najpełniejszej ochrony interesów ubezpieczonych, która mogłaby być zagroŜona w przypadku dokonywania przez
ubezpieczyciela wypłat odszkodowań np. z tytułu ubezpieczeń osobowych ze środków pochodzących ze składek dokonywanych w ramach ubezpieczeń Ŝyciowych.
Wydaje się, Ŝe efektem dobrze stanowionego i egzekwowanego w zakresie finansów publicznych prawa, a w szczególności jednego z jego dynamicznie rozwijających się elementów, czyli
systemu ubezpieczeń gospodarczych, jest stosunkowa dobra pozycja polskiego sektora finansów
publicznych na tle innych krajów członkowskich UE, co stwarza perspektywy na dalszy rozwój
tego sektora nowoczesnych usług niematerialnych i minimalizację ryzyka w skali makro i mikro na
szczeblu przedsiębiorstw.
31
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
3. Baza wiedzy dotycząca przepisów prawnych z zakresu ubezpieczeń
W Polsce funkcjonuje szereg podmiotów gromadzących i zarazem udostępniających informacje dotyczące przepisów prawnych z zakresu usług ubezpieczeniowych. Podstawowe znaczenie w
tym kontekście mają nowoczesne nośniki informacji związane z technologią informacyjną (IT), a
w szczególności z komunikacją za pośrednictwem sieci rozległych, jaką jest m. in. sieć Internet.
Ogromny rozwój technologii informacyjnej umoŜliwił potencjalnym klientom, jak równieŜ
osobom ubezpieczonym łatwy i szybki dostęp do aktów normatywnych regulujących system ubezpieczeń na rynku krajowym i zagranicznym.
Problemem jednak jest autoryzacja informacji z tego obszaru, jak równieŜ rozmiar zasobów
informacyjnych z tego zakresu, a takŜe dogodność ich przeszukiwania.
Lp.
Adres strony internetowej:
Dostępność porad
prawnych on-line
MoŜliwość znalezienia najbliŜszej
kancelarii prawniczej
Darmowy dostęp do
bazy aktów prawnych
Orzecznictwo
Wyszukiwania informacji według
haseł
Wyszukiwanie informacji według
aktów prawnych
Wyszukiwanie informacji według
ofert i prawnego
serwisu inform.
Tabela 1. Analiza struktur informacyjnych oraz kryteriów wyszukiwania informacji prawnej w wybranych portalach internetowych
1.
2.
3.
4.
5.
www.ufg.pl
www.pzu.pl
www.infor.pl
www.e-prawnik.pl
www.polbrokers.pl
+
-
+
+
+
+
+
+
+
+
-
+
+
+
+
+
+
+
+
-
6.
http://isip.sejm.gov
.pl/prawo/index.ht
ml
-
-
+
-
+
+
-
7.
8.
9.
www.lex.com.pl
www.prawnik.pl
www.gazetaprawn
a.pl
www.serwisprawa.
pl
www.rp.pl
+
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
+
+
+
-
+
+
+
+
+
-
10.
11.
Źródło: badania własne na podstawie ww. źródeł internetowych
Portale zajmujące się zbieraniem i udostępnianiem informacji tego typu moŜna zasadniczo
podzielić ze względu na formę prezentacji danych z tym związanych. Do pierwszej grupy naleŜy
zaliczyć portale, które umoŜliwiają zapoznanie się z regulacjami prawnymi z zakresu ubezpieczeń
bez konieczności ponoszenia dodatkowych kosztów przez osobę zainteresowaną. Druga grupa
32
Mieszko Bojar
Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych
w warunkach podwyŜszonego ryzyka
składa się z programów oraz portali internetowych (Lex Omega, Lex Gamma, Lex Sigma, eprawnik.pl, do których dostęp jest odpłatny. Co do zasady przepisy prawa z zakresu usług ubezpieczeniowych są dostępne bezpłatnie na stronach internetowych instytucji państwowych, największych zakładów ubezpieczeń na polskim rynku oraz w portalach komercyjnych (tabela 1).
Portale tego typu wyposaŜone są zazwyczaj w wyspecjalizowane oprogramowanie umoŜliwiające w łatwy i precyzyjny sposób przeszukiwania baz danych za pomocą wyszukiwarek informacji. Internetowy System Informacji Prawnej oferuje selekcję i wyszukiwanie własnego zbioru
danych według haseł zawierających dowolną frazę określoną przez uŜytkownika, według haseł i
aktów prawnych oraz najszerzej według haseł, aktów prawnych oraz ofert i prawnego serwisu informacyjnego, co tworzy bazę wiedzy prawnej w wyspecjalizowanych portalach, jak np. Lex (tabela 1).
Portale prawne, jak lex, prawnik oraz prawnik, umoŜliwiają dodatkowo chronologiczne przeszukiwanie Dziennika Ustaw Rzeczpospolitej Polskiej oraz Monitora Polskiego, jak równieŜ wyszukiwanie zagadnień w bazie danych usystematyzowanych według poszczególnych gałęzi prawa.
ToŜsame metody eksploracji wiedzy prawniczej wykorzystują inne wyspecjalizowane portale o
tematyce prawnej, które zawierają równieŜ zbiory bibliograficzne oraz umoŜliwiają zapoznanie się
z orzecznictwem sądowniczym na dany temat. Dodatkową usługą oferowaną przez portale zajmujące się problematyką prawną jest moŜliwość uzyskania przez osobę odwiedzającą daną stronę
internetową porady prawnej on-line. WiąŜe się to jednak z koniecznością uiszczenia przez usługobiorcę określonej opłaty (tabela 1).
Informacje prawne moŜna znaleźć m.in. pod następującymi adresami:
- www.isip.sejm.gov.pl – Internetowy System Informacji Prawnej
- www.ufg.pl
Ubezpieczeniowy Fundusz Gwarancyjny
- www.pzu.pl
Powszechny Zakład Ubezpieczeń
- www.infor.pl
portal komercyjny
- www.e-prawnik.pl –
portal komercyjny
- www.polbrokers.pl
portal komercyjny
- www.serwisprawa.pl – portal komercyjny
- www.lex.com.pl –
a Wolters Kluwer business – portal komercyjny
- www.prawnik.pl –
portal komercyjny
- www.gazetaprawna.pl – portal komercyjny
- www.serwisprawa.pl – portal komercyjny
- www.rp.pl
portal komercyjny dziennik Rzeczpospolita
Zasadniczą kwestią dla osoby poszukującej informacji z zakresu prawa ubezpieczeniowego
za pomocą źródeł internetowych jest poziom wiarygodności i aktualności zgromadzonych tam
wiadomości. Działalność portali internetowych jak kaŜda inna działalność gospodarcza prowadzona w realiach wolnego rynku poddawana jest mechanizmom wolnorynkowym i jest przez nie permanentnie weryfikowana. Co za tym idzie portale najbardziej rzeczowe i wiarygodne, a takŜe oferujące przejrzysty interfejs eliminują portale o mniejszej uŜyteczności, przejmując ich uŜytkowników. Co do zasady więc, portale mające największą liczbę odwiedzin uŜytkowników, zapewniają
najbardziej precyzyjną i wiarygodną pomoc prawną.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
33
4. Podsumowanie
Z przeprowadzonych studiów literatury przedmiotu oraz przeglądu moŜliwości eksploracji
wiedzy z zakresu przepisów prawa dotyczącego ubezpieczeń gospodarczych wynika, Ŝe usługi z
tego zakresu naleŜą w gospodarce rynkowej do dynamicznie rozwijających się działań pozwalających minimalizować i zarządzać ryzykiem związanym ze zdarzeniami losowymi, co moŜe łagodzić
skutki globalnego kryzysu finansowego zarówno dla osób fizycznych jak i prawnych. Warunkiem
powodzenia dynamicznego rozwoju ubezpieczeń gospodarczych w okresie transformacji ustrojowej był proces unifikacji prawa zgodny w tym zakresie z wymogami integracji europejskiej oraz
zmianami systemu społeczno-gospodarczego. MoŜna stwierdzić takŜe, iŜ permanentny wzrost rynku usług ubezpieczeniowych w okresie transformacji był moŜliwy dzięki konsekwentnie
i restrykcyjnie prowadzonemu nadzorowi finansowemu realizowanemu na mocy adekwatnych i dostosowanych do wymogów współczesności przepisów. Innym równie waŜnym aspektem przyspieszającym tempo rozwoju sektora usług ubezpieczeniowych było upowszechnienie wiedzy z zakresu stosowania przepisów prawnych poprzez rozwój i zastosowanie moŜliwości technologii informacyjnej w upowszechnianiu wiedzy prawniczej z tego zakresu za pośrednictwem internetowych
portali komercyjnych i niekomercyjnych.
5. Literatura
1.
Praca pod red. T. Sangowskiego, 2001. Ubezpieczenia gospodarcze Poltext, Warszawa. s.
59, 60, 62
2. Garbiec R. 2003. Ubezpieczenia w Teorii i Praktyce. Wydaw. Wydz. Zarządzania
Politech. Częstochowskiej, Częstochowa.
3. Ustawa z dnia 20 września 1984 r. o ubezpieczeniach majątkowych i osobowych, Dz.U. z
1984 r., Nr 45, poz. 242
4. Ustawa z dnia 17 maja 1989 r. o zmianie ustawy o ubezpieczeniach majątkowych i
osobowych, Dz.U. 1989 r., Nr 30, poz. 160
5. Ustawa z dnia 28 lipca 1990 r. o działalności ubezpieczeniowej, Dz.U. z 1990 r., Nr 59,
poz. 344
6. Ustawa z dnia 28 lipca 1990 r. o zmianie ustawy – Kodeks cywilny, Dz.U. z 1990 r. Nr
55, poz. 321
7. Por. Dz.U. z 1994 r., zał. do nr 11, poz. 38 z 27 stycznia 1994 r.
8. Ustawa z dnia 8 czerwca 1995 r. o zmianie ustawy o działalności ubezpieczeniowej, o
zmianie rozporządzenia Prezydenta Rzeczpospolitej – Kodeks handlowy oraz o zmianie
ustawy o podatku dochodowym od osób prawnych, Dz.U. z 1995 r. Nr 96, poz. 478
9. Ustawa z dnia 10 grudnia 1998 r. o zmianie ustawy o działalności ubezpieczeniowej,
Dz.U. z 1998 r. Nr 155, poz. 1215
10. Ustawa z dnia 21 lipca 2000 r. o zmianie ustawy o działalności ubezpieczeniowej, Dz.U.
z 2000 r. Nr 70, poz. 819
11. Ustawa z dnia 22 maja 2003 r. o działalności ubezpieczeniowej, Dz.U. Nr 124 poz. 1151,
Ustawa z dnia 22 maja 2003 r. o pośrednictwie ubezpieczeniowym, Dz.U. Nr.124, poz.
1154, Ustawa z dnia 22 maja 2003 r. o ubezpieczeniach obowiązkowych,
Ubezpieczeniowym Funduszu Gwarancyjnym i Polskim Biurze Ubezpieczycieli
Komunalnych, Dz.U. Nr 124, poz. 1152; Ustawa z dnia 22 maja 2003 r. o nadzorze
34
Mieszko Bojar
Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych
w warunkach podwyŜszonego ryzyka
ubezpieczeniowym i emerytalnym oraz Rzeczniku Ubezpieczonych, Dz.U. Nr 124, poz.
1153
A ROLE AND MEANINGS OF ECONOMICAL UNDERWRITES LEGAL BASES UNDER
ADVANCED RISK
Summary
From carried out literature studies and review of possibilities of knowledge exploration from the scope of legal regulations concerning economical underwrites results that services from this area belong to those ones which are dynamically developed and let manage with risk closed to random events. It can soften effects of financial crisis both for physical and legal persons. This is effect of grafting for Polish
system the Western legal solutions made gradually through Polish legislator during
transformation. Spreading knowledge from the scope of usage of legal regulations
through development and application of IT in propagation of legal knowledge from
this area is made through Internet commercial and non-commercial portals, what
stimulates essentially a development of insurance services market.
Keywords: insurance services, legal regulations, IT application
Mieszko Bojar
85-791 Bydgoszcz
ul. Wierzejwskiego 1/44
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
35
JACEK CHMIELEWSKI
Zaoczne Studium Doktoranckie IBS PAN
ZARZĄDZANIE WIEDZĄ W WARUNKACH KRYZYSU FINANSOWEGO
GOSPODARKI – SPOJRZENIE PRZEZ E-WIEDZĘ
Streszczenie
Globalny kryzys finansowy rozpoczął się w połowie 2007 roku, kiedy nastąpił
spadek cen nieruchomości w Stanach Zjednoczonych. Pomimo powaŜnego zasięgu
kryzysu musiało minąć kilka miesięcy, aby oficjalnie podano, ze jest to kryzys. Dlaczego w czasach szybkiego przepływu informacji nie jesteśmy w stanie szybko reagować na docierające dane i podejmować akcji korygujących? W artykule przedstawiono rozwaŜania dotyczące moŜliwych działań w aspekcie wykorzystania zarządzania wiedzą w warunkach kryzysu.
Słowa kluczowe: kryzys finansowy, bazy wiedzy, plany pomocowe, zarządzanie wiedzą w organizacjach
1. Wprowadzenie
Wydarzenia na rynkach finansowych począwszy od połowy roku 2007 spowodowały powaŜne konsekwencje nie tylko dla rynków finansowych, ale równieŜ w coraz wiekszym stopniu dla
gospodarek krajów niezaleŜnie od stopnia rozwoju tych gospodarek. Wielkość kryzysu zdaniem
ekspertów przewyŜsza największą recesję gospodarczą z roku 1929. MoŜna postawić tezę, Ŝe chęć
osiągania wysokiego zwrotu z inwestycji spowodowała powstanie wysokiego ryzyka inwestycyjne,
które było ukrywane na róŜne sposoby, ale istniało.
Powstaje pytanie, dlaczego w istniejącej sieci wiedzy nie jesteśmy w stanie przewidzieć kryzysu, który był nieunikniony. Nie chodzi tu o koniunkturalny cykl rozwoju i spowolnienia rozwoju,
ale o prowadzenie przez instytucje finansowe działalności, która nieuchronnie prowadziła do powstania globalnych problemów o charakatarze kryzysu.
Dlaczego nie umiemy określać ryzyka inwestycji, w szczególności, dlaczego instytucje finansowe tworzą portfele inwestycji, które mogą doprowadzić do ich upadku?
Alan Greenspan określił aktulną sytuację globalnych rynków finansowych jako „kredytowe
tsunami stulecia”.
Szczegółowy opis istonych faktów z zakresu rozwoju kryzysu finansowego moŜemy znaleŜć
na: http://en.wikipedia.org/wiki/Global_financial_crisis_of_2008. W artykule moŜemy znaleźć
szczegółowy opis wydarzeń od września 2008 do dnia obecnego. Najbardziej aktualne wydarzenia
są dopisywane do artykyłu. W artykule mamy odwołania do 200 artykułów, ktróre ukazały się
w The New York Times.
Kryzys finansowy w sposób nieunikniony oddziałowuje na działalność gospodarczą. PoniŜej
przedstawiona jest mapa pokazująca, które kraje w grudniu 2008 są juŜ objęte recesją. Istnieje
równieŜ grupa krajów, która nie weszły jeszcze w recesję, ale kyzys finansowy spowodował powstanie problemów gospodarczych. Kryzys finansowy i kryzys gospodarczy mają zasięg globalny.
36
Jacek Chmielewski
Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki
– spojrzenie przez e-wiedzę
Problemy banków w Stanach Zjednoczonych bardzo szybko przełoŜyły się na problemy banków
europejskich. Kryzys sektora samochodowego (trójka producentów z Detroit) równieŜ znalazł odbicie w sektorze samochodowym Wielkiej Brytanii i Japonii.
Rys. 1 – Recesja gospodarcza stan na grudzień 2008,
Kraje w recesji (kolor Stanów Zjednoczonych), kraje powaŜnie zagroŜone recesją( kolor Rosji).
Na podstawie: http://en.wikipedia.org/wiki/Global_financial_crisis_of_2008
Obecnie cały świat podejmuje wysiłki mające na celu wyprowadzenie gospodarki światowej z
recesji i stworzenie mechanizmów, które mogłyby zapobiec powstawaniu podobnych problemów w
przyszłości. Globalny przepływ informacji pozwolił szybko określić przyczyny powstania kryzysu
wydaje się, Ŝe podejmowane działania prowadzące do wyjścia z kryzysu nie są juŜ tak oczywiste i
mogą podlegać róŜnym ocenom.
2. RóŜne podejścia do rozwiązania kryzysu
W chwili obecnej główną metdodą uzdrowienia sektora finansowego jest udzielanie pomocy
rządowej dla dokapitalizowania instytucji, zwiększenia ich płynności finansowej i moŜliwości pozbycia się niepłynnych środków (toxic assets). Dla odblokowania linii kredytowych i uaktywnienia
poŜyczek międzybankowych obniŜane są stopy procentowe przez banki centralne. Następuje równieŜ kupowanie instytucji finasowych przez inne instytucje.
Do tej pory zostały uruchomione następujące pakiety pomocy:
700 mld $ plan Paulsona TARP (Troubled Assets Relief Program)
16.3 mld $ rządy Belgii, Holandii i Luksemburga zakupiły pakiety akcji banku Fortis
85 mld $ wsparcia Rezerwy Federalnej USA dla AIG
Pakistan, Islandia, Węgry, Serbia i Ukraina były pierwszymi krajami, które zwróciły się o
pomoc do Międzynarodowego Funduszu Walutowego (IMF – International Monetary Fund)
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
37
50 mld $ Rządu Rosji dla firm działających na terytorium Rosji
17.4 mld $ dla Chrysler, General Motors i Ford
586 mld $ rządu Chin jako inwestycje w infrastrukturę do końca roku 2010
99.8 mld $ Europejski Bank Centralny wystawił jako one-day-market-auction
850 mld $ Rządu Wielkiej Brytanii jako pakiet pomocowy dla banków
54 mld $ Rządu Japonii jako pomoc dla instytuacji finansowych
750 mld $ do 1000 mld $ w zapowiedzi Baraka Obamy na lata 2009 do 2010 jako pakiet
stymulujący w zakresie infrastruktury transportowej, dostepu szerokopasmowego do
Internetu i technologii pro-ekologicznych).
200 mld € Unii Europejskiej na pobudzenie gospodarki
W zakresie przejęć ratunkowych na rynku instytuci finansowych:
• Bank Of America przejął Merill Lynch
• JP Morgan przejął Washington Mutual
• Lloyds TSB ratuje Halifax Bank
Jest równieŜ inne podejście w przypadku gospodarki niemieckiej. Minister Finansów Niemiec
Peer Steinbruck podkreślił, Ŝe nie wierzy w pakiety pomocy i zapowiedział duŜe opory ze strony
rządowej w wydawaniu pieniędzy państwowych na wsparcie sektora finansowego, choć wcześniej
Hypo Real Estate pomoc rządową otrzymał.
Rządowa pomoc prywatnemu sektorowi finansowemu odbywa się w oparciu o załoŜenie, Ŝe
brak reakcji doprowadzi do wielkiego kryzysu, który nie zatrzyma się tylko wewnątrz tych instytucji, ale w sposób nieunikniony dotknie gospodarek. Trudno nie zgodzić się z tą tezą tym bardziej,
Ŝe juŜ obecnie widać taki wpływ. Obecnie oceny podjętych działań w Stanach Zjednoczonych jest
wstępnie określone jako właściwy kierunek. PoniŜej przedstawione są moŜliwe korzyści, jakie dla
gospodarki mogą przynieść podjęte juŜ kroki (na podstawie:
http://articles.moneycentral.msn.com/News/5-reasons-the-economy-might-recover-fasterthan-you-think.aspx ):
• Konsekwencją kryzysu gospodarczego jest zmniejszenie zapotrzebowania na ropę naftową, co spowodowało zmniejszenie ceny za baryłkę ze 147$ do poniŜej 45$. Nie dysponuję danymi, które pokazałyby o ile równieŜ zmniejszyły się spekulacje na cenach ropy naftowej, ale moŜna przypuszczać, Ŝe w obecnej sytuacji spekulacja moŜe być mniejsza. Dla
Stanów Zjednoczonych dobra cena ropy moŜe zwiększyć Produkt Krajowy Brutto o 2%.
• Zmniejszenie oprocentowania kredytów hipotecznych dla poŜyczki 30 letniej do 5.19%.
Daje to moŜliwość spłaty poŜyczek przez kredytobiorców a takŜe stwarza moŜliwość refinasowania kredytów hipotecznych przy zapowiedzi Departamnetu Skarbu Stanów Zjednoczonych na obniŜenie oprocentowania do 4.5%. Dodatkowo Rezerwa Federalna Stanów Zjednoczonych zapowiada skup papierów wartościowych emitowanych do kredytów
hipotecznych. Dwuprocentowa obniŜka opocentowania kredytów hipotecznych oznacza w
Stanach Zjednoczonyh zwrot 200 mld $ dla 45 milionów Amerykanów mających kredyty
hipoteczne.
• Rezerwa Federalna zwiększa płynność systemu finansowego tak szybko jak to jest tylko
moŜliwe. Jest to istotna róŜnica w porównaniu z Wielką Recesją w roku 1930, gdzie Rezerwa Federalna nie wykonywała takich operacji.
38
Jacek Chmielewski
Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki
– spojrzenie przez e-wiedzę
•
Plan Baraka Obamy z utworzeniem 3 milionów nowych miejsc pracy w Stanach Zjednoczonych jest ciągle dyskutowana lub nawet krytykowana (Susan Woodward z UCLA
i Robert Hall z MIT oceniają ten plan jako projekt kompleksowy). Nawet, gdy główny
plan jest w trakcie dyskusji juŜ jest podejmowana próba uruchomienia kolejnego programu, który ma na celu zmniejszeniu podatków odprowadzanych przez indywidualnych podatników, podatków od działalności biznesowej i podatków od kapitału.
• Fundamenty gospodarki Stanów Zjednoczonych ciągle pozycjonują ten kraj jako najbardziej konkurencyjna ekonomia na świecie. (World Economic Forum – Davos 2008, jako
kolejne kraje wskazane zostały Szwajcaria, Dania, Szwecja i Singapur).
Są równieŜ bardzo niepokojące informacje dotyczące pomysłów na działalność organizacji
w czasach kryzysowych. Zapewne róŜne są przyczyny podejmowania decyzji o zwalnianiu pracowników, ale zapowiedzi niektórych firm mogą budzić, co najmniej zdziwienie. Trudno jest mi
wytłumaczyć jak moŜna doprowadzić do sytuacji, w którym ogólnoświatowy bank zapowiada
zwolnienie 75 000 pracowników, co stanowi 20% załogi. Powstaje pytanie czy struktura zatrudnienia była prawidłowa, czy czas prosperity nie jest czasem działania organizacji w warunkach braku
racjonalizacji zatrudnienia. Dlaczego w czasie, gdy bardzo często pracownik jest pracownikiem
wiedzy tak łatwo podejmowana jest decyzja o cięciu kosztów za pomocą redukcji zatrudnienia?
Pozornie wygląda to na troskę organizacji o akcjonariuszy, ale moim zdaniem jest to błąd polegający na szukaniu oszczędności w sposób bardzo prymitywny i krótkoterminowy. Zapewne interesujące będzie porównanie w przyszłości czy faktycznie organizacje, które wykonają tak duŜe redukcje zatrudnienia wyjdą z kryzysu lepiej niŜ organizacje, które będą poszukiwały bardziej złoŜonych
rozwiązań dla minimalizacji skutków kryzysu a w kolejnym kroku wychodzenie z kryzysu z korzyścią dla organizacji i akcjonariuszy.
PoniŜsza tabelka podaje zapowiedzi organizacji, które zapowiedziały redukcję zatrudnienia.
Rys. 2 – Zapowiedzi redukcji zatrudnienia – www.money.pl na podstawie doniesień prasowych
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
39
W Polsce podejście do kryzysu jest bardzo zachowawcze. Rozwiązanie problemu rozpoczeło
się od zaklinania rzeczywistości, Ŝe dzieki naszemu sektorowi bankowemu nie będzie w Polsce
kryzysu. Rzeczywistość okazała się znacznie bardziej skomplikowana i w sposób oczywisty zawirowania w gospodarkach światowych ma wpływ równiez na polską gospodarkę. Widać to na podstawie obniŜania prognoz PKB na rok 2009. Na początku grudnia 2008 Ministerstwo Finansów
zweryfikowało zapisane z ustawie budŜetowej na rok 2009 tempo rozwoju gospodarczego z 4.8%
do 3.7% i prognozowany wrzost bezrobocia z 7.1% do 7.2%. Deficyt budŜetowy pozostał na niezmienionym poziomie 18.2 Mld zlotych. Cały artykuł moŜna znaleźć na stronie Internetowej:
http://www.money.pl/gospodarka/wiadomosci/artykul/kryzys;zmienia;rzadowe;prognozy,31,0,411
935.html.
Dotychczas w ramach stabilizacji sektora bankowego Narodowy Bank Polski ogłosił we
wrześniu 2008 Pakiet Zaufania, który ma na celu zwiększenie płynności banków działających na
terenie Polski i przywrócenie operacji międzybankowych, które bardzo się zmniejszyły, gdyŜ banki
nie chciały sobie nawzajem poŜyczać pieniędzy. W listopadzie 2008 Rząd RP ogłosił Plan Stabilności i Rozwoju w kwocie 91 mld złotych. W grudniu 2008 Rada Polityki PienięŜnej obniŜyła stopy procentowe po raz pierwszy w historii na koniec roku kalendarzowego.
Trudno oceniać obecnie skuteczność interwencji podejmowanych dla ratowania sektora finansowego i gospodarek na świecie i w Polsce, moŜna zaryzykować stwierdzenie, Ŝe znaczące
działania zostały podjęte z opóźnieniem głównie z powodu braku wiedzy o ryzyku świadomie
ukrywanym przez instytucje finansowe w kredytach sub-prime. Zapewne lepszym scenariuszem
byłyby działania zapobiegawcze podjęte juŜ w połowie 2007 roku, ale nie było takiej moŜliwości
gdyŜ wiedza, którą posiadały rządy krajów nie była wystarczająca.
3. Zarządzanie wiedzą w organizacjach
Rozwój organizacji w warunkach bardzo przyjaznego rozwijającego się otoczenia wydaje się
zadaniem stosunkowo prostym. Znacznie trudniej jest chronić organizację w warunkach kryzysu, a
w szczególności podejmować takie działania, które wzmacniają organizację i nie prowadzą do jej
degradacji nawet w niesprzyjającym otoczeniu. Moim zdaniem powstaje połączenie pomiędzy
wiedzą organizacji i jej innowacyjnością. Problem jest taki, Ŝe w warunkach rozwoju dość naturalnym wydaje się zmniejszenie nacisku na innowacje i budowanie wiedzy organizacji, bo biznes
rozwija się dobrze i nie ma zbyt wielu chętnych menedŜerów na dodatkową pracę i wysiłek. Interesujące spojrzenie na innowacyjność bankową moŜna znaleźć w artykule Prezesa BRE Banku Mariusza Grendowicza na stronie Internetowej: http://www.rp.pl/artykul/232042.html.
Brak jasnego ostrzeŜenia o nadchodzącym kryzysie jest dość istotną lekcją dla organizacji, Ŝe
nawet w czasach rozwoju naleŜy mieć przygotowane scenariusze na pogorszenie koniunktury, które nie musi być spowodowane kryzysem, moŜe to być na przykład zacieśnienie rynku przez graczy
na rynku, jak na przykład pojawienie się nowych podmiotów, które zwięszają konkurencję w sektorze.
Wydaje się, zatem celowym utworzenie w organizacji procesów, które kontrolują organizację
w zakresie:
• Nieustającego rozwoju wiedzy nie tylko skierowanej na główną działalność organizacji
(core, competencies), ale równieŜ wiedzę ekonomiczną i finansową
40
Jacek Chmielewski
Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki
– spojrzenie przez e-wiedzę
•
Nieustającego rozwoju organizacji poprzez rozwijanie produktów innowacyjnych z systemem nagrodowym. Wprowadzenie produktów innowacyjnych musi stanowić istotny
element oceny kadry zarządzającej organizacjami i musi wpływać na wynagrodzenie.
Dobrym przykładem braku wiedzy ekonomicznej równoległej do wiedzy dotyczącej podstawowej działalności organizacji są kłopoty polskich organizacji, które wykupiły walutowe transakcje terminowe. Spółka zaleŜna firmy notowanej na GPW złoŜyła wniosek o upadłość. Więcej,
informacji moŜna znaleźć na stronie Internetowej:
http://www.money.pl/gielda/wiadomosci/artykul/zarzad;elwo;zlozyl;wniosek;o;upadlosc,106,0,412
010.html.
Podkreśliłem, Ŝe bazy wiedzy budowane w organizacjach nie tylko powinny dotyczyć głównej działalności, ale równieŜ wiedzy ekonomicznej. Dla przykładu chciałbym zaprezentować wyniki przeszukania strony Internetowej General Motors, jednej z trzech organizacji samochodowych
z Detroit, które w sposób istotny zostały dotknięte przez kryzys finansowy.
PoniŜszy rysunek przedstawia wydruk strony przeszukiwania słowa „knowledge management” na stronie Internetowej www.gm.com:
Rys. 3- Wyniki wyszukiwania „knowledge management na stronie www.gm.com
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
41
Na czym polega problem? Moim zdaniem jest brak podejścia w sensie zarządzania wiedzą do
aspektów ekonomicznych i finansowych działalności organizacji. Jeśli załoŜymy, Ŝe baza wiedzy
organizacji lub zarządzanie wiedzą w organizacji przekłada się na działalność operacyjną pracowników moŜemy postawić tezę, Ŝe pracownicy sa skoncentrowani na dostarczanie celów definiowanych przez organizację, ale nie przykładają naleŜytej uwagi na aspekty ekonomiczne, które są ściśle powiązane z ich działalnością. MoŜe to prowadzić do dostarczania rozwiązań nieefektywnych
ekonomicznie, co w szczególności w czasach kryzysu nie pozwala w sposób skuteczny umacniać
organizacji i minimalizować skutków kryzysu.
W zakresie zarządzania wiedzą w instytucjach finansowych wydaje się bardzo istotne ustalenie
zasad publicznego dostępu do baz wiedzy. W szczególności bazy wiedzy instytucji ratingowych
powinny zostać upowszechnione, jako Ŝe te instytucje przyczyniły się do powstania kryzysu finansowego. Nadawanie ratingów dla papierów wartościowych i instrumentów finansowych nie moŜe
się odbywać na zasadzie monopolu (liczą się tak naprawdę trzy ogólno światowe agencje ratingowe) powinna to być wiedza powszechnie dostępna.
Wydaje się równieŜ istotna potrzeba tworzenia baz wiedzy dla edukacji społeczeństw w zakresie produktów finansowych dostępnych na rynku. Marketing sprzedaŜy rozlicznych produktów
finansowych musi być poparty równieŜ dostępem do baz wiedzy, które pozwolą podejmować
świadome decyzje dla tych osób, które chcą podejmować świadome decyzje. Nie jest to budowanie
systemu od nowa, poniŜej podałem przykład dostępu do baz wiedzy zarządzanych przez Bank of
America na stronie Internetowej www.bankofamerica.com:
::
Rys. 4- Wyniki wyszukiwania „knowledge management na stronie www.bankofamerica.com
Podobne narzędzia i bazy danych powinny być dostępne w zakresie funduszy inwestycyjnych,
42
Jacek Chmielewski
Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki
– spojrzenie przez e-wiedzę
które są jednym z produktów inwestycyjnych dla klientów indywidualnych. Klienci są właścicielami jednostek funduszy inwestycyjnych poprzez świadome zakupy, ale równieŜ jako klienci funduszy emerytalnych.
4. Systemowy monitoring ekonomiczny organizacji
Kryzys finansowy wymusza nowe spojrzenie na działalność organizacji w zakresie bezpieczeństwa finansowego. Dynamiczny rozwój instytucji finansowych i liberalizacja rynku, operowanie przez instytucje finansowe i duŜe organizacje biznesowe budŜetami większymi niŜ PKB krajów, w których działają wymaga nowego podejścia do rynku. Moim zdaniem zmiany powinny dotyczyć uregulowanej prawnie większej jawności prowadzenia operacji przez instytucje finansowe
i podmioty gospodarcze. W zakresie podmiotów gospodarczych dla spółek notowanych na giełdach jawność działań jest zachowana. Większa jawność jest potrzebna w zakresie działania instytucji finansowych.
Kryzys finansowy wymusza równieŜ zwiększenie kontroli nad działalnością finansową organizacji gospodarczych, finansów regionów i budŜetów państw. Dobrym przykładem działalności instytucji nadzoru finansowego jest Komisja Nadzoru Finansowego, która krytykowana w przeszłości za konserwatyzm działania uchroniła polski sektor bankowy przed uczestniczeniem w bardzo
ryzykownych operacjach globalnych rynków finansowych.
Brak właściwego nadzoru nad wydatkami regionu moŜe doporowadzić do sytuacji, w jakiej
znalazł się stan Kalifornia w Stanach Zjednoczonych. Zakładany deficyt budŜetowy 3.6 Mld $ w
roku 2008 wzrósł do 14.8 Mld $. Więcej informacji na ten temat moŜna znaleźć na stronie Internetowej: http://blogs.moneycentral.msn.com/topstocks/archive/2008/12/11/california-and-the-greatstate-bailout.aspx.
Oczywiście istnieją mechanizmy kontroli wewnątrz samych organizacji, ale często są to metody polegające na „obserwowowaniu” sytuacji zamiast pro aktywne działania wyprzedzające. Systemy nadzoru to kolejny obszar wymagający rozwoju baz wiedzy, które powinny być powszechnie
dostępne w obrębie organizacji, ale równieŜ w zakresie moŜliwym do udostępnienia publicznego
dla kaŜdego, kto chce dotrzeć do wiedzy. Moim zdaniem upowszechnieniu powinny podlegać następujące bazy wiedzy:
• Baza wiedzy nadawania ocen przez agencje ratingowe. Baza powinna umoŜliwiać dotarcie do informacji, w jaki sposób dokonano oceny a nie tylko samego indeksu, który jest znany, ale nie wiemy jak został wyliczony.
• Baza wiedzy wykorzystania środków pomocowych. Wiedza moŜe dopomóc w analizie oceny skuteczności dostarczanej pomocy, jednocześnie powinna zmusić, pobierajacych pomoc do racjonalnego wykorzystywania pomocy.
5. Uwagi końcowe
Istotnym problemem w rozwiązaniu kryzysu finansowego przekładającego się na kryzys gospodarczy jest podjęcie odpowiednich kroków, które w sposób najbardziej skuteczny spowodują
zakończenie kryzysu i skrócą czas trwania. Podejście do problemu wymaga podjęcia wysiłku rozszerzenia dostępności wiedzy i baz wiedzy w moŜliwie najszerszym zakresie, aby działalność wewnątrz organizacji jak najbardziej była skupiona na finansowym aspekcie działania organizacji.
Rozszerzenia istniejących baz wiedzy jak równieŜ tworzenie nowych baz wymaga wsparcia sektora
Naukowo-Badawczego, co zapewni systemowe podejście do rozwiązywania problemu.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
43
6. Literatura.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
Drelichowski L.:Podstawy InŜynierii Zarządzania Wiedzą. W: Biblioteka Polskiego
Stowarzyszenia Zarządzanie Wiedzą, Polskie Stowarzyszenie Zarządzania Wiedzą,
Bydgoszcz 2004
Straszak A.: Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów. W: Artykuł
na VI Kongres Polskiego Stowarzyszenia Zarządzania Wiedzą, 2009
Theil S.: It does not exsist. W: Newsweek, http://www.newsweek.com/id/172613,Dec. 15,
2008
Soros G.:– The Credit Crisis of 2008 and What it Means. W: The New Paradigm for
Financial Market, New York, ISBN 9781586486839
The Economist: Structural Cracks: Trouble ahead for global house prices. W: The
Economist Newspaper Limited. http://www.economist.com/specialreports/ displaystory.
cfm?story_id=11325408, May 15, 2008
Paulson H.: Statement by Secretary Henry M. Paulson, Jr. on Federal Housing Finance
Agency to Protect Financial Market and Taxpayers. W: Press Room U.S Department of
Treasury, http://www.treas.gov/press/releases/hp1129.htm, Sep.7, 2008
Fackler M.: Financial Crisis Spreads to Emerging Nations. W: The New York Times,
World Business, http://www.nytimes.com/2008/10/24/business/worldbusiness/ 24won.
html?_r=1 , Oct 23, 2008
Norris
F.:
United
Panic.
W:
The
New
York
Times,
Business,
http://norris.blogs.nytimes.com/2008/10/24/united-panic/, Oct. 24, 2008
Grynbaum M.: Bernanke Says Bailout Will Need Time to Work. W: The New York
Times,
Economy,
http://www.nytimes.com/2008/10/16/business/economy/
16bernanke.html, Oct. 15, 2008
Kary T., Scinta C.: JP Morgan Gave $138 Billion After Bancruptcy. W: Bloomberg.com,
http://www.bloomberg.com/apps/news?pid=20601087&sid=aX7mhYCHmVf8&refer=ho
me , Sept 16. 2008
Castle S.: European Officials Debate Need for Bailout Package. W: New York Times,
World Business, http://www.nytimes.com/2008/10/02/business/worldbusiness/02regulate.
html , Oct. 1, 2008
BBC: Financial crisis at-a-glance. W: BBC.com, http://news.bbc.co.uk/2/hi/business/
7656212.stm , Oct.7 2008
Bull A.: Fed Says to Make Loans to Aid Money Market Funds. W: Reuters.com,
http://www.reuters.com/article/ousiv/idUSN1926607920080919 , Sep. 19 2008
Read C.: Global Financial Meltdown: How we can avoid the next economic crisis. W:
New York Palgrave Macmillian. ISBN 9780230222182.
44
Jacek Chmielewski
Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki
– spojrzenie przez e-wiedzę
KNOWLEDGE MANAGEMENT DURING FINANCIAL CRISIS OF ECONOMY –
OVERSIGHT BY E-KNOWLEDGE
Summary
The global financial crisis started in middle of 2007 year and has been triggered by decreased prices of properties in the United States. Even if it is broad scale
crisis it has been passed a couple of months when it has been officially recognized
that we are in the crisis stage. Why we can not take adjusted actions on timely manner when dataflow is unlimited. In the paper it is presented deliberations on knowledge management utilization over the economy crisis stage.
Keywords: financial crisis, knowledge databases, bailouts, knowledge management in organizations
Jacek Chmielewski
Zaoczne Studium Doktorackie IBS PAN,
Warszawa ul. Newelska 4
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
45
MAGDALENA CISZCZYK,
EMMA KUSZTINA
Politechnika Szczecińska
MODEL SYSTEMU INFORMATYCZNEGO WSPIERAJĄCEGO REALIZACJĘ PROCESU NAUCZANIA OPARTEGO NA KOMPETENCJACH W ŚRODOWISKU REPOZYTORIUM WIEDZY
Streszczenie
Coraz powszechniejszą tendencją jest budowanie repozytoriów, w których przechowywane są materiały dydaktyczne, wykorzystywane dla potrzeb realizacji procesu nauczania. W artykule autorzy konfrontują zasady funkcjonowania „repozytoriów
nauczania” z potrzebą nauczania opartego na kompetencjach. Wskazana luka jest
postawą do opracowania systemu informatycznego, który będzie wspierał realizację
procesu nauczania opartego na kompetencjach w środowisku repozytorium.
Słowa kluczowe: repozytorium, proces nauczania, zarządzanie kompetencjami.
1. Wprowadzenie
Budowa repozytoriów przechowujących materiały dydaktyczne jest obecnie przedmiotem zainteresowań zwłaszcza organizacji edukacyjnych [1], [2], [3], [4]. W leksykonie kształcenia na
odległość opublikowanym przez IKO podjęto próbę definicji pojęcia repozytorium w kontekście
realizacji procesu nauczania. Zgodnie z tą definicją repozytorium jest miejscem przechowywania
ustrukturyzowanej wiedzy dziedzinowej, przeznaczonej do wielokrotnego wykorzystania w róŜnych kontekstach. Wiedza jest przedstawiona w postaci porcji zwanych - LO (Learning Object),
które mogą być ułoŜone w róŜne sekwencje według celów i metod nauczania [5]. MoŜna zatem
stwierdzić, Ŝe „repozytorium nauczania” jest specjalizowanym systemem informatycznym, który
wykonuje funkcje przechowywania, udostępniania i modyfikowania ustrukturyzowanej wiedzy
dziedzinowej. Wiedza zawarta w repozytorium słuŜy przede wszystkim kształtowaniu procesu poznawczego studentów, z kolei określone cele procesu nauczania decydują o głębokości i zakresie
wiedzy w postaci LO.
Z dydaktycznego punktu widzenia głównym przeznaczeniem „repozytorium nauczania” jest
wsparcie procesu nabywania kompetencji. Z tego wynikają najwaŜniejsze wymagania dotyczące
sposobu przedstawiania i udostępniania materiałów dydaktycznych zawartych w repozytorium.
KaŜda porcja materiału dydaktycznego powinna być zorientowana na nabywanie określonych
kompetencji.
2. Rola kompetencji w procesie nauczania
Tradycyjne pojęcie kompetencji szeroko wykorzystywane jest w kontekście „sukcesu zawodowego” (D. C. McClelland’, 1973 „Testing for competence rather than intelligence”). Pod tym
kątem kompetencje są czymś przeciwstawnym wynikom testów na inteligencję, lub tradycyjnym
miernikom realizacji zadań szkolnych [6]. Istnieje wiele definicji pojęcia kompetencja, przy tym
46
Magdalena Ciszczyk, Emma Kusztina
Model systemu informatycznego wspierającego realizację procesu nauczania opartego
na kompetencjach środowisku repozytorium wiedzy
w literaturze przedmiotu podkreśla się jego interdyscyplinarny charakter i rozróŜnia następujące
aspekty:
1. merytoryczny – zgodnie z którym kompetencja to konieczność przekształcania wiedzy
ukrytej w jawną, jej strukturyzowanie i łączenie wiedzy indywidualnej w wartość organizacyjną przedsiębiorstwa, która będzie stanowiła jego zasób niematerialny. Aktualizacja wiedzy o zjawiskach, technologiach, procesach z nimi związanych i obszarach,
których dotyczą, stanowi nieodłączny element rozwoju kompetencji.
2. funkcjonalny – jest to opis zadań lub oczekiwanych efektów na stanowisku pracy.
Obejmuje zasady, funkcje i style przyjęte do sprawnej realizacji bieŜących i przyszłych
czynności specjalistów.
3. behawioralny – w którym kompetencje odnoszą się do zagadnień związanych z zachowaniami i postawami pracowniczymi, np. ponoszenie odpowiedzialności, perfekcjonizm, skłonność do dzielenia się wiedzą.
4. instytucjonalny – w ramach jednej firmy kompetencje jednostkowe są wzajemne powiązane, łączone są w celu osiągnięcia efektu synergii, który wskazuje kierunek rozwoju
firmy. Z edukacyjnego punktu widzenia prezentowane podejścia nie definiują niestety
zawartości kompetencji, którą moŜna ocenić i sprawdzić. Rodzi się zatem potrzeba sformułowania
aspektu edukacyjnego pojęcia kompetencja, zgodnie z którym kompetencja jest umiejętnością
wykorzystania posiadanej lub nabytej przez studenta/ucznia wiedzy teoretycznej w celu samodzielnego rozwiązania zadania praktycznego, projektowego oraz umiejętnością interpretacji i przekazywania wyników rozwiązania w terminach wykorzystanej teorii [5]. Innymi słowy, gwarancja
nabycia kompetencji poprzez system nauczania wymaga przygotowania takiego repozytorium materiałów dydaktycznych, w którym w ramach jednej porcji materiałów dydaktycznych zostaną
określone następne elementy:
a. wiedza teoretyczna, (co to jest?),
b. wiedza proceduralna ( jak to wykorzystać?),
c. zadanie projektowe ( gdzie to warto wykorzystać?),
d. zasady motywacji ( dlaczego warto współpracować?).
Działanie to jest podstawą opracowania Learning Object dla określonych form zajęć, w którym do studenta zostaje dostarczony, poprzez mechanizmy repozytorium, zbiór trójek: „fragment
opisu dziedziny – typowe zadanie – typowe rozwiązanie” wraz z odpowiednim zadaniem sprawdzającym [7].
Aspekty 1 – 5 razem stanowią spójny system zarządzania gospodarką opartą na wiedzy, w którym wiedza występuje jako surowiec a kompetencja - jako niematerialny produkt, przedmiot popytu i podaŜy.
3. Koncepcja modelu systemu informatycznego wspierającego zarządzanie procesem nabywania kompetencji w środowisku repozytorium wiedzy
Analizując proces nabywania kompetencji przy wykorzystaniu repozytorium naleŜy juŜ na
wstępie zauwaŜyć, Ŝe wymaga on nie tylko odpowiedniego mechanizmu porcjowania wiedzy, ale
takŜe współpracy między uczestnikami procesu nauczania uwzględniającego plan rozwoju repozytorium i dopasowania do konkretnej sytuacji edukacyjnej.
Przegląd istniejących rozwiązań ([1], [2], [8], [9], [10]) pozwala zauwaŜyć, Ŝe choć repozytoria zawierają w sobie przygotowany materiał dydaktyczny, to wciąŜ brakuje: metody ustalenia pro-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
47
porcji pomiędzy wiedzą teoretyczną a proceduralną, metody oceny zakresu i głębokości wiedzy
dziedzinowej stanowiącej zawartość repozytorium, metody oceny kompletności pokrycia dziedziny
materiałami dydaktycznymi, formalnej metody motywacji studentów do współpracy i rozwoju repozytorium, modelu określającego alternatywne kierunki rozwoju repozytorium.
Rys. 1. Komponenty systemu informatycznego wspierającego proces nabywania kompetencji w środowisku repozytorium wiedzy
Źródło: opracowanie własne
W celu wypełnienia tej luki proponuje się opracowanie systemu informatycznego, na który
składają się (rys.1):
1. model porcjowania wiedzy,
2. model motywacji uczestników,
3. model symulacyjny procesu uzupełnienia repozytorium.
Pierwszy model działa w oparciu na algorytmie heurystycznym szerzej omówionym w [7].
Punktem wyjścia w modelu jest opracowanie ontologii dziedziny, jej podział na poszczególne jed-
48
Magdalena Ciszczyk, Emma Kusztina
Model systemu informatycznego wspierającego realizację procesu nauczania opartego
na kompetencjach środowisku repozytorium wiedzy
nostki lekcyjne oraz wyodrębnienie fragmentów wiedzy teoretycznej i proceduralnej. Na bazie
modelu ontologicznego dokonywane jest pierwotne załadowanie repozytorium oraz określany jest
kierunek dalszego rozwoju repozytorium. Odpowiednio przygotowany materiał dydaktyczny pierwotnie zasilający repozytorium zwiększa zdolność studenta do strukturyzacji posiadanej wiedzy
teoretycznej i połączenia jej z wynikami własnego doświadczenia. WzmoŜona zostaje równieŜ aktywność ucznia, który przyswajając określoną wiedzę teoretyczną Wt i otrzymując od nauczyciela
przykład wraz z jego rozwiązaniem (wiedza proceduralna Wp), jest w stanie zbudować własne,
Wp
i wykorzystać ten sam mechanizm jego rozwiązania analogiczne zadanie - Z
i +1
Wp
Wp
R
,rozwiązać podane zadanie nową metodą lub sformułować nowe zadanie - Z
i wykoj
i+2
Wp
rzystać nowy sposób jego rozwiązania - R
j +1
(tab.1).
Tab. 1. Sposoby pracy z materiałem dydaktycznym [7].
Wt, Wp ; Wt = wykład, Wp = ćwiczenia, laboratorium
Nauczyciel
Wt
Wp
Wp
Z
Uczeń
Wt
Wp
Z
Uczeń
Wt
i
R
Wt
i +1
j
Wp
R
j +1
Wp
Wp
Z
Uczeń
i
R
j
Wp
R
j+2
i+2
Model ontologiczny dziedziny jest podstawą do określenia modelu motywacji uczestników
procesu nauczania, którzy na zasadach kooperacji i współpracy zasilają repozytorium nowym materiałem dydaktycznym. Praca z materiałem dydaktycznym i ukierunkowany rozwój tego materiału
w repozytorium wymaga od nauczyciela i studenta odpowiedniego czasu i zaangaŜowania w proces
dydaktyczny. W związku z powyŜszym moŜna zachowanie uczestników procesu nauczania opisać
przez odpowiednią funkcję motywacji [11]. Zadaniem modelu motywacji jest znalezienie balansu
pomiędzy funkcją motywacji nauczyciela i funkcją motywacji studenta, przy czym na funkcję motywacji nauczyciela składają się:
• złoŜoność zadania,
• aktualność zadania dla nauczyciela,
• inne preferencje nauczyciela,
a na funkcję motywacji studenta:
• złoŜoność zadania i odpowiedni czas, który student musi poświęcić danemu zadaniu,
• potencjalna ocena, która student moŜe otrzymać za wykonanie danego zadania,
Wp
Z
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
49
•
inne preferencje studenta.
Sprawdzenie załoŜeń modelu motywacji i ich weryfikacja moŜe być dokonana przez model symulacji, w którym proces współpracy nauczyciela i studenta moŜna interpretować jak system
kolejkowy o następującej charakterystyce:
− przy określonej zawartości i porcjach materiałów dydaktycznych moŜna załoŜyć, Ŝe praca
nauczyciela polega na sprawdzeniu zadania;
− wynik sprawdzenia jest określony: 1. ocena pozytywna i umieszczenie zadania w repozytorium, 2. ocena pozytywna bez umieszczenia zadania w repozytorium, 3. ocena negatywna - powtórzenie wykonania zadania lub udoskonalenie zadania na ocenę pozytywną celem umieszczenia w repozytorium;
− przy określonym kursie czasie i grupie praca na stanowisku nauczyciela moŜe być potraktowana jak serwer z określonym wejściem, wyjściem, średnim czasem oceniania;
− średni czas oceniania wynika z doświadczenia nauczyciela (specyfika kaŜdego kursu
i przedmiotu, trudności zadań, typ grupy studentów, czas realizacji zajęć);
− strumień przepływu studentów jest stochastyczny, markowski (w wybranym odcinku czasu nie ma pewności ilu studentów przyjdzie, nie wiadomo ilu zaliczy zadanie, nie wiadomo czy nie dojdzie nowy student, itp.);
− studenci obsługiwani są na 1 serwerze. Przewiduje się moŜliwość kolejki, charakteryzującej się określonym czasem i sposobem obsługi.
ZałoŜenia symulacji są prowadzone w środowisku Arena firmy Rockwell Software w postaci systemu kolejkowego, który modeluje współpracę nauczyciela i studenta podczas wykorzystania repozytorium (rys. 2).
Rys. 2. Schemat modelu symulacyjnego w środowisku Arena
Źródło: opracowanie własne
Wykorzystanie modelu symulacyjnego pozwala zbierać i analizować dane statystyczne opisujące
charakter procesu wykorzystania repozytorium.
Wszystkie trzy modele zintegrowane w jedną całość tworzą w rezultacie model zarządzania
grupą, która uczestniczy w procesie nauczania. Integracja ta daje moŜliwość po pierwsze odpowiedniego załadowania repozytorium, po drugie opracowania strategii współpracy w rozwoju re-
50
Magdalena Ciszczyk, Emma Kusztina
Model systemu informatycznego wspierającego realizację procesu nauczania opartego
na kompetencjach środowisku repozytorium wiedzy
pozytorium dzięki funkcji motywacji, po trzecie sprawdzenia załoŜeń do procesu uzupełnienia repozytorium poprzez model symulacji. Proces nabywania kompetencji w tak zorganizowanym systemie jest zapewniony z jednej strony poprzez odpowiednie przygotowanie wiedzy teoretycznej,
proceduralnej i zadania sprawdzającego, po drugie zaś kształtowane są inne aspekty rozpatrywania
kompetencji poprzez zastosowanie modelu współpracy nauczyciela i studenta (model motywacji,
model symulacji).
4. Uwagi końcowe
Zmiana podejścia do zarządzania zasobami ludzkimi sprawia, Ŝe zarówno pracownicy, jak
i kandydaci na określone stanowisko są oceniani przez pryzmat posiadanych kompetencji. Aby być
kompetentnym, nie wystarczy posiadanie formalnego zaświadczenie, jakie jest wymagane przy
potwierdzaniu kwalifikacji zawodowych. WaŜne są wiedza, doświadczenie i zdolność przystosowywania się do zmieniających się warunków, prowadzące razem do skutecznego działania. Precyzyjne określenie kompetencji oraz stworzenie profili kompetencyjnych dotyczących określonych
stanowisk pracy wiąŜe się zatem z określeniem wymagań wiedzy, doświadczenia i umiejętności
[12].
Organizacje edukacyjne, które chcą sprostać wymaganiom rynku pracy wprowadzają zmiany
w dostępnych ofertach edukacyjnych jak równieŜ stosowanych narzędziach wspomagania procesu
nauczania. Budowanie repozytoriów nauczania zawierających materiał dydaktyczny o odpowiedniej strukturze i dostosowany do potrzeb określonej sytuacji edukacyjnej to jedna z propozycji, by
wspierać proces nauczania opartego na kompetencjach. Odpowiednie przygotowanie materiałów
dydaktycznych, które wiąŜe się po pierwsze z opracowaniem modelu ontologicznego dziedziny,
a po drugie z odpowiednim podziałem na wiedzę teoretyczną, proceduralną i zadanie sprawdzające
zakres nabytej wiedzy to tylko wstęp do prowadzenia działań rozwojowych prowadzących do uzyskania wymaganych kompetencji. Zastosowanie mechanizmów współpracy w trakcie wykorzystania i rozwoju repozytorium prowadzą dodatkowo do kształtowania postaw, moŜliwości i osobowości uczestników procesu nauczania.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
51
7. Literatura
1.
MIT OpenCourseWare, http://ocw.mit.edu/OcwWeb/web/home/home/index.htm, dostęp:
10.12.2008.
2. Notatki w Internecie, http://www.moodle.cel.agh.edu.pl/notatki/, dostęp: 10.12.2008.
3. WaŜniak, projekt:Opracowanie programów nauczania na odległość na kierunku studiów
wyŜszych – Informatyka, http://wazniak.mimuw.edu.pl/, dostęp: 15.12.2008.
4. ALT Project: University System of Georgia Learning Object Repository,
http://alt.usg.edu/learn/learning.phtml, dostęp: 15.12.2008
5. Tadeusiewicz R., Choraś R. S., Rudowski R. (Eds.): Leksykon haseł związanych z enauczaniem, WyŜsza Szkoła Humanistyczno-Ekonomiczna, Łódź, 2007.
6. Jabłońska-Wołoszyn M.: Kompetencje w organizacji, In: Personel i Zarządzanie,
21/2003, s.12.
7. Kusztina E., Zaikin O., Ciszczyk M., Tadeusiewicz R.: Quality factors for knowledge
repository: based on e- Quality project, EUNIS 2008, http://eunis.dk/, dostęp: 16.12.2008.
8. Monahan T., McArdle G., Bertolotto M.: Virtual reality for collaborative e-learning, In:
Computers & Education, Vol. 50, 2008, s.1339–1353.
9. Divjak B., Kukec S.K.:Teaching methods for international R&D project management, In:
International Journal of Project Management , Vol. 26, 2008, 251–257.
10. Beatty B, Ulasewicz C.: Online Teaching and Learning in Transition: Faculty
Perspectives on Moving from Blackboard to the Moodle Learning Management System,
In: TechTrends, Vol. 50, No. 4, s.36-45.
11. RóŜewski P., Kusztina E., Ciszczyk M., Sikora K.: Competence theory as a tool for
integrating information systems in education, In: Polish Journal of Environmental Studies,
Vol.17, No. 3B, Polska, 2008.
12. Whiddett S., Hollyforde S.: Modele kompetencyjne w zarządzaniu zasobami ludzkimi,
Oficyna Ekonomiczna, Kraków, 2003.
52
Magdalena Ciszczyk, Emma Kusztina
Model systemu informatycznego wspierającego realizację procesu nauczania opartego
na kompetencjach środowisku repozytorium wiedzy
MODEL OF AN INFORMATION SYSTEM SUPPORTING REALIZATION OF THE
COMPETENCE-BASED LEARNING PROCESS IN THE KNOWLEDGE REPOSITORY
ENVIRONMENT
Summary
The idea of didactic materials repository creation is now becoming a fairly
widespread tendency. In the article authors confront the functioning rules of "learning repositories" with the need for competence-based learning. The appointed gap is
the basis for developing an information system which will support realization of the
learning process based on competences in the repository environment.
Keywords: repository, learning process, competence management.
Magdalena Ciszczyk
Emma Kusztina
Zakład Systemów Produkcji Niematerialnej
Wydział Informatyki
Politechnika Szczecińska
71-210 Szczecin, ul. śołnierska 49
e-mail: [email protected]
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
53
MAGDALENA CISZCZYK,
PRZEMYSŁAW RÓśEWSKI,
EMMA KUSZTINA
Politechnika Szczecińska
DEFINICJE I STANDARDY REPOZYTORIUM WIEDZY ZBUDOWANEGO DLA POTRZEB PROWADZENIA PROCESU NAUCZANIA
Streszczenie
Koncepcja digitalizacji zasobów i budowy repozytoriów przechowujących te
zbiory jest obecnie tendencją dość powszechną. Powstaje wiele róŜnych typów repozytoriów o określonym przeznaczeniu, strukturze i zawartości. Autorzy definiują repozytorium zbudowane dla potrzeb prowadzenia procesu nauczania. Przedstawiona
jest klasyfikacja repozytoriów ze względu na pełnione funkcje oraz powiązane z nimi
standardy informatyczne.
Słowa kluczowe: repozytorium, proces nauczania, standardy
1. Wprowadzenie
W XVIII-wiecznej klasycznej ekonomii kapitał miał charakter czysto materialny. Era informacji przekształciła istniejący ład i porządek. W rezultacie ziemia, kapitał finansowy czy surowce
naturalne uznane za „motory” ery przemysłowej ustąpiły miejsca na piedestale na rzecz wiedzy,
a na samą wartość rynkową organizacji kluczowy wpływ ma posiadany kapitał intelektualny. Kapitał intelektualny obejmuje krytyczną wiedzę przedsiębiorstwa, zasób wiedzy posiadanej przez ludzi
tworzących jego społeczność oraz umiejętność wykorzystania wiedzy z poŜytkiem dla przedsiębiorstwa, co w konsekwencji pozwala na przekształcenie jej w składniki efektywności organizacji
[1].
Źródłem kapitału intelektualnego są ludzie i posiadane przez nich kompetencje. Kompetencje
stają się wskaźnikiem dla oceny zdolności i umiejętności człowieka w trakcie realizacji zadań. Posiadanie odpowiednich kompetencji jest niezbędne, by zaspokoić wymagania określonych stanowisk pracy, a z drugiej strony stają się one podstawą do awansu pracownika w ramach istniejących
struktur organizacyjnych [2].
Wymagania na określone kompetencje płynące z rynku pracy znajdują swoje odzwierciedlenie w przygotowywanej ofercie edukacyjnej zarówno uczelni wyŜszych jak i firm prywatnych oferujących szkolenia i kursy. Organizacje te konkurują ze sobą zarówno na płaszczyźnie przekazywanych treści edukacyjnych i programów nauczania, ale takŜe szukają nowych metod i technik
kształcenia. Rozwiązaniem, które zyskuje coraz większą popularność jest budowanie cyfrowych
repozytoriów przechowujących publikacje, materiały dydaktyczne, czy ksiąŜki. Obecnie funkcjonuje wiele róŜnych repozytoriów: instytucjonalne, dziedzinowe, wydziałowe, osobowe, a nawet
narodowe, a ich liczba z roku na rok rośnie (rys. 1) [3].
54
Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina
Definicje i standardy repozytorium wiedzy
zbudowanego dla potrzeb prowadzenia procesu nauczania
Rys. 1. Liczba repozytoriów na świecie wg DOAR [5].
Najwięcej repozytoriów powstaje w Stanach Zjednoczonych, zaś w Europie prym wiodą
Wielka Brytania, Niemcy i Francja [6] . Niestety w Polsce wciąŜ napotyka się szereg przeszkód
wynikających z natury prawnej, organizacyjnej i finansowej na budowanie elektronicznych zasobów, a inicjatywa otwartego dostępu do zasobów (Open Access) nie jest zbyt szeroko stosowana.
Nie mamy takŜe zbyt wielu przedstawicieli w najwaŜniejszych digitalizacyjnych projektach Europy
[7] .
2. Definicja repozytorium dla potrzeb prowadzenia procesu nauczania
Idea budowania repozytorium nie jest nowa. Dawniej termin repozytorium oznaczał miejsce
słuŜące do przechowywania akt i ksiąg urzędowych z moŜliwością korzystania z nich. Obecnie jest
miejscem gromadzenia dokumentów cyfrowych, udostępnianych sieciowo, za pomocą odpowiedniego interfejsu dla wybranej grupy osób lub o nieograniczonym dostępie. Budowanie cyfrowych
repozytoriów dla potrzeb przechowywania i udostępniania wiedzy było początkowo związane
z procesem ewolucji systemów komunikacji naukowej i pojawiającą się potrzebą szybkiej i skutecznej wymiany informacją naukową. Efektem tej rewolucji stała się inicjatywa Open Access,
zgodnie z którą zarekomendowano dwie drogi słuŜące uwolnieniu artykułów naukowych: pierwsza
- wydawanie czasopism Open Access, a druga – archiwizowanie prac naukowych w repozytoriach
[4]. Popularność drugiego rozwiązania spowodowała, Ŝe zaczęto je adaptować takŜe na potrzeby
realizacji procesu nauczania.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
55
Rys. 2. Zawartość repozytoriów na świecie wg DOAR [4].
Jak wskazują statystyki dziś około 16% ogólnej liczby repozytoriów stanowią repozytoria
zawierające materiały dydaktyczne (rys.2). Ich rozwój jest podyktowany wieloma czynnikami: pojawieniem się nowych technologii, procesami standaryzacyjnymi opisującymi zawartość repozytoriów, budowaniem wirtualnej społeczności czy choćby rozwojem technik i mechanizmów nauczania zdalnego.
3. Klasyfikacja repozytoriów ze względu na pełnione funkcje
Jak zostało wspomniane wcześniej, wśród istniejących klasyfikacji repozytoriów najczęściej
mówi się o repozytoriach instytucjonalnych bądź dziedzinowych lub dokonywany jest podział ze
względu na przekazywane w nich treści.
Przeprowadzona analiza róŜnych repozytoriów pozwala sklasyfikować je ze względu na zawartość i funkcje jakie pełnią (rys. 3). Istnieją repozytoria, w których zamieszczone materiały mają
charakter prezentacyjny i często zawarte są w nich materiały multimedialne i audiowizualne. Jednak najbardziej liczną są obecnie repozytoria kształtujące światopogląd, w których prezentowane
są wyniki badań naukowych z określonych dziedzin bądź przechowujące dorobek określonych organizacji. Głównym zasobem tych repozytoriów są artykuły weryfikowane przez specjalistów
dziedziny. Trzecia wyodrębniona grupa to repozytoria przeznaczone dla potrzeb nauczania, zawierające przygotowany materiał dydaktyczny. Wśród nich wiodące jest repozytorium MIT OpenCourseWare (MIT OCW), w którym materiał dydaktyczny zorganizowany jest w postaci kursów
o darmowym dostępie za pośrednictwem Internetu. Repozytorium to jest nadzorowane przez konsorcjum OCW, które wśród swoich członków zawiera wiele międzynarodowych organizacji edukacyjnych, np. CORE – China Open Resource for Education, Johns Hopkins Bloomberg School of
Public Health, Massachusetts Institute of Technology, etc [8]. TakŜe w Polsce pojawiają się inicjatywy tworzenia repozytoriów z materiałami dydaktycznymi. Akademia Górniczo-Hutnicza w Krakowie buduje repozytorium w ramach prowadzonego konkursu dla studentów. Pod nadzorem opiekuna naukowego studenci przygotowują pracę z określonej dziedziny, która następnie jest oceniana
za wartość dydaktyczną: logiczny układ treści, czytelność i jasność przekazu, prawidłowy dobór
56
Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina
Definicje i standardy repozytorium wiedzy
zbudowanego dla potrzeb prowadzenia procesu nauczania
mediów do rodzaju przekazywanych treści, stopień interaktywności przekazu, moŜliwość dokonywania samooceny postępów w nauce a takŜe dostosowanie materiałów dydaktycznych dla osób
niepełnosprawnych (skalowanie czcionek, kontrastowe tła itp.) oraz poziom techniczny pracy: zastosowane technologie informatyczne oraz inne elementy nie związane bezpośrednio z dydaktyką
(obrazki, animacje flash oraz inne elementy techniczne), zgodność kodu pracy ze standardem
W3C, HTML oraz CSS [9]. Innym rozwiązaniem praktykowanym przez samych studentów jest
wymiana opracowanymi materiałami dydaktycznymi z określonych przedmiotów i od określonych
wykładowców (np. Chomik) [10].
Rys. 3. Podział repozytorium ze względu na zawartość i pełnione funkcje
Źródło: opracowanie własne na podstawie [4],[8],[9],[10],[14],[15]
Wachlarz opracowywanych repozytoriów w poszczególnych kategoriach rozwija się kaŜdego
dnia. KaŜde z istniejących repozytoriów moŜe posłuŜyć jak źródło do wykorzystania w realizacji
procesu nauczania. Z dydaktycznego punku widzenia szczególnym zainteresowaniem objęte są
jednak repozytoria zawierające przygotowany i podzielony na LO materiał dydaktyczny. Repozytoria te budowane są przy wykorzystaniu istniejących platform i standardów, które słuŜą dystrybuowaniu i opisywaniu poszczególnych LO. MoŜliwe jest wykorzystanie komercyjnego oprogramowania, w ramach którego umieszczony zostanie materiał dydaktyczny jak np. Oracle iLearning,
LMS – WBTServer, SABA Learning Enterprise, ale coraz powszechniejsze staje się wykorzystywanie platformy Moodle lub Sakai, rozpowszechnianych na zasadzie licencji Open Source [11].
Wśród stosowanych standardów opisu treści wyróŜnić moŜna AICC, IMS lub PENS, ale przewodnią rolę pełni standard SCORM, na który składają się: standard pakowania treści, standard komunikacji, standard meta danych, standard budowania sekwencji [12], [13].
Dostępne rozwiązania programistyczne pozwalają analizować „repozytoria nauczania” jak
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
57
systemy klasy LMS, LCMS, które zapewniają określoną funkcjonalność ich uŜytkownikom i tworzą środowisko sieciowe wymiany wiedzy w postaci opracowanych materiałów dydaktycznych.
JednakŜe z punktu widzenia procesu nabywania kompetencji przez uczestników procesu nauczania
naleŜy dokładnie określić cel, zakres i strukturę wiedzy dziedzinowej dla potrzeb określonej sytuacji edukacyjnej. Analiza ta wymaga wprowadzenia definicji kompetencji w aspekcie edukacyjnym.
4. Repozytorium nauczania zdalnego oparte na standardzie SCORM
W wyniku ciągłego rozwoju systemów nauczania zdalnego, realizowanego m.in. poprzez projekty europejskie i krajowe, powstał szereg repozytoriów przechowujących róŜnego rodzaju zasoby dydaktyczne. Aktualny staje się problem dostępu do rozproszonej treści dydaktycznej, umieszczonej w róŜnych repozytoriach, uzyskania moŜliwości jej przeszukiwania i indeksowania.
Tak zdefiniowany problem został juŜ częściowo rozwiązany w repozytoriach ogólnej treści za
pomocą standardu OAI-PMH (The Open Archives Initiative Protocol for Metadata Harvesting).
Standard ten opiera się na koncepcji selektywnego pobierania z danego repozytorium matadanych
opisujących zasoby cyfrowe zawarte w danym repozytorium. OAI-PMH umoŜliwia transfer metadanych nie określając, co te metadane zawierają i w jakim są standardzie. W ramach standardu
zostały zdefiniowane role (harvester, repozytorium, element, rekord, zbiór) i procedury (Identify,
ListMetadataFormats, ListSets, ListIdentifiers, ListRecords, GetRecord).
W systemach nauczania zdalnego przyjęto podobne podejście [18]. Systemy nauczania zdalnego, które są zgodne z standardem SCORM 2004, posiadają materiał dydaktyczny podzielony na
Learning Object [17]. KaŜdy Learning Object jest opisany za pomocą standardu IEEE LOM (IEEE
Learning Object Metadata). Opis taki pozwala na wyszukiwanie i łączenie zgodnych semantycznie
i pojęciowo zasobów wiedzy. Standard IEEE LOM zawiera następujące kategorie:
- Ogólna (ang. General) – informacje, które opisują zasób jako całość.
- Cykl Ŝycia (ang. Lifecycle) – cechy powiązane z historią i obecnym stanem zasobu oraz osób,
które stworzyły dany zasób.
- Meta-metadane (ang. Meta-Metadata) – zawiera opis metadanych dla metadanych.
- Techniczna (ang. Technical) – określa techniczne wymagania i charakterystyki zasobu.
- Edukacyjna (ang. Educational) – określa edukacyjne i pedagogiczne charakterystyki danego
zasobu.
- Prawa (ang. Rights) – opisuje prawa autorskie i warunki uŜywania zasobu.
- Relacje (ang. Relational) – określa sposób powiązania z innymi zasobami.
- Adnotacje (ang. Annotation) – zawiera dodatkowe informacje odnośnie zasobu. Mogą to być
komentarze do konkretnych zastosowań, dydaktyczne wskazówki, porady zastosowania.
- Klasyfikacyjna (ang. Classification) – opisuje, w jaki sposób moŜna sklasyfikować informacje
zawarte w zasobie.
Learning Object wyposaŜony w opis w standardzie IEEE LOM jest umieszczony w repozytorium. Standard SCORM nie definiuje jednak jak wyszukiwać danego Learning Object w jednym
repozytorium lub ich federacji. Dlatego powstała standard uzupełniający CORDRA (Content Object Repository Discovery and Registration/Resolution Architecture), który określa otwarty, bazujący na standardach model pozwalający na implementację systemu informatycznego dostępu do
rozproszonego zbioru Learning Objects.
Podstawowe podejście, stosowane w standardzie CORDRA [16], zakłada stworzenie federa-
58
Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina
Definicje i standardy repozytorium wiedzy
zbudowanego dla potrzeb prowadzenia procesu nauczania
cji repozytoriów poprzez wydzielenie centralnego rejestru, który będzie przechowywał matadane
wszystkich Learning Objects naleŜących do danej federacji. Zbiór repozytoriów wraz z rejestrem
tworzą federacje. Federacje moŜna łączyć poprzez model warstwowy. KaŜda z federacji reprezentuje pewien zbiór materiałów dydaktycznych, który moŜe charakteryzować się własnym zestawem
metadanych, polityką dostępu, prawami autorskimi itd.
W Internecie moŜna znaleźć juŜ wiele działających rejestrów Learning Object wspierających
standard CORDRA:
- http://www.adlregistry.org/ Advanced Distributed Learning (ADL) Registry website.
- http://www.eleonet.org/eleonet/index.htm Eleonet (European Learning Object Network), europejski rejestr LO.
- http://lre.eun.org/ Learning Resource Exchange for Schools, European Schoolnet.
5. Uwagi końcowe
Rozwój systemów nauczania zdalnego związany jest nie tylko z budową coraz bardziej inteligentnych systemów nauczania student-komputer, ale równieŜ z budową i rozwojem odpowiedniej
infrastruktury informatycznej. Systemy informatyczne nauczania zdalnego stanowią juŜ oddzielną
gałąź rynku systemów oprogramowania. Jest to moŜliwe, poniewaŜ są one juŜ w bardzo duŜym
stopniu opisane odpowiednimi standardami, pracującymi na poziomie kursów, repozytoriów, systemów nauczania, testów itd.
Repozytoria materiałów dydaktycznych stanowią jeden z najistotniejszych kierunków rozwoju informatycznych systemów nauczania zdalnego. Kapitał wiedzy jest właśnie w nich zgromadzony, jego pomnaŜanie wymaga zbudowania efektywnej infrastruktury działania repozytorium. Autorzy w artykule przedstawili definicję i klasyfikację repozytoriów nauczania zdalnego. Dodatkowo
pokazali, jakie standardy nauczania zdalnego obecnie wspierają ich budowę oraz dąŜą do opracowania globalnej składnicy materiałów dydaktycznych (ang. global content infrastructure).
6. Literatura
1.
2.
3.
4.
5.
6.
7.
Czekaj J. (Ed.): Zeszyty naukowe Akademii Ekonomicznej w Krakowie. Nr 648. Prace z
zakresu metod organizacji i zarządzania, Wydawnictwo Akademii Ekonomicznej,
Kraków, 2004, s.7.
Whiddett S., Hollyforde S.: Modele kompetencyjne w zarządzaniu zasobami ludzkimi,
Oficyna Ekonomiczna, Kraków, 2003.
Peters T.A. Digital Repositories: Individual, Disciplinebased, Institutional, Consortial, or
National?, In: The Journal of Academic Librarianship, Vol. 28, No. 6, s. 414–417.
Kaczmarek E., Rychlik M.: Czy repozytoria będą wspierać naukę w Polsce?,
http://www.citebase.org/fulltext?format=application%2Fpdf&identifier=oai%3Aeprints.rc
lis.org%3A12226, dostęp: 10.12.2008.
OpenDOAR, http://www.opendoar.org/, dostęp:15.12.2008.
ROAR,
http://roar.eprints.org/index.php?action=generate_chart&chart_field=country&chart_
type=pie&submit=Gener, dostęp:15.12.2008.
Bednarek-Michalska B.: Fundusze na budowanie zasobów elektronicznych w Polsce,
http://www.ebib.info/publikacje/matkonf/iwb3/artykul.php?b, dostęp: 10.12.2008.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
59
MIT OpenCourseWare, http://ocw.mit.edu/OcwWeb/web/home/home/index.htm, dostęp:
10.12.2008.
Notatki w Internecie, http://www.moodle.cel.agh.edu.pl/notatki/, dostęp: 10.12.2008.
Chomik, http://www.chomikuj.pl/Chomik.aspx?id=SGHowy, dostęp: 11.12.2008.
Kusztina E., Zaikin O., Ciszczyk M., Tadeusiewicz R.: Quality factors for knowledge
repository: based on e- Quality project, EUNIS 2008, http://eunis.dk/, dostęp: 16.12.2008.
Kotrys R.: Standardy w nauczaniu na odległość, Poznańskie Warsztaty Poligraficzne;
http://www.pwt.et.put.poznan.pl/2004/PWT1613.pdf, dostęp: 28.11.2008.
SCORM; http://www.adlnet.gov/scorm/, dostęp: 28.11.2008.
WaŜniak, projekt:Opracowanie programów nauczania na odległość na kierunku studiów
wyŜszych – Informatyka, http://wazniak.mimuw.edu.pl/, dostęp: 15.12.2008.
ALT Project: University System of Georgia Learning Object Repository,
http://alt.usg.edu/learn/learning.phtml, dostęp: 15.12.2008.
Jerez, H., Manepalli, G., Blanchi, C., Lannom, L.W.: ADL-R: The First Instance of a
CORDRA
Registry.
D-Lib
Magazine,
12(2),
February
2006.
http://www.dlib.org/dlib/february06/jerez/02jerez.html
RóŜewski P., Kusztina E., Zaikin O.: Modele i metody zarządzania procesem Otwartego
Nauczania Zdalnego, Instytut Badań Systemowych PAN, Seria: Badania Systemowe, tom
61, Warszawa- Szczecin 2008
Biskupska M.: Standardy repozytoriów e-learningowych, VI Warsztaty e-learningowe „ELEARNING – Innowacje rozwiązań i zastosowań”, 11 grudnia 2008, Warszawa.
60
Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina
Definicje i standardy repozytorium wiedzy
zbudowanego dla potrzeb prowadzenia procesu nauczania
DEFINITION AND STANDARDS KNOWLEDGE REPOSITORY DESIGNED TO
TEACHING/LEARNING PROCESS SUPPORT
Summary
The concept of didactical content digitalization in the form of repository is a
common research topic. There are a set of content repositories built for different
purpose and function. In the paper authors defined the concept of repository for
purpose of teaching/learning process. The present classification is aimed to classify
repository based on this function and aim. Moreover repository dedicated standards
are discussed in the paper.
Keywords: repository, learning process, standards
Magdalena Ciszczyk
Przemysław RóŜewski
Emma Kusztina
Zakład Systemów Produkcji Niematerialnej
Wydział Informatyki
Politechnika Szczecińska
71-210 Szczecin, ul. śołnierska 49
email: [email protected]
email: [email protected]
email: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
61
LUDOSŁAW DRELICHOWSKI
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
AGNIESZKA BOGDAŃSKA
Elfville s.c.
OCENA ZASTOSOWAŃ TECHNOLOGII INFORMACYJNYCH
W POZAROLNICZYM ROZWOJU OBSZARÓW WIEJSKICH
Streszczenie
W pracy skoncentrowano się na analizie rezultatów zastosowań technologii internetowych w promowaniu oferty turystycznej zlokalizowanej na obszarze Borów
Tucholskich. Zakres nakładów i stosowane formy promocji internetowych w analizowanym przedsięwzięciu pozwoliły ocenić osiągnięty poziom wskaźnika wykorzystania miejsc i stopy zwrotu nakładów inwestycyjnych na podstawie pierwszych dwu
lat działalności obiektu. Uzyskane rezultaty potwierdzają cytowaną w literaturze wysoką efektywność zastosowań technologii internetowych w róŜnych formach usług
turystycznych.
Słowa kluczowe: technologie internetowe, rozwój obszarów wiejskich, Bory Tucholskie, turystyka
1. Wprowadzenie
Przebieg procesów aktywizacji obszarów wiejskich naleŜy do jednego z priorytetowych
programów finansowanych ze środków Unii Europejskiej, co wynika z jego waŜnej roli we
wspomaganiu rozwoju terenów o zapóźnieniu rozwojowym oraz znaczeniu w zakresie niezbędnego
rozwoju infrastruktury na tych obszarach. Tradycyjny rozwój sieci komunikacyjnej uzupełniany
jest priorytetami w zakresie unowocześniania łączności telekomunikacyjnej, co materializować
moŜe przykład projektu inwestycyjnego realizowanego w woj. kujawsko-pomorskim pod hasłem
„szerokopasmowy Internet w kaŜdej gminie Kruszewski i wsp (2007)”. Jak waŜny jest problem
sprawnej łączności do aktywizacji produkcji surowców integrowanej z dystrybucją przetworów
rolno-spoŜywczych, moŜe stanowić przykład wymagań sprawnej łączności sieciowej dostawców
surowców przez partnerów Wielkopolskiej Giełdy Rolno-Ogrodniczej w Poznaniu. Stosowany
przez tę organizację system logistyczny posiadał wiele alternatywnych dróg komunikacyjnych,
podczas gdy aktualnie warunkiem tej współpracy jest łączność internetowa Drelichowski L.
Hempowicz G., Kamiński Ł. Niemier L.(2007). Warto zwrócić uwagę, Ŝe w niezwykle waŜnym
obszarze funkcjonowania rynków turystycznych na obszarach wiejskich juŜ w roku 1996 Kubiak
i Korowicki(1996) analizują funkcjonowanie globalnych rynków elektronicznych w turystyce.
Cytowane wyŜej prace w całej rozciągłości potwierdzają, Ŝe reguły funkcjonowania
elektronicznych rynków turystycznych w pełni juŜ dotyczą agroturystyki i turystyki obszarów
wiejskich.
Funkcjonowanie sieci informacyjno-komunikacyjnych jest ściśle związane ze stanem wiedzy
dotyczącym kluczowych dla funkcjonowania organizacji jej zasobów, które decydują
o uwarunkowaniach technologicznych, kreatywności zatrudnionych pracowników i ich zdolności
62
Ludosław Drelichowski, Agnieszka Bogdańska
Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich
do dokonywania zmian. Prezentowane w pracy uwarunkowania mogą nawiązywać do konwencji
przyjętej w ramach realizowanego projektu PR 6 TOWORDS "Migrating networks from
a producer TOWARDS a market orientation within the agri-food sector" FP6-2004-FOOD-3-C
Contract no.: 518702. Właśnie te badania i analizy uświadomiły potrzebę nowego spojrzenia na
występowanie silnych więzi pomiędzy zdolnością przedsiębiorstw do dokonania zmian
uwzględniających oczekiwania partnerów firmy, co staję się jednym z niezwykle waŜnych
aspektów aktywizacji obszarów wiejskich. Z drugiej strony idea sieci migrujących wyraŜa
interakcje pomiędzy stosowanym – rozwijanym standardem powiązań sieciowych z partnerami,
a zdolnością do poprawy jakości obsługi klienta, czego przesłankę stanowi rozwój technologii
internetowych Drelichowski L. Rutkiewicz Ł.(2007).
Badania prowadzone przez Drelichowskiego i Lustiga(2007) dotyczące oceny efektywności
zastosowań technologii internetowych w gospodarstwach agroturystycznych w Borach Tucholskich
dostarczają dowodów osiągania radykalnie wyŜszej efektywności wykorzystania kwater
w gospodarstwach stosujących technologie internetowe. Ponad trzykrotnie wyŜszy poziom
wykorzystania dysponowanych miejsc noclegowych na korzyść gospodarstw korzystających
z Internetu, stanowi niezbity dla nich dowód źródeł przewagi konkurencyjnej. Presja tworzona
przez młodzieŜ zamieszkałą na obszarach wiejskich w zakresie konieczności doskonalenia
moŜliwości dostępu do szybkiej sieci Internetowej, stwarza szansę na efektywne przyspieszenie
tego procesu wspomaganego dodatkowo, przez osiedlających się z wyboru na obszarach wiejskich
mieszkańców duŜych aglomeracji. Rozwój usług turystycznych i agroturystyki na terenach
o duŜych walorach krajobrazowych, stymulował będzie rozwój lokalnych firm przetwórstwa rolnospoŜywczego. Zaopatrzenie obiektów turystycznych w lokalne przetwory rolno-spoŜywcze
sprzyjać będzie ich rozwojowi oraz intensyfikacji sieciowej wymiany informacji.
2. Uwarunkowania rozwoju turystyki w aspekcie postępu technologicznego i globalizacji
Informacja i wiedza zawsze były towarem cieszącym się popytem, a w czasach globalizacji
ten "zasób" jest zdecydowanie bardziej dostępny i konieczny dla rozwoju niŜ kiedykolwiek.
Dynamiczny rozwój wszystkich form komunikacji, a zwłaszcza Internetu oprócz zmian
o charakterze społecznym, mocno przyczynił się do zmian w sektorze usług turystycznych. W 2004
roku 82,3% przedsiębiorstw turystycznych UE 25 posiadało stronę internetową lub było w sieci
wirtualnej. Co ciekawe, przewyŜszało to o 24,6% średnią dla pozostałych działów gospodarki1.
Zasięg działań prowadzonych w Internecie trudno porównać z jakąkolwiek inną formą dotarcia do
potencjalnego klienta, dlatego właśnie rozwój turystyki, która musi dotrzeć do bardzo duŜej ilości
odbiorców, najbardziej na tym zyskał i stymuluje moŜliwości jej rozwoju. Z drugiej strony ma to
teŜ ogromne znaczenie dla potencjalnych zainteresowanych, poniewaŜ nastąpił równieŜ rozwój
dostępu do informacji dotyczących walorów krajobrazowo kulturowych poszczególnych
miejscowości, regionów i krajów. Teraz moŜna w łatwy i co najwaŜniejsze tani sposób znajdować
informacje odnośnie wymarzonego zakwaterowania adekwatne do własnych potrzeb
i zainteresowań. W ten sposób kreowany się jednocześnie popyt na nieznane do tej pory produkty
turystyczne.
Dla potwierdzenia powyŜszych rozwaŜań, a równieŜ pewności, Ŝe Polska nie pozostaje w tyle
za Europą w tendencjach gospodarczych, badania wykazują, Ŝe liczba gospodarstw domowych
1 Miecznikowski S., Rynek technologii informatycznych i jego wykorzystanie w sektorze turystycznym, Ekonomiczne Problemy Turystyki nr 7, 2006r.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
63
posiadających dostęp do Internetu w miejscu zamieszkania w 2007 roku przekroczyła juŜ 5mln
(41% ogółu), z czego w 4,8mln gospodarstw (38% ogółu) rzeczywiście korzysta z tej sieci.
W miastach powyŜej 100 tyś mieszkańców. dostęp do sieci deklaruje 60% ludności, a w miastach
o liczbie ludności poniŜej 100tys. 56%. Na obszarach wiejskich dostępność Internetu wzrosła
o 10% w porównaniu z rokiem ubiegłym i wynosiła 46% ogółu gospodarstw. Co najciekawsze,
badania pokazują, Ŝe jako cel korzystania z Internetu 11% badanych daje korzystanie z serwisów
poświęconych turystyce, a wyszukiwanie informacji o usługach i towarach aŜ 27% 2
3. Analiza efektywności rozwoju wykorzystania bazy turystycznej w ramach organizacji Elfville s.c. w Borach Tucholskich
Polska branŜa turystyczna w porównaniu z krajami Europy Zachodniej i Afryki Północnej
dopiero raczkuje. Istnieje jeszcze wiele miejsc zupełnie niezagospodarowanych pod względem
turystycznym, gdzie brak jakiejkolwiek bazy noclegowej, a walory przyrodnicze, czy kulturowe są
nie do przecenienia. Przykład powiatu tucholskiego dowodzi, Ŝe istnieje jeszcze niewykorzystany,
ogromny potencjał turystyczny w naszym kraju, tym bardziej, Ŝe pozwala stworzyć produkt
idealnie wpasowujący się w najnowsze trendy turystyki – nieskomercjalizowany, naturalny,
ekologiczny, specyficzny3. Próbą wpasowania się w zidentyfikowaną „niszę turystyczną” było
stworzenie przez firmę Elfville s.c. w zabytkowym, o charakterze regionalnym budynku „Leśnych
Apartamentów” nad Bielską Strugą. W środku Tucholskiego Parku Krajobrazowego, w pierwszym
tygodniu lipca 2007r. rozpoczęła się działalność operacyjną polegającą na wynajmie stylowych
apartamentów. W drewnianym, odrestaurowanym budynku, będącym przykładem architektury
z pierwszej połowy XIX w., zostały urządzone stylowe i komfortowe apartamenty na wynajem.
KaŜdy z apartamentów jest czteroosobowy, składa się z sypialni, duŜego pokoju z aneksem
kuchennym i kominkiem lub piecem kaflowym oraz łazienki. Całe umeblowanie wraz
z wyposaŜeniem zachowane jest w stylu epoki, a renowacja obiektu przebiegała tak, aby zachować
jak najwięcej oryginalnych elementów. Ponadto kaŜdy z oferowanych pokoi jest urządzony
w odmiennym klimacie, a efektu końcowego dopełnia połoŜenie obiektu w środku lasu.
Dostojności obiektowi dodaje równieŜ duŜa 2ha działka – leśna polana ze starodrzewem. Dojazd
do Bielskiej Strugi prowadzi malowniczą drogą gruntową i moŜna mieć wraŜenie, Ŝe człowiek
nagle znalazł się w zupełnie innym świecie. Badania pokazują, Ŝe 62% turystów jako
najwaŜniejsze dla wymarzonego miejsca na wypoczynek uwaŜają spokój i ciszę. Bielska Struga to
nie jest nawet wieś, a cisza panująca tam jest aŜ dziwna, czasami przerywana odgłosami zwierząt,
co nie pozostawia wątpliwości, czyim domem jest las. Co ciekawe, niewielu jest śmiałków, którzy
nie boją się wyjść w nocy na spacer, choćby tylko na teren działki.
Projekt rewitalizacji „Leśnych Apartamentów” był współfinansowany ze środków Unii
Europejskiej i budŜetu państwa w ramach Zintegrowanego Programu Operacyjnego Rozwoju
Regionalnego, Priorytet III, Działanie 3.4. Ponadto uzyskał wyróŜnienie przez Toruńską Agencję
Rozwoju Regionalnego, jako wzorcowo zrealizowany projekt współfinansowany ze środków
unijnych w województwie kujawsko-pomorskim.
2 Opracowanie GUS, Wykorzystanie technologii informacyjno-telekomunikacyjnych w gospodarstwach domowych i
przez osoby prywatne w 2007 r.
3 A.Bogdańska, Uwarunkowania rozwoju turystyki na przykładzie powiatu tucholskiego, AR Szczecin 2006r.
64
Ludosław Drelichowski, Agnieszka Bogdańska
Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich
ZałoŜenia rentowności przedsięwzięcia opierały się na wydawać by się mogło, bardzo
optymistycznych załoŜeniach polegających na osiągnięciu 30% obłoŜenia juŜ w pierwszym roku
działalności przedsiębiorstwa. W Polsce średnie obłoŜenie mierzone w stopniu wykorzystania
miejsc noclegowych w 2006r. dla obiektów najbardziej podobnych, czyli pensjonatów wyniosło
właśnie 30%. Najbardziej obleganymi obiektami są hotele, których stopień wykorzystania wyniósł
36% w 2006r. (tabela nr 1). Z tego powodu podczas tworzenia biznes planu przedsięwzięcia duŜy
nacisk został połoŜony na strategię promocji projektu, tak, aby ambitne cele i optymalne prognozy
finansowe mogły zostać zrealizowane. Wspomniana wyŜej praca Drelichowskiego i Lustiga(2007)
wyraźnie ukazuje jak ogromne są róŜnice w efektywności działalności gospodarstw
agroturystycznych promujących się w Internecie i nie stosujących tego rodzaju reklamy. Skoro 3,5
krotne zwiększenie ilości klientów udaje się uzyskać poprzez zastosowanie odpowiedniej strategii
reklamy, konieczność poświęcenia na to znacznej części budŜetu jest oczywista. Jeśli chodzi
o sposób organizacji krajowych podróŜy długookresowych w Polsce to 78% badanych robi to
samodzielnie, natomiast w przypadku podróŜy krótkookresowych aŜ 89%4. Tak więc promocja
poprzez biura podróŜy z pewnością okazałaby się bardzo kosztotwórcza (prowizja biur wynosi 2030% przychodów) i mogłaby być nieskuteczna, w przypadku naszego kraju. Dlatego teŜ, biorąc
pod uwagę dostępność Internetu, niską cenę pozyskania informacji z punktu widzenia klienta oraz
zasięg tego narzędzia, decyzja o promocji obiektu podjęła się sama. Pierwszym krokiem było
utworzenie profesjonalnej strony internetowej, wykupienie reklamy poprzez linki sponsorowane,
umieszczenie banerów reklamowych na regionalnych stronach internetowych, moŜliwości
dokonania rezerwacji za pośrednictwem Internetu oraz reklamy na portalach słuŜących za bazę
danych na temat obiektów noclegowych w Polsce. Najbardziej istotnym elementem kosztowym
były linki sponsorowane, jednak ustalony budŜet przeznaczony na reklamę i tak wydawał się
stosunkowo niewielki. Po 6 miesiącach działalności konkretne wielkości ujęte w liczbach wykazały
to, co moŜna było przypuszczać, a co prezentuje tabela nr2.
Tabela nr 1. Stopień wykorzystania miejsc noclegowych w turystycznych obiektach
zbiorowego zakwaterowania według miesięcy.
Rodzaj
obiektu
Obiekty
hotelowe
W tym:
pensjonaty
Domy wycieczkowe
01
02
03
04
05
06
07
08
09
10
11
12
2005
2006
Ogółem
w%
35
36
24
27
26
30
26
29
29
31
36
36
39
40
49
51
47
46
36
37
34
35
29
30
25
27
2006
30
29
31
23
21
28
32
49
46
33
22
15
21
2006
32
30
31
23
28
34
40
45
47
29
29
27
22
Rok
Źródło opracowania: GUS, Departament Statystyki Usług, Turystyka w 2006 r., kier. dr A.Baran.
4 Instytut Turystyki, PodróŜe Polaków w 2006r.
65
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
Tabela nr 2. Stopień wykorzystania miejsc noclegowych w Leśnych Apartamentach w Bielskiej Strudze w ujęciu miesięcznym.
Rodzaj
obiektu
Leśne
Apartamenty
ROK
Ogółem
w%
01
02
03
04
05
06
07
08
09
10
11
12
2007/
2008
40
7
19
27
28
45*
60*
74
95
54
24
19
27
* - prognoza
Źródło opracowania: badania własne.
Koszt poniesionych nakładów na reklamę internetową przy poziomie obłoŜenia 40% stanowi
6,4% przychodów przedsiębiorstwa, natomiast suma kosztów działalności wynosi 41,8%. Tak więc
dochód stanowi 51,8% przychodów.
Relacja kosztu reklamy internetowej do
dochodu w 1 roku działalności
dochód
52%
koszt
działalnoś
ci 42%
koszt
działalności
koszt reklamy
dochód
koszt
reklamy
6%
Dla porównania wielkości obłoŜenia obiektów w Polsce, poniŜsza tabela nr 2 prezentuje dane
dotyczące stopnia wykorzystania miejsc w hotelach i podobnych obiektach w wybranych krajach.
Prezentowane wielkości obnaŜają nieefektywność polskiej gospodarki turystycznej, ale
jednocześnie prezentują wielkości, które moŜna osiągnąć w tego rodzaju działalności. Daje to
pozytywne prognozy dla rozwoju sektora usług turystycznych, a jednocześnie wyznacza kierunek
rozwoju i pokazuje konkretne, osiągalne wielkości dotyczące obłoŜenia.
66
Ludosław Drelichowski, Agnieszka Bogdańska
Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich
Tabela nr 3 Stopień wykorzystania miejsc w hotelach i podobnych obiektach (netto%) w 2005r.
Kraj
Austria
Estonia
Francja
Słowenia
Cypr
Grecja
Ogółem
w%
42
45
59
48
57
48
01
02
03
04
05
06
07
08
09
10
11
12
55
27
49
42
29
25
65
30
52
45
35
28
58
38
57
43
46
33
25
43
55
41
47
29
31
48
61
48
64
449
36
53
67
53
70
64
48
70
65
59
79
80
58
61
67
70
93
91
40
48
68
58
76
73
30
45
60
47
70
46
24
38
54
38
45
28
36
36
49
37
28
27
Źródło opracowania: GUS, Departament Statystyki Usług,, Turystyka w 2006r., kier. dr A.Baran
W przypadku branŜy turystycznej efektywność inwestycji wzrasta wraz z czasem, jaki upływa
od momentu rozpoczęcia działalności. Zyskowność hoteli (czyli obiektów o najwyŜszym stopniu
wykorzystania ze wszystkich kategorii obiektów noclegowych, co pokazują dane GUS i w tabeli nr
1) określa się po 2-3 latach działalności na 8-12% (stosunek zysku netto do kapitałów własnych),
a po 4-5 latach na około 15%, natomiast stopę zwrotu poniesionych nakładów na 10 lat.5
W przypadku inwestycji w Leśne Apartamenty w Bielskiej Strudze efektywność jest wyjątkowo
wysoka, bo juŜ w 1 roku działalności wyniosła 18%, a stopa zwrotu poniesionych nakładów
stanowi obecnie jedynie 6 lat. Efektywność ta zaleŜy jednak od wielu czynników, z których
najwaŜniejsza jest promocja. Nawet najwyŜsza jakość produktu turystycznego, najlepiej
zorganizowane przedsiębiorstwo i najwyŜsza kultura obsługi nie zapewni efektywności
nieodpowiednio wypromowanemu przedsięwzięciu. Z przytoczonego przykładu jednoznacznie
wynika, Ŝe bez odpowiedniej promocji internetowej przedsiębiorstwo byłoby naraŜone na
bankructwo, pomimo wielkiej staranności na wszystkich pozostałych etapach działalności jak:
wytworzenie produktu o wysokim standardzie, właściwe oszacowanie optymalnej ceny, jakość
wykończenia apartamentów, lokalizacja obiektu i sposób finansowania.
4. Podsumowanie
Prezentowane w niniejszej pracy wyniki badań dotyczących roli technologii internetowych w
rozwoju usług turystycznych na terenie obszarów wiejskich wskazują na dominujące znaczenie ich
zastosowania dla wskaźnika efektywności inwestycji. Chmielarz (2007) w pracy dotyczącej
systemów biznesu elektronicznego prezentuje równieŜ analizę moŜliwości zastosowania systemów
elektronicznego biznesu w turystyce. Przytoczone pozycje literatury dotyczące zastosowań
technologii informacyjnych w turystyce i wyniki badań empirycznych wskazują, Ŝe rola technologii
internetowych w aktywizacji obszarów wiejskich będzie obejmowała coraz szerszy zakres usług
realizowanych w formule pracy zdalnej, tak jak obecnie dotyczy to rozwoju turystyki. Rozwój
usług turystycznych na miarę predyspozycji regionów o wysokim potencjale posiadanych zasobów,
stymuluje rozwój produkcji przetworów spoŜywczych sprzyjając wzajemnym korzyściom
wynikającym ze wzrostu skali i atrakcyjności kompleksowych usług oferowanych przez region.
Ten rodzaj powiązań sprzyja funkcjonowaniu sieci informacyjno-komunikacyjnych pozwala na
5 Bednarska M,. Gołębiewski G,. Marcinkiewicz E, Olszewski M(2007)., Przedsiębiorstwo turystyczne. Ujęcie statyczne
i dynamiczne,. PWE Warszawa , s. 257
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
67
doskonalenie kooperacji pomiędzy podmiotami produkcyjno usługowymi, podnosząc jakość
i kompleksowość oferowanych usług.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Bednarska M,.Gołębiewski G,.Marcinkiewicz E, Olszewski M(2007)., Przedsiębiorstwo
turystyczne. Ujęcie statyczne i dynamiczne,. PWE Warszawa
Bogdańska. A.,(2006): Potencjał rozwojowy obszarów wiejskich. Uwarunkowania
rozwoju turystyki na przykładzie powiatu tucholskiego, Wyd. Akademia Rolnicza
Szczecin
Chmielarz (2007) Systemy biznesu elektronicznego. Difin
Drelichowski L. Lustig J (2007) : Application of Internet techniques in promotion of
agritourist farms in the National Park in the Bory Tucholskie Studies & Proceedings
PSZW nr 11 , Bydgoszcz
. Drelichowski L. Rutkiewicz Ł.(2007): Koncepcja agrobiznesu w strukturze sieci
branŜowych portali Internetowych firmy Vertica Studia i Materiały nr 12 Polskie
Stowarzyszenie Zarządzania Wiedzą Bydgoszcz
Drelichowski L. Hempowicz G., Kamiński Ł. Niemier L.(2007): Analiza uwarunkowań
techniczno-organizacyjnych funkcjonowania sieci rynku hurtowego Wielkopolskiej Gildii
Rolno-Ogrodniczej w Poznaniu. Studia i Materiały nr 12 Polskie Stowarzyszenie
Zarządzania Wiedzą Bydgoszcz.
Kruszewski Z., Leszczyński A., Straszak A., Zabłudowski A.(2007): Technologie
informatyczno-łącznościowo-transportowe szansą przyspieszenia konkurencyjności
i innowacyjności w Polsce Wielkich Szybkości. Studia i Materiały nr 10 Polskie
Stowarzyszenie Zarządzania Wiedzą Bydgoszcz.
Kubiak B.F., Korowicki A., Globalne rynki elektroniczne w turystyce. Komputerowe
Systemy Wielodostępne Bydgoszcz Ciechocinek 1996r.
Miecznikowski S. (2006), Rynek technologii informatycznych i jego wykorzystanie
w sektorze turystycznym, Ekonomiczne Problemy Turystyki nr 7.
68
Ludosław Drelichowski, Agnieszka Bogdańska
Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich
EVALUATION OF INFORMATION TECHNOLOGY APPLICATION IN OF NONRURAL AREAS DEVELOPMENT
Summary
The paper presents the results of the analysis of information technology application In the promotion of the tourist offer located in the Bory Tucholskie area. The
scope of outlays and the applied forms of the Internet promotions In the venture facilitated the assessment of the index of the hotel beds occupation and the return rate
of the investment outlays on the basis of the first months of the tourist facility operation. The results achieved confirm the high efficiency of Internet solution application
in various forms of tourist services quoted in the literature.
Keywards: Internet technology, rural areas development, Bory Tucholskie, tourist
Ludosław Drelichowski
Katedra Informatyki w Zarządzaniu,
Wydział Zarządzania
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
85-970 Bydgoszcz, Al. S. Kaliskiego 7
e-mail: [email protected]
Agnieszka Bogdańska
Elfville s.c., Bydgoszcz
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
69
TOMASZ DUDEK
Akademia Morska
BOśENA ŚMIAŁKOWSKA
Zachodniopomorski Uniwersytet Technologiczny
ARCHITEKTURA EKSPERTOWEGO SYSTEMU OCENY JAKOŚCI
Streszczenie
Jednym z systemów wspomagania zarządzania jakością są systemy ekspertowe.
Aby systemy ekspertowe oceny jakości spełniły swoją rolę muszą mieć odpowiednią
architekturę (strukturę) dzięki której moŜliwa będzie efektywna i wieloaspektowa
(kompleksowa) ocena jakości w oparciu o dostępne dane, metody wywodu wiedzy
i wiedzę eksperta. Dane będące podstawą oceny jakości zwykle mają heterogeniczny
charakter a ocena jakości często oparta jest na zmiennych w czasie kryteriach tej
oceny. W artykule zaprezentowano architekturę ekspertowego systemu oceny jakości
z uwzględnieniem zmiennego charakteru kryteriów oceny i heterogeniczności źródeł
danych zasilających ten system.
Słowa kluczowe: ontologie, inŜynieria ontologii, systemy ekspertowe, jakość, wiedza, heterogeniczność.
1. Wprowadzenie
Działalność gospodarcza firm, przedsiębiorstw czy organizacji, to dbałość o poziom jakości
wytwarzanych przez nie produktów i świadczonych usług. O jakości nie decydują jednak same
wymagania uŜytkowe czy ich specyfikacja, ale moŜliwie najlepsze ich ustalenie oraz stopień ich
spełnienia. Efektywna i kompleksowa ocena jakości uzaleŜniona jest od wyboru metod, wiedzy
i doświadczenia oceniających oraz od jakości i ilości dostępnych danych.
W ocenie jakości (np. oprogramowania, kształcenia, świadczonych usług, procesu produkcji,
itp.) moŜna wykorzystać specjalistyczne oprogramowanie, które tę ocenę będzie wspomagać zarówno w aspektach wytwarzanego produktu jako efektu końcowego, jak równieŜ w aspektach
przebiegu procesów związanych z jego wytwarzaniem, w całym cyklu Ŝycia (równieŜ w eksploatacji, uŜytkowaniu).
Takim oprogramowaniem wspomagającym wieloaspektową ocenę jakości moŜe byś system
ekspertowy.
Systemy ekspertowe [4][5] mogą wspomagać wnioskowanie, ocenę oraz podejmowanie decyzji, działając w sposób zbliŜony do procesu rozumowania człowieka. WaŜną rolę w systemie ekspertowym pełnią tzw. eksperci, którzy udostępniają w nim swoją wiedzę i doświadczenie.
Systemy ekspertowe mają liczne zastosowania w takich dziedzinach jak: finanse, procesy wytwórcze, zarządzanie, kolejkowanie i ustalanie połączeń (szczególnie dla linii lotniczych), obsługa
klientów, projektowanie, militaria, analiza danych, inŜynieria oprogramowania, administracja państwowa, przemysł transportowy i kosmicznym oraz wielu innych. MoŜna je klasyfikować ze
względu na rolę i funkcje jakie im przypisano, wyróŜniając systemy doradcze, podejmujące lub
70
Tomasz Dudek, BoŜena Śmiałkowski
Architektura ekspertowego systemu oceny jakości
wspomagające decyzje czy wreszcie krytykujące, przedstawiające problem i warianty jego rozwiązania. Ze względu na uzyskiwane z systemu ekspertowego wyniki, wyróŜnia się równieŜ ekspertowe systemy ukierunkowane na diagnozę, prognozę i plan rozumiany jako opis stanu, do którego
naleŜy dąŜyć. Istnieją teŜ systemy ekspertowe z wiedzą pewną (zdeterminowaną) i niepewną. Systemy ekspertowe moŜna równieŜ sklasyfikować ze względu na sposób ich budowy, wyróŜniając
gotowe (dziedzinowe) systemy szkieletowe z pustą bazą wiedzy oraz dedykowane systemy, tworzone od podstaw.
NiezaleŜnie jednak od zaprezentowanej klasyfikacji i zastosowań systemów ekspertowych
istotne są funkcje przez nie realizowane.
Jednym z moŜliwych zastosowań systemów ekspertowych jest system oceny jakości, oznaczony skrótowo symbolem SEOJ. Zadaniem takiego systemu (Np. oceny jakości oprogramowania,
jakości kształcenia) moŜe być:
- Diagnoza jakości produktu (Np. oprogramowania) lub świadczonej usługi (Np. edukacyjnych) i procesów wytwarzania (realizacji usług),
- Prognoza (oszacowanie) jakości efektu końcowego (produktu lub świadczonej usługi),
- Dobór jakości wzorcowej (np. oprogramowania), którą naleŜy osiągnąć i związane z tym
aspektem badania.
Istotnym elementem systemu SEOJ są dane źródłowe zasilające system, zaś istotną cechą tych
danych jest ich heterogeniczny charakter. Heterogeniczność danych w informatyce oznacza róŜnorodność tych danych pod względem źródeł ich pochodzenia, struktur, poziomów odniesienia jak
i metod pomiaru.
NaleŜy dodatkowo podkreślić, Ŝe często kryteria oceny jakości są zmienne w czasie.
2. Heterogeniczny i zmienny w czasie charakter danych zasilających ekspertowy system oceny jakości
Ekspertowy system oceny jakości produktów, wyrobów, świadczonych usług czy realizowanych procesów jest zasilany w następujące dane źródłowe:
- Dane liczbowe o miarach jakości produktów, wyrobów, świadczonych usługach,
realizowanych procesach, etc,
- Dane opisowe o wytwarzanych produktach, wyrobach, świadczonych usługach czy
realizowanych procesach, zespole wytwórców, procesie wytwarzania, etc.
- Dane niemierzalne wyraŜone w aspektach kategorycznych, na podstawie wiedzy eksperta,
odnoszące się do oceny jakości,
- Inne dane semantycznie związane z oceną jakości (Np. dane o planach, umowach,
kontraktach, załoŜeniach, oczekiwaniach klientów, etc.),
- Metadane o danych przechowywanych w bazie danych i bazie wiedzy.
Źródła zasilające systemy SEOJ mogą być dostępne dynamicznie lub statycznie. Są róŜnych
typów (Np. bazy danych, pliki lub strony w formacie HTML). Mogą mieć róŜnorodne znaczenie,
formę zapisu, strukturę, itp. Dla przykładu w ocenie jakości kształcenia w szkole wyŜszej moŜna za
źródła danych przyjąć wyniki pomiarów ankietowania studentów lub absolwentów, rankingi róŜnych instytucji, obowiązujące standardy kształcenia, oceny róŜnych gremiów akredytacyjnych,
sylwetkę absolwenta, itp. Oznacza to, Ŝe źródła danych w systemie SEOJ mają heterogeniczny charakter.
Inną waŜną cechą danych źródłowych w systemie SEOJ jest zmienny charakter kryteriów oce-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
71
ny jakości. Dla przykładu ocena jakości oprogramowania realizowana w latach 80-tych XX wieku
opierała się na innych kryteriach oceny niŜ ma to miejsce na początku XXI wieku. MoŜna spodziewać się, Ŝe wraz z rozwojem metod, technik czy metodyk wytwarzania oprogramowania, a takŜe wraz z pojawieniem się w przyszłości nowych standardów w dziedzinie inŜynierii oprogramowania, będziemy stosować inne kryteria oceny oprogramowania niŜ na początku XXI wieku. Gdy
zaś rozwaŜymy kryteria oceny jakości kształcenia studentów to równieŜ zauwaŜymy, Ŝe na przestrzeni czasu są one zmienne i róŜne a takŜe zaleŜne od czasu odniesienia się do tej oceny jakości.
Podobne własności mają dane źródłowe w innych dziedzinach oceny jakości.
3. Architektura ekspertowy system oceny jakości
PoniewaŜ istotnym uwarunkowaniem systemów SEOJ jest heterogeniczny i zmienny w czasie
charakter danych zasilających takie systemy, to musi w nich istnieć wydzielony modułu integracji
heterogenicznych źródeł danych.
NaleŜy zauwaŜyć, Ŝe z kaŜdym źródłem danych w systemie SEOJ związana jest określona
terminologia, określone nazewnictwo. Dla przykładu, rozpatrując ankiety studentów w ekspertowym systemie oceny jakości procesu kształcenia za takie pojęcia przyjąć moŜna „program przedmiotu”, „punktualność prowadzącego”, „przygotowanie do zajęć”, „realizację przedmiotu”, itp.
Między pojęciami z tej terminologii zachodzą relacje, Np. częścią oceny realizacji przedmiotu
jest ocena punktualności prowadzącego, itp. Zgodnie zaś z literaturą pojęcia terminologie i relacje
między nimi moŜna opisać formalnie tzw. ontologią [3]. Dzięki ontologiom moŜliwa jest komunikacja bez konieczności operowania na wspólnej bazie wiedzy ale i na wcześniej zdefiniowanych
słownikach z zapytaniami i określonymi wyjątkami. Ontologie umoŜliwiają takŜe efektywny dostęp
do informacji zawartych w wielu odrębnych repozytoriach i bazach wiedzy, przez co integrują dane, funkcjonalności, platformy, dziedziny, itp. Nie narzucają one konieczności odwzorowania jedynie świata rzeczywistego. Pozwalają takŜe na opis zasobów, które często nie są wiernymi odpowiednikami rzeczywistych obiektów. Ontologie wspomagają ujednolicenie wszystkich semantycznych róŜnic informacji dostarczanych przez system i dlatego mogą być podstawą modułu integracji
heterogenicznych źródeł danych.
ZałóŜmy, Ŝe w systemie SEOJ dostępnych jest n heterogenicznych źródeł danych symbolicznie
oznaczonych jako
Z1, …, Zn
Wówczas zgodnie z zasadami tworzenia ontologii moŜna dla tych źródeł opracować odpowiednie ontologie
O1, …, On
wg zasady, Ŝe Oi jest ontologią dla źródła Zi (i=1, …, n).
Łączenie wielu ontologii w jedną ontologię globalną jest moŜliwe dzięki dostępnym w literaturze metodom, zaimplementowanym w dostosowanych do tego, pakietach oprogramowania (Np.
OntoStudio). Wówczas stosując jedną z tych metod dla integracji ontologii Oi (i=1, …, n) moŜna
zbudować ontologię globalną OG. Kolejnym krokiem obsługi heterogeniczności danych jest etap
wyznaczania funkcji przejścia między ontologiami Oi (i=1, …, n) a ontologią globalną OG i odwrotnie między OG a ontologiami Oi (i=1, …, n).
Integracja danych dotyczy łączenia dowolnych pojęć, które mogą być zarówno synonimami
72
Tomasz Dudek, BoŜena Śmiałkowski
Architektura ekspertowego systemu oceny jakości
jak i homonimami (zaimplementowane modele opisujące podobieństwo, zaprojektowane w oparciu
o model Tverskyego [8], który definiuje miarę podobieństwa jako proces dopasowania cech). Model ten dostarcza wartości podobieństwa, które nie jest tylko wypadkową wspólnych cech, ale
uwzględnia takŜe róŜnice między pojęciami (obiektami). MoŜliwe jest równieŜ rozszerzenie metody odkrywania podobieństw terminów o ideę kontekstów (podobieństwo terminów zaleŜne jest od
kontekstu, w jakim się do nich odnoszono). Kontekst określa prawdziwość lub fałszywość stwierdzenia jak i jego znaczenie. Poprzez dodanie funkcji rozpatrujących podobieństwa, w metodzie
integracji opartej na ontologiach, osiągnąć moŜna większą precyzję porównań pomiędzy pojęciami
róŜnych ontologii, a połączenie ontologii i kontekstów dostarczy wyŜszego poziomu informacji
semantycznej wymaganej w integracji danych.
Metodę integracji ontologii a co zatem idzie i heterogenicznych źródeł danych, dokładniej zaprezentowano w literaturze (choćby [3]).
Na metodzie integracji ontologii oparto koncepcję realizacji modułu integracji heterogenicznych źródeł danych w systemie SEOJ. W dalszej części moduł ten nazwano modułem obsługi ontologii i oznaczono symbolem MOO. MoŜna zatem stwierdzić, Ŝe w strukturze ekspertowego systemu oceny jakości SEOJ niezbędne są następujące moduły funkcjonalne:
- Moduł obsługi ontologii MOO,
- Moduł pozyskiwania i gromadzenia wiedzy, umoŜliwiający zdobywanie oraz
modyfikowanie wiedzy o produktach, usługach i procesach,
- Baza danych o produktach, procesach i usługach,
- Baza wiedzy (ang. knowledge base), zawierająca informacje dziedzinowe i informacje
o podejmowanych przez eksperta decyzjach,
- Mechanizmy wnioskowania (ang. inference engine), które odpowiadają za rozwiązanie
problemu oraz za poprawne zastosowanie wiedzy zgromadzonej w bazie wiedzy,
- Moduł objaśniająco - wyjaśniający (ang. explanation facility), którego głównym zadaniem
jest komunikacja ze światem zewnętrznym.
zaś ogólna struktura takiego systemu jest zgodna z rys.1.
W module obsługi ontologii MOO dostępne będą następujące funkcje:
− Tworzenie ontologii wraz z tworzeniem leksykonów, aksjomatów, zbioru konceptów,
terminologii, atrybutów, wyników pomiaru ocen (osobników), sieci semantycznych dla
ontologii wraz z opisem relacji między konceptami,
− Łączenie dwóch wskazanych przez uŜytkownika ontologii,
− Tworzenie regionów i sygnatur dla wskazanej przez uŜytkownika ontologii,
− Tworzenie odwzorowań (funkcji przejść) między dwoma wybranymi ontologiami,
− Zapamiętanie ontologii wynikowej,
− Obsługa zapytań o ocenę jakości sformułowaną w terminologii dowolnej ontologii.
Baza danych w systemie ekspertowym słuŜy gromadzeniu danych o wytwarzanym produkcie,
świadczonej usłudze (w przypadku SEOJ do oceny jakości produktów informatycznych będzie to
bieŜący rejestr miar jakości oprogramowania w kolejnych etapach jego wytwarzania, wskaźniki
jakości dla punktów funkcyjnych, etc.) i przebiegu procesów wytwarzania (Np. dla oceny jakości
oprogramowania ewidencja opóźnień, wyników testów, danych o przebiegu procesu wytwarzania
oprogramowania, wyniki międzyprocesowego audytu, etc.).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
73
Rys. 1. Architektura systemu ekspertowego oceny jakości
Źródło: opracowanie własne na podstawie [3], [6] i [7]
Aby wykorzystanie modułu obsługi ontologii MOO w systemie SEOJ było moŜliwe, niezbędne jest przechowywanie w formie warstwy metadanych (WM na rys.1) danych o strukturze wywodu kolejnych ontologii, opisie zbiorów konceptów, aksjomatów, relacji między konceptami danej
ontologii, sieci semantycznych, ontologii, sygnatur, regionów, odwzorowań między ontologiami.
Warstwa tych metadanych moŜe być zrealizowana w formie tabel powiązanych między sobą na
zasadzie relacyjnej bazy danych. W skład tej warstwy wchodzą dane o aksjomatach i ich typach,
atrybutach, funkcjach przejścia, grafach (sieciach semantycznych), konceptach, leksykonach, ontologiach, osobnikach, regionach, relacjach i ich typach a takŜe dane o sygnaturach bitowych,
a wszystko po to by moŜliwa była integracja ontologii odpowiadających heterogenicznym źródłom
danych.
WyposaŜenie systemu SEOJO w warstwę metadanych (WM) i moduł obsługi ontologii
(MOO), pozwoli na utworzenie ekspertowego systemu oceny jakości, w którym wszystkie źródła
mogą być w dowolnej chwili osi czasu, z pewnym opóźnieniem wynikającym z konieczności przestrojenia systemu, zintegrowane mimo ich róŜnorodności.
Wiedza dziedzinowa w ekspertowym systemie oceny jakości jest reprezentowana, wywodzona
oraz przetwarzana przez tzw. inŜyniera wiedzy wspomaganego bazą danych i bazą wiedzy. Jest ona
związana ze znajomością miar jakości produktu finalnego lub usługi, ze znajomością cyklu Ŝycia,
z kategoryzacją problemu, z rodzajem organizacji procesów wytwarzania, z ich charakterystykami,
narzędziami pomiaru, ze znajomością reguł stosowanych w dziedzinie, itp. Istnieje kilka rodzajów
baz wiedzy. Do waŜniejszych naleŜy zaliczyć następujące:
- Baza tekstów (ang. text base) - występuje w niej naturalna strukturalizacja zawartych
informacji. Taka baza jest nie uporządkowana, dlatego teŜ operacje na niej mogą być
wykonywane w sposób dowolny,
74
Tomasz Dudek, BoŜena Śmiałkowski
Architektura ekspertowego systemu oceny jakości
-
Baza reguł (ang. rule base) - zawiera wiedzę o obowiązujących w danej dziedzinie
zaleŜnościach i jest najwaŜniejszą częścią bazy wiedzy,
- Baza modeli (ang. model base) - zawiera modele matematyczne (logiczno-matematyczne
przedstawienie pojęcia, systemu lub działań) danej dziedziny,
- Baza wiedzy zdroworozsądkowej (ang. common sense knowledge base) - odzwierciedla
potencjalne, racjonalne zachowania się człowieka. Zawiera reguły definiujące sposoby
podejmowania decyzji, które reprezentują metawiedzę systemu ekspertowego.
Moduł objaśniająco - wyjaśniający jest odpowiedzialny zarówno za wprowadzanie danych do
systemu, jak i za wyprowadzanie na zewnątrz wniosków systemu. Moduł ten wspomaga uŜytkownika radą oraz sugestią, ostateczna decyzja naleŜy jednak do samego uŜytkownika.
Wywodzenie wiedzy, wnioskowanie w systemie ekspertowym jest procesem wyszukania konkluzji przy wykorzystaniu zbioru reguł i faktów w konkretnej sytuacji, w określonych warunkach.
Podstawowymi metodami wnioskowania są wnioskowanie „wstecz" (ang. backward chaining) oraz
wnioskowanie „wprzód" (ang. forward chaining).
Wnioskowanie „wprzód" zaczyna od faktów i posuwa się w kierunku diagnozy. Systemy ekspertowe na podstawie podanych informacji i reguł zawartych w bazie wiedzy stara się wygenerować nowe fakty. Fakty te są dołączane do bazy wiedzy, a cały proces zostaje powtórzony. Wnioskowanie kończy się, kiedy nie jest moŜliwe wygenerowanie Ŝadnych nowych faktów lub gdy poszukiwana reguła została odnaleziona.
Wnioskowanie „wstecz" rozpoczyna się od hipotezy i poszukiwania argumentów (dowodów),
które pozwolą ją potwierdzić lub obalić, korzystając z reguł zawartych w bazie wiedzy. Jeśli reguły
korzystają z faktów, które nie są znane, a które wynikają z innych reguł, to system najpierw sprawdza te reguły. Jeśli danych faktów nie da się wyprowadzić za pomocą reguł wówczas system pyta
o nie uŜytkownika. Proces wnioskowania zwykle odbywa się rekurencyjnie, aŜ do momentu, kiedy
uda się uzyskać wszystkie dane potwierdzające bądź odrzucające postawione hipotezy.
Dzięki systemowi ekspertowemu SEOJ z bazą wiedzy dziedzinowej moŜliwe jest:
- Stawianie diagnoz w zakresie oceny jakości produkty, usługi (np. dla oceny jakości oprogramowania odpowiedź na pytanie czy produkt będzie wysokiej jakości lub, jaką jakość
posiada obecnie),
- Formułowanie wniosków o wytwarzanym produkcie lub świadczonych usługach,
- Formułowanie diagnoz i prognoz o procesach wytwarzania produkty czy świadczenia
usług (np. dla produkcji oprogramowania, odpowiedź na pytanie czy lepszy produkt moŜna uzyskać, gdy zastosuje się określony proces produkcji, określoną metodę jego wytwarzania, narzędzia programowe, etc.).
- Formułowanie wniosków o zmienności jakości oprogramowania w jego cyklu Ŝycia,
- Identyfikacja oceny jakości wytwarzanego produktu (oprogramowania) i wykonywanych
procesów oraz zadań produkcyjnych,
- Integracja danych róŜnorodnych, informacji i wiedzy w jednym systemie,
- Oszczędność czasu przeznaczonego na ocenę jakości,
- Eliminacja niepoŜądanych i błędnych rozwiązań (ocen),
- MoŜliwość uŜycia wielu miar, parametrów nawet często trudnych do porównania w procesie oceny jakości i podejmowaniu działań projakościowych (decyzyjnych),
- Zmniejszenie kosztów oceny jakości poprzez wdroŜenie wypracowanych procedur zbierania danych, wnioskowania i wywodu wiedzy, itp.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
75
4. Metoda integracji danych podstawą adaptacyjnego i otwartego charakteru systemów ekspertowych oceny jakości.
Dzięki zastosowaniu metody integracji opartej na ontologiach w module integracji heterogenicznych źródeł danych rozwiązano w systemie SEOJ dodatkowo następujące, znaczące problemy:
- MoŜliwe jest uzupełnienie ocen jakościowych o nowe źródła danych. Muszą być wówczas
dodane terminy, nie zawarte dotychczas w ontologii globalnej. Wymagane jest równieŜ
zdefiniowanie relacji między tymi terminami oraz zintegrowanie dotychczasowej ontologii globalnej z ontologią powstałą dla nowych źródeł oceny,
- Dzięki współdzieleniu słowników oraz odwzorowaniu lokalnych ontologii w ontologię
globalną moŜliwe jest porównanie ocen jakości.
Główną cechą systemu SEOJ jest integracja funkcji i danych oraz jego otwarty charakter na
nowe źródła (struktury) danych, róŜne sposoby obróbki danych, metody wywodu wiedzy. Otwartość systemu SEOJO na nowe źródła danych wynika z metody integracji, zaś otwartość na róŜne
sposoby wywodu wiedzy i róŜne sposoby obróbki danych, z istoty systemów ekspertowych. Systemu SEOJ wymaga wykonania konwersji danych, do takich struktur, które są niezbędne dla stosowanych w systemie metod wywodu wiedzy, za kaŜdym razem, gdy pojawi się nowe źródło danych. Gdy zostanie on oparty na relacyjnej bazie danych to taka konwersja jest moŜliwa dzięki
wbudowanym w systemy zarządzania bazami danych mechanizmom (np. zmaterializowane perspektywy, modyfikacje schematu bazy danych, konwersje między bazami danych). JednakŜe najwaŜniejszą, obok integracji danych, cechą systemu SEOJ jest moŜliwość zautomatyzowania procesu adaptacji bazy danych i bazy wiedzy do nowych pojawiających się źródeł danych, róŜnych
względem danych składowanych w bazie danych systemu pod względem pochodzenia, typu wartości, znaczenia, przeznaczenia, itd. Ten adaptacyjny i otwarty charakter metody integracji opartej na
systemie SEOJ, zilustrowano schematycznie na rys. 2.
Rys. 2. Otwarty i adaptacyjny charakter systemu SEOJ
Źródło: opracowanie własne
76
Tomasz Dudek, BoŜena Śmiałkowski
Architektura ekspertowego systemu oceny jakości
Metoda integracji heterogenicznych źródeł danych czyni ekspertowy system oceny jakości otwartym na nowe heterogeniczne źródła danych.
5. Podsumowanie
WaŜną cechą danych źródłowych zasilających ekspertowy systemy oceny jakości jest heterogeniczność. Ta własność doprowadziła do sytuacji, w której aby dany system uznać za niezaleŜny
(od nowych i zmiennych w czasie źródeł danych) naleŜy uwzględnić integrację danych źródłowych
oraz zmienny w czasie charakter kryteriów oceny. System ekspertowy SEOJ, zgodny z zaprezentowaną w artykule architekturą, wykazuje otwartość na problem pojawienia się coraz to nowszych
źródeł danych (wcześniej nieznanych), które mogą wzbogacić proces oceny jakości, o nowe kryteria oceny.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
BusinessObjects SA: From operational to analytical reporting with business objects data
integrator. www.businessobjects.com/products/dataintegration, 2004
Carey M.: Towards Heterogeneous Multimedia Information Systems: The Garlic
Approach. International Workshop on Distributed Object Management, Waszyngton,
1995
Dudek T.: Integracja danych w systemach ekspertowych oceny jakości. Roczniki
Informatyki
Stosowanej Wydziału Informatyki PS nr 9, n.t. Metody Informatyki
Stosowanej w Zarządzaniu, Szczecin, 2005
Dudek T.: System informatyczny jako narzędzie wspomagające wycenę nieruchomości.
Roczniki Informatyki Stosowanej Wydziału Informatyki PS, Metody Informatyki
Stosowanej w Zarządzaniu, Szczecin, 2004
Janowski A., Szulwic J., Wróblewska D.: SIP i systemy ekspertowe w zarządzaniu
hałasem. www.i-net.pl/publikacje/janowski-szulwic-wroblewska-halas_sip.pdf, 2005
Michalik K., „Architektura i cechy systemów ekspertowych”, aitech.pl/content/
view/79/142/lang,ISO-8859-2, 2006
Śmiałkowska B.: Multi-version metadata model at enterprise’s data warehouse with
ontologies. Materiały międzynarodowej konferencji Advanced Computer Systems,
Świnoujście, 2006
Tversky A.: Features of Similarity. Psychological Review, 1977
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
77
EXPERT SYSTEM ARCHITECTURE FOR QUALITY VALUATION
Summary
The computer monitoring systems for water networks have been implemented in
Polish waterworks in arising range in the last 10 years but their use there does not
meet their potentialities. These systems are used currently as self-contained programs for collecting the data of water production and of water pressures in area
pump works informing the water net operators about the general state of their object
while could and should be used as elements of the water net management systems.
Such an information system for management of communal water networks is presented in the paper.
Keywords: communal water network management, computer decisions making systems, GIS,
mathematical modeling of water network systems
Tomasz Dudek
Akademia Morska
[email protected]
BoŜena Śmiałkowska
Zachodniopomorski Uniwersytet Technologiczny
[email protected]
http://www.kisi.wi.zut.edu.pl
78
Arkadiusz Januszewski
Cechy systemów klasy Business Intelligence stosowanych w controllingu
ARKADIUSZ JANUSZEWSKI
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
CECHY SYSTEMÓW KLASY BUSINESS INTELLIGENCE
STOSOWANYCH W CONTROLLINGU
Streszczenie
W artykule podkreślono wzrost zainteresowania systemami klasy Business Intelligence, przeznaczonymi dla wspomagania controllingu. Opisano ich cechy funkcjonalne oraz techniczne. Wskazano zalety rozwiązań informatycznych dla controllingu
i budŜetowania, które wynikają z zastosowania technologii OLAP oraz technologii
internetowych i intranetowych.
Słowa kluczowe: controlling, budŜetowanie, On-line Analytical Proccesing, Business Intelligence
1. Wprowadzenie
Jeszcze kilka lat temu wieku większość stosowanych w Polsce systemów wspomagających
controlling operacyjny, w tym budŜetowanie, oparta była na arkuszu kalkulacyjnym. Wyniki badań
autora z roku 1997 wykazały np., Ŝe z 13 firm, które wdroŜyły budŜetowanie, aŜ 11 wspomagało
ten proces arkuszem kalkulacyjnym [4, s.124-129]. Dominację arkusza kalkulacyjnego potwierdziły badania przeprowadzone na grupie 118 duŜych firm przez firmę Arthur Andersen w 1999 roku.
Zdecydowana większość z 44% jednostek, które deklarowały uŜywanie narzędzi informatycznych
do wspierania budŜetowania i konsolidacji sprawozdań, uŜywało w tym celu arkusza kalkulacyjnego [1, s.32]. TakŜe sondaŜ dedykowanego controllerom portalu internetowego www.controlling.info.pl z 2001 roku, wskazał na zdecydowaną przewagę arkusza kalkulacyjnego nad innymi
narzędziami: aŜ 154 ze 199 firm (77%) dla potrzeb controllingu stosowało w tym czasie to popularne narzędzie, a jedynie w 19 jednostkach (10%) - oprogramowanie specjalistyczne.
Rozwój i większa dostępność narzędzi klasy Business Intelligence spowodowały, Ŝe obecnie
coraz więcej przedsiębiorstw, do wspomagania controllingu i rachunkowości zarządczej wybiera –
zamiast arkusza kalkulacyjnego – specjalistyczne oprogramowanie wykorzystujące technologię
hurtowni danych i narzędzia wielowymiarowego, interaktywnego przetwarzania analitycznego
OLAP (on-line analytical processing). Przedstawione w raporcie Poland Enterprise Application
Software 2007−2011 Forecast and 2006 Vendor Shares wyniki badań IDC Polska przeprowadzonych dla CFO Magazyn Finansowy wykazały, Ŝe w ciągu ostatnich 3 lat na polskim rynku znacząco
wzrosło zainteresowanie specjalistycznymi narzędziami przeznaczonymi do controllingu (zarządzania
budŜetami i analiz) [7]. W 2006 roku odnotowano 37% więcej wdroŜeń niŜ w roku poprzednim.
Większość z wdroŜonych systemów została wykonana w technologii OLAP.
Bardzo często zdarza się, Ŝe w stosowanych w przedsiębiorstwach systemach controllingu
i budŜetowania wprowadza się zmiany technologiczne polegające na zamianie oprogramowania
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
79
opartego na arkuszu kalkulacyjnym na oprogramowanie specjalistyczne wykorzystujące technologię OLAP1.
Celem artykułu jest przedstawienie cech funkcjonalnych oraz technicznych systemów informatycznych przeznaczonych dla controllingu, które zostały wykonane w technologii OLAP. Systemy
te posiadają wiele zalet w stosunku do rozwiązań opartych na arkuszu kalkulacyjnym i z tego powodu warto poznać ich moŜliwości.
2. Cechy funkcjonalne systemów OLAP stosowanych w controllingu
Szczególne znaczenie w systemach controllingu ma moŜliwość analizowania danych kosztowych i przychodowych w wielu wymiarach jednocześnie oraz poruszania się po hierarchii wymiarów. Zwiększa to znacznie szybkość analizowania dostępnych danych, ich porównywania w róŜnych przekrojach i ustalania kluczowych wartości, które w głównej mierze wpływają na zagregowane dane syntetyczne. MoŜliwości analityczne systemów OLAP są wykorzystywane najczęściej w
następujący sposób:
• przedstawianie kosztów w wielu wymiarach jednocześnie – np. rodzaju, miejsca powstawania kosztu (MPK) i czasu;
• przedstawianie sprzedaŜy (w układzie wartościowym i ilościowym) w wielu wymiarach
jednocześnie – np. produktu, klienta, geografii i czasu;
• przedstawianie zysku lub tzw. marŜy pokrycia finansowego w wielu wymiarach jednocześnie – np. produktu, klienta, geografii i czasu;
• porównywanie wyników (przychodów, kosztów, zysku) róŜnych centrów zysku i centrów
inwestycji między sobą, w czasie i na róŜnym poziomie szczegółowości analizowanych
pozycji;
• drąŜenie w głąb (drill down) i konsolidowanie (roll up) kosztów według hierarchii wymiarów – np. od kont syntetycznych do róŜnych poziomów kont analitycznych, od MPK wyŜszych poziomów do MPK niŜszych poziomów;
• drąŜenie w głąb (drill down) konsolidowanie (roll up) przychodów i zysku (marŜy) według hierarchii wymiarów – np. od regionów sprzedaŜy przez grupy klientów do poszczególnych klientów;
• konsolidowanie budŜetów kosztów podrzędnych MPK (znajdujących się na niŜszych poziomach hierarchii) w budŜety nadrzędnych MPK, co jest przydatne w trakcie negocjacji
budŜetów;
• konsolidowanie budŜetów przychodowo-kosztowych podrzędnych centrów zysku w budŜety nadrzędnych centrów zysku, co jest przydatne w trakcie negocjacji budŜetów;
• porównywanie danych planowanych i rzeczywistych o przychodach i kosztach w wielu
wymiarach jednocześnie i poruszanie się w głąb hierarchii zdefiniowanych wymiarów, co
ułatwia ustalenie przyczyn odchyleń;
1
Według W.Kiljańskiego szefa firmy Controlling systems spośród ponad 50 wdroŜeń systemu Eureca, które miały miejsce do połowy roku 2008, jednie w dwóch przypadkach, wdroŜenie systemu controllingu polegało na jego zbudowaniu
„od zera” – w pozostałych przypadkach przedsiębiorstwa eksploatowały systemy oparte na arkuszu kalkulacyjnym. (Informacja uzyskana w trakcie dyskusji na seminarium poświęconym wdroŜeniom systemu Eureca, które odbyło się w
kwietniu 2008 roku w Warszawie).
80
Arkadiusz Januszewski
Cechy systemów klasy Business Intelligence stosowanych w controllingu
• porównywanie róŜnych wersji budŜetów w wielu wymiarach jednocześnie i porównywanie odpowiadających im wskaźników syntetycznych, co ułatwia wybranie właściwego wariantu budŜetu;
• przedstawianie struktury kosztów, przychodów i zysku) w ujęciu procentowym w wielu
wymiarach jednocześnie i na róŜnym poziomie szczegółowości;
• przedstawianie dynamiki kosztów, przychodów, wyników, pozycji sprawozdania finansowego (bilansu, rachunku zysków i strat, przepływów pienięŜnych) w czasie i na róŜnych
poziomach szczegółowości.
W tabeli 1 przedstawiono podstawowy zakres wspomagania controllingu, które moŜe być
realizowane w systemie opartym na hurtowni danych i technologii OLAP. Podana charakterystyka
obejmuje często stosowane wymiary analityczne i badane miary (fakty).
Tabela 1. Przykładowe obszary zastosowań technologii OLAP
w controllingu i rachunkowości zarządczej
Zagadnienie
Typowe miary
Typowe wymiary
Zakres wspomagania
BudŜetowanie
kosztów i kontrola
wykonania
koszt wykonany
okres
koszt planowany
MPK
kontrola odchyleń kosztów rzeczywistych od planowanych, identyfikacja przyczynowa,
wersja budŜetu
rodzaj kosztu
produkt
przedsięwzięcie
symulacja zmiany budŜetów pozycji
kosztów (oraz natychmiastowe odzwierciedlanie zamiany warunków
symulacji w prezentowanych wskaźnikach i sprawozdaniach)
zlecenie produkcyjne
BudŜetowanie
sprzedaŜy
wartość sprzedaŜy
okres
ilość
produkt
cena
klient
wspomaganie sporządzania budŜetu
bezpośrednio w wielowymiarowym
modelu OLAP
region
Rachunek kosztów
i marŜy
koszt
okres
marŜa
MPK
koszt jednostkowy
metoda kalkulacji
rodzaj kosztu
produkt
porównanie róŜnych metod kalkulacji kosztów (np. tradycyjnych z rachunkiem kosztów działań) i ich
wpływu na takie wielkości jak np.:
jednostkowy koszt wytworzenia
wyrobów lub półfabrykatów,
marŜa na wyrobach
półfabrykat
przedsięwzięcie
zlecenie produkcyjne
Badanie
i planowanie przepływu środków
wpływ
okres
wypływ
przedział czasowy
przegląd historii bilansu środków
pienięŜnych
identyfikacja przyszłych zagroŜeń
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
Zagadnienie
pienięŜnych
Typowe miary
Typowe wymiary
rodzaj działalności
Zakres wspomagania
płynności finansowej
źródło przepływu
identyfikacja obszarów
81
planowanie inwestycji
Analiza struktury
i dynamiki bilansu
oraz rachunku wyników
koszt
przedział czasowy
przychód
pozycja bilansu
wynik
pozycja rachunku wyników
wartość aktywów
identyfikacja niekorzystnych trendów zmiany struktury i dynamiki
aktywów i pasywów oraz kosztów,
przychodów i wyników
wartość pasywów
Analiza wskaźnikowa działalności
przedsiębiorstwa
wartości wskaźników
przedział czasowy
wskaźnik
pozycja sprawozdania
finansowego
konto syntetyczne
konto analityczne
analiza historii kształtowania się
wskaźników oceny działalności
identyfikacja przyczyn kształtowania
się wskaźników
symulacja wpływu zmiany wartości
pozycji bilansu lub rachunku wyników na kształtowanie się wskaźników
Źródło: [6].
3. Cechy techniczne oprogramowania OLAP wspomagającego controlling i wynikające
z nich korzyści funkcjonalne
Do najpopularniejszych, rodzimych rozwiązań wspomagających controlling operacyjny, które
zostały wykonane w technologii OLAP i stanowią niezaleŜne rozwiązania typu stand-alone, naleŜy
system EURECA firmy Controlling Systems, która w latach 2004−2007 zanotowała największą
liczbę wdroŜeń zakończonych i rozpoczętych oraz TETA Controlling firmy TETA (tabela 2). Pozostałe, wymienione w tabeli 2, systemy są bądź produktami firm zachodnich (Prophix, InForum,
Business Objects), bądź stanowią część oferowanego zintegrowanego systemu wspomagającego
zarządzanie (CDN XL Controlling, systemy BPSC, Optima Controlling – kiedyś sprzedawana jako
część systemu IFS Applications [4]). Oba wspomniane wyŜej rozwiązania zostały wykonane
w oparciu o technologie hurtowni danych firmy Microsoft i są przeznaczone głównie dla średniej
wielkości przedsiębiorstw, a ich dostawcy świadczą usługi integracji swoich produktów z systemami transakcyjnymi pochodzącymi od róŜnych producentów. NiŜej zostaną przedstawione cechy
techniczne i wynikające z nich korzyści funkcjonalne systemu EURECA, który według IDC Polska
oferuje najbardziej wszechstronne funkcjonalności oraz został wdroŜony w przedsiębiorstwach
i instytucjach z najbardziej zróŜnicowanych branŜ (od transportu, logistyki, dystrybucji po edukację i media), a takŜe w firmach, w których proces budŜetowania jest najbardziej rozbudowany.
System EURECA został wykonany w technologii firmy Microsoft .NET, przy zastosowaniu
narzędzi Microsoft Visual Studio .NET do tworzenia graficznego interfejsu uŜytkownika, pracuje
82
Arkadiusz Januszewski
Cechy systemów klasy Business Intelligence stosowanych w controllingu
w oparciu o relacyjną bazę danych Microsoft SQL i wielowymiarową bazę danych Microsoft
OLAP oraz wykorzystuje usługi analityczne Microsoft Analysis Services2.
Architekturę systemu EURECA tworzą:
• warstwa logiki biznesowej, działająca w oparciu o hurtownię danych;
• mechanizmy do tworzenia hurtowni danych, wielowymiarowych struktur danych oraz do
zasilania hurtowni danymi z systemów transakcyjnych:
• tabele baz danych w Microsoft SQL Server, słuŜące do gromadzenia ściśle określonych
danych z systemów transakcyjnych,
• usługi DTS (Data Transformation Services), słuŜące do przenoszenia danych między wieloma niejednorodnymi bazami (dokonują transformacji danych do zdefiniowanych tymczasowych tabel baz danych oraz przetwarzają pobrane dane i wpisują je do właściwych
tabel, uaktualniając jednocześnie zdefiniowane struktury wielowymiarowe);
• warstwa prezentacyjna z interfejsem uŜytkownika.
Tabela 2. Dostawcy specjalistycznych narzędzi do budŜetowania i analiz
Firma oferująca
narzędzia
Nazwa narzędzia
Przeznaczenie
WdroŜenia zakończone w latach
2004–2007
WdroŜenia
rozpoczęte
Controlling
Systems
EURECA
budŜetowanie i analizy
33
15
TETA
TETA Controlling
budŜetowanie i analizy
18
4
Consorg
Optima
Controlling
budŜetowanie i analizy
11
2
Solemis
Prophix
budŜetowanie i analizy
17
2
inForum BI
inForum Business
Intelligence
budŜetowanie i analizy
20
7
Business Objects
Budgeting, Payroll Planning, Sales Planning
budŜetowanie
n/d
n/d
Business
Objects Plan
Reporting
analizy
n/d
n/d
1
12
Business Objects
BudŜetowanie
BPSC
budŜetowanie
Impuls BI
SWD
ComArch
1
14
35
0
CDN XL Controlling
budŜetowanie i analizy
340
12
Comarch Business
Intelligence
budŜetowanie i analizy
10
5
Źródło: [7] ( na podstawie badań IDC Polska)
2 Opis systemu EURECA podaję na podstawie [2] i [3].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
83
Na uwagę zasługuje tu przede wszystkim wykorzystanie wielowymiarowych struktur danych
zawartych w technologii OLAP, która zapewnia opracowywanie, kontrolowanie i analizowanie
budŜetów w ujęciach:
• wielowymiarowym - dzięki temu moŜna np. jednocześnie zarządzać budŜetem sprzedaŜy
podziale na segmenty rynku, regiony geograficzne czy grupy asortymentowe;
• wielomiarowym - dzięki temu moŜna jednocześnie planować i obserwować wiele miar dla
jednego zjawiska np. ilość, wartość i średnią cenę sprzedaŜy;
• wielookresowym - dzięki moŜna np. zarządzać budŜetami projektów trwających od listopada do kwietnia lub inwestycji trwających np. 27 miesięcy.
Do waŜnych cech technicznych opisywanego produktu naleŜą:
• zapewnienie dostępu do danych i funkcji systemu za pomocą przeglądarki internetowej,
• integracja z pakietem Microsoft Office (głównie z MS-Excel),
• wielojęzyczność,
• moŜliwość automatycznego pobierania danych z systemów transakcyjnych,
• wykorzystanie do tworzenia wykresów popularnego narzędzia Crystal Reports firmy Seagate Crystal Decisions.
MoŜliwość prowadzenia analiz zgromadzonych danych za pośrednictwem przeglądarki internetowej jest szczególnie istotna dla firm rozproszonych terytorialnie, które posiadają wiele oddziałów. Zapewnienie dostępu do funkcji systemu poprzez Internet oraz intranet firmy oznacza, Ŝe
z jego funkcji moŜna korzystać praktycznie z dowolnego miejsca i w dowolnym czasie. W stosunku do systemów budŜetowania opartych na arkuszu kalkulacyjnym rozwiązanie takie posiada następujące zalety3:
• budŜety cząstkowe4 - tworzonych przez zarządzających nimi kierowników – mogą być
wprowadzane z dowolnego miejsca do wspólnej bazy danych;
• zapisane we wspólnej bazie danych budŜety cząstkowe mogą być bez opóźnień automatycznie konsolidowane tworząc budŜety jednostek znajdujących się na wyŜszych poziomach struktury organizacyjnej oraz budŜet główny całego przedsiębiorstwa;
• zapisane budŜety cząstkowe oraz skonsolidowane budŜety mogą być natychmiast udostępniane kierownikom wyŜszych szczebli zarządzania i controllerom finansowym, co
przyspiesza proces negocjacji budŜetów;
• kierownicy poszczególnych komórek z dowolnego miejsca na bieŜąco śledzić poziom realizacji budŜetów (za które są odpowiedzialni) oraz uzyskiwać dostęp do listy transakcji
(dokumentów) składających się na wykonanie ich fragmentu budŜetu;
• kierownicy oddziałów, analitycy i controllerzy mogą z dowolnego miejsca na bieŜąco
analizować informacje o stanie zasobów finansowych i materialnych, poziomie kosztów
3 Oczywiście - oprócz dostępu z dowolnego miejsca - wymienione cechy posiada kaŜdy wielodostępny system budŜetowania, który zapisuje dane we wspólnej bazie danych. Arkusz kalkulacyjny MS Excel jest jednym z najczęściej uŜywanych
narzędzi w controllingu. Jest stosunkowo prosty w obsłudze, ma bogatą funkcjonalność i jest wyposaŜony w wiele kreatorów wykresów i raportów. Ma jednak teŜ róŜne ograniczenia i niedogodności, takie jak dość kłopotliwe i czasochłonne
pobieranie danych z systemów transakcyjnych (konieczne w przypadku systemu budŜetowania), problematycznym wielodostępem czy brakiem moŜliwości zarządzania uprawnieniami.
4 BudŜety cząstkowe składają się na budŜet całego przedsiębiorstwa, który powinien być tworzony automatycznie w procesie konsolidacji.
84
Arkadiusz Januszewski
Cechy systemów klasy Business Intelligence stosowanych w controllingu
i wyników swojej placówki oraz całej firmy, dzięki czemu nie są uzaleŜnieni od raportów
tworzonych przez pracowników w siedzibie głównej, co przyspiesza proces podejmowania decyzji i redukuje błędne decyzje podejmowane na podstawie nieaktualnych danych.
W systemie EURECA moŜna w dowolnym momencie wyeksportować dane do arkusza kalkulacyjnego MS-Excel, w celu przeprowadzania dodatkowych analiz oraz umieścić raporty graficzne
w MS-PowerPoint w celu przygotowania prezentacji dla zarządu. WaŜną korzyścią z integracji
z MS-Excel jest moŜliwość bezproblemowego wczytywania arkuszy kalkulacyjnych do bazy systemu, czyli traktowanie plików MS-Excel jako źródła danych. Jest to szczególnie przydatne na
etapie wdraŜania systemu, kiedy to kierownicy często przygotowują budŜety właśnie w arkuszu
kalkulacyjnym. MoŜe być takŜe wykorzystane w przypadku gdy – przed przesłaniem danych
z systemu dziedzinowego do systemu budŜetowania – zachodzi konieczność wykonania dodatkowych obliczeń (np. rozliczenia kosztów) nie przewidzianych w systemie dziedzinowym. Warto teŜ
wspomnieć, Ŝe w EURECE zastosowano gotowe komponenty MS-Office co zapewnia identyczne
jak w MS-Excel poruszanie się po tabelach z danymi (arkuszach budŜetowych).
Wielojęzyczność i łatwe dostosowanie raportów do standardów krajowych, dotyczących języka i sposobu formatowania (np. liczb) oznacza, Ŝe EURECA moŜe być z powodzeniem uŜywana
przez firmy międzynarodowe.
Dzięki moŜliwości automatyzacji procesu pobierania danych z systemów transakcyjnych moŜna na bieŜąco śledzić stopień realizacji planów. Proces ten opiera się na oryginalnej metodologii
DiMARTS, opracowanej przez Controlling Systems, która umoŜliwia pobranie danych do aplikacji
ze standardowych, zdefiniowanych na etapie wdroŜenia formatów plików. Korzysta się z wcześniej
zdefiniowanej procedury, która pobiera dane z odpowiednich tabel baz danych systemów transakcyjnych (finansowo-księgowego, płacowego, sprzedaŜy itp.), konwertuje je, oczyszcza, agreguje
i zapisuje w kostkach OLAP. Dane o wykonaniu planów są pobierane w trybie off-line, z róŜną
częstością, w zaleŜności potrzeb firmy i zostają zestawione ze wszystkimi, zdefiniowanymi przez
uŜytkowników wersjami planów.
4. Zakończenie
Kierunek zmian w rozwiązaniach informatycznych przeznaczonych dla controllingu i budŜetowania naleŜy uznać za słuszny. Technologie OLAP i technologie internetowych, które zostały
zaimplementowane w kaŜdym, liczącym się na polskim rynku, oprogramowaniu controllingowym
stwarzają duŜo większe moŜliwości, niŜ te, które oferowały systemy oparte jedynie na arkuszu kalkulacyjnym lub te, które stanowiły integralną część systemu finansowo-księgowego, względnie
moduł systemu klasy ERP (Enterprise Resources Planning). Kluczowe zalety nowych rozwiązań
to zastosowanie technologii relacyjnych i wielowymiarowych baz danych, dostęp do bazy danych
systemu controllingowego za pomocą przeglądarki internetowej, moŜliwość przeprowadzania wielowymiarowych analizy OLAP oraz ścisła integracja z Ms-Excel, która m.in. ułatwia wdroŜenie
nowego systemu – nie wymusza bowiem natychmiastowej zmiany przyzwyczajeń pracowników
zaangaŜowanych w proces tworzenia i kontrolowania budŜetów.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
85
5. Literatura
1.
2.
3.
4.
5.
6.
7.
Arthur Andersen (1999) Zarządzanie finansami – szanse i bariery. Raport z badania
polskich przedsiębiorstw, Warszawa
Controlling Systems (2007) Materiały informacyjne [Dostęp 2 grudnia 2007] Dostępne
w Internecie http://www.c-systems.pl/
FiM Consulting (2007) EURECA – rozwiązanie do budŜetowania i analiz
wielowymiarowych. Materiały informacyjne [on-line] [Dostęp 2 grudnia 2007]
Dostępny w Internecie
http://www.fim.pl/pdf/EURECA_informacje.pdf
Greczuszkin S. (2002) Partner czyli współproducent. Teleinfo nr 6
Januszewski A. (1998) Komputerowo wspomagane budŜetowanie kosztów w przedsiębiorstwach o złoŜonych strukturach zarządzania, rozprawa doktorska, Uniwersytet
Gdański 1998
Sierocki R. (2007) OLAP to efektywna technologia przetwarzania danych analitycznych.
Controlling i Rachunkowość Zarządcza, Nr 1
Szarska E. (2007) W czym budŜetować ? W czym analizować ? CFO Magazyn Finansistów, IDG Poland, wrzesień
FEATURES OF BUSSINES INTELLIGENCE SYSTEMS CLASS
IMPLEMENTED IN CONTROLLNG
Summary
The article shows the increase of application of Business Intelligence systems
used in controlling and budgeting area. The functional and technical features of
those systems are described. The advantages of controlling and budgeting information solutions due to using OLAP and Internet technologies are pointed out.
Keywords: controlling, budgeting, Business Intelligence, On-line Analytical Processing, Business
Intelligence
Arkadiusz Januszewski
Katedra InŜynierii Zarządzania
Wydział Zarządzania
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
85-796 Bydgoszcz, Al. Kaliskiego 7 bud.3.1
e-mail: [email protected]
86
Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski
Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX
WALDEMAR KARWOWSKI,
ALEKSANDRA SAWCZUK,
ARKADIUSZ ORŁOWSKI
Katedra Informatyki SGGW
ZARZĄDZANIE KONTAMI BANKOWYMI NA PRZYKŁADZIE APLIKACJI
WYKORZYSTUJACEJ STANDARD OFX
Streszczenie
Artykuł przedstawia podstawy standardu Open Financial Exchange (OFX) oraz
proces formułowania załoŜeń, projektowania i tworzenia prostego systemu do obsługi wyciągów bankowych. Omówiono podstawowe elementy standardu i ich rolę w
dokumencie OFX. Przedstawiono przykładowe komunikaty ze szczególnym uwzględnieniem zapytań dotyczących wyciągu bankowego. Następnie zaprezentowano wymagania programu oparte o rozpoznane potrzeby potencjalnych uŜytkowników.
Przedstawiono najwaŜniejsze elementy projektu oraz omówiono wykorzystane technologie. Na końcu sformułowano wnioski i doświadczenia zebrane podczas realizacji
projektu.
Słowa kluczowe: OFX, XML, informatyczne systemy bankowe, wymiana danych
1. Wstęp
Współcześnie praktycznie wszędzie, niezaleŜnie od tego czy jest to urząd, instytucja finansowa, firma produkcyjna czy usługowa następuje wymiana danych. Dane dotyczą klientów, produktów a takŜe związanych z nimi operacji finansowych. Przekazywane są one w róŜnej postaci, pomiędzy wieloma systemami i programami, działającymi w róŜnych firmowych działach. JeŜeli dane
te są przekazywane w róŜnych formatach to staje się to uciąŜliwe dla tych, którzy chcą je wykorzystać w innej aplikacji w postaci innej niŜ źródłowa. Ręczne przepisywanie jest do przyjęcia tylko
w przypadku niewielkich dokumentów. Konwertowanie danych przez pracowników, nawet przy
pomocy rozmaitych narzędzi, jest uciąŜliwe, czasochłonne i niestety dość często bywa działaniem
generującym błędy. W efekcie na większą skalę jest to postępowanie bardzo kosztowne, co szczególnie w okresie kryzysu finansowego, ma niebagatelne znaczenie. Obecnie obrót pieniądza odbywa się przede wszystkim w formie elektronicznej, tradycyjne formy: monety, banknoty czy czeki
mają znaczenie drugorzędne, natomiast dane o operacjach finansowych są bardzo waŜne, powinny
być przekazywane i przetwarzane w moŜliwie najkrótszym czasie. W odpowiedzi na te potrzeby
powstały róŜne standardy do bezpośredniej wymiany informacji finansowych, jednym z najwaŜniejszych jest OFX [1]. Standard ten jest bardzo obszerny ze względu na ilość czynności bankowych jakie obsługuje, zajmuje się teŜ bezpieczeństwem wymiany danych oraz synchronizacją. JednakŜe firmy w zaleŜności od potrzeby mogą wykorzystywać tylko niektóre jego elementy. Celem
niniejszej pracy jest pokazanie jak moŜna usprawnić zarządzanie kontem bankowym oraz zbadanie
czy moŜna przy pomocy powszechnie dostępnych narzędzi programistycznych zbudować funkcjonalną aplikację wspierającą standard OFX. Praca jest częścią większego cyklu badań na temat re-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
87
prezentacji informacji finansowych w języku XML [2]. Oprócz walorów technicznych wyniki mogą stanowić podstawę integracji koncepcji z dziedziny operacji finansowych w formie modelu
ontologicznego.
2. Podstawy standardu OFX
W dobie informatyzacji wielu klientów instytucji finansowych korzysta ze swoich rachunków
bankowych poprzez strony WWW. Dla przeciętnego uŜytkownika korzystającego z bankowości
elektronicznej przejrzenie historii swoich transakcji, które prawdopodobnie nie są zbyt liczne, nie
jest zadaniem trudnym. Do tego wystarczają podstawowe usługi dostarczane przez dany bank.
Problem pojawia się wtedy, gdy indywidualny klient lub instytucja finansowa, generuje miesięcznie kilka tysięcy transakcji na swoim rachunku bankowym i dostępne proste narzędzia stają się
niezbyt wygodne. W związku z rosnąca liczbą transakcji zawieranych za pośrednictwem sieci internetowej pojawiło się zapotrzebowanie na nowoczesne narzędzia, które umoŜliwiły by szybką,
spójną i uniwersalną komunikację pomiędzy klientami a bankami. Odpowiednią podstawą do
sformalizowania wymiany takich danych okazał się język znaczników XML (eXtensible Markup
Language). Jest to standard tekstowy, którego podstawowym celem jest przechowywanie danych
i ich struktury, a nie ich prezentacja. Podstawową jego cechą jest samoopisywalność – dobrze nazwane znaczniki w dokumencie XML opisują wartości jakie zawierają i co one oznaczają. Teksty
przygotowane w ten sposób moŜna formatować na róŜne sposoby i poddawać je dalszemu przetwarzaniu. Dodatkowo cechą tego języka są jasno i jednoznacznie zdefiniowane reguły tworzenia dokumentów oraz łatwość w tworzeniu oprogramowania korzystającego z tychŜe dokumentów. Jest
to standard otwarty i niezaleŜny od platformy, został utworzony i jest rozwijany przez niedochodową organizację W3C na otwartej bezpłatnej licencji. XML stał się podstawą kilku standardów w
branŜy finansowej, najbardziej popularnym z nich jest OFX który powstał w 1997 roku dzięki
współpracy trzech firm: CheckFreeCorp, Intuit Inc. oraz Microsoft Corporation. Standard ten jest,
jak sama nazwa wskazuje, standardem otwartym – oznacza to, Ŝe kaŜdy, zarówno klient indywidualny jak i duŜa instytucja finansowa, moŜe bezpłatnie z niego korzystać. W szczególności standard
OFX wspomaga szeroki zakres finansowych czynności, takich jak: wyciągi bankowe, karty kredytowe, przelewy środków, poŜyczki, płatności konsumenckie, płatności firmy, wyciągi brokerskie,
włączając w to historię transakcji, bieŜące portfele akcji, salda dla normalnych kont i planów
oszczędnościowych 401(k) (Brokerage and mutual fund statement download, including transaction history, current holdings, and balances for normal accounts and 401(k) accounts), przedstawienia do zapłaty i wypłaty, formularze podatkowe, pobieranie obrazów dla celów bankowych.
Udostępniony jest równieŜ mechanizm automatic 1–Way OFX (Active Statements/Web Connect),
który umoŜliwia instytucji finansowej dostarczanie historii transakcji ze stron internetowych z aplikacjami bankowymi bezpośrednio do klientów, którzy uŜywają programu MS Money. Wyciągi są
dostarczane do aplikacji klienckiej w postaci pliku zgodnego ze schematem OFX. Drugą grupę
funkcjonalności stanowi wspomaganie komunikacji pomiędzy instytucjami finansowymi włączając
takich członków jak: banki, domy maklerskie, partnerzy handlowi, doradcy finansowi czy agencje
rządowe. Ponadto OFX wspomaga szeroki zakres nakładek (front–end applications) – w tym aplikacje internetowe, obsługując wszystkie typy usług finansowych na wszystkich platformach. Dzięki
otwartości i rozszerzalności standard znajduje zastosowanie nie tylko w realiach amerykańskich,
moŜe być stosowany w innych krajach.
88
Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski
Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX
Standard zakłada działanie w modelu klient - serwer. Najogólniej mówiąc komunikacja
w systemie OFX odbywa się za pomocą par zapytanie – odpowiedź. Zapytanie ma postać dokumentu XML zgodnego ze schematem OFX, który jest przesyłany przez aplikację kliencką do serwera. Serwer na zapytanie klienta wysyła odpowiedź, która ma równieŜ strukturę dokumentu
XML. Ma to odwzorowanie w nazewnictwie znaczników: nazwy znaczników oznaczających zapytania kończą się literami RQ, natomiast nazwy znaczników oznaczające odpowiedzi serwera – literami RS. Przedstawimy teraz w skrócie budowę dokumentu OFX, jest ona zdefiniowana za pomocą schematów XML. Na początku pliku OFX znajduje się typowa deklaracja XML, zaś bezpośrednio po niej deklaracja OFX:
<?xml version="1.0" encoding="UTF–8"?>
<?OFX OFXHEADER="200" VERSION="211" SECURITY="NONE" OLDFILEUID="NONE"
NEWFILEUID="NONE"?>
Wszystkie atrybuty w deklaracji OFX są wymagane i przyjmują wartość NONE jeśli klient
albo serwer ich nie wykorzystują. OFXHEADER – określa wersję deklaracji OFX; specyfikacja
2.1.1 korzysta z wersji 2.0.0 tej instrukcji, zatem wartość tego atrybutu jest 200. VERSION – określa numer wersji OFX w jakiej będą zapisywane kolejne bloki dokumentu OFX; dla specyfikacji
OFX 2.1.1. wartość atrybutu wynosi 211. SECURITY – określa typ poziomu zabezpieczenia jeŜeli
jest uŜyte dla bloków OFX; moŜe przyjmować dwie wartości: NONE albo TYPE1. OLDFILEUID
– identyfikuje ostatnie zapytanie i odpowiedź, która została otrzymana i przetworzona przez klienta. NEWFILEUID – jednoznacznie identyfikuje plik z zapytaniem. NEWFILEUID musi być wysłany z kaŜdym zapytaniem oraz serwer musi umieścić ten sam identyfikator w odpowiedzi. Ma to
na celu szybkie zidentyfikowanie dwóch tych samych zapytań i jest takŜe wykorzystywane w obsłudze błędów. Po deklaracji następuje właściwy blok OFX, rozpoczyna się on od bloku zwanego
top–level OFX. Jest to korzeń dokumentu z elementem głównym OFX i odnośnikiem do głównego
schematu standardu OFX, którym jest plik OFX2_Protocol.xsd. Plik ten zawiera łącza do pozostałych schematów OFX . Przykładowo:
<ofx:OFX xmlns:ofx="http://ofx.net/types/2003/04"
xmlns:xsi="http://www.w3.org/2001/XMLSchema–instance"
xsi:schemaLocation="http://ofx.net/types/2003/04 OFX2_Protocol.xsd">
Struktura dokumentu jest hierarchiczna, wszystkie kolejne bloki są zagnieŜdŜone w blokach
wyŜszego poziomu. Drugi blok to zestawy wiadomości i wersje kontrolne (Message Sets and Version Control). OFX organizuje wiadomości w zestawy. Ogólnie zestawy te zawierają całość (lub
część) usługi jaką chciałby wykonać uŜytkownik serwisu obsługującego OFX. Znaczniki zestawów
wiadomości są nazywane według następującej konwencji: <xxxMSGSRQVn> – Ŝądanie skierowane do serwera, oraz <xxxMSGSRSVn> – odpowiedź z serwera, gdzie xxx – oznacza konkretną
operację bankową, natomiast n – oznacza numer wersji kontrolnej, która została uŜyta w wiadomości; dla schematu OFX w wersji 2.1.1 (i poprzednich) wartość ta zawsze wynosi 1. KaŜda pojedyncza wiadomość musi być zawarta w odpowiednim dla niej zestawie wiadomości. Z kolei zestawy
wiadomości muszą spełniać następujące zasady: zapytanie RQ moŜe zawierać co najwyŜej jedno
opakowanie zestawu wiadomości (message set wrapper) kaŜdego typu; wszystkie wiadomości
umieszczone wewnątrz jednego zestawu muszą pochodzić z tej samej wersji kontrolnej; serwer
musi odpowiadać uŜywając tych samych zestawów wiadomości i wersji jakie zostały uŜyte w pliku
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
89
z Ŝądaniem. Zestawy wiadomości w pliku OFX muszą pojawiać się w ustalonym porządku, na
przykład SIGNONMSGSRQV1 (Signon) musi poprzedzić SIGNUPMSGSRQV1 (Signup).
Trzeci blok to opakowania synchronizacji (Synchronizations wrappers). Standard OFX zapewnia synchronizację danych. Jest ona wykorzystywana w przypadku wystąpienia błędów, na
przykład zapewnia prawidłowe przetworzenie zapytań pochodzących z wielu aplikacji jednego
klienta, na przykład odtwarza dane z backupu.
Kolejnym blokiem OFX jest transakcja (transaction). Transakcja składa się z wiadomości
i z dodatkowych informacji z nią związanych, takich jak np. unikalny identyfikator transakcji, który jest uŜywany, aby zapobiec ewentualnej niejednoznaczności w dopasowywaniu zapytania
i związanej z nim odpowiedzi. Instrukcje inne niŜ SONRQ/SONRS (element ten identyfikuje i autoryzuje uŜytkownika wobec instytucji finansowej) są przetwarzane jako transakcje. KaŜda wiadomość jest otoczona odpowiadającym jej opakowaniem transakcji (transaction wrapper). Nazwy
opakowań transakcji są budowane wg wzoru: <xxxTRNRQ>/<xxxTRNRS>. KaŜde opakowanie
transakcji otacza pojedynczą transakcję, np. opakowanie transakcji <LOANSTMTTRNRS> otacza
odpowiedź serwera <LOANSTMTRS>.
Najbardziej zagnieŜdŜony blok to wiadomości. Specyfikacja OFX uŜywa takŜe jednolitej
konwencji do nazywania znaczników poszczególnych instrukcji w zaleŜności od ich funkcji. PoniŜsza tabela przedstawia te grupy razem z przykładem konkretnego polecenia dla zapytania RQ.
Tabela 1. Konwencja w nazewnictwie znaczników w OFX
Grupa
wiadomości
RQ
Przykład RQ
<STMTRQ>
Funkcja
Basic
<xxxRQ>
odczyt czynności
Add
<xxxRQ>
Modify
<xxxMODRQ>
<PMTMODRQ>
modyfikacja
Delete
<xxxDELRQ>
<PAYEEDELRQ>
usuwanie
Cancel (1)
<xxxCANRQ>
Cancel (2)
<xxxCANCRQ>
tworzenie nowej instancji obiektu
anulowanie
<PMTCANCRQ>
anulowanie
Źródło: http://www.ofx.net/
Przykładowo wiadomość dla wyciągu bankowego składa się z zapytania <STMTRQ> i odpowiedzi <STMTRS>.
3. Wyciąg bankowy w OFX
Za pomocą standardu OFX klient moŜe utworzyć wyciąg elektroniczny zawierający takie same informacje jak wyciąg bankowy na papierze. Aplikacje klienckie zazwyczaj pozwalają uŜytkownikom zobaczyć dokonane transakcje i prowadzą uŜytkowników poprzez proces księgowania
ich przychodów i wydatków na podstawie transakcji zarejestrowanych przez serwer instytucji finansowej. KaŜda transakcja finansowa ma swoje ID nadane przez instytucję finansową, dzięki
czemu w systemie OFX sprawdzane jest czy dana transakcja została przetworzona tylko raz. śądanie wyciągu bankowego moŜe zawierać daty początkowe i końcowe. OFX moŜe takŜe uŜywać
90
Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski
Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX
końcowej daty jako początkowej przy następnym Ŝądaniu wyciągu bankowego. Schemat wyciągu
bankowego wymaga, aby klient określił konto, z którego chce otrzymać listę transakcji, oraz Ŝeby
wskazał czy serwer powinien ściągać transakcje i/lub salda konta. JeŜeli klient zaŜyczy sobie wyciągnięcia transakcji, moŜe on określić z jakiego przedziału czasowego mają one pochodzić. W
tym przypadku serwer zwraca transakcje, które pasują do zdefiniowanego w Ŝądaniu przedziału
czasowego i saldo dla konta. JeŜeli uŜytkownik nie zdefiniuje przedziału czasowego zostaną ściągnięte wszystkie transakcje zarejestrowane na danym koncie.
Dokument XML zgodny ze schematem OFX i definiujący zapytanie od klienta o wyciąg bankowy zawiera się w zestawie wiadomości BANKMSGSRQV1, w transakcji STMTTRNRQ. Zestaw wiadomości jest typu BankRequestMessageSetV1 i jego definicja znajduje się w głównym
pliku standardu OFX – w OFX2_Protocol.xsd. Struktura zestawu wiadomości BANKMSGSRQV1
została przedstawiona poniŜej:
<BANKMSGSRQV1>
<STMTTRNRQ>
<TRNUID>TRANSACTION20080615040430</TRNUID>
<TAN>20080615040430</TAN>
<STMTRQ>
<BANKACCTFROM>
<BANKID>f123456</BANKID>
<ACCTID>ac129876</ACCTID>
<ACCTTYPE>CREDITLINE</ACCTTYPE>
</BANKACCTFROM>
<INCTRAN>
<DTSTART>20050206</DTSTART>
<DTEND>20050212</DTEND>
<INCLUDE>Y</INCLUDE>
</INCTRAN>
</STMTRQ>
</STMTTRNRQ>
</BANKMSGSRQV1>
Agregat <STMTTRN> opisuje pojedynczą transakcję. Identyfikuje typ transakcji i datę, kiedy została przesłana. Ten agregat moŜe takŜe zawierać dodatkowe informacje, aby pomóc aplikacji
klienckiej rozpoznać poszczególne transakcje: numer rachunku, nazwę płatnika, notatkę. Transakcja moŜe posiadać Standard Industrial Code, który klient moŜe uŜyć do skategoryzowania transakcji. KaŜdy agregat <STMTTRN> posiada identyfikator, uŜywany przez aplikację kliencką w celu
wykrycia, czy serwer ściągnął juŜ wcześniej daną transakcję. Agregat <STMTTRNRQ> jest opakowaniem transakcji i właśnie w nim znajduje się zapytanie o wyciąg bankowy z danego konta –
<STMTRQ>, które jest typu StatementRequest. <STMTRQ> składa się kilku z elementów i agregatów. <STMTRQ> jest wymaganym agregatem dla opakowania transakcji <STMTTRNRQ>.
Składa się z agregatu <BANKACCTFROM> zawierającego informacje o koncie, którego dotyczy
Ŝądanie klienta. Agregat ten składa się z kilku elementów, które, w zaleŜności od kraju, mogą
przechowywać róŜne informacje. Przykładowo element <BANKID> w Belgii zawiera kod banku,
w Kanadzie i w USA numer transakcji, w Wielkiej Brytanii – kod sortowania transakcji w wycią-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
91
gu. Natomiast <ACCTID> oraz <ACCTTYPE> określają odpowiednio numer konta bankowego
oraz jego typ bez względu na kraj. OFX wyróŜnia cztery typy kont bankowych: CHECKING –
rachunek rozliczeniowy; SAVINGS – konto oszczędnościowe; MONEYMRKT – rynek pienięŜny;
CREDITLINE – konto kredytowe.
Struktura zestawu wiadomości BANKMSGSRSV1 jest podobna do zapytania. Wartości
transakcji zwrócone w odpowiedzi serwera są przedstawione w czytelnej dla uŜytkownika postaci,
np. jeŜeli klient zapłacił kartą w sklepie, to wartość transakcji będzie ujemna; jeŜeli konto zostało
zasilone przez przelew zewnętrzny – wartość ta będzie dodatnia. Odpowiedź serwera moŜe zawierać nieograniczoną ilość opakowań transakcji, w dowolnej kolejności. Składa się ona z elementów,
które prezentują róŜne salda, czyli róŜne transakcje <STMTTRN>, których moŜe być zero albo
więcej. Odpowiedź serwera moŜe zawierać takŜe agregat <BALLIST>, który pozwala instytucji
finansowej wysyłać do uŜytkownika dowolną liczbę agregatów <BAL>, z opisem i tekstem pomocy. Opakowanie transakcji <STMTTRNRS> zawiera standardowe elementy, agregat <STMTRS>
moŜe występować wiele razy (minimum jeden raz).
Jak widać nawet tak z pozoru prosta operacja jak wyciąg jest w formacie OFX dosyć rozbudowana aby zagwarantować uwzględnienie rozmaitych opcji. Realizacja innych operacji jest podobna, bardziej szczegółowy opis nie jest moŜliwy bez nadmiernego zwiększenia objętości niniejszej pracy.
4. Proces realizacji projektu
Po przeanalizowaniu potrzeb potencjalnych uŜytkowników zdecydowano, Ŝe podstawowym
wymogiem jest obsługa wyciągu bankowego. UmoŜliwia on klientowi otrzymanie transakcji i sald,
które są zazwyczaj częścią standardowego wyciągu papierowego. Klienci mogą uzyskiwać takie
dane codziennie jeśli tylko tego sobie zaŜyczą. Zaprojektowany program jest przykładem aplikacji
klienckiej, która umoŜliwia tworzenie zapytań do serwera w postaci wygenerowanych dokumentów
XML, zgodnych ze standardem OFX [3]. Oprócz tworzenia zapytań aplikacja obsługuje równieŜ
import dokumentów zgodnych z OFX. Zgodnie z przyjętym załoŜeniem spośród wielu transakcji
bankowych, dla których specyfikacja OFX zawiera schematy pytań i odpowiedzi w systemie klient
– serwer wybrano zapytanie o wyciąg bankowy, które zaimplementowano w aplikacji. PoniewaŜ
aplikacja nie obsługuje całego standardu, jedynie jego część, w przypadku czytania analizowane są
tylko elementy zaimplementowane. Trzeba zaznaczyć, Ŝe rozszerzenie programu na inne zapytania
nie powinno sprawiać większych trudności, wymagać będzie jednak znacznej rozbudowy graficznego interfejsu uŜytkownika. Program umoŜliwia uŜytkownikowi wprowadzenie danych do transakcji wyciągu bankowego zgodnej ze standardem OFX. Do korzystania z aplikacji nie jest niezbędne posiadanie jakiejkolwiek wiedzy na temat standardu OFX, czy nawet języka XML.
Do implementacji wybrano środowisko Visual Studio oraz język C# wraz z platformą .NET
[4]. Program w obecnej wersji wykorzystuje funkcje dostępne w bezpłatnej wersji C# Express.
W programie wykorzystano przede wszystkim bibliotekę System.Xml, która pozwala na obsługę
podstawowych standardów związanych z językiem XML: Docmument Object Model, XML Schema, XML Namespaces, XPath i XSLT. Do tworzenia graficznego interfejsu uŜytkownika wykorzystano kontrolki System.Windows.Forms, zapis i odczyt plików realizuje biblioteka System.IO.
Wybrane narzędzia programistyczne sprawdziły się bardzo dobrze, podczas realizacji nie było
Ŝadnego problemu od strony technologii.
92
Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski
Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX
Program posiada dwie zakładki: Settings oraz Data. Pierwsza zakładka słuŜy do konfiguracji
zestawu wiadomości SIGNONMSGSRQV1. Ta zakładka nie jest przeznaczona dla przeciętnego
uŜytkownika, ale dla administratora aplikacji. Druga z zakładek – Data – jest juŜ przeznaczona dla
uŜytkownika i pozwala na wygenerowanie pliku z zapytaniem do serwera instytucji finansowej o
wyciąg transakcji bankowych (Rysunek 1). UŜytkownik obowiązkowo musi określić konto, z którego chciałby dostać wyciąg bankowy poprzez pola w grupie Bank Account From, a takŜe znać ID
banku. JeŜeli aplikacja byłaby dedykowana dla konkretnej instytucji, pole to moŜe mieć ustaloną
zawsze wartość, zdefiniowaną przez dostawcę oprogramowania.
Rysunek 1. Główne okno programu „OFX program”
Źródło: opracowanie własne
5. Podsumowanie
W chwili obecnej tylko dwa banki w Polsce oferują obsługę schematu OFX – CitiBank i ING
Bank Śląski, natomiast na świecie jest ich około 5000. Prawdopodobnie przyczyną słabego rozwoju standardu OFX w polskich bankach jest to, Ŝe jak kaŜde nowe rozwiązanie, wymaga ono czasu i
pieniędzy. Drugą istotną rzeczą jest fakt, Ŝe instytucje finansowe postrzegają schemat OFX tylko
jako rozwiązanie dla transakcji online, a zapominają, Ŝe standard OFX równie dobrze moŜe być
tylko wykorzystany do struktury wyciągów bankowych, czyli w jego statycznej formie.
DuŜe instytucje finansowe dysponujące zasobami finansowymi, jeŜeli zdecydują się na implementację OFX, mają do wyboru wiele moŜliwości. Inaczej sytuacja wygląda z punktu widzenia
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
93
indywidualnego uŜytkownika chcącego zarządzać swoimi finansami. Import dokumentów XML
zgodnych ze standardem OFX jest obecnie zaimplementowany w takich programach jak Money
firmy Microsoft, GnuCash (rozwijanego na licencji OpenGL) czy Quicken firmy Intuit. Mamy takŜe sporo naszych rodzimych programów wspomagających zarządzanie budŜetem: DBBD Twój
BudŜet 1.2.5, ePortfel Lite, Interesik 2005 czy Skarbnik 4, niestety tylko ten ostatni umoŜliwia import dokumentów w formacie OFX. Stworzona przez nas aplikacja spełnia wszystkie początkowe
załoŜenia. Dzięki obiektowemu podejściu, istnieje moŜliwość jej rozwoju poprzez dodanie nowych
modułów (np. moŜliwości przechowywania przez uŜytkowników plików na serwerze). Zmiana taka
nie pociąga za sobą ingerencji w juŜ napisany kod, poniewaŜ polega ona tylko na dodaniu odpowiednich klas oraz szablonów odpowiedzialnych za widok.
6. Literatura
1.
2.
3.
4.
Standard OFX: http://www.ofx.net/
Karwowski W., Orłowski A., Standard ACORD przykład implementacji, Monografia
„Informatyka dla Przyszłości”, redakcja naukowa: Jerzy Kisielnicki, Wydawnictwo
Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego, Warszawa 2008, str. 291299.
Perry S. C., „C# i .NET”, Helion 2006.
Sawczuk A. OFX - format do wymiany danych finansowych z przykładem wykorzystania.
Praca magisterska, SGGW Warszawa, 2008.
94
Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski
Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX
BANK ACCOUNTS MANAGEMENT
BY AN EXAMPLE OF APPLICATION USING OFX STANDARD
Summary
The purpose of this paper is presentation of Open Financial Exchange (OFX)
standard, together with requirements, designing and implementation process of simple bank account statement application. Main elements of the standard were described together with their role in OFX document. Sample messages, particularly
connected with bank account statement are presented. Then system requirements
based on typical user needs are described. Main parts of software project and utilized technologies are discussed. At the end conclusions and experience gathered
during project realization are summarized.
Keywords: OFX, XML, information bank systems, data exchange
Waldemar Karwowski
Aleksandra Sawczuk
Arkadiusz Orłowski
Katedra Informatyki SGGW
02-787 Warszawa ul.Nowoursynowska 159
e-mail: [email protected]
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
95
BERNARD F. KUBIAK,
ANTONI KOROWICKI
Uniwersytet Gdański
SYSTEMY INFORMATYCZNE WSPOMAGAJĄCE ZARZĄDZANIE WIEDZĄ
I WARTOŚCIĄ ORGANIZACJI
Streszczenie
W artykule omówiono przemiany w gospodarce spowodowane wdroŜeniem systemu zarządzania wartością organizacji wspomaganego zastosowaniem technologii
informacji i komunikacji (TIK). Przedstawiono równieŜ nowe uwarunkowania rozwoju organizacji oraz tworzenia i pomiaru jej wartości poprzez zastosowanie zintegrowanego systemu informacyjnego (ZSI). Ponadto, zaprezentowano zasady i etapy
tworzenia wartości oraz metody i narzędzia zarządzania wartością organizacji. Określono teŜ potrzeby informacyjne systemu zarządzania wartością organizacji.
Słowa kluczowe: wartość dodana, wartość organizacji, system zarządzania wiedzą, tworzenie
i pomiar oraz zarządzanie wiedzą, metody i narzędzia zarządzania wiedzą, zintegrowane systemy zarządzania.
1. Wartość organizacji a wartość dodana
Zdefiniowanie i rozróŜnienie obu tych pojęć jest przydatne zarówno dla menedŜerów
i akcjonariuszy (właścicieli), jak równieŜ personelu finansowo-księgowego. Kształtowanie się tych
wielkości wywiera znaczący wpływ na pozycję konkurencyjną organizacji, lojalność jej klientów
oraz przypływ lub odpływ inwestorów i kapitałów. Koncepcja wartości organizacji i wartości
dodanej jest zatem pomocna w podejmowaniu decyzji strategicznych.
Dlatego warto przypomnieć, Ŝe wartość organizacji tworzą takie elementy składowe jak:
1. wartość bieŜąca przepływów pienięŜnych w okresie prognozy (= gotówka na spłatę
długów, dywidend i wykup akcji własnych);
2.
wartość bieŜąca wartości rezydualnej (wartość organizacji wykraczająca poza okres
prognozy zdyskontowanych przepływów pienięŜnych);
3.
przychód uzyskany ze sprzedaŜy papierów wartościowych1.
Z dotychczasowych doświadczeń wynika, Ŝe w tworzeniu wartości organizacji z punktu
widzenia akcjonariuszy największe znaczenie odgrywają przepływy pienięŜne. Wynika stąd potrzeba opracowywania strategii zwiększania wartości organizacji i wyboru najskuteczniejszych
1 Pot. teŜ Dobija M., Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN, Warszawa 1997, s. 360
i nast.; Zarządzanie wartością firmy, red., A. Herman, A. Szablewski, Wydawnictwo Poltex, Warszawa 1999, s. 53 i nast.;
Strategie wzrostu wartości firmy. Studium przypadków, red., A. Szablewski, Wydawnictwo Poltext, Warszawa 2000, s. 72
i nast.
96
Bernard F. Kubiak, Antoni Korowicki
Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji
metod jej formułowania i realizacji. Do powszechnie uznanych generatorów wartości organizacji
zalicza się:
1. stopę wzrostu przychodów;
2. wzrost marŜy operacyjnej;
3. stawkę podatku dochodowego;
4. wydatki na zwiększenie kapitału obrotowego;
5. poziom inwestycji w sferze kapitału trwałego;
6. koszt kapitału;
7. okres trwania wzrostu wartości.
Natomiast przez wartość dodaną rozumie się róŜnicę pomiędzy przychodem ze sprzedaŜy
a wartością zakupionych surowców i usług, zwanych teŜ kosztami zewnętrznymi. Ustalanie
wartości dodanej nawiązuje do algorytmu obliczania dochodu narodowego i wymaga
przekształcenia rachunku zysków i strat. Przedstawiony sposób liczenia wartości dodanej nie jest
jeszcze stosowany w Polsce2. W myśl tej koncepcji przychód ze sprzedaŜy powstaje
z odpowiedniego połączenia zakupionych surowców i usług, pracy załogi (kapitał ludzki) i kapitału
finansowego (kapitał własny i kapitał obcy).
W praktyce wartość dodaną rozpatruje się najczęściej z punktu widzenia oczekiwań
akcjonariuszy. Bierze się stąd określenie wartość dodana dla akcjonariuszy i organizacji, które
swym zakresem wykracza poza wcześniej wspomnianą wartość dodaną. Formuła obliczania
wartości dodanej dla akcjonariuszy obejmuje takie czynniki jak przychody (z działalności
operacyjnej, inwestycyjnej, finansowej), wydatki kapitałowe, koszt kapitału, zbywalne papiery
wartościowe, zadłuŜenie i współczynnik dyskontowy. W praktyce wartość dodaną zwiększa
równieŜ wartość uŜytkowa dodana do pierwotnej uŜyteczności produktów lub usług organizacji.
Z punktu widzenia menedŜerskiego największe znaczenie w formułowaniu strategii
zwiększania wartości organizacji ma podwyŜszanie marŜy zysku operacyjnego przekraczające
koszty kapitału; uzyskiwanie duŜej dynamiki sprzedaŜy (przekraczającej dynamikę wzrostu
kosztów kapitału); obniŜanie kosztów kapitału przedsięwzięć inwestycyjnych oraz wydłuŜanie
okresu tworzenia wartości dodanej organizacji dla akcjonariuszy. MenedŜerowie powinni zatem
systematycznie analizować kierunki zmian (trendy) marŜy operacyjnej i kosztów kapitałów
w organizacji macierzystej i organizacjach partnerskich oraz konkurencyjnych.
2. Nowe uwarunkowania rozwoju organizacji oraz tworzenia i pomiaru jej wartości
Istota tworzenia wartości organizacji polega na maksymalizowaniu jej wartości rynkowej
i ciągłym zwiększaniu stanu posiadania jej właścicieli. Osiąganie tych celów wymaga wdroŜenia
systemów zarządzania zorientowanych na zwiększanie wartości rynkowej organizacji i oceny rezultatów jej działań (operacyjnych, inwestycyjnych i finansowych) przy zastosowaniu mierników
opartych na wartości dodanej. Wzrost wartości organizacji następuje w sytuacji, gdy zwrot zainwestowanego kapitału rosnąco przewyŜsza średniowaŜony jego koszt zastosowania przy jednoczesnym zachowaniu długotrwałej przewagi konkurencyjnej. Sprawność i konkurencyjność organizacji jest tu oceniana poprzez kryterium wykorzystywania potencjału zwiększania jej wartości w długim okresie czasu.
2 Por. Dobija M., Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN, Warszawa 1997, s. 357 i nast.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
97
DuŜy wpływ na poszerzenie moŜliwości kreowania wartości organizacji wywierają światowe
megatrendy rozwojowe, do których zalicza się:
1.
przechodzenie od społeczeństw przemysłowych do społeczeństw informacyjnych (informacja stała się najwaŜniejszym czynnikiem produkcji i wymiany; stosowanie
zgromadzonej wiedzy wypiera doskonalenie metod rozwijania wiedzy);
2. globalizacja gospodarki, produkcji, wymiany i sieci informacyjnych;
3. rozwój gospodarki opartej na przepływach (symbolach) kapitałów, kursów walutowych, kredytów;
4. umiędzynarodowienie rynków (uzaleŜnienie handlu zagranicznego od inwestycji zagranicznych);
5. zastępowanie technologii cięŜkich technologiami lekkimi dla środowiska (wzrost
produktywności i rozwój skutecznych systemów zarządzania);
6. przewaga podaŜy nad popytem;
7. skrócenie cyklu Ŝycia produktów i usług;
8. zdolność organizacji do wprowadzania innowacji;
9. spłaszczenie cyklu rozwoju faz rynku (pomijanie niektórych faz);
10. wirtualizacja i umiędzynarodowienie działalności organizacji (sieciowa kooperacja)3.
Obok kreowania wartości organizacji istotne znaczenie odgrywa prawidłowa ocena
rezultatów jej działalności. Stosowane dotychczas mierniki oceny (zyskowność akcji, okres zwrotu
kapitału akcyjnego, okres zwrotu aktywów netto, okres zwrotu kapitału zaangaŜowanego) były
słabo powiązane z cenami akcji i wartością rynkową organizacji, poniewaŜ nie uwzględniały
przepływu środków pienięŜnych, wartości dodanej dla akcjonariuszy i całkowitego zwrotu dla
akcjonariuszy. Szczególnie przydatna w tej ocenie okazała się rynkowa wartość dodana (wartość
rynkowa organizacji minus wartość księgowa kapitału akcyjnego), ekonomiczna wartość dodana
[(zysk operacyjny po opodatkowaniu minus koszt kapitału) x kapitał zaangaŜowany], wartość
dodana dla akcjonariuszy i całkowity dochód dla akcjonariuszy.
Mierniki oparte na wartości dodanej okazały się najprzydatniejsze w ocenie wariantów
projektów inwestycji kapitałowych, reorganizacji procesów, wprowadzania zarządzania wartością
organizacji.
3. Zasady i etapy tworzenia wartości organizacji
Maksymalizacja wartości organizacji, zwłaszcza zwiększanie jej wartości rynkowej, wymusza
sformułowanie odpowiedniej strategii i właściwego oddziaływania na kształtowanie się czynników
krytycznych wartości organizacji. Wynika stąd konieczność zastosowania systemu zarządzania
wartością (Value Based Management) i przestrzegania następujących zasad tego systemu:
1.
2.
3.
stałe przeformułowywanie priorytetów biznesu i strategii organizacji na maksymalizację wartości rynkowej w długim okresie;
przechodzenie od zarządzania przez funkcje (zadania) do zarządzania procesami (zarządzanie procesowe);
tworzenie centrów kosztów i zysku w przekroju strategicznych jednostek biznesu;
3 Por. Zarządzanie wartością firmy, red., A. Herman, A. Szablewski, Wydawnictwo Poltex, Warszawa 1999, s. 14 i nast.
98
Bernard F. Kubiak, Antoni Korowicki
Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji
4.
wprowadzanie systemu motywacyjnego zorientowanego na stały wzrost wartości organizacji;
5. wdraŜanie sprawnego i nowoczesnego systemu komunikowania się wewnątrz i na zewnątrz organizacji (Internet, intranet, extranet) oraz multimedia4.
Wprowadzaniu systemu zarządzania wartością powinno towarzyszyć stałe przeprowadzanie
reengineeringu i outsourcingu, czyli koncentrowanie się organizacji na kompetencjach kluczowych
(obszary i procesy o maksymalnej wartości dodanej) zapewniających przewagę konkurencyjną
oraz rezygnowanie z działalności i procesów, w których organizacja nie osiąga maksymalnej wartości dodanej i trwałej przewagi konkurencyjnej. Wynikają stąd nowe moŜliwości tworzenia potencjału, kanałów i form sprzedaŜy poprzez kooperację, alianse i fuzję zapewniających wzrost marŜy
zysku. Dodatkowym źródłem wzrostu wartości organizacji jest tworzenie centrów kosztów i właściwe zarządzanie nimi, polegające na systematycznym ich obniŜaniu. Strategia obniŜki kosztów
powinna równieŜ objąć dostosowanie stanu zatrudnienia do moŜliwości wzrostu sprzedaŜy i marŜy
operacyjnej. Zmniejszanie stanu zatrudnienia moŜe być łagodzone poprzez realizację długofalowej
strategii wzrostu wartości organizacji i konieczności stałego zwiększania kwalifikacji pracowników
(łatwiejszy start do nowego miejsca pracy).
Skuteczne zarządzanie wartością organizacji wymaga:
1.
2.
3.
4.
5.
stałego zwiększania wartości rynkowej organizacji dla akcjonariuszy;
wprowadzania zarządzania procesami (klient – rynek – handlowcy –dystrybucja –
produkcja - zasoby organizacji) w miejsce zarządzania funkcjami;
przechodzenia od hierarchii i konkurencji do rynku, współpracy i koordynacji;
przeprowadzania perspektywicznych (5-10 lat) analiz finansowych organizacji w celu
określenia trendów rozwojowych;
zapewniania właścicielom/akcjonariuszom coraz większej dywidendy i rosnących cen
akcji.
4. Metody i narzędzia zarządzania wartością organizacji
Wzrost wartości organizacji (zwłaszcza wartości rynkowej) wymaga zastosowania
nowoczesnych i skutecznych narzędzi zarządzania tą wartością. Obok narzędzi tradycyjnych
stosuje się coraz więcej narzędzi informatycznych.
Do grupy pierwszej narzędzi zalicza się takie metody zarządzania jak: kompleksowe
zarządzanie jakością (Total Quality Management –TQM), odchudzanie (spłaszczanie) struktur
organizacyjnych (Lean Management), Outsourcing (zlecanie na zewnątrz nieefektywnych działań,
procesów i operacji), Benchmarking (naśladowanie optymalnych wzorców organizacyjnych,
technicznych, technologicznych i finansowych), restrukturyzację, reengineering (radykalna zmiana
sposobu wykonywania pracy) oraz przedefiniowywanie strategii organizacji zorientowane na
reengineering.
4 Por. Kubiak B. F., A. Korowicki, Działalność gospodarcza w sieci globalnej – stan i perspektywy, W: Human-Computer
Interaction, red. B F. Kubiak, A. Korowicki, Wydawnictwo Stella Maris, Gdańsk 1999, s. 15 i nast.; Zarządzanie wartością firmy, op. cit., s. 51 i nast.; Strategie wzrostu wartości firmy. Studium przypadków, red., A. Szablewski, Wydawnictwo Poltext, Warszawa 2000, s. 36-37; Dobija M., Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN,
Warszawa 1997, s. 357 i nast.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
99
Grupa narzędzi informatycznych obejmuje zintegrowane pakiety typu CAM (Computer
Aided Manufacturing), CAD (Computer Aided Design), CIM (Computer Integrated
Manufacturing), ARIS (Architecture of Integrated Systems), MRP (Manufacturing Resource
Planning), ERP (Enterprise Resource Planning) – mySAPSuite, BAAN, Movex, IFS i in. systemy
klasy ERP, w przeciwieństwie do systemów wcześniejszych (SIZ, MRP i in.) umoŜliwiają
budŜetowanie kosztów i przychodów, controlling i analizę procesów finansowych, a więc szeroko
pojmowany monitoring finansowy. W realizacji strategii wzrostu wartości organizacji szczególnie
przydatna okazała się ZrównowaŜona Karta Wyników (ZKW), głównie dzięki powiązaniu kontroli
działalności operacyjnej z monitorowaniem realizacji strategii organizacji. ZKW gwarantuje
przepływ informacji o celach organizacji i stopniu ich realizacji w przekroju jednostek
organizacyjnych poprzez zastosowanie róŜnych wskaźników dotyczących takich obszarów
działalności jak finanse, klienci, procesy i zasoby5. ZKW nie zastępuje strategii, ale opisuje ją za
pomocą wskaźników ułatwiających zrozumienie przez poszczególne komórki i pracowników oraz
określenie własnego ich wkładu w realizację misji i strategii organizacji. ZKW dostarcza więc
danych niezbędnych do opracowania właściwego systemu motywacji.
5. Zintegrowane systemy informatyczne w usprawnieniu zarządzania wiedzą i wartością organizacji
System WdroŜenie i eksploatacja ZSI nie jest celem samym w sobie, lecz drogą ulepszenia
i racjonalizacji działania przedsiębiorstwa, a w konsekwencji sposobem usprawniania zarządzania
wartością i umocnienia jego pozycji na rynku. Przetrwanie w warunkach zmiennego rynku zmusza
organizacje do tworzenia i rozwoju systemów wspomagania decyzji. Realizacja tego postulatu
wymaga precyzyjnego określenia stanu, w jakim się znajdują organizacje i celów, jakie chcą
osiągnąć. Wymaga to spójnego zastosowania metod, technik i narzędzi strukturalnych oraz
obiektowych, które w pierwszej fazie posłuŜą do stworzenia formalnego opisu przedsiębiorstwa,
jego działalności i zamierzeń, następnie zaś doprowadzą do zastosowania technologii informacji,
ułatwiającej dynamiczne sterowanie i nadąŜanie za zmianami sytuacji na rynku.
Implementowanie nowych procesów w przedsiębiorstwie lub reorganizacja starych jest
skutecznie wspomagana przez narzędzia opracowane i stosowane m. in. przez firmę SAP AG
i SAP Polska. Narzędzia te (np. Bussines Modeller mySAPSuite) wbudowane w system ułatwiają
i przyspieszają ustalenie, które procesy standardowo obsługiwane przez moduły systemu
mySAPSuite są dostosowane do charakterystyki przedsiębiorstwa, a które naleŜy zmodyfikować,
aby spełnić jego specyficzne wymagania. Stosowanie tej metody podczas restrukturyzacji
i reengineeringu procesów w przedsiębiorstwie na potrzeby systemu mySAPSuite skraca czas
konieczny do rozpoczęcia eksploatacji systemu.
Usprawnione procesy gospodarcze organizacji wymagają zintegrowanej obsługi decyzyjnej
i informacyjnej, w której priorytetem staje się krótkookresowe i strategiczne planowanie działań
z wykorzystaniem zarządzania popytem (zaleŜnym i niezaleŜnym) i uniwersalnego równania
produkcji3. Oparta na tych załoŜeniach rekonstrukcja procesów prowadzi do wzrostu
5 Por.: Gruchman G.B., Znaczenie doskonalenia procesów w wdraŜaniu strategii firmy, (W:) Human-Computer
Interaction, red., B.F. Kubiak, A. Korowicki, Wydawnictwo Stella Maris, Gdańsk 1999, s. 89 i nast.
100
Bernard F. Kubiak, Antoni Korowicki
Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji
produktywności zasobów w bieŜącej i perspektywicznej działalności, a tym samym wzrostu
efektywności organizacji.
Z licznych badań wynika, Ŝe systemy zarządzania w bardzo wielu - nie tylko polskich organizacjach nie obsługują kreatywnie zachodzących w nich procesów gospodarczych, nie
odzwierciedlają w pełni specyfiki ich struktur organizacyjnych. Z trudem są przystosowywane do
zachodzących zmian wewnętrznych i zewnętrznych, usprawnień technologicznych i rynkowych
(wykorzystanie rynku elektronicznego za pośrednictwem Internetu). ObniŜa to ich sprawność,
wydajność i moŜliwość szybkiego reagowania na zmienne potrzeby rynku i klientów.
W konsekwencji większość krajowych systemów informatycznych zarządzania (SIZ) równieŜ nie
spełnia tych wymagań, głównie dlatego Ŝe wspiera i antycypuje tradycyjne metody zarządzania.
W rezultacie krajowe SIZ cechuje nadal dwoista niespójność funkcjonalna, bowiem są one w duŜej
mierze niespójne z systemami zarządzania organizacji macierzystych i funkcjonują jako systemy
niezintegrowane.
Podsystemy dziedzinowe, jako nie powiązane rozwiązania cząstkowe, funkcjonują bez
wspólnej bazy danych. UŜytkownicy takiego SIZ nie mogą jednocześnie uŜywać tych samych
danych w realizacji wspólnych celów i zadań. Tym sposobem nie wykorzystuje się postępu i zmian
jakościowych w SIZ, wynikających z zastosowania TI, polegających na zastosowaniu wspólnej
bazy danych (jednokrotne wprowadzenie danych, stała ich aktualizacja i udostępnianie wszystkim
uŜytkownikom) i moŜliwości zintegrowania wszystkich podsystemów SI, tworzących odtąd spójną
całość z systemem zarządzania. Postulaty te spełniają ZSI do wspomagania zarządzania produkcją,
dystrybucją i finansami, klasy MRP/ERP. Systemy te cechuje kompleksowość funkcjonalna
(swoim zakresem obejmują wszystkie obszary działalności technicznej i ekonomicznej), orientacja
procesowa a nie zadaniowa, integracja procesów i danych, elastyczność strukturalna i funkcjonalna
wynikająca z otwartości systemowej i sprzętowo-programowej, najwyŜsze zaawansowanie
technologiczne i programistyczne (zastosowanie co najmniej języków czwartej generacji oraz
bezkodowych generatorów aplikacji baz danych, np. firmy Enterprise Software MAGIC),
spełnianie istoty i załoŜeń TQM, ISO 9000/14000 i controllingu4. WdroŜenie modułu contollingu
umoŜliwia zarówno sterowanie i kontrolę kosztów i przychodów działalności operacyjnej, jak
równieŜ nadzór nad realizacją projektów inwestycyjnych i ich kosztorysów. Controlling finansowy
i controlling inwestycji usprawniły zarządzanie finansami organizacji i procesami odnowy jej
majątku trwałego, głównie poprzez planowanie i kontrolę wykonania budŜetu, a takŜe pogłębioną
analizę przebiegu realizacji procesów inwestycyjnych.
Zakres funkcjonalny ZSI klasy MRP II obejmuje logistykę (produkcja i dystrybucja)
i częściowo finanse organizacji, co sprawia Ŝe jest to głównie system ilościowego wspomagania
zarządzania. Zawiera osiemnaście modułów, w tym powiązania z dostawcami i odbiorcami (moduł
EDI), moduł finanse (odpowiednik rachunkowości finansowej, poszerzonej o gospodarkę środkami
trwałymi i wyposaŜeniem) i moduł zarządzania przedsięwzięciami (pozyskiwanie i wykorzystanie
zasobów, kastomizacja produktu, budŜetowanie przedsięwzięć, ich kalkulacja), analiza i inne
(zarządzanie remontami, jakością, gospodarką transportową, system informowania kierownictwa).
System ERP umoŜliwia nie tylko planowanie i bilansowanie niezbędnych zasobów produkcyjnych,
lecz takŜe porównanie stanu rzeczywistego produkcji z wielkościami planowanymi na poziomie
4 Szerzej por. P. Adamczewski, W przeddzień wielkiej zmiany. Strategie i Technologie, Dodatek Specjalny tygodnika
„Computerworld”, IDG Poland S.A., K. Szot, Warszawa 1997.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
101
głównego harmonogramu produkcji oraz harmonogramów warsztatowych (spojrzenie "z góry
w dół" na procesy) a takŜe symulację planów produkcji w ujęciu wartościowym. Potwierdza to
tezę, iŜ ERP jest systemem ilościowo-wartościowego wspomagania zarządzania poprzez
utworzenie systemu kwantyfikacji i pomiaru realizacji zadań oraz określania odchyleń
i uruchamiania procedur korekty operatywnej. Integrowanie wszystkich funkcji działalności
organizacji umoŜliwia planowanie i operatywne monitorowanie realizacji przyjętych zadań oraz
koncentrację na produktach rynkowych5. Z danych statystycznych twórcy standardu MRP II
wynika, iŜ organizacje w których funkcjonuje ten system uzyskują wzrost sprzedaŜy od 16-28%,
wzrost wydajności pracy o 10-16%, zmniejszenie zapasów o 17-75%, znaczne skrócenie cyklu
produkcyjnego wyrobów i poprawę obsługi klientów, usprawnienie zarządzania jakością,
finansami i informacją dla kierownictwa.
6. Podsumowanie
Kreowanie wartości i znaczenia marki organizacji odgrywa zasadniczą rolę w spełnianiu
oczekiwań jej właścicieli i akcjonariuszy oraz satysfakcji klientów nabywających produkty i usługi
danej organizacji. Istota tworzenia wartości polega zatem na stałym zwiększaniu jej wartości
rynkowej i satysfakcji akcjonariuszy, właścicieli i klientów. Największy wpływ na zwiększanie
wartości organizacji wywiera znajomość kierunków zmian i wzrost marŜy zysku operacyjnego
powyŜej kosztów pozyskania kapitału oraz systematyczne zwiększanie dynamiki sprzedaŜy,
minimalizacja kosztów kapitałów przedsięwzięć inwestycyjnych organizacji macierzystej,
partnerów i konkurentów oraz wydłuŜanie czasu tworzenia wartości dodanej organizacji dla
akcjonariuszy. Istotne znaczenie w kreowaniu wartości organizacji odgrywają teŜ światowe
megatrendy rozwojowe. Osiąganie tych, nierzadko sprzecznych, celów wymaga wdroŜenia systemu
zarządzania wartością i oceny rezultatów działań organizacji w sferze operacyjnej, inwestycyjnej
i finansowej. Wprowadzaniu systemu zarządzania wartością powinien towarzyszyć Reengineering
i outsourcing.
Organizacja musi zatem koncentrować się na kompetencjach kluczowych (obszary i procesy
o maksymalnej wartości dodanej), które zapewnią jej przewagę konkurencyjną. Jednocześnie
powinna rezygnować z działalności i procesów w których nie moŜe maksymalizować wartości
dodanej i osiągać przynajmniej przejściowej przewagi konkurencyjnej. Tym sposobem ujawniają
się nowe moŜliwości tworzenia potencjału, kanału i form sprzedaŜy dzięki rozwojowi kooperacji,
aliansów i fuzji prowadzących do wzrostu marŜy zysku i tworzenia nowych centrów kosztów oraz
wprowadzania właściwego zarządzania nimi.
7. Literatura
1.
2.
3.
4.
Adamczewski P.: WdroŜeniowe uwarunkowania zintegrowanych systemów
informatycznych, Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998.
Clarke L.: Zarządzanie zmianą, Gebethner & Ska, Warszawa 1997.
Dobija M.: Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN,
Warszawa 1997.
Drucker P.: The New Organisation, „Harvard Business Review”, 1988, no 1 & 2.
5 Por. teŜ I. D. Bartczak, 1997, Wspomagać zarządzanie, „Computerworld” 1996, nr 12; K. Krupa, MRP II. Nowoczesne
narzędzia wspomagające zarządzanie a zmiany struktur organizacyjnych, Servierr, Warszawa.
102
Bernard F. Kubiak, Antoni Korowicki
Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
Greniewski M. J.: ERP a teoria chaosu, W: Human-Computer Interaction, red., B.F.
Kubiak, A. Korowicki, Gdańsk 1999.
Gruchman G. B.: Znaczenie doskonalenia procesów w wdraŜaniu strategii firmy, W:
Human-Computer Interaction, red., B.F. Kubiak, A. Korowicki, Gdańsk 1999.
Hamel G., Prahalad C. K.: Przewaga konkurencyjna jutra. Strategia przejmowania
kontroli nad branŜą i tworzenia rynków przyszłości, Business Press, Warszawa 1999.
Kasprzak T.: Ewolucja przedsiębiorstw ery informacji, Studia Informatyki Gospodarczej,
Wydawnictwo Nowy Dziennik Sp. z o.o., Katedra Informatyki Gospodarczej i Analiz
Ekonomicznych Uniwersytet Warszawski, Warszawa 2000.
Kisielnicki J., Sroka H.: Systemy informacyjne biznesu, Agencja Wydawnicza „Placet”,
Warszawa 1999.
Kubiak B. F., Korowicki A.: Globalizacja rynku i handlu elektronicznego, (w:) Infogryf
`96, TNOiK, Szczecin-Kołobrzeg, 1996, t. 1.
Kubiak B. F.: Sieci komputerowe i techniki multimedialne w rozwoju organizacji
wirtualnych i handlu elektronicznego, W: KolportaŜ prasy. Nowoczesne techniki
i technologie, red., J. Kania, Szczecin-Expo, Szczecin 1997.
Kubiak B.F., Korowicki A.: Kapitał intelektualny w procesach zmian i wzrostu
konkurencyjności organizacji, W: Zastosowanie technologii informacyjnych do
wspomagania zarządzania procesami gospodarczymi, red., N. Siemieniuk, R. Mosdorf,
WyŜsza Szkoła Finansów i Zarządzania w Białymstoku, Białystok 2008.
Kubiak B.F., Korowicki A.: Rola potencjału intelektualnego w doskonaleniu zarządzania
wiedzą, Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, 2008, nr 13.
Kubiak B.F., Korowicki A.: Rola i znaczenie kapitału intelektualnego w kształtowaniu
efektywności organizacji turystycznych, Zeszyty Naukowe, Ekonomiczne Problemy Usług
nr 19, Uniwersytet Szczeciński w Szczecinie, Szczecin 2008, nr 496.
Olszak C.M., Ziemba E.: Strategie i modele gospodarki elektronicznej, Wydawnictwo
Naukowe PWN, Warszawa 2007.
Olszak C.M.: Tworzenie i wykorzystanie systemów Business Intelligence na potrzeby
współczesnej organizacji, Prace Naukowe Sigillum Academiae Oeconomicae,
Wydawnictwo Naukowe Akademii Ekonomicznej im. Karola Adamieckiego
w Katowicach, Katowice 2007.
Staniszkis W.: Corporate Information Resource, (w:) Human-Computer Interaction, red.,
B.F. Kubiak, A. Korowicki, Gdańsk 1999.
Strategie wzrostu wartości firmy. Studium przypadków, red., A. Szablewski,
Wydawnictwo Poltext, Warszawa 2000.
Zarządzanie wartością firmy, red., A. Herman, A. Szablewski, Wydawnictwo Poltext,
Warszawa 2000.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
103
IT BASED VALUE AND KNOWLEDGE MANAGEMENT IN AN ORGANIZATION
Summary
This article provides a short discussion on economy transformation and changes
caused by the implementation of The Value Management System (VMS) aided by The
Information and Communication Technology (ICT) in an organization. A set of new
circumstances of the organization development and developing and measuring its
value using Integrated Information System have been analyzed. Additionally, the
principles and phases of value creating and methods and tools of VMS in an organization were considered. At the end of the article the information needs of VMS have
been described.
Keywords: added value, organization value, value management system, value creating, measuring
and managing, value management methods and tools, integrated management systems.
Bernard F. Kubiak
Antoni Korowicki
Uniwersytet Gdański
e-mail: [email protected]
e-mail: [email protected]
http://www.univ.gda.pl
104
Antoni Korowicki, Bernard F. Kubiak
Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji
ANTONI KOROWICKI,
BERNARD F. KUBIAK
Uniwersytet Gdański
ROLA WIEDZY W OKREŚLANIU PRZYDATNOŚCI I ZASTOSOWAŃ TECHNOLOGII
INFORMACJI I KOMUNIKACJI W ORGANIZACJI
Streszczenie
W artykule omówiono znaczenie wiedzy w określaniu innowacyjnych sposobów
globalnego zastosowania nowoczesnej technologii informacji i komunikacji (tik).
Przedstawiono równieŜ nowe formuły organizacji adekwatne do sieciowego modelu
funkcjonowania oraz tworzenia i zarządzania jej wiedzą. Uzasadniono konieczność
odchodzenia od restrukturyzacji i reengineeringu oraz zastępowania tych kierunków
zmian przeformułowywaniem strategii organizacji i sektora przy udziale zintegrowanego zastosowania tik. Ponadto, zaprezentowano nowy paradygmat strategii i uwarunkowania jej pomyślnej realizacji z punktu widzenia globalnej gospodarki cyfrowej.
Słowa kluczowe: Technologia Informacji i Komunikacji (TIK), innowacyjne zastosowania TIK,
model organizacji sieciowej, łańcuch wartości, sieciowy łańcuch wartości, reorganizacja, reengineering, nowy paradygmat strategii, przeformułowywanie
strategii.
1. Innowacyjne zastosowania TIK
Innowacyjne sposoby wykorzystania TIK, jak równieŜ potencjalne alternatywy nowych strategii TIK mogą być osiągane tylko przy znaczących zmianach oraz w warunkach długookresowego
inwestowania, zapewniającego połączenie odpowiednich aplikacji TIK z gruntownymi zmianami w
procesach biznesowych (reengineering) danej gałęzi. Powodzenie tych przedsięwzięć zaleŜy od
radykalnej i głębokiej reorganizacji firm i sposobów wykorzystywania zasobów (przyrodniczych
i antropogenicznych) oraz obsługi klientów, równieŜ nastawionych na powszechne zastosowanie
TIK. Organizacje doświadczone w stosowaniu TIK znacznie wyprzedziły konkurentów podejmujących próby opracowania nowych strategii z wykorzystaniem TIK. Zaniechanie tych działań
utrudnia tworzenie przyszłości organizacji. Dlatego tak waŜna jest – obok umiejętności kreowania
nowych produktów i obszarów działalności - wiedza na temat wpływu TIK na konkurencyjność
organizacji i inicjowanie nowych projektów jej zastosowania w odpowiednim czasie i miejscu.
Odnosi się to głównie do średniego szczebla zarządzania, poniewaŜ większość organizacji w Polsce wciąŜ znajduje się na pierwszym poziomie zastosowań TIK, tj. w fazie nie zintegrowanych
(wyizolowanych) aplikacji TIK. WydłuŜanie się tej fazy zastosowań TIK jest spowodowane niedocenianiem przez kierownictwo naczelne moŜliwości wpływu TIK na usprawnienie funkcjonowania
organizacji oraz nieprecyzyjnym formułowaniem celów dla TIK w realizacji tych usprawnień,
głównie wskutek niezrozumienia jej idei i przydatności.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
105
Brak dostatecznej wiedzy na temat istoty i roli TIK wśród kierownictwa naczelnego jest
najczęstszą przyczyną niemoŜności sformułowania spójnej strategii rozwoju organizacji i jej
strategii TIK [10]. Do innych waŜnych przyczyn utrudniających formułowanie wspólnej strategii
naleŜą:
• nieznajomość wśród kierownictwa czynników krytycznych sukcesu (zarządzanie zmianą,
ludźmi i technologią), głównie zaś informacji niezbędnych w konkurencyjnym realizowaniu
biznesu;
• niezaspokajanie informacyjnych potrzeb zarządzania przez systemy informatyczne funkcjonujące w organizacjach;
• brak priorytetów wdraŜania TIK w poszczególnych podsystemach SI.
Rozwiązywanie tych problemów naleŜy do kierownictwa naczelnego organizacji. JednakŜe
w analizie i rozstrzyganiu specyficznych problemów organizacji za pomocą TIK uczestniczy
równieŜ jej najniŜszy szczebel zarządzania, a nawet pracownicy szeregowi. Dlatego procesem
stałej edukacji dotyczącej zastosowań TIK powinno być objęte zarówno kierownictwo naczelne,
jak i pozostali pracownicy organizacji. Zapewni to likwidowanie luki kulturowej, jaka istnieje
pomiędzy kierownictwem i szeregowymi uŜytkownikami TIK a profesjonalistami TIK. Nabycie
wiedzy o przydatności i stosowaniu TIK w biznesie nie gwarantuje zmiany wieloletnich
przyzwyczajeń związanych z róŜnymi kulturami pracy, stanowi jednak wypróbowany sposób
ewolucyjnej zmiany świadomości i określania stopnia zaangaŜowania kierownictwa naczelnego
w rozwój zastosowań TIK w organizacji.
2. Sieciowy model organizacji – przechodzenie od łańcucha wartości do sieci wartości
Do czasu wprowadzenia otwartych sieci informatycznych relacje gospodarcze zewnętrzne
pomiędzy uczestnikami procesów produkcji i wymiany, jak równieŜ wewnątrz poszczególnych
organizacji odbywały się w ramach łańcucha wartości (według M. Portera). Łańcuch (dodawania)
wartości odzwierciedlał przepływ produktów i usług od dostawców do producentów, którzy
poddawali je określonym transformacjom dodając nową, własną wartość, a następnie sprzedawali
je jako swoje produkty finalne (wyroby gotowe, usługi) klientom. Producenci starali się
utrzymywać jak najlepsze relacje z dostawcami poprzez wynegocjowanie najkorzystniejszych cen
zakupu czynników produkcji, optymalizować wykorzystanie własnego potencjału przetwórczego
i usługowego oraz zaspokajać oczekiwania i potrzeby klientów w wyniku odpowiednich działań
marketingowych. W interakcji pomiędzy dostawcami, producentami, pośrednikami i klientami
następował fizyczny przepływ danych drogą korespondencyjną poprzez raporty, formularze, czeki,
faktury, kwity magazynowe, karty pracy, schematy i rysunki, wydruki komputerowe, a takŜe
rozmowy telefoniczne, narady i dyskusje. W niektórych branŜach fizyczny przepływ danych był
sterowany za pomocą systemów informatycznych zarządzania (jeszcze nie zawsze
zintegrowanych). Fizyczna wymiana informacji nie została wyeliminowana nawet po zastosowaniu
faksów, telefonów komórkowych, modemów i komputerów przenośnych. Nie nastąpił równieŜ
zasadniczy przełom w charakterze funkcjonowania poszczególnych organizacji i pracy ich
personelu (pracowano tak samo), chociaŜ praca była juŜ wykonywana zdalnie (telework),
w dowolnym miejscu i czasie, nierzadko poza miejscem zatrudnienia (w domu, samolocie,
pociągu, w terenie, poza krajem itd.), a więc prace wykonywano „zawsze i wszędzie”.
Wprowadzenie nowoczesnych technologii informacji, infomediów, Internetu i Intranetu
spowodowało gruntowną weryfikację koncepcji zdalnej pracy. W miejsce łańcucha wartości, na
106
Antoni Korowicki, Bernard F. Kubiak
Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji
którego poszczególnych „odcinkach” funkcjonowały organizacje i załogi, zaczęto wprowadzać
cyfrową sieć wartości (value network) i międzyorganizacyjne zintegrowane sieciowe systemy
informacyjne. Cyfrowe sieci wartości zintegrowały interakcje podmiotów gospodarczych nie tylko
z ich partnerami (dostawcy, pośrednicy, konsultanci, banki, ubezpieczyciele i in.) i klientami
aktualnymi i potencjalnymi (za pomocą ekstranetu), lecz takŜe z konkurentami. Wymusiły teŜ
przedefiniowanie zdalnego wykonywania zleconych zadań i włączenia wielu prac niefizycznych,
zapoczątkowanych współpracą w sieci. Nastąpiła radykalna zmiana sposobów wykonywania pracy
wskutek utworzenia organizacji wirtualnych oraz wysoko wydajnych zespołów (task-focused
teams)1, realizujących własne zadania w poczuciu wspólnoty, współodpowiedzialności
i wzajemnego wspierania. Funkcjonowanie w warunkach gospodarki cyfrowej poprzez
wprowadzenie sieci wartości spowodowało zatem powtórne przeanalizowanie charakteru i funkcji
zdalnej pracy, odejście od dotychczasowych stereotypów sposobów jej wykonywania
i przedstawiania (wizerunku), zmianę postrzegania zdalnego wykonywania pracy (szersza
współpraca i koordynacja) i – co najwaŜniejsze – poszerzenie reengineeringu i jego efektów
(obniŜka kosztów i racjonalizacja procesów gospodarczych) o koncepcję sieci tworzenia wartości,
uzupełnioną wspieraniem się wszystkich pracowników w realizacji zadań2. Jest to początek
multiorganizacji przyszłości, która będzie funkcjonowała według zasady rezygnacji w biznesie
z podejścia „dla mnie” na rzecz rozwiązań promujących całą (lub całe) branŜę.
Nową formułę organizacji (firmy) postrzega się jako współpracujące w sieci globalnej, a nie
w strukturze hierarchicznej, rozproszone zespoły zadaniowe (robocze) zorientowane procesowo,
pełniące naprzemiennie funkcje klientów i dostawców (serwerów), w zaleŜności od tego, czy
współpracują z zespołami wewnątrz czy z zewnątrz organizacji. Zespoły zadaniowe występują
w roli klientów, gdy otrzymują zasoby rzeczowe, zasoby finansowe, intelektualne lub zasoby
informacyjne od zespołów-dostawców, warunkujących lub wspomagających realizację zadań
zespołów-klientów. W toku tej interakcji zespoły pozyskują nowe informacje, które oferują innym
zespołom-klientom juŜ jako wartość dodaną swoich usług lub produktów. Łańcuch wartości
zamienia się tu w sieć wartości. Wartość dodana powstaje w toku wzajemnej interakcji lub
oddziaływania uczestników-uŜytkowników otwartej sieci. Tym samym następuje odchodzenie od
działalności w otoczeniu organizacji (firm i przedsiębiorstw) i upowszechnianie funkcjonowania w
otoczeniu sieciowym.
1 Por. teŜ Kubiak B. F., 1999, Modele i architektura organizacji wirtualnych I międzyorganizacyjnych systemów informacyjnych, (W:) Procesy i systemy informacyjne w środowisku wirtualnym, red., J. Oleński, Studia Informatyki Gospodarczej, Wydawnictwo Nowy Dziennik Sp. z o. o., Katedra Cybernetyki i Badań Operacyjnych, Uniwersytet Warszawski,
Warszawa, s. 201 i nast.; P. Drucker, 1988, The New Organisation, „Harvard Business Review”, styczeń - luty; D. Tapscott, 1998, Gospodarka cyfrowa. Nadzieje i niepokoje Ery Świadomości Systemowej, Business Press, Warszawa, s. 95 i
nast.
2 Zwolennicy zdalnej pracy wskazują na nowe moŜliwości ograniczania kosztów (głównie energii), ochrony środowiska
(np. poprzez zmniejszenie natęŜenia ruchu drogowego), aktywizacji zawodowej niepełnosprawnych i samotnych rodziców, efektywnej pracy. Natomiast oponenci tego typu pracy eksponują alienację pracowników, obniŜenie komunikacji
współpracujących, spadek poufności realizowanych projektów, a ponadto trudności organizacji środowiska pracy poza
miejscem zatrudnienia i współpracy wyłącznie za pomocą „odpersonalizowaną” siecią elektroniczną (por. teŜ D. Tapscott, 1998, Gospodarka cyfrowa. Nadzieje i niepokoje Ery Świadomości Systemowej, Business Press, Warszawa, s. 229 i
nast.).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
107
Sieciowy model organizacji sprzyja elastyczności i szybkości działania, nowatorstwu,
przedsiębiorczości oraz gotowości do nieustannego uczenia się i wzrostu odpowiedzialności.
Wprowadzaniu tych nowych, krytycznych czynników sukcesu powinno towarzyszyć stworzenie
wspólnej dla całej firmy wizji przyszłości, która sprowadza się do kreowania nowych produktów,
rynków i obszarów działalności w perspektywie 5-10 lat. Chodzi zatem nie tyle o umiejętność
działania, ile o umiejętność myślenia o przyszłości organizacji. Redukcja i przemodelowanie
podstawowych procesów organizacji, a więc restrukturyzacja i reengineering zapewniają jedynie
odnowę starych struktur i procesów, a nie tworzenie przyszłości (sektorów jutra) organizacji.
Warunki te spełnia stałe reformowanie strategii organizacji, co wiąŜe się z określeniem: jakie nowe
cechy kluczowej konkurencji organizacja musi wypracować, jakie nowe koncepcje produktów
naleŜy zaproponować przyszłym potencjalnym klientom, a w związku z tym - jakie nowe alianse
organizacja musi utworzyć, wreszcie – jakie programy rozwojowe organizacja powinna chronić
oraz jakie długoterminowe działania prawne powinna popierać [1].
3. Restrukturyzacja spóźnioną próbą poprawy przeszłości
Restrukturyzacja przekształca (transformuje) organizację, ale nie zmienia sposobu
wykonywania jej pracy i jest spowodowana tempem zmian w otoczeniu danej branŜy i wewnątrz
organizacji. Dotyczy ona decyzji odnośnie tego, jakie rynki obsługiwać, jakie technologie
opanować, jakich klientów pozyskać (zaopatrywać) i jak zoptymalizować wykorzystanie zasobów
intelektualnych (potencjał ludzki) i informacyjnych.
W praktyce restrukturyzacja pomniejsza wielkość organizacji poprzez redukcję jej struktur,
nieefektywnych jednostek i stanu zatrudnienia, obniŜkę kosztów zarządzania, delegowanie
uprawnień zespołom pracowników, przemodelowanie procesów podstawowych i pomocniczych
oraz racjonalizację (częściej redukcję) portfela inwestycji. Z licznych doświadczeń restrukturyzacji
wynika, iŜ racjonalizacja struktury organizacyjnej jest najczęściej spóźnioną próbą naprawy
błędów przeszłości a nie zasadniczą jej odnową. Pomaga zyskać na czasie, ale nie sprzyja
tworzeniu nowych produktów, rynków i obszarów działalności. Zmniejszenie wielkości organizacji
poprzez restrukturyzację nie wystarcza, mimo Ŝe prowadzi do jej wyszczuplenia, co nie oznacza –
poprawy kondycji, pozycji konkurencyjnej ani wykreowania zyskownej przyszłości [16].
Przeciwnicy restrukturyzacji podkreślają natomiast, Ŝe firma w toku transformacji organizacyjnych
pozbywa się aktualnych obszarów działalności, jeśli szybciej staje się mniejsza niŜ lepsza; traci
równieŜ przyszłe obszary działalności, gdy staje się lepsza, ale nie inna. Organizacja moŜe zatem
zredukować swoje struktury, nawet dokonać reengineeringu, nie redefiniując jednak swojej
strategii i koncepcji obsługi rynku w świetle potrzeb potencjalnych klientów następnej dekady. Jest
to typowy przejaw obrony aktualnego przywództwa rynkowego, która nie zapewnia pomyślnej
kreacji przywództwa w przyszłości. Znane są przypadki utraty przywództwa rynkowego wskutek
braku jego przeformułowywania i pozostawaniu przy zachowawczym podejściu, braku
wystarczającej kreatywności w określaniu granic rynku w perspektywie 10 lat oraz
wykorzystywania szans, innowacyjności, odkrywania i wprowadzania nowych form współpracy
z klientami i partnerami biznesowymi. Wyjściem z tej kryzysowej sytuacji jest co najmniej
dokonanie reengineeringu.
108
Antoni Korowicki, Bernard F. Kubiak
Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji
4. Reengineering zmianą opóźnioną
Koncepcja reengineeringu obejmuje działania prowadzące do wyeliminowania procesów nie
tworzących wartości dodanej, jej maksymalizacji w procesach dotąd przynoszących tę wartość,
zorientowania procesów na satysfakcję i korzyści dla klientów, skrócenia cyklu (czasu), zmniejszenia kosztów i osiągnięcia globalnej jakości [2], [3], [16].
Reengineering wymusza takŜe rewizję postaw kierownictwa naczelnego organizacji i załoŜeń
decyzji odnośnie wyboru rynków, technologii, klientów oraz kierunków i sposobów wykorzystywania zasobów intelektualnych i zasobów informacyjnych organizacji. Przeprojektowanie procesów (reengineering) i przebiegu pracy (workflow) odbywa się w większym stopniu z udziałem własnej kadry, niŜ ekspertów z zewnątrz i obejmuje definiowanie podstaw i załoŜeń strategii organizacji, formułowanie zasad reengineeringu jako podstawy realizacji strategii organizacji, z uwzględnieniem identyfikacji, modelowania i realizacji procesów oraz analizy spójności zrekonstruowanych procesów. W działaniach tych nie moŜna pominąć przezbrojenia technologii (automatyzować
czy zaniechać?), przebudowy stylu pracy organizacji i konieczności stworzenia infrastruktury programu reengineeringu procesów.
Restrukturyzacja (zmniejszenie firmy przez redukcję personelu, portfela zleceń i inwestycji) i
reengineering sprawiają Ŝe, organizacja staje się mniejsza, lepsza i szybsza (por. teŜ [15], [17].
Rzadziej zmiany te prowadzą do przeformułowania strategii organizacji i jej całkowitego przedefiniowania w zakresie kanałów sprzedaŜy, procesów produkcyjnych, klientów, zasad awansowania
kadry kierowniczej, czynników krytycznych sukcesu i in.
5. Przeformułowywanie strategii działania i strategii SI/TIK organizacji
Kreowanie przyszłości przez organizacje wymaga nie tylko reengineeringu ich procesów, ale
równieŜ reengineeringu branŜy, czyli przedefiniowania organizacji i ich strategii a takŜe polityki
całej branŜy [1]. Organizacja i branŜa powinny wypracować unikalny sposób widzenia przyszłości,
który wyprzedza o 5-10 lat plany strategiczne. Istotne jest równieŜ wyobraŜenie o przyszłości lepszej od tej, jaką postrzegają konkurenci. Wizja ta dotyczy produktów i usług własnych oraz całej
branŜy, które jeszcze nie zaistniały. Kolejne wyzwanie dotyczy stworzenia tych produktów i usług
oraz wykreowania nowej przestrzeni konkurencyjnej. Wynika stąd, iŜ przyszłość naleŜy do organizacji, które opanują umiejętność kreowania nowych produktów i obszarów działalności, przy zachowaniu dotychczasowych kryteriów oceny skuteczności działania (koszty, jakość, czas realizacji
produktów i usług), a nie tylko zdolność do permanentnego reengineeringu procesów, uznawany
raczej za sposób doskonalenia wyników bieŜących niŜ przyszłościowych.
Najtrudniejszym problemem organizacji i branŜy jest określenie, co jest potrzebne dla wykreowania zasadniczych zmian w branŜy z korzyścią dla klientów i firm w niej funkcjonujących, a takŜe jakie działania naleŜy podjąć, aby zespół liderów mógł stworzyć perspektywiczną, wiarygodną
wizję przyszłości i urzeczywistnić ją zgodnie z oczekiwaniami potencjalnych klientów. Doświadczenia krajów wysoko rozwiniętych (Japonia, USA, Niemcy, i in.) dowodzą, iŜ chodzi tu o tworzenie rynków i branŜ jutra poprzez kreowanie nowych form przewagi konkurencyjnej i jakościowej,
radykalne zmiany zasad działania oraz sposobów realizacji procesów. W odniesieniu do organizacji oznacza to zmianę kompetencji kluczowych (np. dywersyfikacja) w ugruntowanej branŜy,
zmianę dotychczasowych granic pomiędzy branŜami oraz stworzenie nowej branŜy dla swojej
działalności lub przedefiniowanie starej.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
109
Prawidłowe zrozumienie przyszłości branŜy oraz stworzenie proaktywnego programu transformacji wymaga wizji przebiegu transformacji realizowanego sektora działalności i odpowiedzi
na następujące pytania: 1) jaki powinien być wizerunek branŜy w następnych 5-10 latach? 2) jakie
podjąć działania, aby w branŜy „jutra” uzyskiwać największe korzyści? 3) jakie umiejętności i jakie cechy konkurencyjności naleŜy kształtować obecnie w branŜy, aby osiągnąć przywództwo w
przyszłości? 4) jaka struktura organizacyjna firmy umoŜliwi wykorzystywanie okazji rynkowych w
przyszłości?.
Realizacja proaktywnego programu transformacji sektora działalności organizacji i branŜy nie
jest moŜliwa bez zintegrowanego zastosowania nowoczesnej TIK (w tym systemów klasy ERP).
Dlatego udział kierownictwa w kreowaniu zastosowań TIK w biznesie wzrasta w miarę postępującej integracji w organizacjach i ich współpracy z dostawcami zasobów i odbiorcami, pośrednikami
i klientami końcowi produktów i usług (coraz powszechniej stosuje się pakiet Client Relationship
Management – zarządzanie współpracą z partnerami i klientami). Nieuchronne staje się globalne
zastosowanie TIK, które w istotny sposób oddziałuje na pracę, strukturę organizacyjną, powiązania
i współpracę wewnętrzną (łańcuch wartości) oraz kooperację zewnętrzną (sieć wartości) a takŜe
politykę organizacji. Ponadto, zmiany te oddziałują na rolę zasobu intelektualnego w biznesie, który z wykonawcy poleceń kierownictwa przeobraŜa się w partnera w wyznaczaniu i realizacji zadań
oraz projektowaniu produktu lub usługi. Oznacza to, Ŝe organizacja włącza pracowników i klientów do przeprojektowania procesów, przebiegu pracy, produktów i usług. Problem tkwi jednak w
trudności pomiaru wpływu TIK na osiąganie zamierzonych celów organizacji. TIK moŜe bowiem
jednocześnie ułatwiać i utrudniać ich osiąganie. Przykładem jest wykorzystanie sieci komputerowych, które usprawniają wewnętrzną i zewnętrzną komunikację w organizacji, ale wymagają całkowitej zmiany funkcjonowania i stylu jej pracy, a więc permanentnego reengineeringu i przedefiniowania strategii organizacji.
Formułowanie efektywnej strategii TIK dla organizacji wymaga wiedzy, współpracy i porozumienia pomiędzy kierownictwem naczelnym i profesjonalistami TIK. W wielu organizacjach
obserwuje się brak takiego porozumienia głównie dlatego, Ŝe obie grupy funkcjonują w róŜny sposób i koncentrują swoją uwagę na zupełnie odmiennych funkcjach i działaniach. Nietrafione pomysły kierownictwa, realizowane przy pomocy duŜych inwestycji związanych z wprowadzeniem TIK,
bywają bardzo kosztowne dla organizacji. Sytuację tę pogarsza niemoŜność opisania przez menedŜerów swojej działalności z wymaganą dokładnością lub na takim poziomie abstrakcji, który
umoŜliwiłby jej przełoŜenie na język TIK. Do tego dochodzą nowe potrzeby organizacji, które
mogą wymagać zmian w systemach informacyjnych (SI) i TIK. Z doświadczeń róŜnych organizacji
wynika, iŜ akceptują potrzebę zreformowania swoich strategii i przystępują do przedefiniowywania
swojej branŜy dopiero wówczas, gdy restrukturyzacja i reengineering nie mogą powstrzymać ich
upadku [1], [7], [8], [9]. Zmniejszają wówczas zatrudnienie, portfel zamówień i inwestycje, a kiedy
zmiany te nie polepszają pozycji konkurencyjnej, organizacje przystępują do racjonalizacji procesów nieefektywnych, czyli reengineeringu. Najczęściej zmiany te są spóźnione lub niewystarczające, zwłaszcza gdy tempo zmian w branŜy macierzystej jest znaczne a organizacja nie tylko nie nadąŜa za tymi zmianami, lecz nie jest a stanie dokonać reengineeringu branŜy, w której funkcjonuje.
Znawcy tych problemów dowodzą, iŜ reengineering jest w takich sytuacjach niewystarczający, poniewaŜ sprzyja tylko doganianiu a nie wykreowaniu przyszłości. Dlatego organizacja powinna
systematycznie dokonywać reengineeringu, przeformułowywać własne pojmowanie przywództwa,
reformować strategię i definiować na nowo swoją branŜę [19].
110
Antoni Korowicki, Bernard F. Kubiak
Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji
6. Dochodzenie do przyszłości przed konkurentami
Tworzenie przyszłości organizacji i zwiększanie jej wartości, a w konsekwencji przewagi
konkurencyjnej jej jutra nie jest moŜliwe bez kreowania i zdominowania pojawiających się moŜliwości oraz wykorzystywania istniejących mocnych stron (potencjału) organizacji. Organizacja nie
jest w stanie osiągnąć przyszłości przed konkurentami dokonując jedynie reengineeringu (doganianie przyszłości poprzez racjonalizację procesów) i benchmarkingu (powielanie metod, produktów
i procesów konkurentów), konieczne jest takŜe stworzenie własnego, unikalnego, niezaleŜnego
sposobu dostrzegania przyszłych szans oraz dróg i sposobów ich wykorzystywania. Organizacja
nie moŜe tylko naśladować konkurentów, lecz musi wytyczyć własny program działania, unikalny
i trudny do skopiowania oraz wdroŜenia przez konkurentów. Według G. Hamela i C.K. Prahalada
[1] proces dochodzenia do przyszłości przed konkurentami wymaga: 1) zrozumienia, czym róŜni
się konkurowanie o przyszłość od konkurowania o teraźniejszość; 2) nieustannego wzbogacania
wiedzy o przyszłych moŜliwościach; 3) umiejętności motywowania wszystkich szczebli zarządzania i pracowników organizacji do pokonywania długiej i trudnej drogi dochodzenia do przyszłości;
4) umiejętności i zdolności wyprzedzania konkurentów w dochodzeniu do przyszłości z pominięciem zbędnego ryzyka w działalności.
Spełnienie wymienionych postulatów wiąŜe się z wprowadzeniem nowego paradygmatu strategii, według którego organizacja odrzuca znaczną część swojej przeszłości w celu wykreowania
właściwej przyszłości, optymalizuje pozycjonowanie nie tylko na obecnie zajmowanych, lecz takŜe
przyszłych rynkach. Ponadto powinna opracowywać plany strategiczne i strategiczną koncepcję
architektoniczną w celu określenia cech konkurencyjności umoŜliwiających opanowanie rynków
przyszłości, wyznaczać ambitne cele (tzw. „dźwignia celów” słuŜąca pokonywaniu ograniczeń dostępności zasobów) wykraczające poza harmonizację celów i zasobów, prowadzić działania konkurencyjne w istniejących segmentach rynku oraz kształtować strukturę sektorów przyszłości, poprzedzać zdobywanie przywództwa w zakresie cech kluczowej konkurencyjności konkurowaniem
o przywództwo w zakresie produktu, uwzględniać zarówno konkurencję pomiędzy poszczególnymi
organizacjami, jak równieŜ w ramach i pomiędzy koalicjami organizacji. Istotne jest równieŜ
zwiększanie ilości poszukiwanych nowych produktów i tempa uczenia się nowych rynków oraz
wprowadzania ich na rynki, jak równieŜ szybsze wyprzedzanie konkurentów na krytycznym rynku
globalnym.
Nowy paradygmat organizacji (odchudzona, spłaszczona, procesowa, modułowa, wirtualna,
usieciowiona) nie sprzyja realizacji nowego paradygmatu jej strategii głównie wskutek braku
wspólnej inteligencji menedŜerów i całej załogi, a więc pogłębionej świadomości stawania się strategicznym, czyli jak wyprzedzać konkurencję i stworzyć własną, unikalną wizję przyszłości organizacji, co wymaga z kolei umiejętności stworzenia unikalnego obrazu tego, jak i co moŜe być [1],
[4], [5].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
111
7. Podsumowanie
Sektor i organizacje w nim funkcjonujące muszą wspólnie opracowywać unikalne wizje
przyszłości, korzystniejsze niŜ konkurenci, wyprzedzające o 5-10 lat plany strategiczne. Wizja ta
dotyczy nie istniejących jeszcze produktów i obszarów działalności, a więc nowej przestrzeni
konkurencyjnej. Pomyślne przewidywanie przyszłości organizacji i sektora oraz tworzenie
proaktywnego programu transformacji wymaga określenia wizji przebiegu jego realizacji, która nie
jest moŜliwa bez zintegrowanego zastosowania nowoczesnej TIK, łączącej wszystkich uczestników
globalnego łańcucha wartości (dostawcy, partnerzy, odbiorcy, konkurenci). Konieczne zatem staje
się globalne zastosowanie TIK, które zmienia pracę i strukturę organizacji, jej powiązania
i współpracę wewnętrzną (łańcuch wartości) i zewnętrzną (sieć wartości).
Przeformułowywanie strategii organizacji i sektora wymaga nie tylko wiedzy, porozumienia
i współpracy menedŜerów i informatyków, ale takŜe wyprzedzania sytuacji kryzysowych
i bankructwa. Restrukturyzacja jest działaniem spóźnionym, reengineering zapewnia jedynie
racjonalizację procesów, dopiero przeformułowanie strategii umoŜliwia kreowanie przyszłości
organizacji i sektora.
8. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Hamel G., Prahalad C.K.,: Przewaga konkurencyjna jutra. Strategia przejmowania
kontroli nad branŜą i tworzenia rynków przyszłości, Business Press, Warszawa 1999.
Hammer M., Champy J.: Reengineering w przedsiębiorstwie, Neumann Management
Institute, Warszawa 1996.
Hammer M.: ReinŜynieria i jej następstwa, Wydawnictwo Naukowe PWN, Warszawa
1999.
Hesselbein F., Goldsmith M., Beckhard R.: Organizacja przyszłości, Business Press,
Warszawa 1998.
Kasprzak T.: Ewolucja przedsiębiorstw ery informacji, Studia Informatyki Gospodarczej,
Wydawnictwo Nowy Dziennik Sp. z o.o., Katedra Informatyki Gospodarczej i Analiz
Ekonomicznych Uniwersytet Warszawski, Warszawa 2000.
Koch R.: Strategia. Jak opracować i wprowadzić w Ŝycie najskuteczniejszą strategię.
Przewodnik, Wydawnictwo Profesjonalnej Szkoły Biznesu, Kraków 1998.
Kubiak B. F., Korowicki A.: Restrukturyzacja zarządzania procesami gospodarczymi
współczesnej organizacji z wykorzystaniem technologii informacji, W: Human-Computer
Interaction, red., B. F. Kubiak, A. Korowicki, Wydawnictwo Uniwersytetu Gdańskiego,
Gdańsk 1997.
Kubiak B. F., Korowicki A.: Strategia planowania rozwoju firmy i jej systemu
informacyjnego, Zeszyty Naukowe Uniwersytetu Szczecińskiego, Studia Informatica,
1998, nr 9.
Kubiak B.F., Korowicki A.: Międzyorganizacyjne systemy informacyjne w rozwoju
wirtualizacji, W: Modele informacyjne procesów gospodarczych, red., T. Kasprzak,
Wydawnictwo Uniwersytetu Warszawskiego - Institut für Wirtschaftsinformatik
Universität des Saarlandes, Warszawa-Saarbrücken 1998.
112
Antoni Korowicki, Bernard F. Kubiak
Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji
10. Kubiak B.F., Korowicki A.: Zintegrowane systemy informatyczne klasy MRP II
w restrukturyzacji procesów współczesnej organizacji, „InfoMan. Systemy Zarządzania
Informacją”, 1998, nr 2 i 3.
11. Kubiak B.F., Korowicki A.: Działalność gospodarcza w sieci globalnej – stan
i perspektywy, W: Human-Computer Interaction, red., B. F. Kubiak, A. Korowicki,
Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk 1999.
12. Kubiak B.F., Korowicki A.: Kapitał intelektualny w procesach zmian i wzrostu
konkurencyjności organizacji, W: Zastosowanie technologii informacyjnych do
wspomagania zarządzania procesami gospodarczymi, red., N. Siemieniuk, R. Mosdorf,
WyŜsza Szkoła Finansów i Zarządzania w Białymstoku, Białystok 2008.
13. Kubiak B.F., Korowicki A.: Rola potencjału intelektualnego w doskonaleniu zarządzania
wiedzą. Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, 2008, 13.
14. Kubiak B.F., Korowicki A.: Rola i znaczenie kapitału intelektualnego w kształtowaniu
efektywności organizacji turystycznych, Zeszyty Naukowe, Ekonomiczne Problemy Usług
nr 19, Uniwersytet Szczeciński w Szczecinie, Szczecin 2008, 496.
15. Manganelli R.L., Klein M. M.: Reengineering, Polskie Wydawnictwo Ekonomiczne,
Warszawa 1998.
16. Müller U.R.: Szczupłe organizacje, Agencja Wydawnicza „Placet”, Warszawa 1997.
17. Peppard J., Rowland P.: Re-engineering, Gebethner & Ska, Warszawa 1999.
18. Schlesinger P. F., Sathe V., Schlesinger L. A., Kotter J.: Projektowanie organizacji,
Wydawnictwo Naukowe PWN, Warszawa 1999.
19. Staniszkis W.: Corporate Information Resource, W: Human-Computer Interaction, red.,
B. F. Kubiak, A. Korowicki, Gdańsk 1999.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
113
THE KNOWLEDGE ROLE IN DEFINING THE INFORMATION AND COMMUNICATION TECHNOLOGY USABILITY AND FISSIBILITY IN AN ORGANIZATION
Summary
This paper describes the knowledge significance in defining innovative ways of
Information and Communication Technology (ICT) global applications. Also the
new organizational formulas adequate to the network model functioning and knowledge creating and measuring were discussed. Further on there was justified the necessity of giving up corporate restructuring, reengineering and introducing permanent re-formulating corporate and sector strategy aided by the ICT. Additionally,
new strategy paradigm and circumstances of its success performance from the
global digital economy point of view have been presented.
Key words: Information and Communication Technology (ICT), innovative ICT applications,
network organization model, value chain, network value chain, reorganization, reengineering, new strategy paradigm, strategy re-formulation
Antoni Korowicki
Bernard F. Kubiak
Uniwersytet Gdański
e-mail: [email protected]
e-mail: [email protected]
http://www.univ.gda.pl
114
Edward Michalewski
MoŜliwości audytu systemowego sektora bankowego w Polsce
EDWARD MICHALEWSKI
Instytut Badań Systemowych PANWarszawa
MOśLIWOŚCI AUDYTU SYSTEMOWEGO SEKTORA BANKOWEGO W POLSCE
Streszczenie
RozwaŜono moŜliwości jakie daje audyt sektora bankowego w przypadku wykorzystania podejścia systemowego. Przedstawiono róŜnorodność sektora bankowego
w Polsce i jego powiązania z europejskim systemem bankowym. Opisano istniejące
mechanizmy audytu, kontroli i nadzoru sektora bankowego. Omówiono problemy
wynikające z braku powiązań między nimi i wymiany informacji. Zaproponowano
rozwiązanie oparte o podejście systemowe. Przedstawiono wnioski końcowe.
Słowa kluczowe: audyt systemowy, narzędzia wspomagające analizę diagnostyczną, sektor bankowy, zarządzanie wiedzą.
1. Wprowadzenie
Podstawowym celem niniejszej publikacji jest próba przedstawienia moŜliwości, jakie daje
audyt sektora bankowego w Polsce w przypadku wykorzystania podejścia systemowego. Nazwa
bank pochodzi od włoskiej nazwy banco, czyli ławki, kontuaru, przy którym pracowali włoscy
handlarze. Zajmowali się oni przede wszystkim przekazywaniem pieniędzy od jednego klienta do
drugiego. Obecnie w literaturze [1] moŜna spotkać następujące wyjaśnienie:
" Bank to instytucja finansowa, której zadaniem jest obsługa obiegu pieniądza oraz skupianie
wolnych kapitałów finansowych i oszczędności oraz przekształcanie ich w kapitały funkcjonujące."
Sektor bankowy obejmuje całokształt instytucji bankowych, a takŜe normy określające wzajemne
powiązania i stosunki z otoczeniem. O sektorze bankowym moŜna jednak mówić dopiero wówczas, gdy rozwój banków, a takŜe rynków finansowych, pozwolą na ustalenie zasad struktury tego
sektora. Dlatego teŜ dopiero powstanie wielopoziomowego układu, złoŜonego z banku centralnego
(emisyjnego) i banków komercyjnych, jest uznawane za podstawę dla określenia się sektora bankowego.
Sektor bankowy obejmuje następujące podstawowe grupy banków:
• banki centralne powstałe na bazie banków emisyjnych,
• banki operacyjne (komercyjne, handlowe),
• banki specjalne (wyspecjalizowane),
• spółdzielczość kredytową,
• kasy oszczędnościowe.
Zasady funkcjonowania sektora bankowego w kaŜdym kraju określa prawo bankowe, czyli
zbiór ustaw, dekretów, zarządzeń i innych aktów prawnych regulujących działalność banków.
Ustala ono m.in. rodzaje banków, ich czynności, rolę banku centralnego oraz zadania nadzoru bankowego. Nowe prawo bankowe w Polsce [2], obowiązujące od 1 stycznia 1998 r., określa zasady
działalności bankowej, tworzenia i organizacji banków oraz zasady sprawowania nadzoru bankowego, postępowania naprawczego i likwidacji banków. Cechą charakterystyczną tego prawa jest
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
115
to, Ŝe odnosi się ono wyłącznie do banków i stosunków między bankiem a klientem, a nie obowiązuje innych przedsiębiorstw.
Ramowe przepisy dotyczące operacji bankowych zawierają następujące rozdziały ustawy:
• rachunki bankowe,
• bankowe rozliczenia pienięŜne,
• kredyty i poŜyczki pienięŜne,
• gwarancje bankowe, poręczenia i akredytywy,
• emisja bankowych papierów wartościowych.
Wykonując te operacje, banki są ustawowo zobowiązane do utrzymania płynności płatniczej,
zapewniającej wywiązanie się z wszystkich zobowiązań zgodnie z terminem ich płatności. W tym
celu przepisy ustawy wprowadzają rozwiązanie słuŜące zapewnieniu bezpieczeństwa środków pienięŜnych powierzonych bankom przez klientów.
Jednak w ciągu ostatnich lat obserwowana jest tendencja do coraz dalej idącej dereglamentacji bankowości, czyli zmniejszenia ograniczeń, znoszenia norm [3]. Ustawy w ciągu najbliŜszych
lat będą stopniowo rewidowane i uzupełniane, m.in. w celu coraz bliŜszego dostosowania prawa
polskiego do norm Unii Europejskiej.
Zdolność sektora bankowego do zachowania płynności finansowej oraz poszczególnych banków do pokrywania strat i ryzyka z kapitału własnego nieodłącznie towarzyszącego ich działalności nazywamy stabilnością systemu bankowego. ZaleŜy ona od trzech podstawowych czynników:
• stopnia konkurencji panującej na rynku finansowym,
• struktury instytucjonalnej systemu bankowego,
• sprawności funkcjonowania samych banków.
Podstawowymi funkcjami sektora bankowego są:
• kreowanie przez bank emisyjny pieniądza jako ostatecznego środka zapłaty,
• kreowanie przez banki operacyjne pieniądza jako środka płatniczego,
• zaspakajanie zapotrzebowania na pieniądz za pomocą kredytu,
• pośredniczenie między posiadaczami środków pienięŜnych i ich uŜytkownikami.
Na rozwój sektora bankowego wywierają wpływ następujące czynniki:
• porządek społeczny i gospodarczy, który określa społeczne wartości i cele gospodarcze,
• struktura i wielkość popytu na usługi bankowe,
• regulacje prawne działań bankowych,
• skłonność banków do innowacji.
Wszystkie te czynniki są ze sobą ściśle powiązane i naleŜy je rozpatrywać we wzajemnym
związku – podejście systemowe. Uwzględnienie tych czynników moŜe być skuteczną dźwignią
rozwoju sektora bankowego ukierunkowanego przez nadrzędne cele systemu gospodarczego.
2. Kontrola, nadzór i audyt sektora bankowego
Przedstawiony powyŜej złoŜony układ sektora bankowego podlega wielostronnej kontroli w
ramach stałego nadzoru i sporadycznego audytu. Celem tych poczynań jest zapewnienie
bezpieczeństwa sektora bankowego. MoŜna rozróŜnić dwie podstawowe formy tej kontroli:
wewnętrzną i zewnętrzną.
Kontrola wewnętrzna istnieje w kaŜdej instytucji sektora bankowego i jest ukierunkowana
w pierwszej kolejności na zabezpieczenie jej własnych wewnętrznych interesów, zaś dopiero
116
Edward Michalewski
MoŜliwości audytu systemowego sektora bankowego w Polsce
w drugiej kolejności interesów jej klientów. Pewnym odstępstwem jest audyt systemów
informatycznych, który jest ukierunkowany nie tylko na bezpieczeństwo danych (a więc równieŜ
danych klientów), ale teŜ na zapewnienie kompatybilności tych systemów z informatycznymi
systemami zewnętrznymi.
Taka sytuacja powoduje, Ŝe kontrola zewnętrzna w kaŜdym kraju jest niewyobraŜalnie
rozbudowana i rozwija się nadal w sposób dynamiczny. Dominująca rola przypada tu na bank
centralny. W przypadku Polski wynika to bezpośrednio z jego podstawowych, ustawowych funkcji
[4] - Narodowy Bank Polski, jako bank centralny, pełni trzy podstawowe funkcje:
Bank emisyjny. NBP ma wyłączne prawo emitowania znaków pienięŜnych będących prawnym
środkiem płatniczym w Polsce. Narodowy Bank Polski określa wielkość ich emisji oraz moment
wprowadzenia do obiegu, za którego płynność odpowiada. Ponadto, organizuje obieg pienięŜny
i reguluje ilość pieniądza w obiegu.
Bank banków. NBP pełni w stosunku do banków funkcje regulacyjne, które mają na celu zapewnienie bezpieczeństwa depozytów zgromadzonych w bankach oraz stabilności sektora bankowego. Organizuje system rozliczeń pienięŜnych, prowadzi bieŜące rozrachunki międzybankowe
i aktywnie uczestniczy w międzybankowym rynku pienięŜnym. Narodowy Bank Polski jest odpowiedzialny za stabilność i bezpieczeństwo całego systemu bankowego. Pełniąc funkcję banku banków, sprawuje kontrolę nad działalnością banków, a w szczególności nad przestrzeganiem przepisów prawa bankowego. Ponadto NBP nadzoruje systemy płatności w Polsce.
Centralny bank państwa. NBP prowadzi obsługę bankową budŜetu państwa, prowadzi
rachunki bankowe rządu i centralnych instytucji państwowych, państwowych funduszy celowych
i państwowych jednostek budŜetowych oraz realizuje ich zlecenia płatnicze.
Dominującą rolę w nadzorze polskiego sektora bankowego pełni Komisja Nadzoru
Bankowego [5]. Organem wykonawczym Komisji, realizującym i koordynującym decyzje oraz
określone przez nią zadania jest, wydzielony organizacyjnie w strukturze NBP, Generalny
Inspektorat Nadzoru Bankowego. Do zadań Komisji Nadzoru Bankowego naleŜy w szczególności:
• określanie zasad działania banków zapewniających bezpieczeństwo środków pienięŜnych
zgromadzonych przez klientów w bankach,
• nadzorowanie banków w zakresie przestrzegania określonych ustaw, statutu i innych
przepisów prawa oraz obowiązujących je norm finansowych,
• dokonywanie okresowych ocen stanu ekonomicznego banków i przedstawianie ich Radzie
Polityki PienięŜnej [6] oraz wpływu polityki pienięŜnej, podatkowej i nadzorczej na ich
rozwój,
• opiniowanie zasad organizacji nadzoru bankowego i ustalanie trybu jego wykonywania.
Zgodnie z art. 77 ust. 2 ustawy o nadzorze nad rynkiem finansowym do 31 grudnia 2007 roku Komisja Nadzoru Bankowego, działa w składzie:
• Przewodniczący Komisji - Przewodniczący Komisji Nadzoru Finansowego albo wyznaczony przez niego Zastępca Przewodniczącego;
• Zastępca Przewodniczącego Komisji - minister właściwy do spraw instytucji finansowych
lub delegowany przez niego sekretarz lub podsekretarz stanu w urzędzie obsługującym
ministra właściwego do spraw instytucji finansowych;
• przedstawiciel Prezydenta Rzeczypospolitej Polskiej;
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
•
•
117
Prezes Zarządu Bankowego Funduszu Gwarancyjnego;
Prezes Narodowego Banku Polskiego albo wyznaczony przez niego Wiceprezes Narodowego Banku Polskiego;
• przedstawiciel ministra właściwego do spraw instytucji finansowych;
• Generalny Inspektor Nadzoru Bankowego.
Celem nadzoru, prowadzonego przez Komisję Nadzoru Bankowego i realizowanego przez
Generalny Inspektorat Nadzoru Bankowego, jest monitorowanie i ograniczenie nadmiernego
poziomu róŜnych rodzajów ryzyka podejmowanego przez banki, które to ryzyka mogłyby mieć
negatywny wpływ na bezpieczeństwo depozytów powierzonych bankom oraz zagrozić stabilności
systemu finansowego. GINB dopuszcza i zakłada w swoim podejściu to, Ŝe banki podejmują
ryzyko, ale jednocześnie analizuje czy wielkość tego ryzyka jest w rozsądnej proporcji do
posiadanego przez bank kapitału, uzyskiwanego wyniku finansowego, utworzonych rezerw oraz
jakości systemów zarządzania ryzykiem. Działania Komisji Nadzoru Bankowego oraz GINB nie
zwalniają kierownictwa banków od ostatecznej odpowiedzialności za zarządzaną instytucję, gdyŜ
GINB nie uzurpuje sobie prawa i odpowiedzialności za codzienne zarządzanie bankiem.
Głównymi narzędziami GINB w realizacji powierzonych przez Komisję Nadzoru Bankowego
zadań są: właściwa i profesjonalna ocena adekwatności i kwalifikacji kierownictwa banków
(proces licencjonowania i monitorowania struktury zarządczej oraz właścicielskiej), tworzenie
regulacji limitujących ryzyko (m.in. współczynnik wypłacalności, limit na otwartą pozycję
walutową netto), monitorowanie sytuacji finansowej banków poprzez okresową sprawozdawczość
nadsyłaną do NBP i wykrywanie sygnałów świadczących o potencjalnych zagroŜeniach stabilności
banków, inspekcje na miejscu w bankach celem oceny poziomu i sposobu zarządzania ryzykami
przez banki oraz zgodności ich działania z prawem i dobrą praktyką bankową.
W ramach tej działalności opracowano m.in. nowy System Informacji Sprawozdawczej (SIS),
który będzie obowiązywał wszystkie banki działające w Polsce [7]. Zgodnie z jego załoŜeniami
sprawozdania banków komercyjnych oraz niezrzeszonego banku spółdzielczego (KBS),
niezaleŜnie od kontroli systemowej, przechodzą równieŜ weryfikację merytoryczną, mającą na celu
sprawdzenie spójności sprawozdań.
Kolejną instytucją zajmującą się kontrolą i nadzorem sektora bankowego w Polsce jest
Ministerstwo Finansów. Na 38 departamentów MF aŜ 14 bezpośrednio, lub pośrednio zajmują się
nadzorem sektora bankowego. W zakres tej działalności wchodzi równieŜ analiza wyników
audytów poszczególnych banków prowadzonych przez renomowane firmy (jak np.
PricewaterhouseCoopers). Pacą analityczną zajmuje się równieŜ NBP. W szczególności w ramach
seminarium naukowych Instytutu Ekonomicznego NBP opracowano raporty dotyczące m.in.
adaptacyjności gospodarki polskiej do szoków makroekonomicznych [8], wpływu bezpośrednich
inwestycji zagranicznych [9], czy teŜ problemu tzw. „bąbli” na rynku nieruchomości
mieszkaniowych [10]. Istotne miejsce zajmują tu raporty dotyczące wpływu, w szczególności na
polski sektor bankowy, procesów związanych z przejściem na euro [11].
MoŜna więc twierdzić, Ŝe kontrola, nadzór i audyt sektora bankowego w Polsce są tak
rozbudowane, Ŝe powinno to zapewnić pełne bezpieczeństwo tego sektora (co przy kaŜdej okazji
usilnie podkreślają oficjalne środki przekazu). A jednak pewne wątpliwości istnieją i spróbujemy
je rozwaŜyć poniŜej.
118
Edward Michalewski
MoŜliwości audytu systemowego sektora bankowego w Polsce
3. Podejście systemowe
Podstawowa wątpliwość, co do skuteczności tego rozbudowanego układu kontroli, nadzoru
i audytu sektora bankowego, wynika z braku (prawie całkowitego) przepływu informacji o wynikach dokonanych kontroli i audytów pomiędzy poszczególnymi instytucjami odpowiedzialnymi za
bezpieczeństwo sektora bankowego. W odniesieniu do kontroli wewnętrznej moŜe to jeszcze mieć
jakieś racjonalne uzasadnienie, jednak w przypadku kontroli i audytów zewnętrznych świadczy
jedynie o ich niedoskonałości. Podstawowy zarzut – brak podejścia systemowego.
Podejście systemowe do tak złoŜonej problematyki jak audyt sektora bankowego moŜe mieć
wiele propozycji rozwiązań: uwzględnienie powiązań z otoczeniem, badany obiekt jako system,
wieloaspektowość, badania interdyscyplinarne, badania operacyjne jako podstawa, logistyka jako
podstawa i wiele innych. Wydaje się jednak, Ŝe budowa modelu badanego obiektu jest najbardziej
istotnym elementem rozwiązania problemu [12]. Wynika to ze specyfiki podejścia systemowego do
konkretnie rozpatrywanego zadania – audytu sektora bankowego. Bogata literatura w zakresie teorii organizacji, np. fundamentalna praca prof. J.Zieleniewskiego [13], reprezentuje tzw. klasyczne
podejście, w którym badany obiekt jest rozpatrywany wieloaspektowo w sposób nawzajem niezaleŜny (Rys. 1).
Ze względu na sprzeczne nieraz interesy, zawarte w poszczególnych projektach usprawnień,
moŜe się zdarzyć, Ŝe wynik końcowy wdroŜenia tych usprawnień będzie niekorzystny dla badanego obiektu. Wynika z tego konieczność innego podejścia do zagadnienia - właśnie systemowego.
Nie twierdzę, Ŝe to co chciałbym tu zaproponować jest jedynie słusznym ujęciem tego zagadnienia.
Jest to jeszcze jedna próba rozwiązania tego problemu, polegająca na wprowadzeniu pomiędzy
Ŝywym obiektem a propozycjami jego usprawnień pewnego rodzaju buforu, w postaci modelu globalnego (systemowego), na którym zostałyby uprzednio sprawdzone róŜne aspekty rozwiązań.
Wyniki negatywne powodowałyby zmianę załoŜeń aspektowych i dopiero ogólnie akceptowany
wynik pozytywny byłby wdraŜany na obiekcie rzeczywistym (Rys. 2).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
119
Oczywiście idealnym modelem globalnym byłby model, który uwzględniałby wszystkie moŜliwe (dziś i jutro) aspekty. Jest to niemoŜliwe, jednak konsekwentne dąŜenie do tego ideału, realizowane m.in. w trakcie tworzenia i wieloletniego rozwoju metody DIANA, dało jak się wydaje
obiecujące wyniki [12].
4. Model systemowy sektora bankowego
W oparciu o doświadczenia z metody DIANA moŜna zaproponować model sektora bankowego w postaci polihierarchicznej, wielopoziomowej, przestrzennej sieci powiązań informacyjnych, który przedstawiono na Rys. 3:
Rys. 3. Wielopoziomowy model sektora bankowego (Źródło: własne)
PowyŜszy model uzupełniają powiązania z otoczeniem. Jest to niezwykle istotna sprawa, dlatego naleŜy uwzględnić wszystkie najwaŜniejsze sygnalizowane w literaturze aspekty relacji:
obiekt – otoczenie.
120
Edward Michalewski
MoŜliwości audytu systemowego sektora bankowego w Polsce
5. Wnioski końcowe
PowyŜsza propozycja stworzenia audytu systemowego wymaga oczywiście jeszcze wielu
szczegółowych prac, jednak wydaje się Ŝe ten wysiłek warto wykonać, szczególnie w obliczu
sytuacji kryzysowej. Wymaga to zastosowania nowoczesnych metod, opartych o analizę
systemową oraz nowoczesnych narzędzi wykorzystujących te metody w oparciu o technikę
komputerową do wspomagania tych procesów. Kluczową rolę będzie odgrywać zbudowanie
odpowiedniego szczegółowego modelu sektora bankowego, który uwzględniałby wszystkie istotne
aspekty jego funkcjonowania. Dzięki temu moŜliwa byłaby wieloaspektowa analiza diagnostyczna
i usprawnianie sektora bankowego oraz wielowariantowe i bezpieczne (bo na modelu)
projektowanie poszczególnych elementów tego sektora.
Kształt polskiego sektora bankowego to efekt procesów, które zachodziły na tym obszarze
w ciągu ostatnich kilkunastu lat. Spośród kilkudziesięciu (51 - stan na koniec lipca 2007) banków
komercyjnych, które na nim działają, największą grupę stanowią banki w większości, bądź
w całości sprywatyzowane. W ich prywatyzacji brały udział największe finansowe instytucje
w Europie i na świecie [14]. Stąd (jak pokazuje tabela 1) bardzo duŜe udziały własnościowe
w polskich bankach mają inwestorzy zagraniczni:
Tabela 1. Struktura własnościowa banków w Polsce
Struktura własnościowa banków w Polsce (stan na 30 lipiec 2007 r.)
inwestorzy zagraniczni
70%
Skarb Państwa
11,1%
państwowe osoby prawne
2,2%
udziałowcy banków spółdzielczych
4,2%
pozostałe podmioty krajowe
12,2%
drobni akcjonariusze
13,3%
Źródło: [14]
Powinno to stanowić rodzaj dzwonka alarmowego i pozostawiam to bez komentarza. Wreszcie prawdziwym wyzwaniem będzie uwzględnienie w modelu powiązań polskiego sektora bankowego z Europejskim systemem bankowym [15] oraz procesów związanych z przejściem na euro
[16].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
121
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
System
bankowy
Słownik
wybranych
terminów
(praca
zbiorowa),
http://www.business.gov.pl/System,bankowy,i,uslugi,finansowe,66.html
MinisterstwoFinansówRPhttp://www.mf.gov.pl/index.php?const= 1&dzial =11&wysw=
2&sub=sub2
Narodowy Bank Polski http://www.nbp.pl/Home.aspx?f=onbp/organizacja/
Podstawowe funkcje NBP http://www.nbp.pl/Home.aspx?f=onbp/informacje/funkcje_
banku_centralnego.html
Komisja Nadzoru Bankowego http://www.nbp.pl/Home.aspx?f=onbp/organizacja/
komisja.html
Synteza Raportu o sytuacji sektora bankowego w 2007 r. (praca zbiorowa), Raporty
Komisji Nadzoru Bankowego, Wyd. NBP, Warszawa, 2008
SIS – nowy system sprawozdawczości banków, http://www.nbp.gov.pl
M. Bukowski, G. Koloch, P. Lewandowski: Adaptacyjność gospodarki polskiej do
szoków makroekonomicznych (Instytut Badań Strukturalnych), Mat. Sem. Instytutu
Ekonomicznego NBP, październik 2008, http://www.nbp.gov.pl/
K. Lada, G.Tchorek: Przepływy Bezposrednich Inwestycji Zagranicznych w Europie a
utworzenie strefy euro, Mat. Sem. Instytutu Ekonomicznego NBP, wrzesień 2008,
http://www.nbp.gov.pl/
J. Łaszek, H. Augustyniak, M. Widłak: Euro a ryzyko bąbli na rynku nieruchomości
mieszkaniowych, Mat. Sem. Instytutu Ekonomicznego NBP, wrzesień 2008,
http://www.nbp.gov.pl/
J. Grabczyński, J. Hylewski, A. Roy, E. Szafarczyk, M. Zielińska: Skutki integracji
walutowej dla procesu zarządzania rezerwami dewizowymi w NBP, Mat. Sem. Instytutu
Ekonomicznego NBP, grudzień 2008, http://www.nbp.gov.pl/
Michalewski E.: Podstawy metody analizy diagnostycznej i projektowania systemów
zarządzania (metoda DIANA). Wyd. IBS PAN, Seria Badania Systemowe, tom 34,
Warszawa 2004
J. Zieleniewski: "Organizacja i zarządzanie ", PWN, Warszawa, 1979.
System bankowy i usługi finansowe, http://www.business.gov.pl/System,bankowy,
i,uslugi,finansowe
Europejski system bankowy, http://www.business.gov.pl/ESB
Pieniądz rezerwowy i czynniki jego kreacji (http://www.nbp.gov.pl)
122
Edward Michalewski
MoŜliwości audytu systemowego sektora bankowego w Polsce
CAPABILITIES OF SYSTEMS AUDIT OF BANK SECTORS IN POLAND
Summary
Capabilities in case of utilization of system approach consider that give audit
sector bank. Diversity of bank sector present in Poland and with European Banking
System coherence . It describe existing mechanisms of audit, control and oversight of
bank sector. It discuss subsequent problems from lack of coherence between them
and exchanges of information. Based solution suggest about system approach. It
present final conclusions..
Keywords: systems audit, instruments of computer-aided analysis diagnostic, bank sector, knowledge management.
Edward Michalewski
Instytut Badań Systemowych PAN,
Warszawa, Newelska 6
e-mail: [email protected]
http://www.ibspan.waw.pl/~michalew
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
123
MATEUSZ PIWOWARSKI
Politechnika Szczecińska
WIELOKRYTERIALNA ANALIZA DECYZYJNA W SYSTEMACH GIS
Streszczenie
Zwiększenie funkcjonalności systemów GIS w kontekście wspomagania podejmowania decyzji jest moŜliwe przez adaptację metod wielokryterialnych. Metody te
mogą być wykorzystywane do budowy mapy decyzji oraz końcowej oceny alternatyw
decyzji.
Słowa kluczowe: MCDA, wielokryterialna analiza decyzyjna, GIS, geoinformacja
1. Wprowadzenie
Informacja przestrzenna dotyczy lokalizacji obiektów w określonych układach współrzędnych
(zazwyczaj odniesionych do powierzchni ziemi), ich właściwości geometrycznych oraz relacji
przestrzennych zachodzących pomiędzy nimi. Początki określania połoŜenia interesujących nas
rzeczy, przedmiotów, obszarów, czy zjawisk były stosunkowo prymitywne: rysunki, schematy, mapy papierowe o niskiej dokładności. Wraz z rozwojem techniki powstawały coraz bardziej zaawansowane sposoby pozyskiwania, przetwarzania i wizualizacji danych przestrzennych. Oprócz komputerowych baz danych, istnieją obecnie bardzo precyzyjne urządzenia do budowy map numerycznych, a takŜe wyspecjalizowane oprogramowanie do realizacji złoŜonych analiz przestrzennych.
Systemy GIS stanowią coraz częściej narzędzie wspomagające podejmowanie decyzji na róŜnych
poziomach zarządzania. Nie są one jednak wyposaŜone w mechanizmy pozwalające na wielokryterialną analizę decyzyjną i uwzględnianie indywidualnych preferencji decydenta.
Celem niniejszego artykułu jest przedstawienie problematyki (w oparciu o literaturę światową)
integracji metod wielokryterialnych z systemami GIS.
2. Analiza i modelowanie danych przestrzennych
Początek systemów GIS sięga połowy lat sześćdziesiątych XX wieku, kiedy powstał Kanadyjski System Informacji Przestrzennej (ang. Canada Geographic Information System). Celem tego
systemu było wspomaganie pomiarów kartometrycznych i prezentacja danych w postaci zestawień
tabelarycznych [1]. Następne lata to dynamiczny rozwój systemów geoinformacyjnych w róŜnych
aspektach ich funkcjonowania. Do podstawowych funkcji systemów GIS zalicza się opracowywanie map numerycznych, pomiary kartometryczne, modelowanie, zarządzanie oraz monitoring.
Funkcjonalność ta zapewnia szerokie moŜliwości praktycznego stosowania systemów w wielu obszarach Ŝycia. Przykładowo, w administracji lokalnej systemy GIS znajdują zastosowania do
wspomagania działań analitycznych w gospodarce mieszkaniowej, inwentaryzacji i planowaniu
infrastruktury, uŜytkowaniu terenów, zarządzaniu kryzysowym, monitoringu środowiska, itp. Systemy geoinformacyjne są równieŜ powszechnie stosowane do wspomagania krótko i długo terminowych decyzji lokalizacyjnych, planowaniu działalności i usług gospodarczych, w logistyce,
transporcie, środowisku przyrodniczym, hydrologii, zdrowiu, polityce i wielu innych obszarach
124
Mateusz Piwowarski
Wielokryterialna analiza decyzyjna w systemach GIS
[2,3].
O funkcjonalności systemów GIS w znacznym stopniu decydują moŜliwości z zakresu przeprowadzania analiz przestrzennych. Analiza ta jest podstawową cechą systemów geoinformacyjnych i polega na poszukiwaniu uporządkowania lub odchyleń od regularnego rozkładu zmiennych
w przestrzeni, a takŜe odnajdowaniu zaleŜności pomiędzy zmiennymi w celu ustalenia związku
przyczynowo-skutkowego. Dotyczy ona róŜnego rodzaju obliczeń i przekształceń (arytmetycznych,
geometrycznych, logicznych, statystycznych) w wyniku, których uzyskuje się informacje o charakterze przestrzennym dedykowane zazwyczaj wspomaganiu decyzji. Przedmiotem analiz mogą być
[8]:
− atrybuty obiektów,
− geometryczne cechy obiektów,
− równocześnie cechy geometryczne i atrybuty obiektów.
Funkcje analityczne systemów GIS obejmują przetwarzanie informacji pochodzącej zazwyczaj
z kilku warstw mapy numerycznej w efekcie, czego jest moŜliwość wykrywania róŜnorodnych zaleŜności pomiędzy obiektami. W wielu przypadkach operacje te mogą być realizowane zarówno na
danych wektorowych jak i rastrowych, chociaŜ większą funkcjonalność dostarczają dane w formacie wektorowym [4].
Do podstawowych metod analizy danych przestrzennych zalicza się [2]:
− kwerendy (zapytania do bazy danych),
− metody pomiaru charakterystyk geometrycznych obiektów (np. pole powierzchni, kształt),
− przekształcenia (wyznaczanie relacji geometrycznych między obiektami).
W oparciu o te sposoby i techniki pomiarów moŜna realizować bardziej zaawansowane działania, jak np. [7]:
− konstruowanie wskaźników sumarycznych (miary połoŜenia, rozproszenia, oceny prawidłowości rozmieszczenia, fragmentacja, wymiary fraktalne, itp.),
− weryfikacja hipotez statystycznych,
− stosowanie metod optymalizacyjnych (wyznaczanie np. lokalizacji zjawisk punktowych,
wybór najkrótszej, czy optymalnej drogi),
− konstrukcja modeli i modelowanie zjawisk zróŜnicowanych przestrzennie.
Szczegółową charakterystykę metod i zastosowań analiz danych przestrzennych przeprowadził
Haining R. [5] oraz Maguire D. i inni [6].
Modele przestrzenne konstruuje się w celu znalezienia optymalnego rozwiązania przestrzennego (optymalizacja), zastąpienia rzeczywistych obiektów ich cyfrowymi odpowiednikami, wskazywania rozwiązań alternatywnych, czy teŜ dynamicznego analizowania i obrazowania wyników.
Do najistotniejszych kategorii modeli wykorzystywanych w ramach systemów GIS zaliczamy [2]:
− modele statyczne i wskaźnikowe (np. model erozji gleby, ochrony krasowych wód podziemnych),
− modele zagregowane i autonomiczne (np. modelowanie przepływu strumienia wód, modelowanie zachowań ludzi w zatłoczonych miejscach),
− automaty komórkowe (np. symulacja rozwoju urbanizacji).
Przedstawione tutaj typy modeli (inne równieŜ) stanowią rozszerzenie funkcjonalności systemów GIS i zazwyczaj nie są częścią ogólnie dostępnych pakietów na rynku. W zdecydowanej
większości przypadków modele przestrzenne są realizowane w oparciu o integrację zewnętrznych
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
125
pakietów z systemami GIS (ang. coupling). Modele takie są określane modelami słabo związanymi
z GIS, gdyŜ dane z systemów geoinformacyjnych są przekazywane i odbierane w postaci plików
(często w ustandaryzowanych formatach). MoŜna teŜ wyróŜnić modele silnie związane z GIS, tzw.
osadzone (ang. embedded), w których nie występują pośrednie pliki wymiany danych (odczyt i zapis danych przestrzennych przez róŜne systemy w jednym miejscu) [2,6].
Konstruując modele przestrzenne (wskaźnikowe, ale takŜe bardziej złoŜone) zazwyczaj w róŜny sposób moŜna oceniać wagę poszczególnych czynników (parametrów wejściowych modelu),
a takŜe w róŜny sposób dokonywać szacowania czy agregacji zmiennych. Proces ten jest bardzo
istotny ze względu na konieczność uzyskania rozwiązań najlepszych, uwzględniających preferencje
decydentów. Problematyka rozwiązywania takich zagadnień jest znana w literaturze pod nazwą
wielokryterialnej analizy decyzyjnej - MCDA (ang. Multi-Criteria Decision Analysis) lub wielokryterialnego podejmowania decyzji - MCDM (ang. Multi-Criteria Decision-Making).
3. Metody wielokryterialne
MCDA/MCDM jest zbiorem metod i narzędzi matematycznych umoŜliwiających porównywanie wariantów decyzyjnych z uwzględnieniem róŜnych, często sprzecznych ze sobą kryteriów.
Z systemami GIS analiza wielokryterialna jest wiązana od lat 90-tych XX w. W roku 2006 J. Malczewski [9] przedstawił pracę zawierającą przegląd aktualnego dorobku światowego z zakresu systemów GIS-MCDA. Analiza tej pracy oraz innych pozycji literatury, które się od tego czasu pojawiły pozwala stwierdzić, iŜ ten obszar informatyki jest waŜny i coraz bardziej doceniany w kontekście wspomagania decyzji z wykorzystaniem systemów geoinformacyjnych. Dzięki integracji metod MCDA z systemami GIS jest moŜliwe uzyskanie funkcjonalności łączącej zalety metod wielokryterialnych z moŜliwościami przetwarzania, analiz i wizualizacji danych przestrzennych.
Metody wielokryterialne moŜna sklasyfikować na dwie grupy: metody ukierunkowane na rozwiązywanie problemów dyskretnych oraz ciągłych. Zadania dyskretne (poruszane w niniejszym
opracowaniu) to takie, w których istnieje skończony zbiór wariantów decyzyjnych oraz skończony
zbiór kryteriów i w oparciu o nie naleŜy podjąć decyzję. Dyskretne metody wielokryterialne są
przez róŜnych autorów róŜnie grupowane [12,13]. Kodikara [11] mówi o pięciu kategoriach, ale
najczęściej w literaturze jest mowa o dwóch: grupie metod opartych o relację przewyŜszania oraz
metod opartych o funkcję uŜyteczności (rys.1).
Metody wielokryterialne to metody, które mogą być rozpatrywane w kontekście czterech problematyk wielokryterialnego wspomagania decyzji [10]:
− wyboru P.α (wyznaczenie najlepszego wariantu decyzyjnego),
− klasyfikacji, sortowania P.β (przydział wariantów do określonych kategorii),
− porządkowania, rankingu P.γ (uporządkowanie wariantów, podział na klasy wariantów
równie dobrych),
− opisu P.δ (opis potencjalnych wariantów).
Wykorzystanie metody wielokryterialnej do rozwiązania konkretnego problemu decyzyjnego
wymaga dokładnej analizy dziedziny problemu oraz znajomości metod.
126
Mateusz Piwowarski
Wielokryterialna analiza decyzyjna w systemach GIS
Rys. 1. Klasyfikacja kategorii metod rozwiązywania problemów decyzyjnych [11].
Metody MCDA oparte o relację przewyŜszania charakteryzują się występowaniem, tzw. relacji
przewyŜszania, która dotyczy zaleŜności między wariantami decyzyjnymi i która reprezentuje
określone preferencje decydenta. Relacja ta moŜe przyjmować jedną z czterech sytuacji preferencyjnych: równowaŜności wariantów a i b (a I b), mocnej preferencji jednego z wariantów względem drugiego, np. a nad b (a P b), słabej preferencji jednego z wariantów nad drugim, np. a nie jest
zdecydowanie lepszy od b (a Q b) oraz nieporównywalności wariantów (a R b) [10].
Do najbardziej znanych metod opartych o relację przewyŜszania moŜna zaliczyć: grupę metod
ELECTRE (ELECTRE I [14], ELECTRE II [15], ELECTRE III [16], ELECTRE IV [17], ELECTRE IS [18] oraz ELECTRE TRI [19]), metody PROMETHEE (np. PROMETHEE I, II, III, IV,
V, VI [20]), metodę TOPSIS [24], ORESTE [21], TACTIC [22], czy np. REGIME [23]. Ponadto,
moŜna tutaj przywołać znacznie więcej metod, które w mniejszym lub większym stopniu opierają
się na zasadach wyznaczonych przez metody wiodące.
U podstaw metod ELECTRE I, ELECTRE Iv oraz ELECTRE IS znajduje się problematyka
wyboru P.α . W metodzie ELECTRE I nie występują progi preferencji oraz progi równowaŜności,
zakłada się zatem, iŜ wszystkie przyjęte kryteria są kryteriami prawdziwymi [14]. Następnie pojawiła się nowa, nieoficjalna wersja ELECTRE Iv [29], w której uwzględniono próg weta (dla kaŜdego kryterium oddzielnie). Podobnie jak w wersji poprzedniej po określeniu preferencji decydenta i wyznaczeniu współczynników zgodności dla poszczególnych par wariantów następuje sprawdzanie warunków zgodności oraz braku zgodności, wyznaczenie zbiorów zgodności i niezgodności, a takŜe określenie relacji przewyŜszania. Ostatnim etapem procedury obliczeniowej jest wyznaczenie grafu zaleŜności. W metodzie ELECTRE IS wprowadzono dodatkowo pseudo-kryteria.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
127
Pojawiły się progi równowaŜności oraz preferencji. Poza tym procedura przebiega podobnie
jak w przypadku ELECTRE I [18].
Problematyka porządkowania, rankingu P.γ jest uwzględniana w metodach ELECTRE II, III
i IV. Podobnie jak w ELECTRE I, w ELECTRE II występują kryteria prawdziwe, czyli nie definiuje się progów preferencji i równowaŜności. RozróŜnia się jednak słabą i silną preferencję, w oparciu o pięć progów podawanych dla testów zgodności (próg silny, wystarczający, słaby) oraz
braku niezgodności (próg silny, wystarczający) [15]. W metodzie ELECTRE III określane są progi
równowaŜności i preferencji, wykorzystywane są pseudo-kryteria, progi weta oraz wagi kryteriów.
Po wyznaczeniu zbioru kryteriów niezgodności oraz określeniu współczynników wiarygodności,
wyznaczanie kolejności wariantów następuje w procedurach destylacji zstępującej oraz wstępującej. Koniec procedury polega na uzyskaniu końcowego rankingu wariantów [16]. Procedura metody ELECTRE IV jest po części podobna do ELECTRE III. Nie definiuje się jednak wag kryteriów
(wszystkie kryteria są równe), wobec czego mają one jednakowe znaczenie przy wyznaczaniu relacji globalnych. Wyznaczane są dwa porządki: wstępujący oraz zstępujący w oparciu, o które generowany jest ranking końcowy wariantów [17]. Do grupy tej metod zaliczane są równieŜ metody
PROMETHEE. Poszczególne wersje tych metod operują bądź na kryteriach prawdziwych, bądź na
pseudo-kryteriach. Po części zbliŜona procedura obliczeniowa do większości metod ELECTRE
róŜni się znacząco przy wyznaczaniu współczynnika zgodności, gdzie moŜna wybierać spośród
kilku modeli jego wyznaczania. Wyznaczenie rankingu wariantów decyzyjnych stanowi rozróŜnienie metod z tej grupy. W przypadku PROMETHEE I decydent moŜe utworzyć ranking częściowy,
PROMETHEE II – całkowity, PROMETHEE III – odstępów. Metoda PROMETHEE IV uwzględnia przypadki ciągłe oraz analizę wraŜliwości, PROMETHEE V problemy z dodatkowymi ograniczeniami segmentacji, a PROMETHEE VI reprezentację umysłu ludzkiego [20].
Metoda ELECTRE TRI jest ukierunkowana na problematykę sortowania P.β . Procedura obliczeniowa jest zbliŜona do ELECTRE III. Wyznaczane są tutaj współczynniki zgodności, wiarygodności oraz wskaźniki niezgodności. Pewne róŜnice występują w kontekście przynaleŜności progów równowaŜności, preferencji oraz weta do poszczególnych przedziałów. Metoda ta jest stosowana często tam, gdzie naleŜy rozpatrzyć duŜą liczbę wariantów decyzyjnych [19].
Poza dwoma wiodącymi grupami metod ELECTRE oraz PROMETHEE, praktyczne zastosowania w wielu obszarach Ŝycia znajdują równieŜ inne.
Na przykład metoda TOPSIS jest stosowana tam, gdzie istnieje konieczność sortowania wariantów pod względem ich podobieństwa do wariantu najbardziej poŜądanego. Realizowane jest to
przez minimalizację odległości do wzorca (wariantu najbardziej preferowanego) oraz maksymalizacji tego dystansu do wariantu najmniej poŜądanego [24]. W zaleŜności od uwzględnianych typów danych metoda TOPSIS przyjmuje róŜne formy: klasyczna (dane wejściowe są znanymi wartościami rzeczywistymi cech dla rozpatrywanych obiektów) [30], interwałowa (wartości cech
obiektów są liczbami przedziałowymi - początek przedziału definiuje minimalną, a koniec – maksymalną wartość cechy) [31], rozmyta (wartości cech nie są precyzyjnie wyraŜone lub są określone
za pomocą poziomów zmiennej lingwistycznej, którym odpowiadają trójkątne liczby rozmyte, reprezentowane przez trzy oceny: pesymistyczną, najbardziej prawdopodobną i optymistyczną) [32].
Metoda ORESTE umoŜliwia stosowanie niezaleŜnych rankingów dla poszczególnych kryteriów oceny oraz niezaleŜnych rankingów dla alternatyw w stosunku do kaŜdego z przyjętych kryteriów [21]. W metodzie TACTIC jest moŜliwość posługiwania się kryteriami rzeczywistymi oraz
pseudo-kryteriami z wymaganiem w stosunku do poziomu zgodności [22]. Z kolei metoda REGI-
128
Mateusz Piwowarski
Wielokryterialna analiza decyzyjna w systemach GIS
ME w procedurze obliczeniowej wykorzystuję macierz dominacji oraz mechanizmy przewyŜszania
[23].
Druga grupa metod – opartych o funkcję uŜyteczności wykorzystuje klasyczną teorię uŜyteczności. Do opisu zachowań decydenta definiowana jest tutaj funkcja zwana funkcją uŜyteczności,
która przypisuje wszystkim rozpatrywanym elementom wartość liczbową, tak aby była moŜliwość
uporządkowania zbioru dopuszczalnych wariantów ze względu na preferencje decydenta. W wieloatrybutowej teorii uŜyteczności (ang. Miltiattribute Utility Theory) – znanej równieŜ, jako
MAUT [26], procedura rozwiązania problemu wielokryterialnego obejmuje dwa podstawowe etapy: określenie uŜyteczności częściowej poszczególnych wariantów decyzyjnych względem kaŜdego z kryteriów oraz wyznaczenie uŜyteczności globalnej w oparciu o wieloatrybutową funkcję uŜyteczności, agregującą uŜyteczności częściowe [26, 33]. Z podstaw teoretycznych nakreślonych
przez MAUT korzysta wiele innych metod opartych na modelu funkcjonalnym (funkcji uŜyteczności). Najczęściej stosowane metody z tej grupy, to metoda, AHP [25], SMART [27], UTA [28].
Metoda AHP stanowi klasyczny przykład metody opartej o funkcję uŜyteczności. UmoŜliwia
ona uzyskanie wektora skali poprzez porównywanie parami wariantów decyzyjnych na podstawie
poszczególnych kryteriów, a takŜe porównywania kryteriów pomiędzy sobą. W procesie porównywania parami wykorzystuje się dziewięciostopniową skalę ocen lub odpowiadający jej opis
słowny. Metoda ta nie wymaga bezpośredniego przypisywania wag dla rozpatrywanych kryteriów
oraz wariantów decyzyjnych, a operuje jedynie na ocenach względnych porównywanych obiektów.
Procedura obliczeniowa AHP determinuje cztery główne etapy: stworzenie hierarchii celów, budowa macierzy porównań istotności kryteriów, budowa macierzy porównań wariantów decyzyjnych dla kaŜdego z kryteriów oraz synteza waŜności kryteriów i preferencji alternatyw względem
kaŜdego kryterium [25]. Prostota i zrozumiałość algorytmu obliczeniowego, a takŜe dostępność
oprogramowania z zaimplementowaną metodą powoduje, iŜ jest ona powszechnie wykorzystywana
do wspomagania decyzji w róŜnych aspektach Ŝycia.
W metodzie SMART, bazującej na procedurze MAUT i zbliŜonej do AHP, ocena alternatywy
jest uniezaleŜniona od wartości innych alternatyw. Wagi kryteriów są wyznaczane przez zdefiniowanie im jawnych wartości, a nie wartości w odniesieniu do innego kryterium. Zmiana liczby rozpatrywanych alternatyw zazwyczaj nie wpływa na ocenę alternatyw rozpatrywanych wcześniej,
z wyjątkiem sytuacji, w której nieuwzględniane wcześniej alternatywy przyjmują wartości ekstremalne (minimum lub maksimum) w stosunku do któregoś z kryteriów. W takich przypadkach skala
ocen dla danego kryterium powinna być ponownie obliczona [27].
Metoda UTA wykorzystuje cząstkowe funkcje uŜyteczności na podstawie, których wyznaczana jest globalna funkcja uŜyteczności. Preferencje decydenta są pozyskiwane ze zbioru referencyjnego wariantów decyzyjnych, uszeregowanego w rankingu od najlepszego do najgorszego (moŜliwość uŜycia relacji preferencji lub nierozróŜnialności). W oparciu o zbiór referencyjny uzyskiwane
są cząstkowe funkcje uŜyteczności dla kaŜdego kryterium, do czego są wykorzystywane metody
programowania liniowego [28]. UTA, to zbiór róŜniących się metod, jak np. UTADIS, UTADIS I,
II, III, UTASTAR [34].
Szczegółowy opis przedstawionych tutaj metod oraz wielu innych moŜna uzyskać chociaŜby
w pozycjach [35,36].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
129
4. Obszary zastosowań metod MCDA w systemach GIS
Wielokryterialna analiza decyzyjna jest łączona z systemami GIS celem wielokryterialnego
wspomagania decyzji przestrzennych. Problematykę integracji metod MCDA z systemami geoinformacyjnymi poruszają w swoich pracach naukowych m.in. J. Malczewski [9,37], Chakhar [38]
oraz Chakhar i Mousseau [39]. Zagadnienia związane z podejmowaniem decyzji o charakterze
przestrzennym mogą zostać zdefiniowane jako te problemy, w których decyzję naleŜy podjąć wybierając pomiędzy kilkoma potencjalnymi alternatywami, związanymi z jakimiś określonymi miejscami w przestrzeni. Do przykładowych problemów przestrzennych moŜna zaliczyć, np.: lokalizację róŜnych obiektów (zakładów, szkół), planowanie opieki zdrowotnej, planowanie tras przejazdów pojazdów, administrację jednostkami terytorialnymi, itp. W przykładach tych potencjalne alternatywy są scharakteryzowane co najmniej przez ich geograficzne lokalizacje, a ich wybory będą
zaleŜeć od spełnienia oczekiwań decydenta nakreślonych przez jego preferencje. Rozpatrując zbiór
alternatyw decyzji związanych z uwarunkowaniami przestrzennymi naleŜy uwzględnić charakter
tego zbioru: dyskretny lub ciągły. W pierwszym przypadku istnieje skończona liczba alternatyw,
które mogą być reprezentowane przez punkt, linię lub wielobok (płaszczyznę), ewentualnie ich
kombinacje. Drugi przypadek jest związany z nieskończoną liczbą alternatyw decyzji, ale ze
względów praktycznych często są one reprezentowane w formie zbioru skończonego [40].
W przeglądzie literatury światowej w kontekście łączenia MCDA z GIS Malczewski [9] dokonał klasyfikacji zastosowań metod wielokryterialnych w systemach geoinformacyjnych z kilku
istotnych punktów widzenia. Rozpatrywał stosowalność MCDA dla róŜnych kategorii tych metod
(metody oparte o relację przewyŜszania, funkcję uŜyteczności, sumy waŜonej, punktu idealnego i
innych), wykorzystywanego modelu danych (raster, wektor), czy dokładności precyzowania kryteriów oraz alternatyw przestrzennych. Przeanalizowana liczba pozycji literatury - 319, pokazuje
róŜnorodności doboru i wykorzystania metod wielokryterialnych do wspomagania analiz przestrzennych. Pewnym wyznacznikiem stosowania metod w systemach GIS jest problematyka wielokryterialnego wspomagania decyzji [10], innym natomiast znajomość oraz łatwość implementacji
poszczególnych metod.
Znaczna część proponowanych rozwiązań MCDA-GIS wykorzystujących funkcję uŜyteczności bazuje na najbardziej popularnych metodach, typu AHP, SMART [41,42], natomiast w przypadku metod opartych o relację przewyŜszania, wykorzystywane są najczęściej: ELECTRE oraz
PROMETHEE [43-44]. Ta druga grupa metod jest zazwyczaj stosowana, gdy istnieje potrzeba
rozwaŜenia kryteriów oceny z heterogenicznymi skalami, czy teŜ np. decydent dysponuje ograniczoną informacją. Metody te mogą znaleźć zastosowania, np. w problemach zarządzania terenami,
w których alternatywy są często nieporównywalne [44].
Generalnie moŜna wskazać dwa obszary integracji metod MCDA z systemami GIS. Pierwszy
dotyczy konstrukcji mapy decyzji, drugi natomiast oceny wygenerowanych alternatyw decyzji [3840]. Etap związany z konstrukcją mapy decyzji obejmuje kilka działań, takich jak: budowa mapy
kryteriów, budowa mapy pośredniej, wygenerowanie mapy decyzji oraz grupowanie jednostek
przestrzennych na mapie decyzji (opcjonalnie). Generowanie mapy decyzji realizowane jest
w oparciu o wielokryterialną analizę decyzyjną (MCDA), gdzie np. dokonuje się klasyfikacji
obiektów (jakimi są jednostki przestrzenne mapy pośredniej) do określonych kategorii o podobnych cechach (np. metoda ELECTRE TRI). Schemat procedury uzyskiwania mapy decyzji jest
przedstawiony na rys. 2. Szczegóły konstrukcji mapy decyzji moŜna uzyskać w [40]. Przedstawio-
130
Mateusz Piwowarski
Wielokryterialna analiza decyzyjna w systemach GIS
na struktura obejmuje tylko pojedynczego decydenta lub grupę osób posiadających ten sam system
wartości. Rozszerzenie procedury na grupę decydentów jest tutaj związane z uzyskaniem złoŜonej
mapy decyzyjnej, uwzględniającej preferencje wszystkich współuczestników procesu podejmowania decyzji. Mapa taka moŜe być skonstruowana w wyniku nakładania poszczególnych map kryteriów na poziomie ich definicji (wejściowym) i uzyskaniu złoŜonej mapy pośredniej [45]. MoŜna ją
równieŜ uzyskać przez kumulowanie na poziomie wyjściowym - kaŜda grupa generuje indywidualną mapę decyzyjna. Następnie otrzymane indywidualne mapy decyzyjne są kumulowane do stworzenia złoŜonej mapy decyzyjnej.
Mapy kryteriów (c1, c2, c3)
Mapa pośrednia (I)
Metody MCDA
Mapa decyzji M’ (przed grupowaniem)
Rys. 2. Procedura konstrukcji mapy decyzji w oparciu o metody MCDA, szczegóły w [40].
Proces generowania alternatyw decyzji obejmuje dwa podstawowe kroki. Pierwszy dotyczy
konstrukcji alternatyw decyzji (alternatywy bazujące na punkcie, linii, kształcie lub złoŜone), drugi
natomiast oceny opartej na wielu kryteriach. Ocena ta wymaga zdefiniowania i uŜycia metod wie-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
131
lokryterialnej analizy decyzyjnej. Kryteria oceny uŜyte w tym kroku mogą się róŜnić od tych uŜywanych przy budowaniu mapy decyzyjnej. Takie podejście ma dwie główne zalety [38]:
− po pierwsze daje moŜliwość zajęcia się w pierwszej fazie (przy budowie mapy decyzyjnej)
tylko kryteriami technicznej oceny ukierunkowanymi na wymiary przestrzenne i pozostawienie kryteriów ekonomicznych, socjalnych (i innych) do opracowania w drugiej fazie,
− po drugie daje moŜliwość zastosowania kryterium wykluczającego podczas oceny wielokryterialnej, ułatwiając w ten sposób analizę wraŜliwości i wyznaczenie końcowej rekomendacji.
Ostateczna rekomendacja w analizie wielokryterialnej przyjmuje róŜne formy, w zaleŜności
od sposobu postawienia problemu. Generalnie definiujemy trzy główne typy rekomendacji, a
mianowicie: wybór (wybranie określonego zbioru alternatyw), ranking (klasyfikacja alternatyw od
najlepszej do najgorszej), sortowanie (przypisywanie alternatyw do róŜnych wcześniej
zdefiniowanych kategorii).
5. Wnioski
W artykule zaprezentowane zostały rozwaŜania teoretyczne związane z potrzebami, moŜliwościami i kierunkami łączenia metod MCDA z systemami GIS. Analiza metod wielokryterialnych
pozwoliła dokonać klasyfikacji tych metod oraz wskazać konkretne obszary ich zastosowań,
uwzględniające problematyki wielokryterialnego podejmowania decyzji. Zostały zaprezentowane
dwa kierunki integracji MCDA-GIS. Pierwszy dotyczy konstrukcji mapy decyzyjnej, drugi natomiast końcowej oceny alternatyw decyzji.
Niniejsza analiza wskazuje potrzeby rozwoju tego kierunku prac badawczych (MCDA-GIS),
ale jednocześnie uświadamia o duŜej złoŜoności tej problematyki.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Foresman T.W., GIS Early Years and the Threads of Evolution, The History of
Geographic Information Systems: Perspectives from the Pioneers, Foresman T.W., Ed.
Upper Saddle River, NJ: Prentice Hall, 1998, pp. 3-17.
Longley P.A., Goodchild M.F., Maguire D.J., Rhing D.W., GIS. Teoria i praktyka, PWN,
Warszawa, 2008.
O'Looney J.A., Beyond Maps: GIS Decision Making in Local Government, ESRI Press,
2000.
O'Sullivan D., Unwin D.J., Geographic Information Analysis, NJ Wiley, 2002.
Haining R., Spatial Data Analysis: Theory and Practice, Cambridge University Press,
2003.
Maguire D., Batty M., Frank M., GIS, Spatial Analysis and Modeling, ESRI Press, 2005.
Shi W.J., Lia Z., Bedard Y., Theme issue: advanced techniques for analysis of geo-spatial
data, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 59, Issue: 1-2, August,
2004, pp. 1-5.
Litwin L., Myrda G., Systemy Informacji Geograficznej. Zarządzanie danymi
przestrzennymi w GIS, SIP, SIT, LIS, Helion, 2005.
Malczewski J., GIS-based multicriteria decision analysis: a survey of the literature,
International Journal of Geographical Information Science, Vol. 20, No. 7, August 2006,
pp. 703-726.
132
Mateusz Piwowarski
Wielokryterialna analiza decyzyjna w systemach GIS
10. Roy B., Wielokryterialne wspomaganie decyzji, WNT, Warszawa, 1990.
11. Kodikara P.N., Multi-Objective Optimal Operation of Urban Water Supply Systems,
Engineering and Science Victoria University, Australia, 2008.
12. Vincke P., Multicriteria Decision-Aid., J. Wiley, New York, 1992.
13. Pomerol J.C., Barba-Romero S., Multi-criterion decisions in management: Principles and
practice, Kluwer, Massachusetts, 2000.
14. Roy B., Classement et choix en présence de point de vue multiples: Le méthode
ELECTRE, Revue Francaise d'Informatique et de Recherche Opérationnelle (8), 1968,
pp. 57-75.
15. Roy B., Bertier P., La methode ELECTRE II, Une application au mediaplanning,
Operations Research '72, M. Ross, ed., North-Holland, 1973, pp. 291-302.
16. Roy B., ELECTRE III: Un algorithme de rangement fonde sur une representation floue
des preferences en presence de criteres multiples, Cahiers du Centre d'etudes de recherche
operationnelle, 20, 1978, pp. 3-24.
17. Roy B., Hugonnard J.C., Ranking of suburban line extension projects on the Paris metro
system by multicriteria methods, Transportation Research, 16A(4), 1982, pp. 301-312.
18. Roy B., ELECTRE IS, Aspects methodologiques et guide d'utilisation, Universite de
Paris-Dauphine, Paris, 1985.
19. Mousseau V., Figueira J., Naux J.P., Using assignment examples to infer weights for
ELECTRE TRI method : Some experimental results, Cahier du Lamsade, University of
Paris-Duphine, 30(150) ,1997.
20. Brans J.P., Mareschal B., PROMETHEE methods, in Figueira J., Greco S., Ehrgott M.
(Eds), Multiple Criteria Decision Analysis: State of the Art Surveys, Springer, New York,
NY, Ch. 5, 2005, pp.163-98.
21. Roubens M., Preference relation in actions and criteria in multicriteria decision making,
European Journal of Operational Research, 10, 1982, pp. 51-55.
22. Vansnick, J.C., On the problem of weights in multiple critera decision making, the noncompensatory approach, European Journal of Operational Research, 24, 1986, pp.288294.
23. Hinloopen E., Nijkamp P., Rietveld P., The REGIME method: a new multicriteria
technique, Essays and surveys on multiple criteria decision making, P. Hansen, ed.,
Springer, 1983, pp.146-155.
24. Chen S.J., Hwang C.L., Fuzzy Multiple Attribute Decision Making: Methods and
Applications, Springer-Verlag, Berlin, 1992.
25. Saaty T.L., The analytic hierarchy process, McGraw-Hill, New York, 1985.
26. Keeney R.L., Raiffa H., Decisions with multiple objectives-preferences and value
tradeoffs, Cambridge University Press, Cambridge & New York, 1993.
27. Von Winterfeldt D., Edwards W., Decision analysis and behavioral research, Cambridge
University Press, Cambridge, 1986.
28. Jacquet-Lagréze E., Siskos J., Assessing a set of additive utility functions for multicriteria
decision making; the UTA method, European Journal of Operational Research, 10(2),
1982, pp.151-164.
29. Maystre L., Pictet J., Simos J., Les Methodes Muliticriteres ELECTRE, Presses
Polytechniques et Universitaires Romandes, Lausanne, 1994.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
133
30. Hwang C.L., Yoon K., Multiple Attribute Decision Making: Methods and Applications,
Springer-Verlag, New York, 1981.
31. Jahanshahloo G.R., Lotfi F.H., Izadikhah M., An algorithmic method to extend TOPSIS
for decision-making problems with interval data, Applied Mathematics and Computation
175 (2), 2006, pp. 1375-1384.
32. Jahanshahloo G.R., Lotfi F.H., Izadikhah M., Extension of the TOPSIS method for
decision-making problems with fuzzy data. Applied Mathematics and Computation
Volume. 181 (2), 2006, pp. 1544-1551.
33. Trzaskalik T., Metody wielokryterialne na polskim rynku finansowym, PWE, Warszawa,
2006.
34. Siskos Y., Grigoroudis E., Matsatsinis N.F., UTA Methods, in Figueira J., Greco S.,
Ehrgott M., Multiple Criteria Decision Analysis: State of the Art Surveys, Springer
Verlag, Boston, Dordrecht, London, 2005, pp. 297-344.
35. Figueira J., Greco S., Ehrgott M., Multiple Criteria Decision Analysis: State of the Art
Surveys, Springer, London, 2005.
36. Triantaphyllou E., Multi-Criteria Decision Making Methods: A comparative Study,
Kluwer Academic Publishers, 2000.
37. Malczewski J., GIS and Multicriteria Decision Analysis, Wiley, New York, 1999.
38. Chakhar S., Multicriteria decisional cartography: Formalization and implementation. PhD
thesis, University of Paris Dauphine, Paris, France, 2006.
39. Chakhar S., Mousseau V., Spatial multicriteria decision making. In Shehkar and H.
Xiong, editors, Encyclopedia of Geographic Information Science, Springer-Verlag, New
York, 2007.
40. Chakhar S., Mousseau V., GIS-based multicriteria spatial modeling generic framework,
International Journal of Geographical Information Science, Vol. 22 , Issue 1112, 2008, pp. 1159-1196.
41. Araujo C., Mecedo A., Multicriteria geologic data analysis for mineral favourability
mapping: Application to a metal sulphide mineralized area, Ribeira Valley Metalogenic
Province, Brazil. Natural Ressources Research, 11, pp.29-43, 2002.
42. Ho W., Integrated analytic hierarchy process and its applications. A literature review. Eur.
J. Operat. Res., 186, 2008, pp. 211-228.
43. Marinoni O., A discussion on the computational limitations of outranking methods for
land-use suitability assessment. International Journal of Geographical Information
Science, 20(1), pp.69-87, 2006.
44. Joerin F., Theriault M., Musy A., Using GIS and outranking multicriteria analysis for
land-use suitability assessment. International Journal of Geographical Information
Science, 15, pp.153-174, 2001.
45. Procaccini C., Chakhar S., Pusceddu C., Extending decision map concept to support
participtive spatial multicriteria decision making. In The XXI Association of European
Schools of Planning Conference, Naples, Italy, 2007.
134
Mateusz Piwowarski
Wielokryterialna analiza decyzyjna w systemach GIS
MULTI-CRITERIA DECISION ANALYSIS IN GIS SYSTEMS
Summary
Enlargement of the functionality of systems GIS in the context of the aid of making the decision is possible by the adaptation multicriteria methods. These methods
can serve to the building of the decision map and final evaluation of the decision alternatives.
Keywords: MCDA, Multi-criteria decision analysis, GIS, geoinformation
Mateusz Piwowarski
Wydział Informatyki
Politechnika Szczecińska
71-210 Szczecin, ul. śołnierska 49
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
135
MATEUSZ PIWOWARSKI,
PAWEŁ ZIEMBA
Politechnika Szczecińska
METODA PROMETHEE II W WIELOKRYTERIALNEJ OCENIE PRODUKTÓW
Streszczenie
Artykuł porusza problematykę związaną ze wspomaganiem oceny produktów
w internetowych systemach porównawczych. Obecnie stosowane algorytmy porównywania obejmują przede wszystkim cenę towaru, nie uwzględniają natomiast innych
preferencji uŜytkownika. W związku z powyŜszym proponuje się poszerzenie liczby
kryteriów tej oceny i zastosowanie odpowiedniej metody wielokryterialnego wspomagania decyzji.
Słowa kluczowe: internetowe serwisy porównawcze, porównywarki, wielokryterialna analiza decyzyjna, MCDA, Promethee.
1. Wprowadzenie
Zainteresowanie Internetem i zakupami za jego pośrednictwem w Polsce stale rośnie, o czym
moŜe świadczyć znaczne zwiększenie obrotów sklepów internetowych. Wraz z rozwojem rynku
handlu elektronicznego i mnoŜeniem się ofert kierowanych do konsumentów za pośrednictwem
tego medium, zwiększa się równieŜ dezorientacja tychŜe konsumentów w zakresie wyboru najbardziej odpowiedniego dla nich produktu. Rozwiązaniem tej problematyki mają być serwisy zajmujące się wspomaganiem klientów w kwestii wyboru. Oferują one uŜytkownikowi moŜliwość porównania cech towarów na jednej stronie WWW, eliminując przy tym trudności związane z ich
wyszukaniem. JednakŜe tworzą one tylko zestawienia parametrów produktów, a uŜytkownik musi
posiadać wiedzę na temat kaŜdego z tych parametrów oraz jego ogólnego wpływu na wydajność
i funkcjonalność produktu. Istniejące serwisy porównywania potrafią podpowiedzieć uŜytkownikowi optymalny wybór tylko na podstawowej wielkości charakteryzującej produkt, tj. na jego cenie. Brak jest wśród tego typu serwisów chociaŜby jednego opierającego swój algorytm wspomagania wyboru produktu na ocenie wielokryterialnej.
Celem niniejszego artykułu jest zaprezentowanie propozycji wspomagania decyzji w wyborze
produktów dla serwisów porównawczych. Proponowane rozwiązanie obejmuje zwiększenie liczby
kryteriów porównywania produktów oraz zaadoptowanie metod wielokryterialnej analizy decyzyjnej do uzyskiwania najlepszych wariantów decyzyjnych z punktu widzenia uŜytkownika serwisu.
2. UŜyteczność internetowych serwisów porównawczych
Polski rynek internetowych serwisów porównywania cen produktów osiągnął pewien punkt
nasycenia. Nowe witryny tego typu mają, co raz większe problemy z zajęciem dogodnej pozycji
wśród pozostałych porównywarek. Sam fakt istnienia około 25 polskich serwisów tego typu daje
wyobraŜenie jak cięŜko nowemu systemowi porównawczemu byłoby zainteresować potencjalnego
uŜytkownika. Ponadto istnieje wiele serwisów zagranicznych, z których korzystają takŜe polscy
136
Mateusz Piwowarski, Paweł Ziemba
Metoda Promethee II w wielokryterialnej ocenie produktów
konsumenci. Wobec tego jedyną szansą zwiększenia przez dany serwis swojego udziału w tym
rynku jest wprowadzanie nowych funkcjonalności niespotykanych u konkurencji. Dobrym przykładem takiej walki o pozycję wśród konkurencji jest serwis „Nokaut”, który głównie dzięki nowatorskiemu podejściu do tematu porównywania i wyszukiwania produktów wypracował sobie miejsce
w czołówce porównywarek. Za jego przykładem podąŜyli inni liderzy, którzy zostali w zasadzie
zmuszeni do zwiększania funkcjonalności swoich systemów porównawczych. To dzięki konkurencji pomiędzy liderującymi serwisami pojawiły się interesujące moŜliwości serwisów porównawczych takie jak geolokalizacja, prognozowanie cen, mobilna wersja serwisów, wirtualny asystent
w serwisach porównawczych, itp.
JednakŜe poza przyrostowym zwiększaniem ilości takich elementów naleŜy się takŜe spodziewać wprowadzania nowych funkcjonalności do serwisów. Funkcjonalnością, która została wprowadzona juŜ długi czas temu (przez serwis „9sekund.pl”), a jednak do tej pory brak jej w czołowych serwisach porównawczych, jest integracja z systemami aukcyjnymi. Obecnie uŜytkownik
poszukujący określonego produktu jest zmuszony do przeglądania kolejno serwisu porównawczego oraz witryny aukcyjnej. Zintegrowanie aukcji internetowych w porównywarce zdecydowanie
wpłynęłoby na liczbę odsłonięć serwisu porównawczego. Brak takiej funkcjonalności wydaje się
dziwny szczególnie w przypadku „Ceneo.pl”, który naleŜy do tego samego właściciela, któremu
podlega największy polski serwis aukcyjny „Allegro.pl”. Patrząc jednak na omawiane zagadnienie
ze strony serwisu porównawczego, wprowadzenie takiej funkcjonalności wiązałoby się takŜe
z pewnymi problemami. Główną kwestią jest w tej sytuacji sposób pobierania opłat od sklepów,
które prowadzą aukcje w serwisie „Allegro”. Przy wprowadzeniu integracji z systemem aukcyjnym
w zasadzie niemoŜliwe stałoby się pobieranie opłat związanych z przejściem uŜytkownika ze strony porównywarki na stronę sklepu. Utrzymanie modelu biznesowego opartego na tej opłacie wymuszałoby zmianę zasad funkcjonowania serwisów aukcyjnych. Ponadto niewiele sklepów wybierałoby nadal promocję swojej marki poprzez serwisy porównawcze. Zdecydowanie tańsze dla handlowców byłoby funkcjonowanie w systemie aukcyjnym, co równieŜ wiązałoby się z obecnością,
za jego pośrednictwem, w porównywarce.
Inną nowoczesną właściwością serwisów mogą stać się wirtualni asystenci. Obecnie takiego
asystenta, odpowiedzialnego za ułatwienie wyboru kryteriów wyszukiwania, posiada serwis „Nokaut.pl”. Wirtualnych asystentów moŜna wykorzystać zasadniczo w kaŜdym elemencie funkcjonowania serwisu porównawczego. Mógłby on prowadzić uŜytkownika przez cały proces poszukiwań
i wyboru odpowiedniego towaru.
Kolejnym elementem, którego obecnie brak w serwisach porównawczych jest dowolny prosty
system eliminacji błędnych-fałszywych ofert. Często zdarza się, Ŝe uŜytkownik podczas poszukiwania najtańszego sklepu oferującego dany produkt natrafia na ofertę znacznie zaniŜoną cenowo.
Najczęściej po przejściu na stronę sklepu zawierającą taką ofertę okazuje się, Ŝe na stronie tej zawarty jest zupełnie inny produkt, np. instrukcja obsługi do danego sprzętu zamiast tegoŜ. Błędy
takie moŜna wyeliminować stosunkowo łatwo poprzez zastosowanie chociaŜby systemu rozmytego. Chodzi tutaj o określanie średniej ceny danego towaru a następnie stopień odchylenia danej
oferty cenowej od średniej. W ten sposób system taki mógłby lingwistycznie oceniać wiarygodność
danej oferty. Dzięki temu otrzymano by jednocześnie nowe, ogólne kryterium porównawcze dla
ofert towarów.
Do błędów w funkcjonowaniu serwisów porównawczych zaliczyć moŜna takŜe sytuację, kiedy
uŜytkownik przechodzi do strony sklepu, a na niej dowiaduje się, Ŝe towaru obecnie brak lub jest
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
137
on oferowany za wyŜszą cenę. Odpowiedzialnością za tego typu sytuacje naleŜy obarczać sposób
aktualizacji bazy danych serwisów. Porównywarki powinny same decydować o terminie aktualizacji ofert, czyli powinny same rozstrzygać o datach generowania kolejnych plików XML, zawierających oferty sklepów. Pozwoliłoby to uniknąć sytuacji, kiedy oferta zawarta w serwisie porównawczym datuje się aktualnością sprzed kilku dni wstecz.
Ostatnią propozycją dotyczącą moŜliwości rozwoju serwisów porównawczych jest wprowadzenie w nich wielokryterialnego wspomagania podejmowania decyzji. Chodzi tutaj o moŜliwość
wyboru przez uŜytkownika, np.: kryteriów technicznych i funkcjonalnych produktów, kryteriów
wiarygodności sprzedawcy, czy elementów związanych z kosztami tak produktu jak i jego dostawy. Efektem tego jest wygenerowanie przez system propozycji kolejnych towarów, najlepiej spełniających potrzeby uŜytkownika. Funkcjonalność taka stanowiłaby pewnego rodzaju system ekspertowy, sugerujący uŜytkownikowi optymalny wybór towaru, który spełniałby jego potrzeby cenowe, uŜytkowe i jakościowe.
3. Dobór metody wielokryterialnej do oceny produktów w Internecie
Wybór wielokryterialnej metody wspomagania decyzji dla serwisu porównywania produktów
jest zagadnieniem trudnym. Obok optymalności metody, tak, aby dawała ona wyniki najbardziej
zbliŜone do rzeczywistości naleŜy uwzględnić tutaj równieŜ aspekt ludzki. Typowy uŜytkownik
serwisu porównawczego nie jest ekspertem w dziedzinie, w której poszukuje najlepszego produktu
spełniającego jego wymagania. Wobec tego wybrana metoda nie moŜe wymagać od uŜytkownika
ogromu wiedzy z danej dziedziny. Ponadto powinna ona być przyjazna w uŜyciu.
Rozpatrywane będą dwie kategorie metod: metody, które wykorzystują model funkcjonalny
(MAUT, AHP, SMART, UTA) oraz metody oparte na relacji przewyŜszania (grupa metod ELECTRE, Promethee, Bipolar).
Na wstępie moŜna rozwaŜyć przydatność metod wymagających podania od uŜytkownika
wzorców, według których wybierany będzie najlepszy wariant. Do metod takich naleŜą metody
UTA [1], Electre Tri [2] i Bipolar [3]. UTA wyłuskuje preferencje uŜytkownika ze zbioru referencyjnego, tworzonego przez decydenta. Electre Tri wymaga podania przez uŜytkownika profili wariantów opisujących granice klas, do których następnie sortuje warianty decyzyjne. Bipolar oczekuje podania przez osobę podejmującą decyzję wzorców wariantów dobrych i złych. Wszystkie te
metody naleŜy odrzucić ze względu na to, Ŝe wymagają od uŜytkownika wiedzy eksperckiej. Nie
naleŜy oczekiwać, Ŝe osoba szukająca produktu w serwisie porównawczym posiada taką wiedzę,
która pozwoli jej zdefiniować parametry produktu dobrego i złego. Wobec tego, metody te uznaje
się za niewarte dalszego rozwaŜania.
Kolejną metodą, którą moŜna odrzucić jest MAUT [4]. Nieprzydatność tej metody wypływa z
faktu, Ŝe jest to ogólna teoria wielokryterialnej analizy decyzyjnej. Kłopotliwe jest w niej wykonanie dekompozycji zbioru kryteriów i skonstruowanie funkcji uŜyteczności ze względu na poszczególne kryteria. Wobec tego zastosowanie tej ogólnej metodyki mogłoby przysporzyć duŜą ilość
problemów implementacyjnych.
Nieprzydatne są takŜe metody Electre II, Electre IV i Electre I [2]. Electre II wymaga od uŜytkownika podania znacznej ilości progów. Progi te, w przeciwieństwie do progów równowaŜności
i preferencji nie są wyczuwalne intuicyjnie. Co więcej cięŜko zdefiniować i wyjaśnić ich znaczenie. Tak, więc hipotezę o zastosowaniu metody Electre II w problemie wspomagania decyzji uŜyt-
138
Mateusz Piwowarski, Paweł Ziemba
Metoda Promethee II w wielokryterialnej ocenie produktów
kownika serwisu porównawczego naleŜy odrzucić. RównieŜ, Electre IV, w której uŜytkownik nie
posiada Ŝadnej moŜliwości zdefiniowania wag kryteriów ma wątpliwą przydatność w ocenie produktów. W tego typu zastosowaniu największe znaczenie mają właśnie wagi poszczególnych kryteriów. Metodyka proponowana w Electre IV, polegająca na zliczaniu ilości wzajemnie przewaŜających się kryteriów dla danej pary wariantów nie spełnia, więc podstawowej funkcjonalności. Natomiast w metodzie Electre I najmniejsze nawet róŜnice wartości pod względem danego kryterium
powodują, Ŝe jeden z wariantów jest uznawany za całkowicie lepszy pod względem tego kryterium.
Wobec tego brak jest w tej metodzie uwzględnienia faktu, Ŝe róŜnica w cenie produktów rzędu
kilku złotych jest w zasadzie bez znaczenia.
Porównując moŜliwość zastosowania w serwisach porównawczych metod Electre Is i Electre
III naleŜy zauwaŜyć, Ŝe jest między nimi pewna róŜnica metodyczna. W metodzie Electre Is granica pomiędzy porównywalnością a nieporównywalnością wariantów jest wielkością dyskretną. Przy
osiągnięciu przez wariant uznany ogólnie za gorszy przewagi – pod względem jednego z kryteriów
rzędu progu weta - nad wariantem lepszym, alternatywy te stają się nieporównywalne. Wcześniej
jednak, w miarę zbliŜania się do tego progu nic nie sygnalizuje takiej moŜliwości. W Electre III
natomiast ogólna przewaga wariantu lepszego nad wariantem gorszym zmniejsza się w miarę
zwiększania się przewagi wariantu gorszego nad wariantem lepszym pod względem danego kryterium. Pod względem zastosowania w serwisach porównawczych metoda Electre III wydaje się,
więc bardziej przydatna od metody Electre Is.
Problem wynikający z ewentualnego zastosowania metod Electre Is, Electre III i Promethee I
[5] wynika z moŜliwości wystąpienia przy ich uŜyciu nieporównywalności między produktami. W
załoŜeniu w serwisach porównawczych uŜytkownicy potrzebują pomocy przy wyborze produktów.
Wobec tego sytuacja nieporównywalności pomiędzy towarami z jednej kategorii nie powinna być
dopuszczalna. NaleŜy, więc odrzucić metodę Promethee I, w której sytuacji nieporównywalności
nie da się zapobiec. Teoretycznie nieporównywalności w metodach Electre Is i Electre III da się
uniknąć poprzez ustawienie odpowiednio wysokich progów weta. NaleŜy jednak pamiętać, Ŝe według metodyki Electre Is i III to uŜytkownik – decydent podaje progi weta, równowaŜności i preferencji. MoŜliwe jest oczywiście zmodyfikowanie metody w ten sposób, aby próg weta był automatycznie ustawiany na wielkość większą od największej róŜnicy pomiędzy wariantami dla danego
kryterium. Wydaje się to jednak zbędną komplikacją problemu, w sytuacji, kiedy istnieje moŜliwość uŜycia metod, w których nie występuje moŜliwość sytuacji nieporównywalności pomiędzy
produktami.
Do rozwaŜenia pozostały metody rankingowe, w których nie jest moŜliwe wystąpienie sytuacji
nieporównywalności. Są to procedury amerykańskiej szkoły podejmowania decyzji: AHP [6] oraz
SMART [7] i metoda wywodząca się ze szkoły europejskiej – Promethee II. Wszystkie pozostałe
do rozpatrzenia metody oferują w pewnym stopniu rozmycie ocen wariantów (rozmycie ocen występowało równieŜ w odrzuconych juŜ metodach Electre Is, Electre III oraz Promethee I). Rozmycie to jest realizowane przez wykorzystanie progów równowaŜności i preferencji w metodzie Promethee II oraz przez zastosowanie funkcji wartości w metodzie SMART. Natomiast w metodyce
AHP, rozmycie jest tylko częściowe, gdyŜ jest moŜliwe tutaj tylko przyporządkowanie wartości
danego kryterium do jednej z dziewięciu kategorii oceny. Analogicznie, tylko na dziewięć kategorii da się podzielić wagi poszczególnych kryteriów.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
139
Ponadto w metodzie AHP dla zwiększenia dokładności obliczeń wymagane jest powtarzanie
pewnych etapów procedury obliczeniowej (wyznaczanie kwadratów macierzy). WaŜnym czynnikiem przemawiającym za odrzuceniem metody AHP jest moŜliwe wystąpienie niespójności ocen.
Nie bez znaczenia pozostaje teŜ sugerowane podawanie przez uŜytkownika względnych wag kryteriów i ocen wariantów. Wobec powyŜszych argumentów właściwe wydaje się odrzucenie moŜliwości zastosowania metody AHP dla wspomagania podejmowania decyzji uŜytkowników internetowych serwisów porównawczych.
Spośród pozostałych dwóch metod, tj. Promethee II i SMART kaŜdy wybór wydaje się właściwy. Obydwie metody spełniają wymagania pod kątem uŜyteczności w internetowym serwisie
porównawczym:
• operują na wielu kryteriach,
• nie wymagają od uŜytkownika podawania wielu skomplikowanych parametrów,
• uwzględniają wagi kryteriów,
• oferują rozmycie przedziałów preferencji,
• nie dopuszczają sytuacji nieporównywalności.
Wydaje się, Ŝe obie metody mają podobną funkcjonalność. Jeśli chodzi o złoŜoność obliczeniową, znacznie szybciej obliczenia powinny być wykonywane w metodzie SMART, gdyŜ w metodyce tej zachodzi znacznie mniej operacji matematycznych w porównaniu do Promethee. Natomiast od strony elastyczności bardziej uŜyteczna jest Promethee, w której decydent posiada moŜliwość wyboru jednej spośród sześciu funkcji preferencji. Z drugiej strony w metodzie SMART
uŜytkownik moŜe dowolnie definiować funkcję wartości. Metoda Promethee wydaje się jednak być
bardziej zaawansowana pod względem metodologii rozwiązywania problemu decyzyjnego. Generuje ona ranking obiektów na podstawie porównań ze sobą parami wszystkich wariantów, natomiast w metodzie SMART oceny wariantów są generalnie od siebie niezaleŜne. Zasadne wydaje
się, więc uŜycie metody Promethee II jako rozwiązania problemu wielokryterialnego wspomagania
podejmowania decyzji w internetowych serwisach porównawczych.
4. Zastosowanie metody Promethee II w doborze produktów
Zbiór kryteriów pod względem, których moŜna porównywać produkty moŜe zawierać m.in.
część z obecnie prezentowanych przez serwisy porównawcze informacji o produktach i sklepach.
Ponadto jako atrybuty porównawcze moŜna wykorzystać specyficzne dla poszczególnych grup
produktów cechy, jak np. częstotliwość pracy w GHz dla procesora, czy teŜ pojemność w GB dla
dysku twardego. Niemniej jednak taki wybór kryteriów mógłby nieść za sobą problemy, gdyŜ np.
nie zawsze procesor o wyŜszej częstotliwości zegara jest szybszy od innego o „niŜszym zegarze”.
Ogólnie rzecz ujmując nie zawsze obiektywnie wyŜsza wartość miernika danej cechy wariantu powoduje, Ŝe wariant ten jest lepszy od innego pod względem tej cechy. NaleŜy teŜ zauwaŜyć, Ŝe
specyfikowanie odrębnych kryteriów dla róŜnych grup towarów byłoby kłopotliwe i znacznie
zwiększałoby stopień komplikacji systemu porównawczego. Co więcej, podanie oczekiwanych
wartości progów i wag dla szczegółowych kryteriów wymagałoby od uŜytkowników pewnego zasobu wiedzy w danej dziedzinie. Tymczasem system porównawczy ma za zadanie w pewnym stopniu odciąŜyć uŜytkowników od konieczności posiadania takiej wiedzy. Wobec tego zdecydowano
się przyjąć kryteria bardziej ogólne, najczęściej nie mierzalne w jednostkach fizycznych.
140
Mateusz Piwowarski, Paweł Ziemba
Metoda Promethee II w wielokryterialnej ocenie produktów
W zamian za to, kryteria takie są intuicyjnie łatwe do interpretacji i oceny ich wag dla osób
chcących skorzystać z serwisu porównawczego. Wartości takich mierników dla poszczególnych
towarów będą przyjmowane subiektywnie przez osoby za to odpowiedzialne. Pomimo tego, przy
odpowiedniej ilości „ekspertów” i uśrednianiu ich opinii rozwiązanie takie moŜe być skuteczne.
W roli ekspertów mogą występować tutaj uŜytkownicy serwisu porównawczego, podobnie jak ma
to miejsce w istniejących serwisach.
Dla proponowanego systemu porównawczego zdecydowano się wyspecyfikować dwie grupy
kryteriów. Łączne zestawienie kryteriów z dwóch zbiorów pozwoli porównywać produkty
z uwzględnieniem ich dostawców, natomiast osobne ich wykorzystanie umoŜliwi porównanie tylko
sklepów lub produktów. Zbiorami tymi są:
• grupa kryteriów opisujących produkt,
• grupa czynników charakteryzujących dostawców towaru.
Zbiór kryteriów opisujących produkt ma za zadanie opisywać produkt pod względem funkcjonalnym, uŜytkowym i (w duŜym uogólnieniu) technicznym. Natomiast grupa czynników charakteryzujących dostawców towaru składa się z atrybutów charakteryzujących sklep dostarczający produkty. Zbiorcze przedstawienie kryteriów, wraz z ich jednostkami miary i przyjętym kierunkiem
preferencji, przedstawiono w tabeli 1.
Tabela 1. Kryteria oceny wariantów dla proponowanego systemu porównawczego
Grupa kryteriów
Nazwa kryterium
Produkt
Jakość wykonania
Wydajność
Wygląd
Ergonomia
Cena
Jakość obsługi klienta
Jakość serwisu
Czas dostawy
Koszt wysyłki
Kryteria dodatkowe
Sprzedawca
UŜytkownika
Jednostka
miary
[%]
[%]
[%]
[%]
[zł]
[%]
[%]
[dni]
[zł]
[%]
Kierunek
preferencji
Max
Max
Max
Max
Min
Max
Max
Min
Min
Max
Źródło: opracowanie własne
Wybrana dla systemu porównawczego metoda Promethee II udostępnia sześć modeli wyznaczania wskaźników zgodności. Najlepszym modelem wyznaczania wskaźników zgodności dla problemu wyboru produktu w serwisie porównawczym wydaje się model „kryterium z liniową preferencją i obszarem obojętności”. Model ten jest stosunkowo przejrzysty i łatwy do zrozumienia
przez uŜytkownika. W przeciwieństwie do modeli „zwykłego kryterium”, „quasi kryterium” i „kryterium poziomu”, model „kryterium z liniową preferencją i obszarem obojętności” zapewnia liniowy wzrost miar ocen pomiędzy progami równowaŜności i preferencji. Ponadto w przeciwieństwie
do „kryterium z liniową funkcją preferencji”, występuje tutaj moŜliwość ustawienia progu równowaŜności. Ma to znaczenie np. przy róŜnicy pomiędzy cenami towarów rzędu 1zł, gdyŜ róŜnica
taka często nie ma znaczenia dla kupującego. W odniesieniu do „kryterium Gaussa”, omawiany
model jest łatwiejszy do interpretacji i wydaje się, Ŝe funkcja liniowa powinna dla danego problemu decyzyjnego sprawować się lepiej od funkcji Gaussowskiej.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
141
UŜytkownik serwisu w pierwszym etapie pracy z systemem porównawczym powinien określić
swoje preferencje. Przede wszystkim musi on wybrać warianty decyzyjne do porównania. Odbywałoby się to w sposób analogiczny do tego, który obecnie występuje w serwisach porównawczych.
Mianowicie z listy produktów w danej kategorii poprzez zaznaczenie towaru, byłby on wybierany
do porównania.
Następnie dokonywany jest wybór kryteriów uŜywanych do jednego konkretnego porównania.
UŜytkownik ma tutaj moŜliwość uwzględnienia kryteriów dotyczących zarówno handlowców jak
i towarów. MoŜe teŜ wprowadzić dodatkowo własne kryteria porównawcze. W kolejnym kroku ma
miejsce etap przypisywania przez uŜytkownika wag poszczególnym kryteriom. Wagi mogą mieć
dowolną wartość, gdyŜ w trakcie przebiegu procedury porównawczej Promethee II wagi zostaną
przeskalowane w taki sposób, aby łącznie ich suma wynosiła 1. Na ostatnim etapie określania preferencji uŜytkownika podaje on progi równowaŜności i preferencji dla poszczególnych kryteriów.
Progi te zostają ustalone w formie dialogu z uŜytkownikiem. W celu ustalenia progu równowaŜności udziela on odpowiedzi na pytanie, „w jakim zakresie róŜnic pomiędzy miernikami dla danego
kryterium, róŜnice te nie mają dla uŜytkownika znaczenia”. Próg preferencji ustalany jest poprzez
odpowiedź na pytanie sformułowane analogicznie, przy czym „róŜnice pomiędzy miernikami dla
danego kryterium zaczynają mieć bardzo duŜe znaczenie”.
Po określeniu przez uŜytkownika jego preferencji, z bazy danych pobierane są wartości mierników poszczególnych kryteriów dla wariantów wybranych wcześniej do porównania. Następnie
uruchamiana jest procedura Promethee II i wyznaczany jest ranking wariantów decyzyjnych.
W celu oceny uŜyteczności rozwiązania przeprowadzono badania efektów działania przedstawionego modelu wielokryterialnego serwisu porównawczego. Badania zostały przeprowadzone na
losowych grupach wariantów decyzyjnych i zostały przeprowadzone dla produktów naleŜących do
kategorii Notebook – bez uwzględnienia kryteriów dotyczących sklepów.
Dla porównania produktów naleŜących do kategorii Notebook oceny kryteriów zostały zapoŜyczone ze strony specjalistycznego serwisu zajmującego się sprzętem komputerowym. Następnie
wartości mierników kryteriów nieznacznie zmodyfikowano, gdyŜ występowały one pierwotnie w
pięciostopniowej skali. Ceny produktów zostały pobrane z serwisu „Skapiec.pl”. Oczywiście w
gotowym serwisie porównawczym, ceny jak i wartości mierników kryteriów dla produktów zostałyby zaczerpnięte z bazy danych systemu porównawczego. Jeśli chodzi o same kryteria, zostały
wykorzystane wszystkie predefiniowane kryteria opisujące produkt oraz zostało wprowadzone jedno dodatkowe kryterium uŜytkownika. Kryterium tym jest mobilność, charakteryzująca jak bardzo
dany notebook jest uŜyteczny do transportu. Wpływ na ten atrybut mają zazwyczaj rozmiary i waga sprzętu. Rozpatrywane w przypadku tego porównania warianty decyzyjne, kryteria oraz wartości mierników atrybutów przedstawia tabela 2.
142
Mateusz Piwowarski, Paweł Ziemba
Metoda Promethee II w wielokryterialnej ocenie produktów
Tabela 2. Warianty i wartości kryteriów dla porównania produktów w kategorii Notebook
Wariant
decyzyjny
Wartości mierników kryteriów porównawczych
Jakość
[%]
83
97
78
79
ThinkPad R61
Asus G70
Samsung R60+
LG E300
Wydajność
[%]
67
99
62
81
Mobilność
[%]
80
37
61
90
Ergonomia
[%]
79
79
78
80
Wygląd
[%]
64
98
62
85
Cena
[zł]
3179
10000
2435
2820
Źródło: opracowanie własne
Wagi przypisane poszczególnym kryteriom oraz wartości progów równowaŜności i preferencji
przyjęte do badania charakteryzuje tabela 3.
Tabela 3. Wagi i progi dla kryteriów oceny produktów typu Notebook
Kryterium
Waga
Próg równowaŜności
Próg preferencji
Jakość
15
10
30
Wydajność
30
10
25
Mobilność
10
20
40
Ergonomia
10
15
40
Wygląd
5
10
40
Cena
30
50
300
Źródło: opracowanie własne
Przy przyjęciu powyŜszych preferencji uŜytkownika otrzymano ranking wariantów zaprezentowany w tabeli 4. Podane są w niej takŜe przepływy dominacji netto, oraz przepływy dominacji
wejścia i wyjścia dla kaŜdego z wariantów. Z rankingu wynika, Ŝe dla przyjętych kryteriów, wag i
progów najlepszym wyborem jest Notebook LG E300 a kolejnym dobrym wyborem jest Samsung
R60+. Gorszym wyborem byłyby dwa kolejne notebooki, tj. Asus G70 oraz ThinkPad R61.
Tabela 4. Ranking badanych wariantów produktów typu Notebook
Wariant decyzyjny
Przepływ dominacji
netto (Ф)
Przepływ dominacji
wejścia (Ф+)
Przepływ dominacji
wyjścia (Ф-)
LG E300
0.1733
0.3483
0.1750
Samsung R60+
0.0875
0.3067
0.2192
Asus G70
-0.0381
0.3353
0.3733
ThinkPad R61
-0.2228
0.1333
0.3561
Źródło: opracowanie własne
Odnosząc się do przedstawionej metody wielokryterialnego wspomagania podejmowania decyzji moŜna powiedzieć, Ŝe mogłaby ona znaleźć zastosowanie w serwisach porównawczych.
Przede wszystkim ogranicza ona konieczny zasób wiedzy, jaką powinien posiadać uŜytkownik
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
143
w celu dokonania dobrego wyboru produktu. Poprzez wprowadzenie ogólnych a nie specjalistycznych kryteriów udało się zdjąć z uŜytkownika konieczność Ŝmudnego zdobywania informacji na
temat kategorii, w której chce wybrać produkt. Wystarczy, aby ustalił on swoje preferencje – czynniki decyzyjne, które są dla niego najwaŜniejsze. UŜytkownik powinien potrafić, posługując się
intuicją, ustalić wagi dla poszczególnych atrybutów towarów i progi równowaŜności i preferencji.
W sytuacji, kiedy uŜytkownik potrafi to dokonać przedstawiona metoda jest duŜo skuteczniejsza
i szybsza od czasochłonnego zbierania informacji na temat towarów i rozwaŜania, który z nich
mógłby okazać się lepszy. Ponadto zalecane podczas realizacji systemu porównawczego byłoby
zawarcie domyślnych wartości kryteriów i progów preferencji oraz stworzenie profili uŜytkownika,
np. opcja budŜetowa i wydajnościowa. Pozwoliłoby to jeszcze ograniczyć wymagania stawiane
uŜytkownikowi systemu odnośnie posiadanej przez niego wiedzy. Niemniej jednak mogłoby to
prowadzić do częściowego rozmijania się wyników analizy z oczekiwaniami uŜytkownika.
Rozpatrując przedstawioną wielokryterialną metodę porównawczą na tle metody stosowanej
obecnie w porównywarkach cięŜko byłoby wskazać jakiekolwiek elementy pod względem, których
przedstawiona metoda byłaby gorsza od obecnie stosowanej. W istniejących serwisach porównawczych porównania towarów wykonywane są tylko jednokryterialnie pod względem ceny. Obecne
serwisy dają uŜytkownikowi równieŜ moŜliwość samodzielnego porównania wariantów poprzez
przedstawienie mu podstawowych parametrów produktów. Wymaga to jednak od uŜytkownika
wiedzy, której ten często nie posiada. Scharakteryzowany w niniejszym artykule model serwisu
porównawczego rozwiązuje ten problem, oferując osobom korzystającym z serwisów porównawczych niezbędną pomoc przy analizie i wyborze najlepszego produktu.
5. Wnioski
Przedstawiona w artykule koncepcja adaptacji algorytmu Promethee II dla internetowych serwisów porównawczych wydaje się być doskonałą moŜliwością zwiększenia ich funkcjonalności.
Zaproponowany system porównawczy znacznie poprawia funkcjonalność porównywarek oferując
moŜliwość wsparcia uŜytkownika w skomplikowanym problemie wyboru towaru. Ponadto w modelu systemu udało się ograniczyć jego poziom komplikacji przy zachowaniu stosunkowo wysokiej
jego uŜyteczności. Dano uŜytkownikowi opcje umoŜliwiające szeroką personalizację działania
algorytmu porównawczego, przy czym nawet osoba niezaznajomiona z metodyką porównań wielokryterialnych powinna intuicyjnie poradzić sobie z obsługą systemu. Zastanawiające jest, Ŝe dotychczas w serwisach, w załoŜeniu przeznaczonych do porównań produktów, nie pojawiła się taka
funkcja porównań wielokryterialnych.
144
Mateusz Piwowarski, Paweł Ziemba
Metoda Promethee II w wielokryterialnej ocenie produktów
6. Literatura
1.
2.
3.
4.
5.
6.
7.
Beuthe M., Scannella G.: Comparative analysis of UTA multicriteria methods, European
Journal of Operational Research Volume: 130, Issue: 2, April 16, 2001, s. 246-262.
Roy B.: The outranking approach and the foundations of Electre methods, Theory and
decision 31, 1991.
Guitouni A., Martel J.M.: Tentative guideline to help choosing an appropriate MCDA
method, European Journal of Operational Research 109, 1998.
Dyer J.S., Fishburn P.C., Steuer R.E., Wallenius J., Zionts S.: Multiple Criteria Decision
Making, Multiattribute Utility Theory: The Next Ten Years, Management Science, Vol.
38, No. 5, 1992, s. 645-654.
Brans, J.P., Vincke, P.: A preference-ranking organization method: The PROMETHEE
method, Management Science 31, 1985, s. 647–656.
Saaty T.L.: The analytic hierarchy process, Pittsburgh: RWS Publications, 1996.
Edwards W., Barron F.H.: SMARTS and SMARTER: Improved simple methods for
multiattribute utility measurement, Organizational Behavior and Human Decision
Processes 60, 1994, s. 306–325.
THE PROMETHE II METHOD IN MULTICRITERIA EVALUATION PRODUCTS
Summary
The article describes problems connected with the support of the rating products
in price comparison sites. One proposes therefore extension the numbers of the criteria of this opinion and the use of suitable multicriteria method.
Keywords: price comparison sites, Multi-Criteria Decision Analysis, MCDA, Promethee.
Mateusz Piwowarski
Wydział Informatyki
Politechnika Szczecińska
71-210 Szczecin, śołnierska 49
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
145
OREST POPOV,
ANNA BARCZ,
PIOTR PIELA
Zachodniopomorski Uniwersytet Technologiczny
ZAGADNIENIA ADAPTACJI W OPRACOWYWANIU MODELI W BAZIE WIEDZY
DYNAMICZNEGO SYSTEMU NAUCZANIA
Streszczenie
Czas trwania procesu identyfikacji zazwyczaj ustalany jest z góry na podstawie
wiedzy i doświadczenia modelującego. Zakłada się, Ŝe im dłuŜszy czas trwania procesu identyfikacyjnego tym dokładniejszy (w sensie odwzorowania zachowania) model. Dlatego przyjmuje się dłuŜszy czas identyfikacji niŜ jest to konieczne. W artykule
pokazano, Ŝe zastosowanie rozkładu SVD w procesie identyfikacji modeli dynamicznych obiektów rzeczywistych pozwala na skrócenie czasu trwania tego procesu. Modele uzyskane w skróconym czasie odwzorowują zachowanie obiektu rzeczywistego
nie gorzej niŜ modele otrzymane w wyniku identyfikacji w duŜo dłuŜszym czasie.
W artykule opisano organizację procesu identyfikacji obiektów o skokowych
zmianach parametrów. Zaproponowano sposób wykrywania skokowych zmian parametrów obiektu. Liczba wykrytych zmian parametrów determinuje liczbę modeli
stacjonarnych opisujących obiekt. W procesie identyfikacji takich obiektów równieŜ
zastosowano rozkład SVD w równaniu identyfikacji w celu skrócenia czasu tego procesu.
Słowa kluczowe: model matematyczny, baza wiedzy, system nauczania, identyfikacja, rozkład
względem wartości szczególnych
1. Dynamiczne komputerowe systemy nauczania
Wśród systemów nauczania moŜna wyróŜnić klasę systemów zawierających w swojej strukturze system symulacyjny. Takie systemy nauczania przeznaczone są do przekazywania wiedzy deklaratywnej o obiekcie, niezbędnej w procesie kształcenia operatora danego obiektu, jak równieŜ
wiedzy proceduralnej dotyczącej działalności praktycznej pozwalającej na kształtowanie odpowiednich nawyków i umiejętności. Autorzy w [9] określili takie systemy mianem dynamicznych
inteligentnych systemów nauczania (DISN) i wskazali zasadnicze właściwości odróŜniające DISN
od innych komputerowych systemów nauczania. Dynamiczne inteligentne systemy nauczania zawierają:
• model dynamiki sterowanego obiektu,
• model informacyjny, który umoŜliwia współdziałanie ucznia z modelem obiektu dynamicznego,
• model nauczania, obejmujący reguły, metody, strukturę niezbędnych ćwiczeń skierowanych na nabycie określonych nawyków oraz pozostałe atrybuty nauczania.
146
Orest Popov, Anna Barcz, Piotr Piela
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania
Bez względu na dziedzinę przedmiotową w strukturze inteligentnego systemu nauczania wyróŜniamy: bazy danych i wiedzy, mechanizm wnioskowania, interfejs uŜytkownika oraz pewne
dodatkowe elementy. W przypadku dynamicznego inteligentnego systemu nauczania strukturę naleŜy uzupełnić o system symulacyjny, który stanowi bazę wiedzy o obiekcie rzeczywistym.
Podstawą systemu symulacyjnego jest matematyczny model dynamiki obiektu nauczania.
W przypadku rzeczywistych obiektów dynamicznych ich zachowanie opisuje się przy pomocy
układów nieliniowych równań róŜniczkowych bądź róŜnicowych. Opis ten jest moŜliwy w sytuacji,
gdy dysponujemy duŜą wiedzą o obiekcie rzeczywistym: znamy jego budowę, powiązania pomiędzy jego elementami, parametry techniczne oraz parametry środowiska pracy. Oznacza to, Ŝe
struktura i parametry modelu są znane. W sytuacji, gdy nie dysponujemy tak duŜą wiedzą o obiekcie rzeczywistym konieczne jest wybranie struktury modelu, a następnie określenie parametrów w
ramach tej struktury z wykorzystaniem zadań identyfikacji. W obu przypadkach ze względu na
zastosowanie tworzonego modelu w dynamicznym inteligentnym systemie nauczania konieczne
jest zapewnienie wysokiej jakości odwzorowania dynamiki obiektu rzeczywistego.
Błędne odwzorowanie dynamiki moŜe spowodować wyrobienie u ucznia nieprawidłowych nawyków, co jest sytuacją niepoŜądaną w procesie nauczania. Z tego punktu widzenia, problem opracowania ścisłych (w sensie odwzorowania zachowania) modeli matematycznych obiektów nauczania jest waŜnym zagadnieniem w procesie tworzenia dynamicznych inteligentnych systemów nauczania.
2. Zadanie identyfikacji
Ogólnie zadanie identyfikacji rzeczywistych obiektów dynamicznych polega na określeniu
struktury i parametrów modeli matematycznych tych obiektów. W zaleŜności od informacji, jaką
dysponujemy o badanym obiekcie, moŜemy mówić o róŜnych zadaniach identyfikacji [3]. Nie da
się zapewnić dobrego jakościowo odwzorowania zachowania obiektów rzeczywistych, a co za tym
idzie przeprowadzania wiarygodnych symulacji komputerowych i komputerowego sterowania, jeśli
model matematyczny nie jest znany z dostateczną dokładnością. Identyfikacja modeli obiektów
dynamicznych moŜe być przeprowadzona na dwa sposoby. Pierwszy z nich polega na zgromadzeniu odpowiedniej ilości danych, a następnie przeprowadzeniu procedury identyfikacji (identyfikacja off-line). Taka organizacja procesu identyfikacji jest mało efektywna ze względu na szybkość
działania algorytmu i powoduje, Ŝe model dostępny jest dopiero po zakończeniu całego procesu
identyfikacji. Natomiast w wielu przypadkach konieczne jest posiadanie modelu obiektu dostępnego bezpośrednio w czasie kiedy ten system działa (identyfikacja on-line). Taką moŜliwość zapewniają rekurencyjne metody identyfikacji, według których ocena parametrów modelu w danym momencie pomiarów kształtuje się jako ocena parametrów w poprzednim momencie pomiarów plus
pewna poprawka. Jedną z metod tego typu jest rekurencyjna metoda najmniejszych kwadratów.
Przykładowo przyjmijmy, Ŝe identyfikowany obiekt dynamiczny moŜna opisać liniowym modelem matematycznym ze stałymi parametrami w postaci:
X& = AX + BU ,
X ∈ Rn, U ∈ Rm
(1)
gdzie: X – wektor zmiennych stanu, U – wektor sygnałów sterujących, A i B – niewiadome
macierze o stałych współczynnikach odpowiedniej wymiarowości. ZałóŜmy takŜe, Ŝe X (t ) i U (t )
147
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
dają się zmierzyć i moŜliwe jest obliczenie X& (t ) w kaŜdym momencie czasu. Wtedy równanie
identyfikacji parametrów macierzy A i B zapisane zgodnie z metodą najmniejszych kwadratów
moŜna przedstawić w znanej formie [4]:
C s Ps = Rs
(2)
(
gdzie: C s = Aˆ s
Bˆ s
∑ (X& Z ) ,
s
Rs =
X j
, Z j =   , s – liczba punktów pomiarowych. Podkreślmy,
U j 
j =1
wyznaczanych macierzy wynosi odpowiednio: dim C = n × (n + m ) ,
s
j
j =1
Ŝe
- macierz średniokwadratowych ocen elementów macierzy A i B,
Ps =
T
j
)
wymiarowość
∑Z Z
j
T
j
dim Ps = (n + m ) × (n + m ) , dim Rs = n × (n + m ) .
Jeśli warunek rankPs = (n + m ) jest spełniony to rozwiązanie równania identyfikacji (2) jest jednoznaczne i ma postać: C s = Rs Ps−1
To samo rozwiązanie w formie rekurencyjnej moŜna przedstawić w postaci [3, 4]:
(
)(
C s = Rs Ps−1 = Rs−1 + X& s Z sT ⋅ Ps−−11 − K s Ps−−11Z s Z sT Ps−−11
gdzie: K s =
1
1+
Z sT Ps−−11Z s
)
(3)
.
Poprawne działanie tego algorytmu wymaga podania wartości początkowych parametrów
R0 i P0−1 . Najczęściej przyjmuje się R0 jako macierz zerową o wymiarowości
dim R0 = n × (n + m)
natomiast
dim P0−1 = (n + m) × (n + m )
(100 ÷ 10 )[1].
P0−1
przyjmując
jako
wartości
macierz
diagonalną
elementów
na
o
diagonali
wymiarowości
z
przedziału
6
3. Rozkład względem wartości szczególnych (SVD) w zadaniach identyfikacji
Wiadomo, Ŝe dowolna rzeczywista macierz prostokątna W o wymiarach (n × p ) , moŜe być
przedstawiona za pomocą rozkładu względem wartości szczególnych według zaleŜności [2]:
W = Q ⋅ M ⋅ RT
(4)
gdzie Q i R – macierze ortogonalne, macierz Q ma rozmiar (n × n ) , natomiast macierz R rozmiar ( p × p ) . Jeśli n < p to prostokątna macierz M posiada następującą formę:
148
Orest Popov, Anna Barcz, Piotr Piela
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania
 µ1 0 0

M = 0 L 0
0 0 µ
n

0
0

0 L 0
0
0 
(5)
Rozmiar macierzy M wynosi (n × p ) . Niezerowe elementy tej macierzy {µ1 , µ 2 ,K, µ n } stanowią
wartości szczególne macierzy W. Są one uszeregowane w kolejności malejącej, czyli:
µ1 ≥ µ 2 ≥ L ≥ µ n > 0 .
(6)
Wprowadźmy wielkość będącą odwrotnością wskaźnika uwarunkowania macierzy M [5, 7]:
∆
ξ=
µ
1
= n
Cond 2(M ) µ1
(7)
Wartość ξ moŜe zmieniać się w granicach 0 ≤ ξ ≤ 1 . Dla ξ = 0 macierz M jest osobliwa, natomiast dla ξ = 1 macierz M jest idealnie uwarunkowana. W związku z powyŜszym współczynnik
ξ stanowi miarę bliskości od granicy przekształcenia nieosobliwej macierzy M do macierzy osobliwej. Wielkość ξ jest wygodną miarą gęstości informacyjnej procesu identyfikacji [8]. Za jej
pomocą moŜna dokonywać wyboru najlepszej struktury modelu z dostępnego zbioru modeli w
przypadku identyfikacji obiektów o nieznanej nieliniowości [6].
Rozkład SVD moŜna równieŜ wykorzystać dla rzeczywistej macierzy Ps−1 w równaniu identyfikacji (3):
Ps−1 = Gs ⋅ Τs ⋅ H sT
(8)
gdzie: Gs i H s – macierze ortogonalne odpowiedniej wymiarowości, macierz Ts zbudowana jest
analogicznie jak macierz M.
Analogicznie jak w (7) moŜna wyznaczyć wielkość będącą odwrotnością wskaźnika uwarunkowania macierzy Ts
∆
ξ=
τ
1
= n .
Cond 2(Ts ) τ 1
(9)
W trakcie trwania algorytmu identyfikacyjnego po kaŜdym przeprowadzonym pomiarze wyznaczana jest macierz Ps−1 oraz w oparciu o równania (8) i (9) wyznaczany jest współczynnik ξ .
Na rysunku 1 przedstawiono przykładowy przebieg współczynnika ξ oraz szybkość jego zmian.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
149
Rysunek 1. Przykładowy przebieg współczynnika ξ oraz szybkość jego zmian .
Przeprowadzone badania wskazują, Ŝe najbardziej efektywną częścią procesu identyfikacji jest
ten odcinek czasu na którym wskaźnik gęstości informacyjnej procesu ξ ulega zmianom. Dlatego
moment osiągnięcia stanu ustalonego szybkości zmian współczynnika ξ moŜna określić jako moment zakończenia procesu identyfikacji (dla przedstawionego przykładu moment ten wynosi 10s).
Kontynuowanie procesu identyfikacji nie będzie powodowało znaczących zmian wartości parametrów modelu.
4. Zagadnienie adaptacji
Parametry obiektu rzeczywistego nie zawsze są stałe lecz mogą zmieniać się w czasie. W przypadku gdy występują skokowe zmiany parametrów moŜliwe jest przedstawienie ogólnego modelu
matematycznego dynamicznego obiektu rzeczywistego w postaci zbioru modeli stacjonarnych.
Wszystkie modele z wyznaczonego zbioru mają jednakowy wymiar i róŜne parametry. W szczególnej sytuacji model matematyczny obiektu rzeczywistego moŜe być przedstawiony jako zbiór
modeli liniowych:
X& j = A j X j + B jU j ,
X j ∈ Rn , U j ∈ Rm
∀j (1, p) .
Takie przedstawienie nie przeszkadza w zastosowaniu rekurencyjnego algorytmu identyfikacji opisanego w rozdziale 2. Kluczowym zadaniem w organizacji procesu identyfikacji jest wykrywanie momentów skokowych zmian parametrów badanego obiektu. W tym celu bada się przebieg
pochodnych zmiennych stanu w poszukiwaniu gwałtownych zmian ich wartości. Liczba wykrytych
skokowych zmian parametrów determinuje liczbę modeli stacjonarnych opisujących obiekt. Parametry kaŜdego z modeli określane są w następujących po sobie odrębnych zadaniach identyfikacji.
W kaŜdym zadaniu identyfikacji od nowa ustala się początkowe wartości macierzy R0 i P0−1 .
150
Orest Popov, Anna Barcz, Piotr Piela
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania
5. Przykład
5.1. Badany obiekt
Obiektem badań będzie układ dwóch zbiorników z cieczą o odpływie swobodnym pokazany na
rysunku 2. Wszelkie opory i parametry charakteryzujące ciecz zostały pominięte (na podstawie
[10]).
2
h1
1.8
h2
1.6
zmienne stanu
1.4
Qwe
1.2
1
0.8
0.6
S1
S2
h1
ϕ1
0.4
h2
Q1
ϕ2
0.2
Q2
0
0
Swy1
Swy2
10
20
30
40
50
czas t
60
70
80
90
100
Rysunek 2. Badany obiekt - układ dwóch zbiorników z cieczą oraz przebieg zmiennych stanu obiektu.
Po uwzględnieniu przyjętych załoŜeń, obiekt moŜna opisać za pomocą układu równań róŜniczkowych w postaci:
 dh
S wy1 ⋅ ϕ1 ⋅ 2 g (h1 − h2 )
Q
 1 = we −
 dt
S1
S1

 dh2 S wy1 ⋅ ϕ1 ⋅ 2 g (h1 − h2 ) S wy 2 ⋅ ϕ 2 ⋅ 2 gh2
−
 dt =
S2
S2

(10)
gdzie:
h1 – poziom cieczy w zbiorniku 1, h2 – poziom cieczy w zbiorniku 2, S1 – powierzchnia
zbiornika 1, S 2 – powierzchnia zbiornika 2, S wy1 – przekrój poprzeczny odpływu ze zbiornika 1,
S wy 2 – przekrój poprzeczny odpływu ze zbiornika 2, ϕ1 i ϕ 2 – połoŜenie zaworu, Qwe – dopływ
cieczy, g – przyspieszenie ziemskie.
Na rysunku 2 pokazano przebieg zmiennych stanu h1 i h2 dla określonych warunków początkowych h1 (0) = 2 , h2 (0) = 1 , S1 = 1 , S 2 = 1 , S wy1 = S wy 2 = 0.3 , ϕ1 = ϕ 2 = 0.5 , Qwe = 0.5 .
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
151
5.2. Identyfikacja modelu
W pracy [6] przedstawiono algorytm wyboru najlepszej struktury modelu z dostępnego zbioru
modeli. W oparciu o ten algorytm dla dalszych eksperymentów identyfikacyjnych przyjęto następującą strukturę modelu:
 h1 
 
&
 h1   c11 c12 c13 c14   h2 
 =

⋅
H& = C ⋅ Z
(11)
  2 ,
 h&   c
 2   21 c22 c23 c24   h2 
 h3 
 2
gdzie: Z – wektor zmiennych stanu, C – macierz nieznanych parametrów.
Zadanie identyfikacji parametrów modelu przedstawione w rozdziale 2 moŜna w prosty sposób
dostosować dla modelu (11).
Dane pomiarowe potrzebne do identyfikacji otrzymano w wyniku symulacji modelu nieliniowego (10) dla ustalonych danych początkowych. Eksperyment identyfikacyjny trwał 100s. Pomiary
wykonywano co 0.01s. Wynikiem identyfikacji rekurencyjną metodą najmniejszych kwadratów są
wartości elementów macierzy C:
 - 0.4219 1.4634 - 1.4939 0.7050 

C = 
 0.3315 - 0.5838 - 0.2194 0.1405 
(12)
Na rysunku 3 przedstawiono przebiegi zmiennych stanu obiektu oraz modelu uzyskanego w wyniku identyfikacji. Z analizy wykresów wynika, Ŝe wybrany model (11) z parametrami (12) dobrze
odwzorowuje zachowanie badanego obiektu.
2
h1
zmienne stanu
1.8
h2
1.6
h1i
1.4
h2i
1.2
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
czas t
60
70
80
90
100
Rysunek 3. Przebieg zmiennych stanu obiektu oraz modelu uzyskanego w wyniku identyfikacji.
152
Orest Popov, Anna Barcz, Piotr Piela
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania
5.3. Zastosowanie rozkładu SVD w równaniu identyfikacji
Kolejny eksperyment identyfikacyjny został przeprowadzony dla obiektu (10) z takimi samymi
warunkami początkowymi jak w punkcie 5.2 i strukturą modelu opisaną równaniem (11).
Po kaŜdym pomiarze rozwiązywane jest równanie (3) oraz obliczana jest macierz Ps−1 . Dokonywany jest rozkład SVD tej macierzy i na podstawie (9) wyznaczany jest współczynnik ξ . Na
rysunku 4 pokazano przebieg tego współczynnika. W oparciu o punkt 3, analizując wykres szybkości zmian współczynnika ξ (rysunek 5), moŜna określić czas zatrzymania algorytmu identyfikacyjnego, który w tym przypadku wyniósł 22.41s.
-6
1.8
x 10
ξ
1.6
1.4
1.2
ξ
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
t [s]
60
70
80
90
100
Rysunek 4. Zmiana współczynnika ξ w trakcie trwania procesu identyfikacji.
Rysunek 5. Szybkość zmian współczynnika ξ w trakcie trwania procesu identyfikacji.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
153
Algorytm identyfikacji w tym przypadku trwał od 0 do 22.41s. Jego wynikiem są wartości elementów macierzy C modelu (11) w postaci:
 - 0.3986 1.3601 - 1.3493 0.6183

C = 
 0.3356 - 0.6021 - 0.1938 0.1251
(13)
Rysunek 6 przedstawia przebiegi zmiennych stanu obiektu oraz modelu (11) uzyskanego w wyniku procesu identyfikacji z parametrami (13). Z analizy wykresów wynika, Ŝe model (11) z parametrami (13) równieŜ dobrze odwzorowuje zachowanie badanego obiektu. Oznacza to, Ŝe moŜna
skrócić czas algorytmu identyfikacji bez pogorszenia jego efektów. W dwóch opisanych eksperymentach skrócono czas z 100s do 22.41s.
2
h1
zmienne stanu
1.8
h2
1.6
h1i
1.4
h2i
1.2
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
czas t
60
70
80
90
100
Rysunek 6. Przebieg zmiennych stanu obiektu oraz modelu uzyskanego w wyniku identyfikacji.
5.4. Zagadnienie adaptacji
Rozkład SVD w równaniu identyfikacji moŜna równieŜ zastosować w procesie identyfikacji
systemów o skokowych zmianach parametrów. W trakcie trwania kolejnego eksperymentu identyfikacyjnego parametry systemu (10) uległy skokowym zmianom. Po czasie 30s przekrój poprzeczny odpływu ze zbiornika 1 z wartości S wy1 = 0.2 uległ zmianie i przyjął wartość S wy1 = 0.3 . Po
czasie 50s połoŜenie zaworu zbiornika 1 uległo zmianie z wartości ϕ1 = 0.5 na wartość ϕ1 = 0.8 .
Organizacja algorytmu identyfikacji polegała na wykryciu skokowych zmian pochodnych
zmiennych stanu, które spowodowane były skokowymi zmianami parametrów obiektu (rysunek 7).
154
Orest Popov, Anna Barcz, Piotr Piela
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania
Rysunek 7. Przebieg pochodnych zmiennych stanu obiektu (10).
W opisywanym przypadku przeprowadzono trzy kolejne procesy identyfikacji za kaŜdym razem od nowa ustalając początkowe wartości macierzy R0 i P0−1 . Pierwszy algorytm identyfikacyjny działał w przedziale
0, 30s ) , drugi w przedziale
30s, 50s ) , a ostatni w przedziale
50s, 100s . Wykorzystując rozkład SVD w równaniu identyfikacji, jak opisano w punkcie 3,
skrócono czasy działania poszczególnych algorytmów identyfikacyjnych. Pierwszy algorytm działał w przedziale 0, 22.41s ) , drugi w przedziale 30s, 36.12s ) , a ostatni w przedziale
50s, 59.12s .
Przebieg zmiennych stanu obiektu oraz modeli uzyskanych w wyniku zastosowania algorytmu
identyfikacyjnego przedstawia rysunek 8.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
155
2
h1
zmienne stanu
1.8
h2
1.6
h1i
1.4
h2i
1.2
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
czas t
60
70
80
90
100
Rysunek 8. Przebieg zmiennych stanu obiektu ze skokowymi zmianami parametrów oraz modeli uzyskanych w wyniku identyfikacji.
6. Podsumowanie
Czas trwania procesu identyfikacji zazwyczaj ustalany jest z góry na podstawie wiedzy i doświadczenia modelującego. Zakłada się, Ŝe im dłuŜszy czas trwania procesu identyfikacyjnego tym
dokładniejszy (w sensie odwzorowania zachowania) model. Dlatego przyjmuje się dłuŜszy czas
identyfikacji niŜ jest to konieczne. Opisane w artykule eksperymenty pokazują, Ŝe zastosowanie
rozkładu SVD w procesie identyfikacji modeli dynamicznych obiektów rzeczywistych pozwala na
skrócenie czasu trwania tego procesu. Modele uzyskane w skróconym czasie odwzorowują zachowanie obiektu rzeczywistego nie gorzej niŜ modele otrzymane w wyniku identyfikacji w duŜo
dłuŜszym czasie. Dalsza identyfikacja parametrów otrzymanych modeli nie powoduje znaczącej
zmiany jakości tych modeli i dlatego nie jest konieczna.
W artykule opisano organizację procesu identyfikacji obiektów o skokowych zmianach parametrów. W procesie identyfikacji takich obiektów równieŜ zastosowano rozkład SVD w równaniu
identyfikacji.
156
Orest Popov, Anna Barcz, Piotr Piela
Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania
7. Literatura
1.
Bielińska E., Finger J., Kasprzyk J., Jegierski T., Ogonowski Z., Pawełczyk M.,
Identyfikacja procesów, Wydawnictwo Politechniki Śląskiej, Gliwice, 2002.
2. Kiełbasinski A., Schwetlick H., Numeryczna algebra liniowa. Wprowadzenie do obliczeń
numerycznych. Wydanie drugie. Wydawnictwa Naukowo Techniczne, Warszawa, 1992 .
3. Ljung L., System Identification Theory for the User. Prentice Hall PTR, Upper Saddle
River, New York, 1999.
4. Popov O. Elementy teorii systemów – systemy dynamiczne, Wydawnictwo Uczelniane
Politechniki Szczecińskiej, Szczecin 2005.
5. Popov O., Investigation of structural qualities and informative density of dynamic
processes. The method of quantitative estimations. International Conference on Control
Problems, IPU, Moscow, 1999.
6. Popov O., Barcz A., Piela P., Dobór struktury modeli matematycznych Procesów w bazie
wiedzy dynamicznych inteligentnych systemów nauczania, Studia i Materiały Polskiego
Stowarzyszenia zarządzania wiedzą, tom 16, Polskie Stowarzyszenie Zarządzania
Wiedzą, Bydgoszcz, 2008.
7. Popov O., Tretyakov A., Structural properties and informative density of dynamic
processes: The method of quantitative estimation at the control, management and
identification problems. Proceedings of the 5th International Conference Advanced
Computer Systems, part II, p. 216 – 224, Szczecin, 1998.
8. Popov O., Tretyakov A., Quantitative measures of systems structural qualities in control,
management and identification problems. Proceedings of Workshop on European
Scientific and Industrial Collaboration WESIC’99, Newport, 1999.
9. Popov O., Tretyakova T., Barcz A., Piela P., Komputerowe systemy nauczania dla
operatorów obiektów dynamicznych. Badania Operacyjne i Systemowe 2006.
Akademicka Oficyna Wydawnicza EXIT, Warszawa, 2006.
10. Szacka K., Teoria układów dynamicznych. Oficyna Wydawnicza Politechniki
Warszawskiej, Warszawa, 1999.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
157
ADAPTATION PROBLEMS IN WORKING OUT THE MODELS IN THE KNOWLEDGE
BASE OF THE DYNAMIC LEARNING SYSTEM
Summary
Time of identification process is usually fix a priori on the base of knowledge
and experience of the modeler. It is supposed that the longer time of identification
process the better (in sense of reproduction the behavior) the model. For this reason
it is assumed the longer time of identification than it is necessary. In the article it is
shown that using of singular value decomposition in identification process of the
models of the dynamic real objects allows to cut down the time of this process. The
model that have been obtained in the shortened time reproduces the behavior of real
object not worse than the model that have been obtained during the identification in
much longer time.
In the article the organization of the identification process of object with the
sudden changes of parameters is described. The manner of detection the sudden
changes is proposed. The number of detected changes of parameters determines the
number of stationary models of the object. In the identification process of such objects the singular value decomposition in the identification equation have been also
used in order to cut down the time of this process.
Keywords: mathematical model, knowledge base, learning system, identification, singular value
decomposition
Orest Popov
Anna Barcz
Piotr Piela
Wydział Informatyki
Zachodniopomorski Uniwersytet Technologiczny,
71 – 210 Szczecin, ul. śołnierska 49
[email protected]
[email protected]
[email protected]
158
Izabela Rojek
Podejścia stosowane we wspomaganiu sterowania siecią wodociągową
IZABELA ROJEK
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
PODEJŚCIA STOSOWANE WE WSPOMAGANIU
STEROWANIA SIECIĄ WODOCIĄGOWĄ
Streszczenie
W referacie przedstawiono podejścia stosowane we wspomaganiu sterowania
siecią wodociągową. Omówiono klasyczne podejście do sterowania siecią wodociągową oraz autorskie podejście z uŜyciem metod sztucznej inteligencji. UŜycie metod
sztucznej inteligencji jest szczególnie waŜne w sytuacji kryzysowej i wystąpieniu
awarii w złoŜonych systemach technicznych, do których naleŜy sterowanie siecią wodociągową.
Słowa kluczowe: wspomaganie, sterowanie, sieć wodociągowa
1. Wstęp
Przedsiębiorstwo wodociągowe w zakresie sieci wodociągowej powinno zajmować się dystrybucją wody dobrej jakości w ilości gwarantującej zaspokojenie potrzeb odbiorców, poprawną
eksploatacją sieci wodociągowej zapewniającą właściwe ciśnienie w węzłach odbiorczych, sprawnym usuwaniem awarii oraz planowaniem i wykonywaniem prac związanych z konserwacją, modernizacją i rozbudową sieci [1]. Sterowanie siecią wodociągową jest trudnym i kompleksowym
procesem.
Istnieją róŜne podejścia do wspomagania sterowania siecią wodociągową. Jednym z podejść
modelowania w czasie rzeczywistym systemu wodociągowego jest podejście prezentowane w pracy [2]. Modelowanie numeryczne zostało zastosowane do sterowania siecią wodociągową, w tym
analizą jakości wody, dystrybucją wody oraz redukcją przeciekania wody. Odpowiednie modele,
zawierając wysoko rozwinięte technologie takie jak geograficzny system informacyjny i systemy
telemetrii stały się niezbędnym narzędziem dla operatora sieci wodociągowej. Matematyczny model systemu dostarczania wody został skalibrowany i zweryfikowany dla rzeczywistej sieci wodociągowej. W innej pracy równieŜ zaprezentowano model matematyczny sterowania dla systemu
wodociągowego [3]. Matematyczny model dotyczy określania norm poboru wody wg planu konsumpcji zasobów wody. Model jest opisany przez nieliniowe programowanie dla dystrybucji wody
w sieci, symulując źródło zasobów wody z nieograniczoną pojemnością, umieszczone w wybranym
węźle. Kolejna praca równieŜ zawiera badania dotyczące systemów wodociągowych, w których
zostały wykorzystane matematyczne modele dotyczące wybranych problemów sterowania siecią
wodociągową [4].
W pracy [5] przedstawiono inteligentny system monitorowania sieci wodociągowych sygnalizujący pojawienie się awarii sieci i wspomagający ich lokalizację. Podstawowym załoŜeniem omawianego systemu było przyjęcie metody wykrywania awarii stosowanej dotychczas w diagnostyce
technicznej maszyn i procesów przemysłowych. Bazując na niewielkiej liczbie czujników przepływu zainstalowanych na sieci wodociągowej i wytrenowanej sieci neuronowej, pojawiające się awa-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
159
rie sieci są wykrywane i lokalizowane. Do znalezienia najlepszych lokalizacji czujników został
uŜyty algorytm genetyczny.
W Instytucie Badań Systemowych w zespole pod kierunkiem dr hab. inŜ. Jana Studzińskiego
prowadzone są prace dotyczące opracowania zintegrowanego systemu komputerowego do zarządzania miejską gospodarką wodno-ściekową powstającego w ramach projektu badawczego finansowego przez Ministerstwo Nauki i Szkolnictwa WyŜszego1. Równolegle prowadzono prace dotyczące sieci wodociągowej, sieci kanalizacyjnej oraz oczyszczalni ścieków.
Podejście prezentowane przez autorkę artykułu wiąŜe się z zastosowaniem metod sztucznej
inteligencji do wspomagania sterowania siecią wodociągową. Podejście to w istotny sposób moŜe
wzbogacić klasyczne podejścia wspomagania sterowania siecią wodociągową. To podejście równieŜ jest rozwijane w ramach tego samego projektu badawczego. UŜycie metod sztucznej inteligencji jest szczególnie waŜne w sytuacji kryzysowej i wystąpieniu awarii w złoŜonych systemach
technicznych, do których naleŜy sterowanie siecią wodociągową.
2. Klasyczne podejście do sterowania siecią wodociągową
Idea informatycznego systemu wspomagania do zarządzania, sterowania operacyjnego i planowania miejskiego systemu wodno-ściekowego powstała w wyniku obserwacji, Ŝe poszczególne
obiekty zarządzane przez typowe przedsiębiorstwo wodociągowe nie funkcjonują niezaleŜnie, a są
elementami jednego układu wzajemnie na siebie wpływającymi. Funkcję centralną pełni w tym
układzie sieć wodociągowa a jej zmieniające się w czasie obciąŜenie wpływa na działanie zestawów pompowych w stacji ujęcia wody, na obciąŜenie hydrauliczne sieci kanalizacyjnej i w rezultacie na jakość pracy oczyszczalni ścieków. Poprawne przewidywanie obciąŜenia i sterowanie operacyjne siecią wodociągową pozwoli energooszczędnie sterować pompami na ujęciu wody oraz
efektywnie sterować procesem technologicznym w oczyszczalni, przygotowując ją odpowiednio
wcześnie do przyjęcia określonej ilości ścieków i ładunku zanieczyszczeń [1]. Dotychczasowy stan
informatyzacji krajowych wodociągów jest zły. Na ogół sprowadza się do instalacji niepełnych
systemów monitoringu na sieciach wodociągowych i w oczyszczalniach ścieków oraz na opracowywaniu map numerycznych dla sieci wodociągowych. Bardzo rzadko stosuje się modele matematyczne do obliczeń hydraulicznych sieci wodociągowych. Sterowanie pompowniami na ujęciach
wody i w sieciach wodociągowych oraz sterowanie napełnianiem zbiorników wyrównawczych
w wodociągach i sterowanie napowietrzaniem ścieków w oczyszczalniach realizują zwykle układy
regulacji automatycznej, zapewniające utrzymanie zadanych nastaw regulatorów. Ponadto programy juŜ uŜywane są zwykle eksploatowane niezaleŜnie nie tworząc zintegrowanych systemów
wspomagania decyzji [1].
Koncepcja komputerowego systemu wspomagania decyzji operatora sieci wodociągowej została przedstawiona na rys. 1. NajwaŜniejszymi elementami tego systemu jest branŜowa baza danych, mapa numeryczna sieci wodociągowej, system monitoringu oraz model hydrauliczny z algorytmami optymalizacji [6].
BranŜowa baza danych jest źródłem technicznych, technologicznych i eksploatacyjnych danych o sieci. Zdefiniowane zostały obiekty sieci wodociągowej.
Mapa numeryczna pozwala na wizualizację sieci poprzez generowanie grafu sieci wodociągowej. Pierwszy graf geodezyjny powstaje na podstawie przyrostowej aktualizacji danych pobiera1 Praca wykonana w ramach projektu badawczego MNiSzW nr R11 001 01
160
Izabela Rojek
Podejścia stosowane we wspomaganiu sterowania siecią wodociągową
nych z geodezji miejskiej. Graf topologiczny poprawia topologię grafu geodezyjnego poprzez eliminację nieciągłości i przeciągnięć. Graf hydrauliczny umoŜliwia generowanie węzłów hydraulicznych sieci.
System monitoringu sieci pokazuje rzeczywiste i bieŜące informacje o pracy i stanie sieci.
Pomiary z monitoringu dalej słuŜą do kalibracji i weryfikacji modelu hydraulicznego sieci. NaleŜało dokonać wyboru punktów pomiarowych, wyboru rodzaju urządzeń pomiarowych (przepływomierze, ciśnieniomierze), instalacji urządzeń pomiarowych, wyboru rodzaju transmisji danych (telemetria, telefonia komórkowa, radio), ustalenia zasad transmisji danych oraz wyboru programu
archiwizacji i wizualizacji danych.
Poziom funkcji
Wizualizacja
grafu sieci
Obliczenia
hydrauliczne
Kalibracja
modelu
Optymalizacja
sieci
Sterowanie
siecią
Poziom modułów
Mapa
numeryczna
Model
hydrauliczny
System
monitoringu
Algorytm
optymalizacji
Algorytm
sterowania
Poziom danych
BranŜowa
Baza
Danych
Rys. 1. Koncepcja komputerowego systemu wspomagania decyzji
operatora sieci wodociągowej [6]
Model hydrauliczny pozwala na obliczanie przepływów wody w przewodach i ciśnień w węzłach sieci. Model ten został opisany liniowymi i nieliniowymi równaniami algebraicznymi (równania liniowe z I prawa Kirchhoffa (K), równania nieliniowe z II prawa Kirchhoffa (S), równania
liniowe z równania Bernoulliego (K – 1)). Problemem obliczeniowym jest wybór kombinacji pierścieni do formułowania równań nieliniowych z II prawa Kirchhoffa oraz wybór algorytmu rozwiązywania tego równań nieliniowego. Zastosowano algorytm Crossa obliczania równań nieliniowych.
Został opracowany program obliczeń hydraulicznych. Program ten posiada rozbudowany edytor
graficzny, rozbiory węzłowe w postaci miesięcznych rozbiorów średnich, rozbiory węzłowe w postaci rozkładów godzinowych oraz wbudowany algorytm optymalizacji [7].
Zadaniem systemu komputerowego jest optymalizacja i sterowanie siecią wodociągową. WyróŜniono dwa zadania optymalizacji: projektowanie i sterowanie siecią oraz dwa zadania projektowania: rekonstrukcję i rozbudowę sieci.
Projektowanie sieci polegało na doborze parametrów technicznych sieci spełniającym określone wymagania techniczne, technologiczne i ekonomiczne. Zastosowano dwie metody projektowania: symulację oraz optymalizację jednokryterialną i wielokryterialną. Symulacja i optymaliza-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
161
cja została wykorzystana do doboru zmienianych parametrów sieci, w obliczeniach symulacyjnych
za pomocą modelu hydraulicznego, w ocenie wyników, do powtarzania obliczeń dla innych wariantów zmian parametrów oraz wyboru najlepszego rozwiązania.
Podsumowując komputeryzacja sieci wodociągowej polegała na opracowaniu i wdroŜeniu
systemu informatycznego zarządzania obiektem z uwzględnieniem funkcji technicznych i administracyjnych realizowanych w ramach zarządzania [8]. Funkcje techniczne to: monitoring przepływów i ciśnień w wybranych punktach sieci, obliczenia hydrauliczne wykonane dla wszystkich rur
i węzłów sieci wodociągowej, wizualizacja sieci w postaci mapy numerycznej, lokalizacja awarii,
optymalizacja i projektowanie oraz generowanie planów rewitalizacji sieci, sterowanie siecią wodociągową, wykonywanie róŜnorodnych analiz przestrzenno-tematycznych. Z kolei funkcje administracyjne to: rejestracja uŜytkowników sieci, rejestracja opracowanych projektów technicznych
i śledzenie ich realizacji, rejestracja odbiorców technicznych stanów awaryjnych, ewidencja i śledzenie realizacji planowych przeglądów eksploatacyjnych. Nie wszystkie moduły są juŜ zakończone i równieŜ nie moŜna uznać, Ŝe struktura tego systemu jest juŜ zamknięta i Ŝadne nowe aplikacje
nie zostaną do niego włączone, poniewaŜ system wykonywany w postaci autonomicznych i jednocześnie współpracujących ze sobą modułów jest otwarty i znajduje się ciągle jeszcze w fazie rozbudowy [8].
3. Zastosowanie metod sztucznej inteligencji do sterowania siecią wodociągową
System wspomagania sterowania siecią wodociągową z udziałem metod sztucznej inteligencji
jest opracowywany etapami. System ten składa się z wielu elementów, a mianowicie: bazy danych,
bazy wiedzy, bazy modeli i metod, systemów wspomagania w postaci systemów ekspertowych
ukierunkowanych na określone podproblemy oraz systemów pozyskiwania wiedzy wykorzystujących wcześniej opracowane modele klasyfikujące, predykcyjne i preferencji oraz hybrydowy system klasyfikujący, który uwzględnia predykcję i preferencje. Z jednej strony korzysta on z danych
pomiarowych zgromadzonych w bazie danych przesłanych przez system monitoringu sieci. Z drugiej strony wykorzystuje on modele prognostyczne do prognozowania obciąŜenia sieci wodociągowej, które powstały w systemie pozyskiwania wiedzy. System wspomagania na podstawie opracowanych modeli umoŜliwia opracowanie scenariuszy sterowania siecią wodociągową.
Opracowanie odpowiednich modeli i algorytmów pozwoli w automatyczny sposób wspomagać kadrę inŜynieryjną przedsiębiorstwa wodociągowego, która obecnie te zadania wykonuje ręcznie. Opracowane modele i algorytmy to algorytmy optymalizacji i sterowania pompami (które pozwolą na zoptymalizowanie: zuŜycia energii elektrycznej, ciśnienia i przepływu wody), modele
sterowania siecią wodociągową, modele prognozowania obciąŜenia i awaryjności sieci wodociągowej, algorytmy napełniania i opróŜniania zbiorników retencyjnych oraz modele jakości wody
w węzłach sieci wodociągowej [9].
Inteligentny system wspomagania zawiera zarówno wspomaganie decyzji oraz sterowanie
działaniem urządzeń pracujących w sieci wodociągowej. Wśród parametrów, którymi się steruje
moŜna wyróŜnić poziom wody w zbiornikach, stałe ciśnienie i przepływ wody w sieci. Utrzymanie
tych parametrów jest bardzo trudne ze względu na szybkie i duŜe zmiany warunków np. zmianę
obciąŜenia sieci wodociągowej. ObciąŜenie sieci wodociągowej wpływa na pracę pomp oraz na
napełnianie zbiorników retencyjnych. Stąd prognoza obciąŜenia sieci wodociągowej jest istotnym
elementem sterowania siecią. Poprawne przewidywanie obciąŜenia i sterowanie operacyjne siecią
wodociągową pozwoli, zatem energooszczędnie sterować pompami, które odpowiadają za utrzy-
162
Izabela Rojek
Podejścia stosowane we wspomaganiu sterowania siecią wodociągową
manie właściwego poziomu ciśnienia i przepływu wody w sieci wodociągowej oraz właściwego
poziomu wody w zbiornikach. System wspomagania w czasie rzeczywistym sprawdza, czy bieŜące
parametry ciśnienia i przepływu wody mieszczą się w granicy normy. W przypadku parametrów
poniŜej normy, system wskazuje potrzebę uruchomienia pompy w celu wyrównania poziomu ciśnienia wody. W przypadku przekraczania górnej normy ciśnienia, system sygnalizuje potrzebę
wyłączenia pompy. Wykorzystując wbudowane modele moŜna według nich przewidywać potencjalne obciąŜenie i sterować pompami, w zaleŜności od pory roku, miesiąca, dnia, czy nawet części
dnia.
W oparciu o zasady metodologii analizy systemowej model systemu moŜe być ogólnie scharakteryzowany zbiorem (1) [10]:
S=< D, C, Og, Wi, Wo, Amod, Amet, K, Oc, Pref, Proc>
(1)
gdzie:
D- dziedzina przedmiotowa systemu, w której system działa
C- cele (funkcje) systemu związane z rozwiązaniem problemów/zadań
Og- ograniczenia, przy których system działa
Wi- wejście systemu
Wo- wyjście systemu (rozwiązanie w postaci decyzji, działania)
Amod- zbiór alternatywnych modeli
Amet- zbiór alternatywnych metod
K- zbiór kryteriów wyboru decyzji, działania, modelu
Oc- zbiór ocen metod i modeli
Pref- zbiór preferencji uŜytkownika systemu i odbiorcy
Proc- zbiór procesów zachodzących w systemie, w postaci wejścia/wyjścia
y(t)=f(x(t-1),…,x(t-n)), t- czas dyskretny, x()- wektor wejść, y()- wektor wyjść, f- funkcja bazująca
na przykładach.
Na rys. 2 pokazano architekturę systemu wspomagania sterowania siecią wodociągową [11].
Na wejściu systemu znajdują się uŜytkownik systemu, określona rzeczywistość, na którą
powinien zareagować uŜytkownik systemu oraz odbiorca, który ma określone oczekiwania, co do
systemu.
W skład systemu wchodzą moduły zawierające: model sytuacji decyzyjnej, model preferencji uŜytkownika systemu z uwzględnieniem preferencji odbiorcy w postaci reguł decyzyjnych, które zawierają warianty, kryteria, ograniczenia, prognozy i preferencje, system pozyskiwania wiedzy,
który dostarcza wiedzy niezbędnej zarówno do tworzenia preferencji i wspomagania decyzji oraz
system wspomagania decyzji.
Moduły systemu korzystają z baz danych, baz wiedzy, baz metod i baz modeli, zawierających
niezbędne informacje do zarządzania procesami w systemie. Podstawą analizy i podjęcia decyzji
w systemie jest właściwy model opisujący sytuację decyzyjną lub działanie. Model jest budowany,
a następnie aktualizowany na podstawie informacji zewnętrznych, takich jak dane historyczne,
oceny ekspertów. Model będzie inny dla kaŜdej rozpatrywanej sytuacji decyzyjnej. Zarówno informacje zewnętrzne oraz modele są pamiętane w odpowiednich bazach danych, wiedzy, metod
i modeli. Model sytuacji decyzyjnej powiązany jest z modelem preferencji. Model preferencji zawiera opis preferencji uŜytkownika systemu w postaci reguł decyzyjnych. Preferencje są uwzględ-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
163
niane w trakcie analizy sytuacji decyzyjnej zarówno w modelach klasyfikacji jak i na etapie klasyfikacji. Zakłada się, Ŝe preferencje mogą się zmieniać w trakcie analizy decyzyjnej. ZauwaŜono
równieŜ, Ŝe w trakcie analizy decyzyjnej następuje proces uczenia, polegający na tym, Ŝe uŜytkownik uzyskując kolejne informacje o moŜliwych efektach decyzji, często koryguje swoje preferencje.
System pozyskiwania wiedzy na podstawie danych historycznych pozyskuje wiedzę, która
jest niezbędna w systemie wspomagania decyzji do klasyfikacji według określonych kryteriów,
prognozowania, tworzenia preferencji, wspomagania decyzji oraz optymalizacji podjętych decyzji.
System wspomagania decyzji/działania generuje wielkości wyjściowe dla zadanych scenariuszy
zmiennych decyzyjnych zgodnie z preferencjami uŜytkownika oraz wyznacza decyzje optymalne.
Na wyjściu systemu znajduje się rozwiązanie kompromisowe.
Opracowanie modelu systemu wspomagania naleŜało przeprowadzić etapami. Po pierwsze
określono dziedzinę przedmiotową, dla której system ma działać. Kolejno określono ograniczenia,
przy których system działa, wejścia systemu, wyjścia systemu, zbiór alternatywnych metod do
rozwiązywania określonych problemów oraz zbiór alternatywnych modeli (klasyfikacji, predykcji),
zbiór ocen metod i modeli, zbiór preferencji uŜytkownika systemu i odbiorcy oraz zbiór procesów
zachodzących w systemie. Wszystkie dane, metody, modele i wiedza mieszczą się w odpowiednich
bazach.
Szczególnie interesujący okazał się etap budowy modeli klasyfikacji, predykcji i preferencji.
Celem budowy modelu klasyfikacji było kontrolowanie, czy wartości wejściowe są w normie, czy
teŜ nie. W celu uzyskania najlepszych efektów jako modele klasyfikacyjne opracowano i przebadano sieci neuronowe: jednokierunkowe wielowarstwowe ze wsteczną propagacją błędu, liniowe
i RBF, klasyfikatory proste oraz wielokrotne w postaci drzew decyzyjnych. Opracowano klasyfikator złoŜony, w którym dodano preferencje i wyjątki.
Celem budowy modeli predykcji było dokładniejsze przewidywanie wartości wejściowych
oraz szybsze reagowanie na nieprawidłowości w systemie. Modele predykcji zbudowane zostały
przy uŜyciu sieci neuronowej. Porównano róŜne ich typy: jednokierunkowe wielowarstwowe ze
wsteczną propagacją błędu, liniowe i RBF.
Na podstawie modelu klasyfikacji i predykcji utworzono reguły decyzyjne w systemie wspomagania. W regułach tych zawarto metody zarządzania i sterowania elementami systemu.
W celu wzmocnienia inteligentnego wspomagania opracowano modele preferencji, które
wprowadzono do modeli klasyfikacyjnych i predykcyjnych jako przykłady, w celu dokładniejszego
opracowania reguł i procedur zawartych w systemie inteligentnego wspomagania.
4. Podsumowanie
Zastosowanie metod sztucznej inteligencji we wspomaganiu sterowania siecią wodociągową
wprowadziło nową jakość do sterowania siecią wodociągową oraz moŜe stać się podstawą algorytmizacji nowych systemów zwanych „inteligentnymi”.
Wykorzystanie metod sztucznej inteligencji umoŜliwia utworzenie systemu wspomagania,
który w sposób automatyczny pozyskuje wiedzę i ma właściwość adaptacji. Jest to szczególnie
waŜne przy opracowywaniu systemu dla złoŜonych systemów rzeczywistych, w których następują
ciągłe zmiany i jedne podprocesy zaleŜą od innych oraz wiele czynników zaleŜy jeden od drugiego
i kaŜda zmiana powoduje zmiany kolejne.
164
Izabela Rojek
Podejścia stosowane we wspomaganiu sterowania siecią wodociągową
Korzyści ze stosowania metod sztucznej inteligencji wielokrotnie przekraczają pracochłonność ich tworzenia. W rzeczywistości najdłuŜszym etapem procesu ich tworzenia jest zgromadzenie i przygotowanie danych źródłowych, chociaŜ poprzez automatyczne gromadzenie danych równieŜ ten etap ulega skróceniu. Zastosowanie właściwych metod sztucznej inteligencji do tworzenia
modeli oraz samo tworzenie modeli, oczywiście po opracowaniu odpowiednich procedur komputerowych, w najdłuŜszych przypadkach zajmuje kilka do kilkunastu minut.
Inteligentny system wspomagania pozwala na pozyskanie danych, wiedzy i doświadczenia ludzi w sposób komplementarny. Wykorzystano zarówno do tego celu bazy danych istniejące w
przedsiębiorstwie oraz metody sztucznej inteligencji. Kompleksowe podejście jest istotnym osiągnięciem w stosunku do tradycyjnych systemów opartych wyłącznie na wiedzy pozyskanej od ekspertów ludzi. Jest to szczególnie istotne w sytuacjach, gdy wiedza taka nie jest dostępna, bądź jest
trudna do sformalizowania, niepełna i niepewna.
Rys. 2. Architektura inteligentnego systemu wspomagania sterowania siecią wodociągową [11]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
165
5. Literatura
1.
Studziński J., Bogdan L.: Informatyczny system wspomagania decyzji do zarządzania,
sterowania operacyjnego i planowania miejskiego systemu wodno-ściekowego.
W: Studziński J., Drelichowski L., Hryniewicz O. (Red.): Rozwój i zastosowania metod
ilościowych i technik informatycznych wspomagających procesy decyzyjne, Instytut
Badań Systemowych Polska Akademia Nauk, Badania Systemowe 49, Warszawa 2006.
2. Farmani R., Ingeduld P., Savic D., Walters G., Svitak Z., Berka J.: Real-time modeling of
a major water supply system, International Conference on Computing and Control for the
Water Industry No8, Exeter , ROYAUME-UNI, vol. 160, no 2, str. 103-108, 2007
3. Iskenderov A.A.: A Mathematical Model of Water Supply System Management, MAIK
Nauka/Interperiodica, Water Resources, vol. 30, no 4, str. 458-466(9), 2003
4. Chung G., Kim J., Kim T-W: System dynamics modeling approach to water supply
system, KSCE Journal of Civil Engineering, vol. 12, no. 4, str. 275-280, 2008
5. Wyczółkowski R., Wysogląd B.: An optimization of heuristic model of water supply
network, Computer Assisted Mechanics and Engineering Science, CAMES, no 14,
str. 767–776, 2007
6. Studziński J.: Optymalizacja i zarządzanie operacyjne miejskimi sieciami
wodociągowymi, wykład habilitacyjny, IBS PAN, Warszawa, 2005
7. Studziński J.: Projektowanie zintegrowanego systemu informatycznego zarządzania
miejską siecią wodociągową, w: Bojar W., Budziński R., Straszak A., Studia i Materiały
Polskiego Stowarzyszenia Zarządzania Wiedzą, vol. 17, str. 185-197, Bydgoszcz 2008
8. Studziński J.: Wspomaganie zarządzania miejskim przedsiębiorstwem wodociągowym za
pomocą informacji z systemu monitoringu i mapy numerycznej, w: Budziński R.,
Drelichowski L., Straszak A. (2008) Studia i Materiały Polskiego Stowarzyszenia
Zarządzania Wiedzą, vol. 14, str. 100-115, Bydgoszcz 2008
9. Rojek I.: Inteligentny system wspomagania decyzji dla sterowania siecią wodociągową,
materiały konferencyjne II Krajowej Konferencji Naukowej „Technologie przetwarzania
danych”, wydawnictwo Politechniki Poznańskiej, str. 186-194, Poznań 2007
10. Rojek I.: Model of Intelligent Decision Support System Using Methods of Artificial
Intelligence, Polish Journal of Environmental Studies, vol. 17, no. 3B, str. 375-379, 2008
11. Rojek I.: Inteligentne zarządzanie preferencjami poboru wody w sieci wodociągowej, red.
Bojar W., Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, vol. 14,
str. 67-74, Bydgoszcz 2008
166
Izabela Rojek
Podejścia stosowane we wspomaganiu sterowania siecią wodociągową
APPROACHES APPLIED TO SUPPORT OF CONTROL WATER SUPPLY SYSTEM
Summary
In the paper approaches applied to support of control of water-supply system
were introduced. The classic approach to control of water-supply system and the author's approach with use of the methods of artificial intelligence were presented. The
application of artificial intelligence methods is particularly important in critical
situation and pronouncement of average in complex technical systems , to which
control of water-supply system belonged.
Keywords: support, control, water-supply system
Izabela Rojek
Instytut Mechaniki Środowiska i Informatyki Stosowanej
Uniwersytet Kazimierza Wielkiego
85-064 Bydgoszcz, ul. Chodkiewicza 30
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
167
BOśENA ŚMIAŁKOWSKA
Zachodniopomorski Uniwersytet Technologiczny
TOMASZ DUDEK
Akademia Morska w Szczecinie
OCENA METOD WERSJOWANIA BAZ I HURTOWNI DANYCH
Streszczenie
Aby bazy i hurtownie danych mogły spełnić swoją rolę w zintegrowanych komputerowych systemach wspomagania zarządzanie muszą uwzględniać zmienne w
czasie potrzeby uŜytkowników (decydentów, analityków). Ten zmienny charakter potrzeb moŜna osiągnąć poprzez tworzenie wielowersyjnych baz i hurtowni danych. W
literaturze i praktyce stosowane są róŜne metody wersjowania danych. Od uŜytej w
systemie bazy lub hurtowni danych metody wersjowania zaleŜy jakość i uŜyteczność
danych oferowanych uŜytkownikom tych systemów. W artykule zaprezentowano wyniki oceny wybranych metod wersjowania baz i hurtowni danych. Ocenę tę zrealizowano za pomocą metody AHP (ang. Analytical Hierarchy Process [6]).
Słowa kluczowe: wielowersyjne bazy i hurtownie danych, zarządzanie wersjami danych, metoda
AHP, metoda wersjowania bitemporalnego baz i hurtowni danych
1. Wprowadzenie
Bazy i hurtownie danych przechowują dane odwzorowujące stany wyodrębnionej części świata rzeczywistego (tzw. miniświat), do której się odnoszą. Z czasem zmiany w świecie rzeczywistym
mogą wpływać na konieczność modyfikacji struktury (schematu) bazy lub hurtowni danych szczególnie wówczas, gdy na etapie ich projektowania nie przewidziano tej zmienności. Niewątpliwy
wpływ na zmianę struktur kolekcji danych mają równieŜ:
− Nowe potrzeby uŜytkowników, pojawiające się na etapie eksploatacji baz (hurtowni) danych,
− Zmiany w środowisku biznesowym, związanym z kolekcją danych przechowywanych w
bazie (hurtowni) danych, Np. zmiany przepisów prawnych, metod zarządzania i organizacji pracy, metod wspomagania decyzji, etc.,
− Rozwój infrastruktury systemów baz danych oraz technologii, technik, środków i metod
przetwarzania danych.
Zmiany w schemacie bazy danych moŜna osiągnąć poprzez modyfikację schematu (ang.
schema modification) lub poprzez tzw. wersjowanie (ang. schema versioning).
Modyfikacja schematu bazy danych moŜe być realizowana na poziomie fizycznym lub logicznym. Zmiana schematu fizycznego zwykle przeprowadzana jest przez administratora bazy danych
ze względów eksploatacyjnych (przepełnienie pamięci, optymalne wykorzystanie zasobów, optymalizacja rozmieszczenia zasobów, etc). Zmiana schematu na poziomie logicznym polega na dodaniu lub usunięciu wyróŜnionego elementu (obiektu) bazy danych, Np., tabeli, kolumny, widoku,
168
BoŜena Śmiałkowska, Tomasz Dudek
Ocena metod wersjowania baz i hurtowni danych
indeksu, atrybutu, relacji, typu, etc. W relacyjnych bazach danych modyfikacja schematu logicznego jest stosowana w ograniczonym do moŜliwości języka SQL zakresie, między innymi dzięki takim komendom tego języka jak ALTER TABLE z opcją ADD COLUMN lub DROP COLUMN
czy teŜ DROP TABLE.
Wersjowanie schematu bazy czy hurtowni danych polega na utrzymywaniu wielu wersji tej
samej kolekcji danych. Systemy baz lub hurtowni danych, w których nie jest moŜliwe utrzymywanie wielu wersji danych nazywa się jednowersyjnymi bazami lub hurtowniami danych.
Wersje przechowywane w wielowersyjnej bazie lub hurtowni danych mogą być tworzone,
przechowywane i udostępniane z róŜnych względów. Takimi względami mogą być Np. potrzeba
utrzymywania historycznych zmian w bazie danych, konieczność przeprowadzenia badań wyprzedzających historię (symulacja przyszłych stanów), potrzeba opracowania przyszłych scenariuszy
biznesowych, planowanie, badanie i porównanie alternatywnych rozwiązań, etc. Zazwyczaj wersje
w wielowersyjnych bazach i hurtowniach danych dzieli się na wersje historyczne i wariantowe (alternatywne) [4][7][8]. Wersje wariantowe są interpretowane jako odpowiedniki modelowanych
obiektów, które róŜnią się od obiektów tego samego typu strukturą i zachowaniem modelowanej
rzeczywistości. Wersje historyczne wynikają z liniowego upływu czasu. JednakŜe moŜliwe jest
równieŜ utrzymywanie wersji historycznych kolekcji danych z gałęziowym modelem upływu czasu
na zasadzie podobnej jak w odniesieniu do temporalnych baz danych.
Wielowersyjne bazy lub hurtownie danych pozwalają zachowywać (zapamiętać) stany i zachowanie obiektów bazodanowych w ujęciu historycznym lub alternatywnym, przy jednoczesnym
zachowaniu powiązań z tym samym modelowanym obiektem rzeczywistości.
2. Rodzaje metod wersjowania baz i hurtowni danych.
W literaturze [1][5] wyróŜnia się w bazach i hurtowniach danych wersjowanie częściowe (ang.
partial schema versioning) lub pełne (ang. full schema versioning). Częściowe wersjowanie schematu ma miejsce wówczas, gdy system bazy lub hurtowni danych umoŜliwia pobranie wszystkich
danych (danych historycznych, wariantowych i aktualnych – zwykle jest to ostatnia wersja historyczna kolekcji danych), ale aktualizacja danych musi się odbywać tylko na danych aktualnych. O
pełnym wersjowaniu schematu bazy lub hurtowni danych mówi się wówczas, gdy system umoŜliwia odczyt i aktualizację wszystkich danych (historycznych, alternatywnych i aktualnych) przechowywanych w systemie.
W wielowersyjnych bazach danych uŜytkownik moŜe mieć dostęp do danych pochodzących z
tej samej lub innej wersji danych, przy jednoczesnym zachowaniu spójności kolekcji danych. Gdy
w bazie danych obiekt bazy (hurtowni danych) jest złoŜony z wielu innych obiektów (Np., tabela z
wielu atrybutów, baza danych z wielu tabel, obiekt złoŜony w obiektowej bazie danych) a kaŜdy z
nich moŜe występować w wielu wersjach, to w systemie muszą istnieć mechanizmy jednoznacznej
identyfikacji, utrzymania i operowania na wielu reprezentacjach tych samych obiektów rzeczywistych, zwanych „wersjami” obiektów. W wielowersyjnych bazach danych moŜliwe jest utrzymywanie kolejnych wersji obiektów lub całej bazy danych. Mamy wówczas do czynienia z kolekcją
danych z wersjami obiektów lub z wersjami baz danych. W wielowersyjnej bazie (hurtowni) danych z wersjami obiektów występują obiekty wersjowane i niewersjowane. Obiekty podlegające
wersjowaniu mogą być wersjami przejściowymi obiektu (ang. transient), roboczymi (ang. working)
lub ostatecznymi (ang. released). Tym typom obiektów wersjowanych odpowiada etap procesu
projektowania obiektu wielowersyjnego ostatecznego. Wersje przejściowe obiektów mogą być
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
169
wersjami niekompletnymi, niepoprawnymi i są dostępne wyłącznie dla jej twórców. W momencie
osiągnięcia stanu stabilnego (Np., po wstępnym przetestowaniu), wersje przejściowe mogą stać się
wersjami roboczymi. Zmiana typu wersji obiektu jest moŜliwa dzięki operacji promocji (ang. promotion). Wersje robocze obiektów mogą być współdzielone przez wyróŜniony krąg uŜytkowników
(projektanci grupy) i nie mogą być modyfikowane. Stanowią one podstawę tworzenia innych wersji
przejściowych tego samego obiektu. Wersja robocza moŜe być promowana do wersji ostatecznej i
udostępniana szerszej rzeszy uŜytkowników bazy lub hurtowni danych. Z kaŜdym obiektem wielowersyjnym w bazie lub hurtowni danych związany jest tzw. obiekt generyczny (ang. generic object). Celem tego obiektu jest reprezentacja toŜsamości modelowanej rzeczywistości. Zwykle atrybutami obiektu generycznego są:
− Liczba utworzonych wersji obiektu,
− Numer kolejnej wersji obiektu, jeśli w przyszłości taka wersja zostanie utworzona),
− Numer wersji domyślnej, aktualnie obowiązującej,
− Drzewo wywodu wersji.
Za literaturą [1][3], w zarządzaniu danymi wielowersyjnych baz danych często stosuje się metody oparte na zasadzie utrzymywania pojedynczej puli danych (ang. Single-Pool Solution) lub
wielu pul danych (ang. Multi-Pool Solution). W rozwiązaniu z pojedynczą pulą danych, dane
wszystkich wersji są zarządzane wspólnie, zaś w przypadku modelu z wieloma pulami danych,
dane róŜnych wersji schematu są zarządzane przez oddzielną pulę danych.
Dodatkowo w zarządzaniu danymi w wielowersyjnych bazach danych stosuje się metody synchroniczne (ang. synchronous management) i asynchroniczne (ang. asynchronous management)[1][2]. W zarządzaniu synchronicznym dane są przechowywane, wyszukiwane i aktualizowane za pomocą odpowiadających im wersji schematu zaś asynchroniczne zarządzanie polega na tym,
Ŝe dane wielowersyjnej bazy danych mogą być zapamiętywane, wyszukiwane i aktualizowane za
pomocą dowolnej wersji schematu danych. Częściej w wielowersyjnych bazach danych uŜywa się
metod opartych na zarządzaniu asynchronicznym, choć istnieją równieŜ implementacje oparte na
zmodyfikowanym zarządzaniu asynchronicznym. Zwykle te modyfikacje metody zarządzania
asynchronicznego dotyczą wybranych metod obsługi danych (Np., zarządzanie asynchroniczne
uŜywa się jedynie do aktualizacji wielowersyjnej bazy danych a wyszukiwanie realizuje się zwykle
na jednym schemacie wielowersyjnej bazy danych).
W zarządzaniu danymi wielowersyjnych baz i hurtowni danych wykorzystuje się równieŜ podejście oparte na przypisywaniu do wersji schematu danych tzw. czasu transakcyjnego (ang. Transaction Time Schema Versioning). Tu zmiana schematu wielowersyjnej bazy danych dotyczy zawsze aktualnej w danej chwili wersji schematu (ostateczna wersja schematu). Wówczas Ŝadna instrukcja w języku SQL w postaci SET SCHEMA nie moŜe być uŜyta przed zmianą schematu do
wybranej wersji schematu, która będzie modyfikowana. Wersjowanie schematu danych z wykorzystaniem czasu transakcji wymaga najprostszego zarządzania wewnętrznymi danymi w odpowiedzi
na zmianę schematu. Zmiana schematu moŜe wpłynąć jedynie na bieŜącą wersję schematu. Gdy
zastosowane są mechanizmy z pojedynczą pulą danych, to stara wersja danych podlega archiwizacji a nowa wersja wymaga zastosowania zmian w bazie danych, zgodnie ze zmianą schematu. Często w tym przypadku naleŜy wykorzystać tzw. tymczasowe funkcje konwersji [2]. Jeśli w zarządzaniu wielowersyjną bazą danych zastosowano mechanizm wielu pul (pakietów) danych (ang.
Multi-Pool Solution), to tworzenie nowej wersji schematu wymusza utworzenia nowej puli danych.
W zarządzaniu wielowersyjnym bazami i hurtowniami danych wykorzystuje się równieŜ
170
BoŜena Śmiałkowska, Tomasz Dudek
Ocena metod wersjowania baz i hurtowni danych
znaczniki waŜności wersji (ang. Valid-Time Schema Versioning) [1]. Realizuje się to często za
pomocą specjalnej klauzuli VALID będącej warunkiem czasu waŜności wersji schematu danych.
Takiej klauzuli moŜe uŜyć uprawniony do zmiany wersji schematu bazy danych uŜytkownik. W
tym przypadku poprzez klauzulę SET SCHEMA moŜna dokonać wyboru tej wersji schematu, na
którym będzie realizowana modyfikacja. Nowej wersji schematu przypisywany jest znacznik czasu
waŜności schematu. Poprzednie wersje schematu logicznego, całkowicie zakryte (ang. overlapped)
przez zmianę znacznika czasu waŜności, są usuwane. Znacznik czasu waŜności zostaje zredukowany dla poprzedniej wersji schematu logicznego, gdy znacznik ten jest tylko częściowo zakryty
(ang. partially overlapped) przez znacznik czasu waŜności nowej wersji schematu logicznego. W
wersjowaniu baz danych z wykorzystaniem znacznika waŜności schematu mogą być przeprowadzane zarówno wsteczne (ang. retroactive) jak i przyszłe (ang. proactive) zmiany schematu danych.
W tym przypadku stosuje się specjalną klauzulę języka SQL w formie VALID PERIOD, która
określa waŜność czasową nowo utworzonej wersji schematu danych. Po wykonaniu zmian w schemacie zostanie utworzona nowa wersja, a pewne dane w wersjach starych mogą zostać usunięte lub
moŜe im zostać ograniczony zakres znacznika czasu waŜności. Zadaniem tej ostatniej czynności
jest uniknięcie nakładania się znaczników waŜności poprzednich wersji schematu ze znacznikiem
czasowym waŜności nowej wersji danych. Metoda ze znacznikami waŜności wersji schematu moŜe
być równieŜ realizowana z zastosowaniem pojedynczej lub wielu pul danych, na zasadach asynchronicznych i synchronicznych.
W wersjowaniu wykorzystującym znaczniki czasu transakcji, logiczne usunięcie danych nie
wiąŜe się z fizycznym usuwaniem danych, zaś w przypadku zarządzania wielowersyjną bazą lub
hurtownią danych z wykorzystaniem znaczników waŜności wersji, operacja logicznego usuwania
danych z kolejnej wersji schematu danych moŜe prowadzić do fizycznego usunięcia danych.
W przypadku zastosowania znaczników waŜności wersji danych oraz wielu pul danych po
zmianie schematu (wersji) bazy danych inicjowana jest nowa pula danych, przy czym jest ona wypełniona danymi pochodzącymi z pul danych, które odpowiadają zmodyfikowanej wersji schematu
logicznego, po dokonaniu stosownych zmian. Pule danych powiązane z całkowicie przysłoniętymi
(lub usuniętymi) wersjami schematu takŜe są usuwane. Pule danych powiązane z tylko częściowo
zasłoniętymi wersjami schematu są pozostawione bez zmiany w przypadku asynchronicznego zarządzania danymi. W przypadku synchronicznego zarządzania ich znaczniki waŜności zostają
ograniczone.
Metodą na retro- i pro- aktywne przechowywanie zmian wersji schematu wielowersyjnej bazy
lub hurtowni danych jest tzw. bitemporalne wersjowanie schematu logicznego kolekcji danych.
Metoda ta polega na zapamiętywaniu dla kaŜdej wersji danych zarówno znacznika czasowego
transakcji jak równieŜ znacznika czasu waŜności wersji.
Z przeprowadzonej pokrótce charakterystyki metod wersjowania kolekcji danych wynika, Ŝe
wybór metody wersjowania ma istotny wpływ na zakres dostępu do danych oraz wydajność systemu. Aby określić, która z metod wersjowania najlepiej nadawałaby się do implementacji w określonych warunkach naleŜy przeprowadzić ocenę tych metod.
Utworzenie środowiska badawczego do przeprowadzenia eksperymentu opartego na pomiarze
nie jest moŜliwe dlatego, Ŝe nie jest moŜliwe zaimplementowanie wszystkich metod wersjowania w
jednym eksperymentalnym systemie przy jednoczesnym zachowaniu niezaleŜności metod wersjowania od siebie i konieczności przeprowadzenia eksperymentu dla róŜnych zastosowań wielowersyjnych baz danych. Dodatkowo naleŜy zauwaŜyć, Ŝe takie parametry eksploatacyjne jak wydaj-
171
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
ność, trudność implementacji, ryzyko utraty danych nie dają się wyrazić wielkościami mierzalnymi
a inne Np. czas implementacji, silnie zaleŜą od zastosowania i oprogramowania systemu baz danych.
3. Ocena metod wersjowania danych.
Do oceny metod wersjowania schematu logicznego baz lub hurtowni danych wykorzystano metodę wielokryterialną AHP (ang. Analytical Hierarchy Process). Metoda ta wydaje się najbardziej
uŜyteczną ze względu na złoŜoność analizy wielokryterialnej, choćby ze względu na istnienie nieporównywalnych i wzajemnie zaleŜnych kryteriów oceny metod wersjowania.
W ocenie rozwaŜono następujące kryteria porównawcze:
− Wagę metody dla eksploatacji wielowersyjnej kolekcji danych,
− Efekty etapu wdraŜania metody,
− Bezpieczeństwo metody,
− Elastyczność,
− Koszty związane z utrzymaniem i eksploatacją metody.
Dla wyróŜnionych kryteriów, zostały ocenione przez eksperta wagi waŜności par tych kryteriów. Są one zgodne w opinii ekspertów z tabelą 1.
Tabela 1. Macierz głównych kryteriów w metodzie AHP
K1
Eksploatacja
1
0,2
1
2
1
5,2
Kryterium
K1-Eksploatacja
K2-WdraŜanie
K3-Bezpieczeństwo
K4-Elastyczność
K5-Koszty
Suma
K2
WdraŜanie
5
1
1
5
1
13
K3
Bezpieczeństwo
1
1
1
5
1
9
K4
Elastyczność
0,5
0,2
0,2
1
0,2
2,1
K5
Koszty
1
1
1
5
1
9
Źródło: opracowanie własne na podstawie[6]
W oparciu o Tabelę 1 opracowano następnie Tabelę 2, w której wyliczono wagi i rangi kryteriów będących podstawą oceny metod wersjowania schematu danych metodą AHP.
Tabela 2. Macierz wag (priorytetów) i ranking głównych kryteriów w ocenie metod wersjowania baz
i hurtowni danych zgodnie z oznaczeniami z Tabeli 2
K1
K1
K2
K3
K4
K5
0,1923
0,0385
0,1923
0,3846
0,1923
K2
0,3846
0,0769
0,0769
0,3846
0,0769
K3
0,1111
0,1111
0,1111
0,5556
0,1111
K4
0,2381
0,0952
0,0952
0,4762
0,0952
K5
0,1111
0,1111
0,1111
0,5556
0,1111
Waga
0,2074
0,0866
0,1173
0,4713
0,1173
Ranking
2
4
3
1
3
Źródło: opracowanie własne na podstawie [6]
Dla kaŜdego kryterium oceny wyróŜniono następnie podkryteria. Są one zgodne zgodnie z Tabelą 3.
172
BoŜena Śmiałkowska, Tomasz Dudek
Ocena metod wersjowania baz i hurtowni danych
Tabela 3. Podział kryteriów na podkryteria oceny metod wersjowania
K1
Eksploatacja
K2
WdraŜanie
K3
Bezpieczeństwo
K4
Elastyczność
K5
Koszty
S1-wydajność
S2-wymagane zasoby
S3-czasochłonność
S4-trudność implementacji
S5-łatwość odzyskania danych
S6-Ryzyko utraty danych historycznych
S7-przenaszalność
S8-moŜliwość wprowadzania zmian
S9-obszar zastosowań
S10-moŜliwość odwołania się do wersji historycznej
S11-moŜliwość tworzenia wersji przyszłych
S12-koszt wdraŜania
S13-koszt utrzymania
S14-koszt przenoszenia
S15-koszt odzysku danych po awarii
Źródło: opracowanie własne
Na podobnych zasadach jak dla kryteriów (patrz Tabela 1 i 2) opracowano tabelę lokalnych i globalnych wag dla rozwaŜanych podkryteriów. Wyznaczone wagi są zgodne z tabelą 4.
Tabela 4. Macierz wag i ranking podkryteriów
Kryterium
K1
Eksploatacja
K2
WdraŜanie
K3
Bezpieczeństwo
K4
Elastyczność
K5
Koszty
Podkryterium
S1-wydajność
S2-wymagane zasoby
S3-czasochłonność
S4-trudność implementacji
S5-łatwość odzyskania danych
S6-Ryzyko utraty danych
historycznych
S7-przenaszalność
S8-moŜliwość wprowadzenia zmian
S9-obszar zastosowań
S10-moŜliwość odwołania się do
wersji historycznej
S11-moŜliwość tworzenia
wersji przyszłych
S12-koszt wdraŜania
S13-koszt utrzymania
S14-koszt przenoszenia
S15-koszt odzysku danych
Źródło opracowanie własne na podstawie[6]
Lokalne
wagi Si
0,6667
0,3333
0,7501
0,2499
0,1667
0,8333
0,0324
0,0761
0,0918
0,3998
Globalne wagi
Ki
0,2074
0,0866
0,1173
0,4713
0,3998
0,2000
0,6609
0,0696
0,0696
0,1173
Globalne
wagi Si
Rangi Si
0,1383
0,0691
0,0650
0,0075
0,0196
3
6
7
14
11
0,0978
4
0,0153
0,0359
0,0433
12
9
8
0,1884
1
0,1884
2
0,0226
0,0747
0,0079
0,0079
10
5
13
13
173
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
Tabela 5. Lokalne wagi przypisane metodom wersjowania schematu logicznego
baz i hurtowni danych
Kryterium
Wagi
podkryteriów
0,138
3
0,069
1
0,065
0
0,007
5
M1
M2
M3
M4
M5
0,058
8
0,112
5
0,134
8
0,206
5
0,058
8
0,088
6
0,056
7
0,000
6
0,294
1
0,230
8
0,325
9
0,002
9
0,294
1
0,284
1
0,325
9
0,001
9
0,294
1
0,284
1
0,156
8
0,000
6
0,019
6
0,097
8
0,015
3
0,035
9
0,043
3
0,166
0
0,148
1
0,166
7
0,200
0
0,058
8
0,096
4
0,148
1
0,166
7
0,200
0
0,058
8
0,135
2
0,066
2
0,333
3
0,200
0
0,294
1
0,135
2
0,071
9
0,166
7
0,200
0
0,294
1
0,467
2
0,565
7
0,166
7
0,200
0
0,294
1
S10-moŜliwość odwołania
się do wersji
historycznej
0,188
4
0,083
1
0,392
1
0,058
8
0,073
8
0,392
1
S11-moŜliwość
tworzenia
wersji przyszłych
0,188
4
0,083
1
0,392
1
0,058
8
0,073
8
0,392
1
0,022
6
0,074
7
0,007
9
0,007
9
0,170
8
0,226
6
0,250
0
0,157
9
0,088
6
0,051
1
0,125
0
0,088
9
0,476
2
0,393
7
0,250
0
0,297
6
0,170
8
0,277
5
0,250
0
0,297
6
0,093
5
0,051
1
0,125
0
0,157
9
Podkryterium
S1-wydajność
K1
eksploatacja
S2-wymagane zasoby
S3-czasochłonność
K2
wdraŜanie
K3
bezpieczeństwo
K4
elastyczność
S4-trudność
implementacji
S5-łatwość odzyskania
danych
S6-Ryzyko utraty danych
historycznych
S7-przenaszalność
S8-moŜliwość
wprowadzania zmian
S9-obszar zastosowań
S12-koszt wdraŜania
K5
koszty
S13-koszt utrzymania
S14-koszt przenoszenia
S15-koszt odzysku
danych po awarii
Lokalne wagi metod wersjowania
symbolami Mi dla i=1,2,..,5 oznaczono nazwy metod wersjowania
(M1- metoda wersjowania obiektów, M2 - wersjowanie całej bazy danych, M3 - wersjowanie z
uŜyciem znaczników czasu transakcji, M4 - wersjowanie z uŜyciem znaczników czasu waŜności
wersji a M5 – wersjowanie bitemporalne)
Źródło: opracowanie własne
174
BoŜena Śmiałkowska, Tomasz Dudek
Ocena metod wersjowania baz i hurtowni danych
Ostateczną ocenę globalną metod wersjowania zgodnie z algorytmem metody AHP zaprezentowano w Tabeli 6.
Tabela 6. Globalne wagi i ranking metod wersjowania schematu logicznego baz i hurtowni danych
Kryterium
M1
M2
M3
M4
M5
0,008
1
0,007
8
0,008
8
0,001
5
0,003
3
0,014
5
0,002
6
0,007
2
0,002
5
0,008
1
0,006
1
0,003
7
0,000
6
0,001
9
0,014
5
0,002
6
0,007
2
0,002
5
0,040
7
0,015
9
0,021
2
0,002
9
0,002
7
0,006
5
0,005
1
0,007
2
0,012
7
0,040
7
0,019
6
0,021
2
0,001
9
0,002
7
0,007
0
0,002
6
0,007
2
0,012
7
0,040
7
0,019
6
0,010
2
0,000
6
0,009
2
0,055
3
0,002
6
0,007
2
0,012
7
0,188
4
0,015
7
0,073
9
0,011
1
0,013
9
0,073
9
0,188
4
0,015
7
0,073
9
0,011
1
0,013
9
0,073
9
0,022
6
0,074
7
0,007
9
0,007
9
0,003
9
0,016
9
0,002
0
0,001
2
0,002
0
0,003
8
0,001
0
0,000
7
0,010
8
0,029
4
0,002
0
0,002
4
0,003
9
0,020
7
0,002
0
0,002
4
0,002
1
0,003
8
0,001
0
0,001
2
Wagi
0,111
7
0,202
5
0,181
7
0,172
4
0,314
Rangi
5
2
3
4
1
Podkryterium
S1-wydajność
K1
eksploatacja
S2-wymagane zasoby
S3-czasochłonność
K2
wdraŜanie
K3
bezpieczeństwo
K4
elastyczność
S4-trudność
Implementacji
S5-łatwość odzyskania
Danych
S6-Ryzyko utraty danych
Historycznych
S7-przenaszalność
S8-moŜliwość
wprowadzania zmian
S9-obszar zastosowań
S10-moŜliwość odwołania
się do wersji
Historycznej
S11-moŜliwość
tworzenia wersji
Przyszłych
S12-koszt wdraŜania
K5
koszty
Globalne wagi metod wersjowania
Wagi
podkryteriów
0,138
3
0,069
1
0,065
0
0,007
5
0,019
6
0,097
8
0,015
3
0,035
9
0,043
3
S13-koszt utrzymania
S14-koszt przenoszenia
S15-koszt odzysku
danych po awarii
symbolami Mi dla i=1,2,..,5 oznaczono nazwy metod wersjowania (M1- metoda wersjowania
obiektów, M2 - wersjowanie całej kolekcji danych, M3 - wersjowanie z uŜyciem znaczników czasu
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
175
transakcji, M4 - wersjowanie z uŜyciem znaczników czasu waŜności wersji a M5 - bitemporalne
wersjowanie)
Źródło: opracowanie własne
Z przeprowadzonej analizy wynika, Ŝe najlepszą względem zaprezentowanych kryteriów
i podkryteriów oceny metod wersjowania jest metoda bitemporalnego wersjowania. UmoŜliwia ona
tworzenie wersji stanów przyszłych modelowanej rzeczywistości.
4. Podsumowanie
Utrzymywanie w bazach lub hurtowniach danych wielu wersji schematu danych wynika z konieczności uwzględnienia ewolucyjnego charakteru struktur danych i systemów oprogramowania.
Istnieje wiele róŜnych metod wersjowania baz danych, które charakteryzują się róŜnorodną wydajnością i uŜytecznością eksploatacyjną. Wybór jednej z nich nie jest prosty zwłaszcza, Ŝe uŜytkownicy tych systemów mają róŜne preferencje i potrzeby. W artykule zaprezentowano metodę oceny
metod wersjowania baz i hurtowni danych dla szerokiej gamy wielu kryteriów. Rozpatrzono tu
metodę wersjowania obiektów i całych baz (kolekcji) danych, metodę zarządzania wersjami
w oparciu o znaczniki czasowe transakcji i waŜności wersji oraz metodę bitemoralną. PosłuŜono
się takimi kryteriami jak wydajność, wymagane zasoby, elastyczność metody na zmiany, czasochłonność i trudność implementacji, łatwość odzysku danych (Np., podczas awarii systemu), ryzyko utraty danych historycznych, przenaszalność, obszar zastosowań, moŜliwość pracy z wersjami
historycznymi i wersjami przyszłymi (alternatywnymi), koszty wdraŜania, przenoszenia, utrzymania i odzysku danych. Ocena oparta na tych wielu kryteriach metod wersjowania z uŜyciem metody
AHP wykazała, Ŝe najlepszą metodą wersjowania jest wersjowanie bitemporalne. Metodę tę moŜna
zastosować z powodzeniem do baz relacyjnych, które stanowią główny obszar zastosowań baz danych. Dodatkowo, metoda wersjowania bitemporalnego umoŜliwia nie tylko tworzenie wersji historycznych w bazie danych, ale równieŜ sprzyja trzymaniu wersji alternatywnych, odwzorowujących przyszłe stany modelowanej rzeczywistości.
Ogólnie wielowersyjność w bazach danych zwiększa obszar stosowalności i Ŝywotności baz
danych i pozwala uwzględnić naturalną ewolucję rzeczywistości a wybór najlepszej z nich jest
istotnym problemem. Zaprezentowana metoda AHP w ocenie metod wersjowania oparta została
o wiedzę eksperta ze względu na kategoryczny charakter kryteriów i podkryteriów oceny. Istotnym
praktycznie zagadnieniem byłoby przeprowadzenie takiej oceny przez wielu ekspertów i zastosowanie oceny ekspertyzy w oparciu o pomiar odległości poglądów ekspertów. Będzie to etapem
dalszych prac nad zaprezentowanym problemem.
5. Literatura
1.
2.
3.
Castro C.D., Grandi F.: On schema versioning In temporal database. Workshop In
Computing, Springer-Verlag, Berlin, 1995.
Castro C.D., Grandi F., Scalas M.,R.: Schema versioning for multi-temporal relational
databases. Information Systems, Vol. 22, 1997.
Deucet A., Garncarski S., Jomier G., Monties S.: Integrity Constraints In Multiversion
Databases. Springer-Verlag, Berlin, 1997.
176
BoŜena Śmiałkowska, Tomasz Dudek
Ocena metod wersjowania baz i hurtowni danych
4.
5.
6.
7.
8.
Morzy T., Wrembel R.: Managing and Querying Versions of Multi-version Data
Warehouse. In Proceeding of International Conference on Extending Database
Technology, EDBT, 2006
Roddick J.F.: A Survey of Schema Versioning In Temporal Database Systems.
Information and Software Technology, 1995.
Saaty T.,L.: The Analytical Hierarchy Process. RWS Publications, Pittsburg, 1990
Wrembel R.: Management of schema and data evaluation in multiversion data warehouse.
Wydawnictwo Politechniki Poznańskiej, Seria: Rozprawy, nr 411, Poznań, 2007.
Śmiałkowska B.: Metoda projektowania hurtowni danych dla potrzeb adaptacyjnego
wspomagania zarządzania strategią firmy. Wydawnictwo Katedry Informatyki w
Zarządzaniu, Akademii Rolniczo-Technicznej, Bydgoszcz,2003.
VALUATION OF DATA SCHEMA VERSIONING METHODS FOR DATABASE AND
WAREHOUSE SYSTEMS
Summary
The paper describes methods of schema versioning (transaction-time and validtime versioning for single-pool and multi-pool solution, synchronous and asynchronous data management, method with versions of database objects, method with versions of databases and bitemporal versioning). To goal of this paper is to analyze
methods of database’s (warehouse’s) logical schema versioning and to choose the
best method to fulfills specified set of criteria (usage, implementation, safety, flexibility and costs). The paper includes comparative analysis of schema versioning
methods with the used Analytical Hierarchy Process and overall conclusions.
Keywords: multi-version database and warehouse, database’s logical schema versioning, AHP
method, bitemporal versioning
BoŜena Śmiałkowska
Zachodniopomorski Uniwersytet Technologiczny
[email protected]
http://www.kisi.wi.zut.edu.pl
Tomasz Dudek
Akademia Morska
[email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
177
KRZYSZTOF ŚMIATACZ
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
METODA REDUKCJI DANYCH UZYSKANYCH ZA POŚREDNICTWEM
KWESTIONARIUSZA INTERNETOWEGO
NA PRZYKŁADZIE BADAŃ RYNKU TELEFONII KOMÓRKOWEJ
Streszczenie
Obecnie coraz więcej firm ma moŜliwość prowadzenia badań swoich klientów za
pośrednictwem sieci Internet. Wiele z nich czyni to wysiłkiem własnych pracowników, bez pomocy firm doradczych.
W artykule zaprezentowano metodę redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego, wykorzystanej w badaniach satysfakcji klienta
indywidualnego polskich sieci komórkowych.
Słowa kluczowe: zbieranie danych przez Internet, proces badania marketingowego, czyszczenie
danych
1. Wprowadzenie
W dzisiejszych czasach, coraz więcej czynności wchodzących w skład badań marketingowych
realizuje się za pośrednictwem sieci Internet. Proces badania marketingowego (badania rynku)
składa się z dwóch głównych faz. Są to [1]:
- faza przygotowania badania, w skład której wchodzą kolejno czynności takie jak:
1. Projektowanie badania.
2. Dobór próby.
3. Budowa instrumentu pomiarowego.
- faza realizacji badania, w skład której wchodzą kolejno czynności takie jak:
4. Zbieranie danych.
5. Redukcja i wstępna prezentacja.
6. Analiza danych.
7. Prezentacja i ocena wyników badania.
Podobne podejście, aczkolwiek z roŜnym naciskiem na opisywane wyŜej czynności, upowszechnia
między innymi M. Rószkiewicz, dzieląc badanie marketingowe na fazę koncepcyjną i realizacji
[2], natomiast K. Mazurek-Łopacińska [3] opisuje proces badania marketingowego dzieląc go na
sześć etapów (takie jak: określenie problemu badawczego, formułowanie hipotez, opracowanie
planu badań, wybór metod gromadzenia danych, analizowanie i interpretowanie danych, sporządzanie raportu z badań).
W niniejszym artykule autor pragnie zwrócić uwagę na propozycje wytycznych w oparciu
o które moŜna dokonać redukcji (czyszczenia) danych uzyskanych za pośrednictwem sieci Internet.
Sposób postępowania opracowano dla weryfikacji danych zebranych podczas pomiaru poziomu
satysfakcji klientów indywidualnych operatorów telefonii komórkowej w Polsce.
178
Krzysztof Śmiatacz
Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza
internetowego na przykładzie badań rynku telefonii komórkowej
2. Sposób zbierania danych
Kwestionariusz internetowy wykorzystany do pomiaru satysfakcji klientów telefonii komórkowej umoŜliwiał ocenę satysfakcji respondentów z wymienionych elementów oferty przy wykorzystaniu pięciostopniowej skali Likerta. Odpowiedź kaŜdego respondenta zapisywana była jako
kolejny wiersz w bazie danych MySQL. Tabela 1 zawiera charakterystykę zawartości kolumn
fragmentu bazy danych ujętego w tabeli 2. Skrót „BO” oznacza brak odpowiedzi.
Tabela 1. Charakterystyka danych w kolumnach od 1 do 27 z tabeli 2
Kolumna
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
Opis zawartości
Dane nt. oprogramowania komputera uŜywanego przez respondenta (wersja przeglądarki internetowej, system operacyjny)
Czas wypełnienia kwestionariusza
Adres IP komputera uŜywanego przez respondenta
e1 – symbol elementu oferty ocenianego w skali od 1 do 5 (gdzie „1” oznacza duŜe niezadowolenie z elementu oferty a „5” duŜe zadowolenie)
e2 – symbol elementu oferty ocenianego w skali od 1 do 5
e29 – symbol elementu oferty ocenianego w skali od 1 do 5
e30 – symbol elementu oferty ocenianego w skali od 1 do 5
Oznaczona jako główna sieć prepaid, z której korzysta badany (OM – Orange Twoj Mix, PM – Mix Plus, S Simplus, OP – Orange POP, EM – Era Mix)
Potwierdzenie, czy określona wcześniej sieć jest główną siecią z jakiej korzysta badany (T – tak, N – nie)
e32 – symbol elementu oferty ocenianego w skali od 1 do 5
e36 – symbol elementu oferty ocenianego w skali od 1 do 5
Oznaczona jako główna sieć postpaid, z której korzysta badany (E – Era, P – Plus, O - Orange). Skrót „BIZ”
oznacza telefon słuŜbowy (firmowy)
Potwierdzenie, czy określona wcześniej sieć jest główną siecią z jakiej korzysta badany (T – tak, N – nie)
e38 – symbol elementu oferty ocenianego w skali od 1 do 5
e44 – symbol elementu oferty ocenianego w skali od 1 do 5
Liczba sieci wykorzystywanych przez badanych
Odpowiedź na pytanie, która to sieć respondenta (w przypadku korzystania z innych w przeszłości)
Długość okresu korzystania z obecnej sieci (w latach), NP – nie pamiętam jak długo
Wiek uŜywanego telefonu (w latach)
Czas poświęcany na rozmowy (w godz./tydz.)
Miesięczne wydatki na usługi telekomunikacyjne (w zł)
Płeć (M – męŜczyzna, K – kobieta)
Wiek (w latach)
Wykształcenie (LIC - licencjat/inŜynier, SZ – średnie zawodowe, MGR - wyŜsze magisterskie mgr inŜ., SO średnie ogólnokształcące, PO – pomaturalne, policealne, G – gimnazjalne)
Stan cywilny (Z – zamęŜna/Ŝonaty, P – panna/kawaler, W – wdowiec/wdowa)
Dochody netto (w zł), BD – brak dochodów, OO – odmowa odpowiedzi nt. dochodów
Ogólna ocena sieci („1” – pozytywna, „0” – neutralna, „-1” – negatywna)
Źródło: opracowanie własne na podstawie badań ankietowych.
Kwestionariusz składał się z czterech części. W skład pierwszej wchodziło 30 elementów ofer-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
179
ty (w kolumnie 4-7 tabeli 2 ujęto dwa pierwsze i dwa ostatnie), które mogli oceniać wszyscy zainteresowani klienci sieci komórkowych, tj. korzystający z usług postpaid i prepaid. W skład drugiej
części wchodziło 5 elementów oferty (w kolumnie 10-11 tabeli 2 ujęto pierwszy i ostatni) dla
klientów korzystających z usług prepaid, 7 elementów wchodzących w skład trzeciej części (w kolumnie 14-15 tabeli 2 ujęto pierwszy i ostatni) związanych było z ofertą dla klientów abonamentowych. Ostatnią część stanowiła metryczka respondentów, zawierająca dane charakteryzujące cechy
badanych (wiersze 16-27 tabeli 1).
Oprogramowanie „phpMyAdmin”, umoŜliwiające wgląd do bazy danych pozwala równieŜ na
eksport bazy danych do formatów obsługiwanych, m.in. przez program Microsoft Excel.
3. Metoda redukcji danych
Dane surowe obciąŜone są róŜnymi brakami i błędami [1]. Szczególnie naleŜy na nie zwrócić
uwagę podczas zbierania danych za pośrednictwem sieci Internet. Powodem tej szczególnej
ostroŜności jest m.in. brak interakcji z badanymi. Rozdając kwestionariusze, np. na sali, badacz ma
moŜliwość poznania chociaŜby ogólnego nastawienia do problemu badawczego, moŜe w wyniku
samej obserwacji wypełniających odrzucić dokumenty wypełnione przez niektórych badanych,
którzy nie wykazują pozytywnego nastawienia do treści kwestionariusza. W przypadku danych
pozyskiwanych za pośrednictwem Internetu badacz ma do dyspozycji tylko zapis w bazie danych,
który musi zakwalifikować lub nie do danych czystych podlegających dalszej obróbce.
W takiej sytuacji badacz musi wypracować sposób postępowania, który umoŜliwia usunięcie
niepełnowartościowych wierszy z bazy danych. Bardzo waŜne jest, aby w razie organizacji losowania nagród za udział w badaniach, nie uzaleŜniać moŜliwości zapisania się do procedury losowania od czynności wypełnienia kwestionariusza. Uniknie się wtedy wielu opinii nie mających
większej wartości dla firmy bo wypełnionych tylko po to aby moŜna było wziąć udział w losowaniu nagrody.
W przypadku pomiaru poziomu satysfakcji, po zebraniu ocen klientów sieci komórkowych
w bazie danych usuwano z niej wiersze, które:
- nie miały wypełnionej ani jednej odpowiedzi w 1 części kwestionariusza (w kolumnie 4-7
tabeli 2) oraz w 4 części (charakteryzującej populację) – warunkiem eliminacji było zajście sytuacji braku odpowiedzi w obydwu częściach równocześnie (jak w lp. 1 tabeli 2),
- nie miały wypełnionej ani jednej odpowiedzi w 1 części kwestionariusza, w 2 części (w
kolumnie 10-11 tabeli 2), w 3 części (w kolumnie 14-15 tabeli 2) – warunkiem eliminacji
było zajście sytuacji braku odpowiedzi w trzech częściach równocześnie (lp. 2 tabeli 2),
- nie miały wypełnionej ani jednej odpowiedzi w 4 części kwestionariusza (w kolumnie 1627 tabeli 2), w 2 części, w 3 części – warunkiem eliminacji było zajście sytuacji braku
odpowiedzi w trzech częściach równocześnie (lp. 3 tabeli 2),
- nie miały wypełnionej ani jednej odpowiedzi w 4 części kwestionariusza (lp. 12 tabeli 2),
- nie miały określonej głównej sieci, z jakiej respondent korzysta najczęściej, co wynikało
z porównania kolumn 9 i 13 tabeli 2 (lp. 3 tabeli 2),
- miały określone dwie główne sieci, z jakiej respondent korzysta najczęściej, co wynikało
z porównania kolumn 9 i 13 tabeli 2 (lp. 16 tabeli 2),
180
Krzysztof Śmiatacz
Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza
internetowego na przykładzie badań rynku telefonii komórkowej
-
sugerowały, iŜ respondent ma słuŜbową komórkę (a wypełniał kwestionariusz, mimo zaleceń, Ŝe posiadacze takowego telefonu nie powinni brać udziału w badaniach). Przykładem jest lp. 6 z tabeli 2,
Tabela 2. Fragment danych surowych uzyskanych podczas pomiaru satysfakcji (kolumny 1-11)
Lp.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
1
MSIE 7.0; Windows NT
5.1
MSIE 6.0; Windows NT
5.1
MSIE 6.0; Windows NT
5.1
MSIE 6.0; Windows NT
5.1
MSIE 7.0; Windows NT
5.1
MSIE 6.0; Windows NT
5.1
MSIE 6.0; Windows NT
5.1
MSIE 6.0; Windows 98
MSIE 7.0; Windows NT
5.1
MSIE 5.0; Windows NT
5.1
MSIE 7.0; Windows NT
5.1
MSIE 5.0; Windows NT
5.1
MSIE 6.0; Windows NT
5.0
MSIE 5.0; Windows NT
5.0
MSIE 6.0; Windows NT
5.1
MSIE 5.0; Windows NT
5
2
3
4
5
6
7
8
9
10
11
10:27
83.19.214.XX
BO BO BO BO
BO
BO BO BO
10:30
83.24.51.XXX
BO BO BO BO
BO
BO BO BO
10:40
83.143.41.XXX
3
5
3
4
BO
BO BO BO
10:43
83.4.231.XX
2
4
2
3
BO
N
10:43
83.16.82.XX
4
4
4
3
PM
N
10:45
81.211.112.XXX
4
5
2
5
BO
N
BO BO
10:46
87.115.176.XXX
2
2
2
4
BO
N
BO BO
10:52
89.76.236.XX
2
5
3
3
S
T
3
3
10:57
83.12.249.XXX
2
1
2
4
PM
N
1
1
10:58
85.237.176.XXX
1
5
3
5
BO
N
BO BO
11:01
83.13.47.XXX
3
4
5
1
OP
T
BO BO
11:03
83.31.44.XX
2
4
2
4
EM
T
11:05
153.19.48.XXX
4
5
4
5
BO
N
11:05
83.26.112.XX
4
4
4
BO
PM
T
4
5
11:08
83.3.112.XXX
5
5
5
5
S
T
5
5
11:11
83.4.111.XXX
4
3
2
3
OP
T
4
4
BO BO
4
1
4
2
BO BO
Objaśnienia danych w kolumnach zawarto w tabeli 1.
Źródło: opracowanie własne na podstawie wyników badań ankietowych.
- wskazywały na moŜliwość wypełnienia dla Ŝartu, m.in. takie gdzie wpisywano niski wiek
respondenta (np. 17 lat), wykształcenie magisterskie, status wdowca (lp. 14 tabeli 2),
181
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
-
zawierały oceny skrajnie negatywne lub pozytywne co nie korelowało z oceną ogólną sieci w kolumnie 27 (lp. 15 tabeli 2),
Tabela 2, cd. (kolumny 12-27)
Lp. 12 13 14 15 16 17
1.
E
T
2
1
2. BO BO BO BO
18
19
20
21
22 23
24
25
26
27
BO BO BO
BO
BO
BO
BO BO BO
BO
BO
BO
P
BD
-1
BO
BO
BO
BO
0
4
4 0,5-1 do 1
1-5 51-100 M 17
3. BO BO BO BO BO BO BO
BO
BO
BO
4.
E
T
2
do-25
5.
P
T
4
4
6. BIZ T
4
7.
O
N
1
8.
P
N BO BO BO
BO BO
BO
BO BO BO
1
7-8
1-2
BO
35 MGR
Z
2
2
8-9
1-2
1-5 51-100 M 34 MGR
Z
1
2
2
2-3
do 1 5-10
1
1
1
4-5
2-4
do 1 51-100 M 25
SO
P
801 - 900 -1
2
2-3
2-4
do 1 25-50
PO
P
701 - 800
0
4-5
1-2
do 1
M 55 MGR
Z
2501 3000
-1
P
OO
-1
Z
5001 i
więcej
1
BO
BO
BO
W
1201 1400
BO
101200
101200
K
K
34 MGR
M 23
9. BO N BO BO
1
1
10.
1
2 0,5-1 1-2
do 1 25-50
K
18
2
1
K
30 MGR
P
T
1
2
11. BO N BO BO
NP
BO
do 1 25-50
12.
E
N BO BO BO BO BO
BO
BO
13.
E
T
6-7
1-2
1-5 51-100 K
14. BO N BO BO
2
5
2-3
1-2
BO
25-50
M 17 MGR W
BD
1
15. BO N BO BO
2
5 0-0,5 do 1
1-5
101200
K
P
OO
-1
16. O
2
1
1-5 51-100 M 25 MGR
P
BD
0
2
5-6
1-2
54
18
SO
1
2
4
5
BO BO BO
1
1
T
4
BO
G
Z
3001 4000
1801 2000
SO
Objaśnienia danych w kolumnach zawarto w tabeli 1.
Źródło: opracowanie własne na podstawie wyników badań ankietowych.
Kwestią dyskusyjną pozostaje czy w przypadku długich kwestionariuszy naleŜy pozostawiać dane
od respondentów, którzy nie zaznaczyli pojedynczej (lub nawet kilku) komórek ich charakteryzujących (w kolumnach od 16 do 27 tabeli 2). Na przykład jedni nie zdecydowali się ujawnić swoje-
182
Krzysztof Śmiatacz
Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza
internetowego na przykładzie badań rynku telefonii komórkowej
go stanu cywilnego, inni wieku lub zarobków. Istnieją narzędzia przy pomocy, których respondentów wypełniających kwestionariusze w Internecie moŜna zmusić do wypełniania wszystkich pól.
JednakŜe pytani często nie umieją, nie chcą lub nie są zainteresowani ocenianiem lub wypełnianiem jakiejś rubryki i przymuszanie ich do tego moŜe spowodować ich rezygnację z uczestnictwa
w procesie badawczym i utratę cennej opinii.
Podczas badań zbierano takŜe informacje o respondencie bez jego udziału i wiedzy. Dzięki
nim moŜna zebrać dane takie, jak:
informacja jaki system operacyjny ma zainstalowany respondent, oraz jakiej uŜywa przeglądarki internetowej;
dokładny czas wypełnienia kwestionariusza, podany przez serwer, na którym go zainstalowano. ZauwaŜono, Ŝe niektórzy respondenci nieświadomie po ukończeniu wypełniania naciskają
guzik „wyślij dane” kilka razy i w takiej sytuacji powstaje niebezpieczeństwo otrzymania informacji, która powielona kilkukrotnie, zaśmieca bazę danych. W takim przypadku dokładny
czas wypełnienia pozwala eliminować takie dane;
informacja jaki numer IP w sieci Internet ma komputer respondenta. Dane w bazie pochodzące z komputera posiadającego ten sam numer IP i wysłane w tym samym czasie poddawano szczególnej kontroli. Istnieją informatyczne narzędzia sprawdzające, czy ktoś przez przypadek lub świadomie nie wysyła tych samych danych kilkakrotnie. Narzędzia takie oparte są
w większości przypadków na kontroli numeru IP. JednakŜe, z uwagi na to, Ŝe niektóre sieci
komputerowe nadają ten sam numer IP kaŜdemu z róŜnych wchodzących w ich skład komputerów (a zatem wielu potencjalnych respondentów), zatem taka blokada mogłaby pozbawić
szansy wypełnienia kwestionariusza przez niektórych zainteresowanych. Przykładem moŜe
być sieć domowa w której skład wchodzą dwa komputery, np. męŜa i Ŝony, przyłączone do
routera lub niektóre sieci lokalne. Ich uŜytkownicy przewaŜnie mają taki sam numer IP.
6. Uwagi końcowe
Sposób przedstawiony w artykule nie wyczerpuje wszystkich kombinacji w przypadku zajścia
których moŜna podjąć decyzję o czyszczeniu danych. Wskazówki przedstawione w artykule mogą
być wykorzystane przy innych badaniach opinii klientów. Warto wziąć pod uwagę takŜe to, Ŝe badania przez Internet powinny być prowadzone za pośrednictwem sieci, przy załoŜeniu, Ŝe klienci
odpowiadający za pośrednictwem tego medium będą stanowić próbę reprezentatywną w stopniu
zadowalającym badacza.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
183
7. Literatura
1.
2.
3.
Kaczmarczyk S., Badania marketingowe. Metody i techniki, PWE, Warszawa 2003, s. 35.
Rószkiewicz M., Metody ilościowe w badaniach marketingowych, PWN, Warszawa
2002, s. 20-22.
Mazurek-Łopacińska K. (red.), Badania marketingowe. Podstawowe metody i obszary
zastosowań, Wyd. Akademii Ekonomicznej we Wrocławiu, Wrocław 2002, s. 23-34.
THE METHOD OF DATA REDUCTION OBTAINED THROUGH THE INTERNET
QUESTIONNAIRE ON THE BASIS OF MOBILE TELEPHONY MARKET RESEARCH
Summary
These days more and more companies have the opportunity to conduct research
among their customers by the medium of the Internet network. A number of them
have their employees to do the research without any help of advisory firms.
The elements of data reduction method obtained through the Internet questionnaire and used in the individual customer satisfaction research of Polish mobile telephony was presented in the article.
Keywords: Internet data collecting, the process of marketing research, data cleaning
Krzysztof Śmiatacz
Uniwersytet Technologiczno-Przyrodniczy
e-mail: [email protected]
http://www.wz.utp.edu.pl
184
Tatiana Tretyakova
Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji
TATIANA TRETYAKOVA
Politechnika Szczecińska
WIEDZA I MODELE DLA LOKALNYCH INTELIGENTNYCH SKŁADNIKÓW
SYSTEMU WSPOMAGANIA DECYZJI
Streszczenie
W artykule przedstawiono schemat blokowy Systemu Ostrzegawczo-Doradczego
regionalnego Centrum Zarządzania w Sytuacjach Kryzysowych (SOD CZSK) oraz
model formalny jego struktury. SOD CZSK zawiera w swoim składzie lokalne inteligentne składniki wspomagające decyzje w warunkach istniejącego zagroŜenia niebezpiecznym zjawiskiem natury. Takie zjawiska mogą doprowadzać do kryzysu finansowego gospodarki nie tylko odrębnych podmiotów gospodarczych, ale nawet
całych regionów. W celu określenia obszaru pozyskiwania wiedzy dla lokalnych inteligentnych składników SOD CZSK zostały wybrane dziedziny oraz zagadnienia, których rozwiązywane wymaga uwzględnienia estymacji informacji hydrometeorologicznej. Jako przykład modeli, które mogą być włączone do kontentu (zawartości)
baz wiedzy lokalnych inteligentnych składników SOD CZSK zaprezentowano modele
i algorytm wyboru z alternatywnych wariantów projektów przedsięwzięć skierowanych na obniŜenie ryzyka związanego z niebezpiecznymi zjawiskami natury. Omówiono moŜliwości zastosowania technologii OLAP i GIS w celu pozyskiwania i analizy danych hydrometeorologicznych oraz danych o obiektach gospodarczych zagroŜonych terenów.
Słowa kluczowe: lokalne inteligentne systemy, kontent bazy wiedzy, modele, ryzyko, system
ostrzegawczo-doradczy, wspomaganie decyzji
1. Wprowadzenie
Wiele róŜnych czynników moŜe wywoływać powstanie sytuacji kryzysowych w gospodarce,
wśród których istotne są czynniki hydrometeorologiczne, szczególnie teraz - w warunkach ocieplenia klimatu. ZagroŜeniom hydrometeorologicznymi zjawiskami natury ulegają między innymi
podmioty gospodarcze, które znajdują się na niebezpiecznych terenach. Aby zmniejszyć ryzyko
strat w takich warunkach tworzone i wykorzystywane są Systemy Ostrzegawczo-Doradcze (SOD)
dla regionalnych Centrów Zarządzania w Sytuacjach Kryzysowych (CZSK), których lokalne inteligentne składniki mogą być wykorzystywane zarówno w zarządzaniu odrębnymi podmiotami gospodarczymi po odpowiednich zmianach w kontencie baz wiedzy.
Rozwiązanie problemu tworzenia baz wiedzy lokalnych inteligentnych składników dla SOD
CZSK wymaga przede wszystkim modelowania procesów decyzyjnych przebiegających w ramach
procesów funkcjonowania systemów, nazywanych takŜe, w stosunku do podmiotów gospodarczych, procesami biznesowymi (business process). Modele procesów decyzyjnych wykorzystuje
się przy tworzeniu kontentu baz wiedzy inteligentnych systemów wspomagania decyzji poprzez
określenie modeli, faktów i reguł rozwiązywania zagadnień w procesach funkcjonowania syste-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
185
mów. W pracach naukowych problem ten dyskutuje się od wielu lat [1-6]. Szczególnie waŜnym
jest rozwiązanie problemu modelowania procesów decyzyjnych w sytuacjach nieokreśloności i
ryzyka występujących między innym pod wpływem czynników hydrometeorologicznych i posiadających w związku z tym charakter unikatowy. W takich sytuacjach wymagane są krótki czas podejmowania decyzji i trafność decyzji, bo od tego często zaleŜy nie tylko wielkość strat finansowych, ale takŜe Ŝycie ludzi.
Elementy modelu formalnego zadania podejmowania decyzji określające etapy i kierunki pozyskiwania wiedzy przy studiowaniu procesów decyzyjnych zostały przedstawione przez autorkę w
pracy [7]. Etapy te są charakterystycznymi praktycznie dla dowolnej sytuacji problemowej pojawiającej się pod wpływem czynników hydrometeorologicznych. Zgodnie z tym modelem poprzez
opis ontologiczny dziedziny problemowej strukturyzuje się wiedza o dziedzinie, dla której planuje
się tworzenie lokalnego inteligentnego systemu wspomagania decyzji. W procesie strukturyzacji
identyfikuje się problemy, powstające pod wpływem czynników hydrometeorologicznych, ocenia
się ryzyko ponoszenia strat przy powstaniu problemu i oraz określa się sposoby, czyli modele i
reguły, jego rozwiązywania.
Jako lokalne inteligentne składniki SOD mogą występować specjalistyczne systemy agentowe
i systemy ekspertowe (SE) wspomagające decyzje z estymacją informacji hydrometeorologicznej
w róŜnych dziedzinach. Włączenie takich składników do struktury systemów informacyjnych podmiotów gospodarczych, rozlokowanych na zagroŜonych niebezpiecznymi zjawiskami natury, nadaje tym systemom właściwości systemów ostrzegawczo-doradczych. W bazach wiedzy lokalnych
inteligentnych składników przechowuje się i rozwija się wiedza, która moŜe być wykorzystana
przy podejmowaniu decyzji z estymacją informacji hydrometeorologicznej. Jest to waŜnym i korzystnym z powodu tego, Ŝe decydenci z czasem mogą zmieniać się, ale ich doświadczenie i wiedza zostaną zachowane. Dzięki temu przy powstaniu analogicznych sytuacji wiedza ta moŜe być
wykorzystywana i uzupełniana poprzez nowych decydentów. ZauwaŜmy, Ŝe polepszenie jakości
podejmowanych decyzji bazuje nie tylko na zastosowaniu wyników symulacji na modelach rozwiązania róŜnych zagadnień, moŜe ono odbywać się równieŜ poprzez wspomaganie decyzji w sytuacjach niestandardowych oraz poprzez trening kadry za pomocą odpowiednich inteligentnych
systemów [ 8].
W bazach wiedzy inteligentnych składników SOD CZSK powinny być zawarte modele i wiedza ekspercka, które pozwoliły by na przeprowadzenie symulacji poprzez wykorzystanie danych
wejściowych. Niektóre z tych danych mogą być zdobyte za pomocą takich inteligentnych składników jak OLAP (On Line Analitical Processing) i GIS (Geografic Information System), w tym LIS
(Land Information System), uzupełniających strukturę SOD CZSK. WyposaŜenie SOD CZSK w
specjalistyczne lokalne inteligentne systemy, takich jak systemy ekspertowe i agentowi, tworzy
dodatkowe moŜliwości dla lepszego uzasadnienia podejmowanych decyzji z estymacją informacji
hydrometeorologicznej przy rozwiązywaniu problemów słabo ustrukturyzowanych. Wybór modeli
i określenie reguł podejmowania decyzji w procesie symulacji na owych modelach dla lokalnych
inteligentnych składników SOD CZSK zaleŜy od dziedziny rozwiązywanych problemów [9]. Od
dziedziny problemowej zaleŜy równieŜ struktura SOD CZSK. Dla przypadku, gdy procesy decyzyjne przebiegają z estymacją informacji hydrometeorologicznej moŜe być wykorzystany wariant
struktury SOD CZSK rozpatrzony w następnym rozdziale.
186
Tatiana Tretyakova
Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji
Model formalny i schemat blokowy struktury SOD CZSK
Struktura SOD CZSK zawiera róŜne lokalne inteligentne składniki. Uproszczony model formalny struktury systemu SOD CZSK moŜna przedstawić jako następujący zbiór:
M = {Eq, Sfw,Iint }
(1)
gdzie: Eq- sprzęt; Sfw – oprogramowanie; Iint – informacja, wiedza.
Bardziej szczegółowe modele formalne dwóch składników tego modelu: Sfw oraz Iint. Składnik
Sfw przedstawimy jako następujący zbiór:
Sfw = {Drep, Db , Sdb, Kb, Skb , Interf, Aint, ES, Bweb}
(2)
gdzie: Drep – repozytorium i witryny danych (data warehousing) w połączeniu z technologiami
OLAP i GIS; Db - relacyjne bazy danych; Sdb – system zarządzania bazą danych; Kb - baza wiedzy; Skb - system zarządzania bazą wiedzy ; Interf – interfejsy; Aint – lokalne organizacje (inteligentne
agenty); ES – lokalne systemy ekspertowe; Bweb- poszukiwarki.
Składnik Iint przedstawimy jako zbiór:
Iint = {d, m, r}
(3)
gdzie: d – dane; m – modele; r – reguły.
Lokalny system ostrzegawczy
Objekty gospodarcze,
mieszkancy regionu
C.Z.S.K.
HMP
Lokalny system agentow
komputerowych
- Agent rejestrujacy
- Agent reakcyjny
System
pomiaru
poziomu
wody w
jeziorze
System
komunikacji
satelitarnej
Baza
danych
System przekazu
informacji
o zagrozeniu
Informacje
o poziomie
wody w
jeziorze
Mechanism
wnioskowania
Baza
wiedzy
Mechanism
komunikacji
z modulem
symulacyjnym
Modul
symulacyiny
BD
OLAP
BD
Bazy danych sluzb
hydrometeorologicznych
Interfejs
uzytkownika
Decydent
Rys.1. Schemat blokowy SOD CZSK
GIS
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
187
W przedstawionym we wzorze (2) modelu formalnym struktury Sfw zostali ujęte lokalne inteligentne systemy, tworzone zgodnie z potrzebami uczestników procesów decyzyjnych. WyposaŜenie sytemu wspomagania decyzji w taki składniki i ich wspólne wykorzystanie w procesie decyzyjnym daje efekt synergetyczny w drodze podnoszenia jakości podejmowanych decyzji. Na rys. 1
przedstawiono schemat blokowy jednego z moŜliwych wariantów struktury regionalnego SOD
CZSK.
W strukturze na rys.1 zawarte są lokalne inteligentne składniki: system ostrzegawczy HMPoziom, który jest systemem lokalnych inteligentnych agentów i zawiera agentów rejestrującego i reakcyjnego/elastycznego (flexible). Agent rejestrujący prowadzi ewidencję pomiarów poziomu
w jeziorze, tj. rejestruje dane o poziomie, natomiast drugi agent reakcyjny, reagując na alarmowy
poziom wody, sygnalizuje o zagroŜeniu lawiną błotną przez system komunikacji z CZSK. Do SOD
CZSK został takŜe włączony SE HMDEC, który moŜe funkcjonować jako lokalny system, spełnia
on rolę systemu doradczego wspomagając decyzje podejmowane z uwzględnieniem estymacji informacji hydrometeorologicznej.
Z przedstawionej we wzorze (2) i na rys.1 struktury widać, Ŝe pozyskiwanie i strukturyzacja
wiedzy dla inteligentnych składników SOD CZSK jest jednym z waŜniejszych zadań przy jego
tworzeniu, rozwiązanie którego wykonuje się zgodnie z metodą zaprezentowaną w pracy [10].
2. O modelach i wiedzy dla lokalnych inteligentnych składników SOD CZSK wykorzystujących informację hydrometeorologiczną
Podejmowanie decyzji z uwzględnieniem estymacji informacji hydrometeorologicznej
w wielu dziedzinach: zarządzaniu regionalnym, transporcie, rolnictwie, gospodarce wodnej, budownictwie, energetyce itd., podnosi adaptacyjny potencjał podmiotów gospodarczych pozwalając
wybierać najlepszą strategie i taktykę współdziałania z naturą [11]. Z uwzględnieniem estymacji
tego typu informacji opracowuje się plany przedsięwzięć skierowanych na zapobieganie stratom
spowodowanym przez groźne czynniki natury.
Wysoki poziom nieokreśloności następstw, związanych z niebezpiecznymi zjawiskami hydrometeorologicznymi oraz konieczność szybkiego i poprawnego reagowania w przypadku zagroŜenia ze strony natury zmuszają do zastosowania w procesach decyzyjnych i procesach treningu
personelu wsparcia komputerowego, czyli: inteligentnych systemów ostrzegawczych, doradczych i
treningu. W niniejszym artykule autorka skupiła się na inteligentnych systemach doradczych
wspomagających decyzje odnośnie wyboru wariantu projektu przedsięwzięcia zapobiegającego
stratom w wyniku oddziaływania czynników hydrometeorologicznych. Dla systemów tej klasy naleŜy przygotować kontent baz wiedzy, który zawierał by całą wiedzę niezbędną przy podejmowaniu decyzji z uwzględnieniem estymacji informacji hydrometeorologicznej, zawierającą modele
i reguły rozwiązania zagadnień, metody i modele zarządzania ryzykiem.
Pod pojęciem ryzyka w danym artykule rozumie się miarę moŜliwości nastąpienia zdarzenia
losowego i wielkości skutków wywołanych przez to zdarzenie, tj. Ilościowa ocena ryzyka ujmuje
jednocześnie prawdopodobieństwo jego wystąpienia i ponoszone w wyniku nastąpienia zdarzenia
straty.
W warunkach istniejącego ryzyka występowania niebezpiecznych zjawisk natury i ponoszenych w wyniku tego strat dla podjęcia decyzji o wyborze z róŜnych wariantów projektów przedsięwzięć, zapobiegających stratom wykorzystuje się podejście probabilistyczne. Przy tym podejściu prognozuje się moŜliwe sytuacje ryzykowne powstające pod wpływem niebezpiecznego zja-
188
Tatiana Tretyakova
Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji
wiska natury: Ri , i= 1,2,...n z nadaniem im prawdopodobieństwa wystąpienia. Jako Ri moŜe występować ryzyko związane ze zniszczeniem obiektów gospodarczych (rolniczych, przemysłowych,
socjalnych, kulturalnych), awariami, utratą zdrowia i Ŝycia, przerwami w funkcjonowaniu obiektów
oraz innymi. Dla kaŜdej ryzykownej sytuacji oblicza się wielkość potencjalnie moŜliwych strat
(CRi) oraz prawdopodobieństwo wystąpienia takiej sytuacji PRi pod warunkiem Ŝe:
n
∑ PR i = 1
(4)
i =1
Ilościową ocenę ryzyka obliczano według wzoru (5):
Ri = PRi · CRi,
(5)
gdzie Ri – ilościowa ocena ryzyka, PRi – prawdopodobieństwo wystąpienia zdarzenia ryzykownego, CRi – wielkość moŜliwych strat przy jego wystąpieniu.
Algorytm wyboru projektu przedsięwzięcia ochronnego przedstawiono na rysunku 2. Zgodnie
z tym algorytmem na początku porównuje się ilościową ocenę ryzyka Ri z wielkością wydatków
związanych z realizacją ochronnych przedsięwzięć CO. Na podstawie wyników analizy porównawczej podejmuje się decyzję odnośnie efektywności ekonomicznej rozpatrywanego projektu przedsięwzięcia. Efektywne projekty zapisuje się do listy projektów-kandydatów (Ki) na realizację, które
przeszły ocenę ilościową. Ale przy podejmowaniu decyzji o wyborze projektu z listy projektówkandydatów Ki wykonuje się dodatkowo analizę jakościową. MoŜe ona być przeprowadzona ze
strony prawnej, etycznej, ekologicznej itd. W związku z tym kaŜdy projekt z listy projektówkandydatów Ki ocenia się takŜe zgodnie z kryteriami oceny jakościowej. W wyniku takiej oceny
dokonuje się wyboru najlepszych (z punktu widzenia ustalonych kryteriów oceny jakościwej) projektów przedsięwzięć ochronnych, które zapisuje się do listy projektów-kandydatów Kj. W końcu z
listy Kj zostaje wybrany taki projekt ochronnego przedsięwzięcia, który prowadzi do minimalizacji
strat M(Ri), związanych z wystąpieniem zdarzenia ryzykownego pod wpływem czynników hydrometeorologicznych oraz z realizacją ochronnego przedsięwzięcia:
n
M ( Ri ,C0i ) = ∑ ( Ri + C0i ) → min
i =1
(6)
3. Zastosowanie lokalnych inteligentnych systemów w procesie decyzyjnym
Informacja o zagroŜeniu niebezpiecznym zjawiskiem ze strony natury wpływa od słuŜb hydrometeorologicznych. W sytuacjach kryzysowych zarządzanie realizuje się zwykle przez CZSK.
Przy zagroŜeniu niebezpiecznym zjawiskiem natury decydenci CZSK wysyłają odpowiednią informację i instrukcje do specjalnych komisji powiatowych lub miast, a te sygnalizują o zagroŜeniu
kierownictwu obiektów gospodarczych, socjalnych, kulturalnych. W strukturze blokowej SOD
CZSK przedstawionej na rys.1 został uwzględniony system ekspertowy HMDEC, który, słuŜy jako
system doradczy w procesach decyzyjnych związanych z reagowaniem na zagroŜenia ze strony
natury. Struktura SE HMDEC i jego baza wiedzy zostały przedstawione we wcześniejszych publikacjach [12,13].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
189
Start
Ilosciowa ocena ryzyka Ri : PRi x CRi
Ocena kosztow projektu COi
Porownanie wielkosci Ri i COi
Jesli
R i ≥ C 0i
Nie
Tak
Zapis do listy projektow-kandydatow
Ki po ocenie ilosciowej
Ocena jakosciowa projektu
Czy ocena jakosciowa
jest dobra ?
Nie
Tak
Zapis do listy projektow-kandydatow
Kj po ocenie jakosciowej
n
Wybor projektu: M ( R i , C 0 i ) = ∑ ( R i + C 0 i ) → min
i =1
Koniec
Rys.2. Algorytm wyboru projektu przedsięwzięcia ochronnego.
Aby było moŜliwe korzystanie z wiedzy i modeli tego systemu potrzebne są określone dane, które
powinny być umieszczone w jego bazie danych lub wprowadzane operacyjnie, jako dane wejściowe. ZauwaŜmy, Ŝe lokalne inteligentne systemy wspomagające procesy decyzyjne na róŜnych poziomach zarządzania regionalnego i w podmiotach gospodarczych mogą odbierać i analizować
informacje o stanie środowiska z róŜnych zewnętrznych źródeł. Przy duŜej ilości analizowanych
danych pozyskiwanych ze źródeł zewnętrznych moŜe być zastosowana technologia OLAP, która
jest technologią operacyjnej analitycznej obróbki danych. W postaci danych zewnętrznych analizowanych przez OLAP mogą występować takŜe dane z baz danych słuŜb hydrometeorologicznych
i instytutów naukowo-badawczych, zawierających, na przykład, informacje o wieloletnich zmia-
190
Tatiana Tretyakova
Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji
nach charakterystyk hydrologicznych róŜnych obiektów wodnych. Obecnie istnieje moŜliwość łączenia przez interfejs relacyjnej bazy danych z bazą faktów systemu ekspertowego lub całkowitej
zamiany bazy faktów na relacyjną bazę danych systemu informacyjnego.
Dane mogą być uzyskane takŜe za pomocą systemu informacji geograficznej (GIS). GIS moŜe być bardzo przydatnym w przypadku potrzeby przetwarzania danych o obiektach duŜego regionu zagroŜonego niebezpiecznym zjawiskiem natury. Technologia GIS moŜe być wykorzystywana
razem ze zdalnymi urządzeniami pomiaru sterowanymi komputerowo. Dane uzyskane za pomocą
systemu informacji geograficznej mogą być przedstawione w postaci tekstowej lub/i graficznej. Są
to przede wszystkim dane o obiektach gospodarczych, socjalnych, kulturalnych regionu, które
znajdują się na zagroŜonych terenach. Na przykład, przy rozwiązaniu zadania projektowania dróg
w miejscowości zagroŜonej lawinami błotnymi są potrzebne dane o miejscach moŜliwego zejścia
lawin, ich częstotliwości i wielkości, informacja hydrometeorologiczna, której analiza za szereg lat
pozwala ustalić tendencje. Właśnie przy tej analizie moŜe być przydatną technologia OLAP. Wykorzystanie tych danych i informacji przy projektowaniu i dalszej eksploatacji dróg zapewnia bezpieczeństwo ruchu[10]. System ekspertowy doradczy HMDEC moŜe wspomagać podjęcie decyzji
o znalezieniu najbezpieczniejszego i najkorzystniejszego wariantu projektu budowy drogi
z uwzględnieniem ryzyka zejścia lawin błotnych na danym odcinku na podstawie danych wprowadzonych operacyjnie przez uŜytkownika (dane hydrometeorologiczne na dzień prowadzenia ekspertyzy, dane o kosztach budowy obiektu i inne) oraz na podstawie danych zawartych w bazie danych SE lub uzyskanych za pomocą GIS (dane kartograficzne, dane o komunikacjach terenu
i obiektach gospodarczych) i za pomocą OLAP (jako wyniki analizy danych hydrometeorologicznych za ubiegłe lata), a takŜe przy uŜyciu reguł wyboru miejsca dyslokacji drogi i modeli wyboru
z alternatywnych projektów.
Na podstawie wyników projektu naukowo-badawczego[13] została stworzona baza danych
o obiektach gospodarczych jednego z regionów Kazachstanu – DŜungarskiego Ałatau, dolina rzeki
Tałgar zagroŜonego lawiną błotną [7]. Przy uŜyciu tych danych i wyników symulacji na modelach rozwiązywania zagadnień w sytuacjach uwzględnionych w scenariuszach w bazie wiedzy SE
HMDEC uzyskuje się pewne wnioski. Wnioski te wspomagają decyzje o wyborze wariantów projektów w budownictwie, o rozmieszczeniu obiektów, o ewakuacji ludzi i wartości materialnych i
kulturalnych, o realizacji przedsięwzięć, zapobiegających negatywnym skutkom powodowanym
przez zejście lawin błotnych itd.
Cała wiedza niezbędna do wyciągnięcia wniosków wspomagających procesy decyzyjne uzyskuje się w procesie pozyskiwania wiedzy z zastosowaniem podejścia ontologicznego do opisu
odpowiedniej dziedziny problemowej. Podejście ontologiczne do budowy bazy wiedzy HMDEC
zostało przedstawione w pracy autorki[15]. Dla systemu ekspertowego HMDEC jest to dziedzina
problemowa nazywana „Podejmowanie decyzji w sytuacjach nie standardowych powstających pod
wpływem niebezpiecznego zjawiska natury”. Umiejętności i nawyki szybkiego reagowania i podjęcia właściwych decyzji w takich sytuacjach mogą być ukształtowane przez zastosowanie systemu
ekspertowego HMDEC-T w celu treningu personelu. Wtedy przez opis ontologiczny powinna być
przedstawiona wiedza z dziedziny problemowej „Proces nauczania i treningu” [16].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
191
4. Zakończenie
Coraz częściej na działalność podmiotów gospodarczych i całych regionów wpływają róŜne
czynniki hydrometeorologiczne w wyniku ocieplenia klimatu. W takich warunkach procesy decyzyjne warto wspomagać przez systemy pozwalające zarządzać ryzykiem, związanym z niebezpiecznymi zjawiskami natury. W celu przyspieszenia procesu adaptacji do zagroŜeń ze strony natury tworzone są inteligentne systemy ostrzegawczo-doradcze posiadające narzędzia, informacje
i wiedzę wspomagające rozwiązywanie problemów powstających pod wpływem czynników hydrometeorologicznych. WyposaŜenie SOD CZSK w lokalne inteligentne systemy pomoŜe przyspieszyć i ulepszyć uzasadnienie podejmowanych decyzji. Do takich lokalnych systemów naleŜą
między innymi. SE HMDEC oraz SE HMDEC-T bazujące na wiedzy z dziedzin, w których
uwzględnienie estymacji informacji hydrometeorologicznych ma waŜne znaczenie. W artykule zaprezentowano schemat blokowy i model formalny struktury SOD CZSK, a takŜe algorytm wyboru
z alternatywnych wariantów projektów skierowanych na obniŜenie ryzyka. Zaprezentowano dziedziny wykorzystywania informacji hydrometeorologicznych oraz zagadnienia rozwiązywane
w tych dziedzinach w celu określenia obszaru pozyskiwania wiedzy dla lokalnych inteligentnych
składników SOD CZSK.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Dowgiałło Z. (1995): System obsługi naczelnego kierownictwa w zarządzaniu. W: System
obsługi naczelnego kierownictwa w zarządzaniu. IBS PAN Oddział w Szczecinie,
Szczecin
Red. R.Budziński (1997) System naczelnego kierownictwa w zarządzaniu (studia,
algorytmy, modele). Informa, Szczecin.
Popow O., Sołdek J., Tretyakova T.(1997) Systemy adaptacyjnego, informatycznie
wspomaganego zarządzania przedsiębiorstwem. Zbiór artykułów: “Systemy
Informatyczne w Zarządzaniu Strategicznym”, Informa, Szczecin.
Więglarz J. (2001): Informatyka, wiedza, decyzje// InŜynier. Grudzień’01.
Praca zbiorowa pod red. Z. Twardowskiego. (2007) Inteligentne systemy wspomagania
decyzji w strategicznym zarządzaniu organizacją gospodarczą. Wyd. Uczelniane
Akademii ekonomicznej im. Karola Adamieckiego, Katowice.
Radosiński E. (2001). Systemy informatyczne w dynamicznej analizie decyzyjnej.- PWN,
Warszawa-Wrocław.
T.Tretyakova, A.Zair. (2008)The structure and knowledges of the intelligent system of
warning and decision's support that includes local systems. Proceedings of the 15-th
International Conference Advanced Computer Systems. ACS’2008, Szczecin, Poland.
O.Popov, T.Tretyakova. (2007) Use of a technique of the structurally functional analysis
In knowledge engineering for komputer-bazed training systems (on example of decisionmaking processes for operator’s training of dynamic objects). In book - red. F.Kubiak,
A.Korowicki: Information Management, Gdansk University Press, Gdansk.
Tretyakova T. (2005). Baza wiedzy systemu ekspertowego „HMDecision” w systemie
informacyjnym klasy DSS – podejście obiektowe (w jęz. rosyjskim). Materiały 4-ej
Konferencji Międzynarodowej “Analiza, prognozowanie i zarządzanie w systemach
złoŜonych” pod patronatem Rosyjskiej Akademii Nauk, Szczecińskiej Akademii
192
Tatiana Tretyakova
Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji
10.
11.
12.
13.
14.
15.
16.
Morskiej, Szczecińskiej Akademii Rolniczej, Państwowego Uniwersytetu Komunikacji
Wodnej w St.Petersburgie, St.Petersburg.
Tretyakova T. (2007) Metodyka analizy funkcjonalno-strukturalnej procesów
decyzyjnych i jej rola w inŜynierii wiedzy dla systemów informacyjnych. Studia
i materiały PSZW nr 8, pod red. Dr hab.inŜ.W.Bojara, PSZW, Bydgoszcz.
Vimberg G., Alszanskij J., Bragiskaja E, Tretyakova T. i inni(1991) Metodyka oceny
kompleksowej efektu ekonomicznego przy podejmowaniu decyzji o realizacji
przedsięwzięć gospodarczych i wyborze optymalnych wariantów zastosowania informacji
hydrometeorologicznej róŜnych typów w gospodarce. Państwowy Komitet Związku
Radzieckiego ds hydrometeorologii, Główny Geofizyczny Obserwatorium im. A.I.
Vojejkova, Leningrad.
Tretyakova T. (2003) Prototipe of expert system „Hydrologist”: concept of design. Proc.
of the 10-th International Conference Advanced Computer System - ACS’2003, Szczecin.
Tretyakova T. (2005) Baza wiedzy systemu ekspertowego „HMDescision” w systemie
informacyjnym klasy DSS – podejście objektowe (w jęz. rosyjskim). Materiały 4-ej
Konferencji Międzynarodowej “Analiza, prognozowanie i zarządzanie w systemach
złoŜonych” pod patronatem Rosyjskiej Akademii Nauk, Szczecińskiej Akademii
Morskiej, Szczecińskiej Akademii Rolniczej, Państwowego Uniwersytetu Komunikacji
Wodnej w St.Petersburgie, ISBN 5-8114-0437-9, St.Petersburg.
Tretyakova T.V. Radiugin D.V. Kolobov V.L. (1990) Sprawozdanie naukowe o wynikach
projektu pod tytułem: Opracować metodykę oceny socjalno-ekonomicznej przedsięwzięć
zapobiegających wpływom lawin błotnych. St Petersburski Państwowy Instytut Badań
Hydrologicznych (PIBH), St Petersburg.
Tretyakova T. (2006) Zarządzanie wiedzą przez zastosowanie ontologii dziedzin. Studia
i materiały PSZW nr 5, pod red. J.Kacprzyk, L.Drelichowski, Bydgoszcz.
Popov O., Tretyakova T. (2006) Ontologies as a Technique of a Knowledge Management
In Open e-Learning Systems for Operators of Dynamic Processes. Studia and Proceedings
Polish Association for Knowlwdge Management nr 6. Reviewrs: prof. J.Kacprzyk,
Bydgoszcz
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
193
KNOWLEDGE AND MODELS OF LOCAL INTELLIGENT COMPONENTS
IN DECISION SUPPORT SYSTEMS
Summary
In the article are submitted the block-schemes of warning’s and advising’s information systems for regional Control centre in Crisis Situations. The formal structure of software for Decision Support System (DSS), what contain local intellectual
components is submitted also. These components are based on knowledge from areas in which the hydrometeorological information is used. The system serves for
support of decisions in conditions of constantly existing threat of the dangerous
natural phenomena. The models supporting acceptance of decisions at the choice of
projects of protective actions are submitted. Areas in which it is necessary to take
into account the hydrometeorological information at the decision of the submitted
problems with use of expert’s knowledge from these areas are determined. Is shown
the opportunity of use technologies OLAP and GIS with the purpose of search and
the analysis of hydrometeorological data and the data on objects.
Keywords: local intelligent system, content of knowledge base, model, risk, warning and decision
support system
Tatiana Tretyakova
Wydział Informatyki
Politechnika Szczecińska
e-mail: [email protected]
194
Piotr Welenc
Bernard Madoff – historia mitu uczciwości
PIOTR WELENC
CISA, CGEIT
Zaoczne Studium Doktoranckie IBS PAN
BERNARD MADOFF – HISTORIA MITU UCZCIWOŚCI
Streszczenie
W artykule zaprezentowano mechanizmy społeczne i ekonomiczne oszustw,
przestępstw i naduzyć gospodarczych. Studium przypadku stanowi analiza
nielegalnych operacji finansowych ujawniona w ostatnim kwartale ubiegłego roku.
Kryzys finansowy łączy się bezpośrednio z kryzysem zachowań etycznych
i niedocenieniem ładu korporacyjnego w rozwoju nowoczesnych przedsiebiorstw.
Mechanizmy technologiczne pozostawione bez naleŜytej kontroli, audytu
informatycznego oraz zasad „IT governance” mogą stanowić zagroŜenie dla
wiarygodności systemu finansowego.
Słowa kluczowe: Madoff, ład korporacyjny, audyt informatyczny, oszustwa, przestepstwa,
naduŜycia gospodarcze.
1. Kryzys moralny sektora finansowego
W 1960 r. Madoff załoŜył firmę Bernard L. Madoff Investment Securities LLC. W styczniu
2008 r., według danych zgłoszonych do SEC, czyli amerykańskiej komisji nadzoru giełdowego,
firma doradztwa inwestycyjnego Mafdoffa obracała aktywami ocenianymi na 17,1 mld. dol. Kilka
tygodni temu NASDAQ, do niedawna dzieło Ŝycia Bernarda Madoffa przeŜył trudną chwilę. Madoff – jego twórca został aresztowany pod zarzutem gigantycznego oszustwa – piramidy finansowej działającej na zasadzie schematu Ponziego. Polega on na spłacaniu wcześniejszych inwestorów pieniędzmi uzyskanymi od tych, którzy wpłacili je później, zwiedzeni obietnicą szybkiego
zysku o wielkich rozmiarach. Funkcjonowanie piramidy uzaleŜnione jest od stałego dopływu duŜych ilości kapitału i wcześniej czy później jest ona skazana na załamanie się, poniewaŜ fundusz
hedgingowy (a takim był fundusz B.Madoffa) wypłaca stale pieniądze tym którzy są „pierwsi”
a pozostali ponoszą koszty spłaty, nawet o tym nie wiedząc. Przez lata nikt nie interesował się metodami działania biznesu Madoffa. Madoff został zwolniony z aresztu za kaucją w wysokości 10
mln dol. i umieszczony w areszcie domowym. Trudno mu było nawet wśród najbliŜszej rodziny
liczyć na poręczenie. „Klienci” Madoffa znienawidzili go szczególnie, poniewaŜ to nie pieniądze
ale poczucie zdrady dotknęło ich szczególnie. „Nie ma większej hańby niŜ kraść od przyjaciół,
rodziny i tych, którzy mu zaufali” mówił nie kryjąc oburzenia Richard Ziman, członek zarządu
fundacji śydowska Federacja Los Angeles. Świadomość „wystrychnięcia na dudka” i plama na
honorze jest dla nich ciosem, którego nie wybaczą Madoffowi nigdy – ani w tym Ŝyciu, ani w przyszłym. Patos? Być moŜe. Niech jego uzasadnieniem będzie pewien być moŜe nieznaczący juŜ dzisiaj fakt. Nad grobem Kena Laya – prezesa ENRONu jeden z uczestników ceremonii zaŜądał
otwarcia trumny, aby na własne oczy przekonać się czy ciało Laya rzeczywiście się tam znajduje.
Amerykańskie tabloidy podchwyciły hasło reklamowe: "Zanim złoŜycie w grobie trumnę tego
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
195
oszusta, sprawdźcie, czy na pewno w niej jest!"
Piramida finansowa pogrąŜyła świat finansowy w stratach. Banki, prywatni inwestorzy obecnie
wstydzą się stanąć publicznie w roli ofiary lub naiwnego pośrednika (wiele klientów Madoffa to
banki, które oczywiście przerzuciły natychmiast straty na swoich klientów – np. Santander). Madoff, który zaliczał się do najbardziej znanych i wpływowych postaci w kręgach nowojorskiej finansjery, obracał pieniędzmi czołowych amerykańskich biznesmenów i polityków, licznych instytucji, takich jak Ŝydowskie uniwersytety i fundacje charytatywne. Oficjalnie wiadomo, Ŝe ucierpiały finansowo znane banki – m.in. HSBC, Fortis, UniCredit, Santander, Aozora Bank i Nomura
Holdigs (grupa finansowa) (Japonia), banki brytyjskie i włoskie – liczne amerykańskie organizacje
charytatywne, zwłaszcza Ŝydowskie jak równieŜ inwestorzy arabscy. Wielu „klientów” nie przyznało się oficjalnie i dopiero serwisy ekonomiczne (Bloomberg) ujawniły wielkości strat. Świat
dobroczynności Ŝydowskiej w USA jest niewielki i słuŜy przewaŜnie finansowaniu dzieł kulturalno-oświatowych. Z datków bogatych darczyńców utrzymywane były synagogi, przedszkola, szkoły, szpitale, muzea, uniwersytety, domy spokojnej starości, wyjazdy do Izraela dla amerykańskiej
młodzieŜy Ŝydowskiego pochodzenia i wiele, wiele innych. Madoff był w tym świecie jednym
z największych dobroczyńców. Wsparcie powyŜszych „activities” nie było by moŜliwe w tym stopniu, gdyby nie pieniądze otrzymane od Madoffa. Ucierpiały nie tylko liczne kluby Ŝydowskie oraz
indywidualni inwestorzy hiszpańscy. Inwestycje dokonywane były poprzez fundusze, które lokowały środki w piramidzie Madoffa. Stąd tez utrudnione było dochodzenie prawdy nie tylko o pochodzeniu pieniędzy ale równieŜ o wysokości ewentualnych strat. W czasach prosperity inwestorzy
wspierali B.Madoffa gotówką i reklamowali go jako „geniusza finansowego”. Po jego aresztowaniu karta się odwróciła. Prezes banku Santander stwierdził, Ŝe „nie będzie kompensował swoim
klientom szkód związanych z piramidą Madoffa”. Klienci Santander stracili 3,3 mld dol. Mortimer
Zuckermann przyznał w wywiadzie dla FOX Business, Ŝe 10% aktywów fundacji dobroczynnej
zostało powierzone firmie Madoffa. Sam Zuckerman w wywiadzie dla FOX Business stwierdził:
'I've Never Heard of Madoff'. Znalazło więc w pełni zastosowanie stare przysłowie mówiące iŜ
„sukces ma wielu ojców, tylko klęska jest sierotą”.
Wśród poszkodowanych są nie tylko banki, ale i fundacje, uniwersytety i osoby prywatne.
Liczba poszkodowanych, czyli tych, którzy uwierzyli, Ŝe bez względu na koniunkturę giełdową
moŜna osiągać kilkunastoprocentowe roczne zyski z inwestycji, rośnie praktycznie co dnia. Czy
zainwestowali by swoje pieniądze, gdyby wątpili w uczciwość Madoffa? Sam Madoff stwierdził 20
październik 2007 r. „I’m very close with the regulators”… As a master of fact my niece just married one”.
Zapewniając, Ŝe jego działalność jest zgodna zarówno z regulacjami jak i praktykami biznesowymi sprowadził sprawę przejrzystości i zaufania do ….absurdu. Kto wątpi w moją uczciwość –
zachowuje się absurdalnie. To zastanawiająca gra psychologiczna. MoŜna by wysnuć z niego następujący wniosek: wszyscy tak myślą więc nikt nie ośmieli się zaprzeczyć. B. Madoff uchodził za
bankiera w starym stylu, który dbał o image swojej firmy rygorystycznie przestrzegając wysokich
standardów etycznych. Taki obraz pozostawił po sobie wśród pracowników firmy „Bernard L. Madoff Investment Securities”. Upadek Madoffa moŜe spowodować trudne do przewidzenia konsekwencje dla biznesu i kół finansowych, ale takŜe dla oszczędności zwykłych Amerykanów.
Zastanawiające jest to, iŜ aresztowanie Madoffa (zajęli się tym jak zwykle agenci FBI) nastąpiło dopiero wówczas, gdy on sam przyznał swoim współpracownikom, Ŝe jego operacje finansowe były „jednym wielkim kłamstwem”. Audytor badający firmę “Bernard L. Madoff Investment
196
Piotr Welenc
Bernard Madoff – historia mitu uczciwości
Securities LLC”(fundusz hedgingowy), ani jakakolwiek spółka nie zadała sobie trudu uwaŜnego
zbadania legalności operacji finansowych prowadzonych przez Madoffa. Dlaczego?
Niewątpliwym faktem jest to, iŜ operacje finansowe Madoffa podlegały 16 razy kontroli SEC,
odpowiedzialnej za nadzór nad obrotem giełdowym i nie stwierdzono nieprawidłowości. To uśpiło
czujność rynku i pozwoliło Madoffowi „machać przed nosem czystym raportem z kontroli SEC”
potencjalnym ofiarom. Zastanawiające jest, Ŝe nikt nie zwrócił uwagę na wybór mało znanej firmy
audytorskiej dla zbadania sprawozdania finansowego “Bernard L. Madoff Investment Securities
LLC”. Kolejną zagadką jest iŜ nie zainteresowała się tym faktem PCAOB – z mocy prawa USA
powołana do sprawowania nadzoru nad prawidłowością prowadzenia księgowości spółek publicznych. Ciśnie się więc po raz kolejny pytanie: dlaczego?
Próba odpowiedzi postawione pytania oscyluje pomiędzy ignorancją a spiskowa teorią dziejów. W czasach swobodnego przepływu kapitału, gdy pieniądze nie znają granic, takŜe oszustwa
przybierają wymiary globalne. Innowacja zawsze jest pozytywna, jeŜeli budzi intelekt do myślenia
analityczno - systemowego i zmusza do wyciągania wniosków konstruktywnych, nawet w oparciu
o bolesne poraŜki. Destrukcja jest równieŜ innowacyjna.
2. Zrozumienie konieczności governance
Skandale i oszustwa finansowe nie są czymś nowym w gospodarce globalnej. Kiedy w 2001
roku runął Enron, a następnie Worldcom, Parmalat, banki azjatyckie – świat wiedział, ze musi rozprawić się z nieuczciwymi podmiotami stanowiącymi zagroŜenie dla ładu rynkowego. Wydawało
się, Ŝe regulacja Sarbaness – Oxley Act, wprowadzona pod obrady Kongresu i przyjęta jednogłośnie w USA skutecznie połoŜy kres naduŜyciom, a ich sprawców pośle do więzienia na długie lata.
Co takiego się stało, Ŝe ustawa która miała być istnym „młotem na czarownice” okazała się de facto nieskuteczna. Zdaniem autora o wiele łatwiej zgadzać się na karanie innych i wskazywanie ich
nieuczciwości aniŜeli rozpocząć działania na rzecz ładu korporacyjnego, wiarygodności i przejrzystości operacji finansowych we własnym – moŜna powiedzieć – mikrozakresie. Drugim czynnikiem
jest niewątpliwa pokusa – niewielu CEO i CFO stając w sytuacji pokusy umie się jej oprzeć. Przyczyną tego zjawiska jest zwykła chciwość i chęć wykazania się przed udziałowcami zyskiem, który
przekłada się na ich premie i bonusy. Stąd obniŜona awersja do ryzyka. Ludzie, którzy dokonują
oszustw są przewaŜnie „zewnątrzsterowni”. Pojęcie zewnatrzsterowności wprowadził do psychologii Bernard Rotter w teorii umiejscowienia poczucia kontroli (location of control). Umiejscowienie poczucia kontroli w człowieku wskazuje na kryteria podejmowanych decyzji. Osoby zewnatrzsterowne motywowane są do zachowań uczciwych poprzez groźbę kary, podczas gdy osoby wewnątrzsterowne interioryzują wartości i nie stronią od odpowiedzialności za własne zachowania,
które mają wymiar etyczny i prospołeczny. Governance w znacznej mierze to etyka i wartości uniwersalne adoptowane do konkretnych warunków biznesowych. Podstawą relacji biznesowej jest
zaufanie i komunikacja wartości.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
197
3. CzyŜby brakowało regulacji?
Autor zwraca uwagę na pewien fakt: otóŜ ustawa SOX traktuje niezwykle surowo oszustwa finansowe. Afery wstrząsające co pewien czas światem finansowym (przede wszystkim giełdą) były
rozliczane z całą surowością (patrz ENRON lub WORLDCOM). W SOX Act 2002 zapis mówiący, iŜ podmioty które pozyskały środki finansowe w sposób nielegalny mają obowiązek zwrócić
wszystkie przychody (naleŜne lub nienaleŜne, zdobyte w sposób legalny lub nielegalny) z ostatnich
24 miesięcy. Proszę wyobrazić sobie spełnienie tego wymogu prawa przez właścicieli imperiów
finansowych które finansowali nielegalne operacje Madoffa i byli ich beneficjentami. NajbliŜsze
lata z pewnością dadzą odpowiedź na pytanie, czy zapisy ustawy SOX znajdą pełne zastosowanie
wobec wszystkich podmiotów związanych ze sprawą czy pozostaną zatuszowane. Zarzuty nie postawione, odpowiedzialność nigdy nie wyegzekwowana a przestępcy korzystając z nielegalnie
zdobytych fortun będą spokojnie dokonywać dalszych oszustw uboŜsi wyłącznie o kwoty poręczeń
majątkowych. Zdaniem autora jest to jedno z zadań mediów, aby pilnie „patrzeć na ręce” podmiotom, które powinny (zgodnie z zapisami SOX) zwrócić nienaleŜne zyski za okres 2 poprzednich
lat. Oszustwa finansowe wbrew surowym sankcjom „rozkwitają”. Ostatnią aferą, którą wstrząsnęła
tym razem branŜą IT oraz outsourcingiem jest skandal Ramalinga Raju, indyjskiego potentata finansowego, który zbudował swoje imperium na kreatywnej księgowości. Straty wprawdzie są
mniejsze (1,6 mln. USD), ale przecieŜ nie o fizyczne wielkości tu chodzi.
Bernard Madoff – nazwisko załoŜyciela NASDAQ będzie zawsze juŜ mówiło nie o sukcesie
ale o skandalu i oszustwie. Zdaniem autora świat pozwolił na niebezpieczny precedens. Pozwolił
na wykorzystanie niekontrolowanych mechanizmów elektronicznej wymiany do prowadzenia operacji finansowych o międzynarodowej skali i znaczeniu, które mają wpływ na finanse zwykłych
ludzi, a w środowisku amerykańskim przekładają się wprost na fundusze emerytalne prostych
obywateli. Kryzys finansowy przestał być domeną drobnych amerykańskich ciułaczy, kupowali
sobie domy za pół miliona i podczas kryzysu i niemoŜliwości spłaty kredytów (subprime) nie poradzili sobie finansowo. Klientem Madoffa była amerykańska elita, od Stevena Spielberga po noblistę Elie Wiesela. Okazało się, Ŝe na mechanizmy oszustwa, pazerność oraz nieodporni są równieŜ bogaci, „przewidujący” i „oświeceni”. Grono pechowców oszukanych przez Madoffa powiększyli: szef wytwórni Disney i załoŜyciel Dreamworks Jeffrey Katzenberg czy David Geffen, właściciel Geffen Records, Steven Spielberg (Wunderkind Foundation Stevena Spielberga, według
zeznań podatkowych za 2006 r. w 70 proc. finansowała swoją działalność z inwestycji w fundusz
Madoffa.), Mortimer Zuckerman, Blumenfeld, i Katzenberg – potentat rynku nieruchomości.
Oszustwo globalne odbyło się to nie bez przyzwolenia światowych elit finansowych, banków, zintegrowanego nadzoru finansowego państw o dojrzałej i „przejrzystej” strukturze prawa. Cały splot
sytuacji wskazuje na to, iŜ mechanizmy kontroli Państwa i rynku zostały zaprojektowane i wdroŜone w sposób nieskuteczny. Oczywiście ryzykownym jest postawienie tezy, iŜ zjawisko to miało
charakter zaplanowany, „tajemny”, świadomy lub umyślny. Nie brak jednak obserwatorów, którzy
są gotowi bronić nawet spiskowej teorii kryzysu i ferrować tezę, iŜ oszustwa finansowych krezusów nigdy nie ujrzały by światła dziennego, gdyby ofiarami nie okazały się tak znaczące firmy
i nazwiska.
Cechą oszustw o charakterze globalnym jest to, iŜ pieniądz inwestowany na rynkach wysokiego ryzyka (dozwolonych przez państwo) wirtualnie krąŜy po wszystkich rynkach finansowych
świata i ostatecznie droga przez niego przebyta jest tak skomplikowana, Ŝe jest nie do wyśledzenia
198
Piotr Welenc
Bernard Madoff – historia mitu uczciwości
konwencjonalnymi metodami. Faktem jedynym jest to, ze nie dotarł do ostatecznego beneficjenta i
nie przyniósł mu spodziewanego zysku. Niebezpiecznym precedensem jest fakt, iŜ ostatecznie wirtualizacja obrotu kończy się na funduszach emerytalnych, gdzie w grę wchodzą realne oszczędności obywateli i perspektywę utraty dorobku całego Ŝycia. Państwo próbuje jakoś łatać dziury finansowe z nielegalnych spekulacji, rekompensując część strat podatnikom, którzy jak by nie było są
równieŜ wyborcami, a niepowodzeniami systemu finansowego obciąŜają lokalne władze. Politycy
często podnoszą swoje notowania, obiecując obywatelom walkę z korupcja, zwalczanie naduŜyć i
100%owe rekompensaty utraconych aktywów.
Oszuści często wykorzystują tzw. efekt ekskluzywności. Nie kaŜdy mógł zostać klientem Madoffa. Dostęp do Madoffa zapewniali przyjaciele finansisty, Robert Jaffe i jego teść, 95-letni Carl
Shapiro. Minimalna kwota, jaką moŜna było u niego zainwestować, wynosiła milion dolarów. Znajomość z Madoffem i moŜliwość skorzystania z jego „geniuszu” był przywilejem zarezerwowanym
dla członków ekskluzywnych klubów, do których prawo wstępu liczone jest w setkach tysięcy dolarów rocznie.
Podobny mechanizm zastosowali właściciele firmy Interbrok Investment – głównego aktora
jednego z najbardziej spektakularnych „wpadek” systemu bankowego, którzy wykorzystując forex
utworzyli podobną piramidę finansową, a roszczenia klientów usiłowali zaspokajać sfałszowanymi
gwarancjami bankowymi. OtóŜ dostęp do firmy Interbrok Investment mieli prominenci świata polityki, kultury, warszawska palestra, parlamentarzyści….słowem elita. „Wstęp” do interesu kosztował nie mniej niŜ 20 tys. PLN, a podwójna księgowość pozwoliła oszukać wszystkich. Skomplikowane wojny na przepisy i paragrafy spowodowały lawinę oskarŜeń, procesów i zainteresowanie
prokuratury, która prowadzi śledztwo do dnia dzisiejszego. Afery mają jednak to do siebie, Ŝe
przypominają wybuch wulkanu. Prasa z lubością obserwuje i komentuje bieŜące wydarzenia, z
odwrotnie proporcjonalnym zainteresowaniem do upływu czasu.
A oto przykłady z polskiego rynku:
• Interbrok — firma zbankrutowała w maju 2007 r. po tym, jak trzech jej właścicieli zatrzymało CBŚ. Prokuratura przedstawiła im zarzuty oszustw na co najmniej 100 mln. zł
i przywłaszczenie po 1 mln. zł. Siedmiuset klientów Interbroka zgłosiło wierzytelności na 600 mln. zł. Szacunki syndyka, oparte na prawdziwej księgowości, a
nie przedstawianej klientom, sięgają 145 mln. zł.
• Netforex — sąd ogłosił upadłość spółki dwa miesiące temu. W sierpniu 2007 r. jej dwaj właściciele znaleźli się w areszcie. Prokuratura zarzuca im oszukanie kilkudziesięciu
klientów na co najmniej 14 mln. zł oraz prowadzenie działalności maklerskiej
bez zezwolenia Komisji Nadzoru Finansowego.
• WGI Dom Maklerski — firma zbankrutowała w czerwcu 2006 r. Dwa miesiące wcześniej
KNF odebrała jej licencję. Kilkuset klientów utraciło — według róŜnych szacunków — 100-300 mln. zł. Szefowie WGI po przedstawieniu zarzutów przebywają na wolności za poręczeniem majątkowym.
Historia nie okazała się nauczycielką Ŝycia – jak zwykle.
Klienci oszustów byli zamoŜnymi ludźmi w sile wieku i nie potrzebowali ryzykownego, szybkiego
dorobku ale bezpiecznych inwestycji o względnie stałej stopie zwrotu. Około roku 2005 biznes
Madoffa i spółek forexowych zaczął dryfować w stronę piramidy finansowej. Madoff by zachować
pozycję, zaczął wypłacać klientom dywidendy z pieniędzy, które pozyskiwał od nowych klientów.
W 2006 r. SEC otrzymał doniesienie o prowadzeniu piramidy finansowej przez Madoffa. Kon-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
199
trolerzy SEC nie znaleźli w firmie nieprawidłowości. Wątpliwości inspektorów SEC nie wzbudził
fakt, Ŝe audytem operacji Madoffa zajmuje się zatrudniające trzy osoby biuro księgowe Friehling
& Horowitz. Jej kierownictwo utrzymywało, Ŝe od 15 lat nie zajmuje się audytami. Co na to PCAOB? Chyba nic. I jeszcze jeden kuriozalny fakt o niesamowitym znaczeniu. SEC poradziła Madoffowi, Ŝeby przeprofilował swoją firmę z funduszu inwestycyjnego, który podlega giełdowym
regulacjom na firmę doradczą, której działalność nie podlega jurysdykcji SEC. „Dobre rady zawsze w cenie” i Madoff skwapliwie zastosował się do nich. Ponadto sprawa miała dalszy ciąg o zabarwieniu rodzinnym, gdyŜ bratanica Madoffa poślubiła jednego z inspektorów SEC, co zresztą
sam Madoff oświadczył publicznie w wywiadzie udzielonym przed kamerami TV.
4. Uwagi końcowe
Odzyskanie pieniędzy będzie trudne, zwłaszcza Ŝe lista aktywów naleŜących do Bernarda
Madoffa nie zostanie podana do wiadomości publicznej - poinformowała Komisja Papierów Wartościowych i Giełd w USA. Sędzia federalny dał mu czas do końca grudnia ub. roku na dostarczenie Komisji Papierów Wartościowych i Giełd szczegółowej listy wszystkich jego inwestycji, kredytów, rachunków firm brokerskich i innych aktywów. Do 26 stycznia Madoff musi przedstawić
szczegółową listę dotyczącą zagranicznych inwestycji. Lista musi zawierać źródło, sumy, dyspozycje i obecną lokalizację wszystkich wymienionych składników. Na rynku istnieją obawy, Ŝe większa część pieniędzy zainwestowana przez róŜne firmy i inwestorów u Madoffa moŜe być ulokowana w funduszach za granicą. W takiej sytuacji, gdyby lista została upubliczniona to zagraniczni
regulatorzy i kredytorzy mogliby chcieć przejąć te pieniądze. Kwoty strat nie są więc pewne i jednoznaczne. Na podstawie róŜnych źródeł agencja Bloomberg ustaliła, Ŝe wszyscy zidentyfikowani
inwestorzy stracili łącznie 35 miliardów dolarów. Madoff, aresztowany 11 grudnia 2008 roku za
defraudację, przebywa obecnie w areszcie domowym i podlega dozorowi elektronicznemu. Grozi
mu kara 10 lat więzienia i 5 mln. USD grzywny. Autor zwraca uwagę na fakt, iŜ to niewielka kara
w porównaniu z obostrzeniami karnymi wynikającymi z ustawy SOX2002.
Autor wyraŜa głębokie przekonanie, ze splot zdarzeń, osób, wpływów politycznych czy towarzyskich stworzył systemowe warunki do zaistnienia, funkcjonowania i ukrywania rzeczywistej
działalności Madoff Investment Securities. WyraŜa równieŜ przekonanie, Ŝe moŜna by zapobiec
całej sytuacji, gdyby obowiązkiem prawnym był audyt z wykorzystaniem narzędzi CAAT oraz audyt informatyczny systemów, które słuŜyły jako narzędzie dokonania oszustwa.
Obecna sytuacja przypomina tykająca bombę zegarową. Środki pienięŜne, często publiczne
lub emerytalne, przepływają przez międzynarodowy system finansowy przy wykorzystaniu systemów informatycznych, których audyt informatyczny być moŜe nie został nigdy przeprowadzony.
Audytorzy, którzy rzetelnie wykonują swoją pracę wg. standardów międzynarodowych poddawani
są naciskom, presji a czasem zwalniani z pracy. Państwa nie zapewniając im naleŜytej ochrony ich
niezaleŜności, czym podświadomie godzą się na podobne incydenty w przyszłości. Ponad 10 letnia
praktyka audytorska, konsultingowa oraz doświadczenia dydaktyczne na rzecz polskiego i międzynarodowego sektora bankowo-finansowego, nakazują autorowi daleko posuniętą ostroŜność w wydawaniu opinii o skutecznym zabezpieczaniu wiarygodności i bezpieczeństwie transakcji. Są równieŜ dalekie od chociaŜby umiarkowanego optymizmu co do zachowania przez nie tychŜe cech
w przyszłości.
200
Piotr Welenc
Bernard Madoff – historia mitu uczciwości
5. Literatura
1.
2.
3.
4.
5.
6.
7.
J. Chmielewski: Wirtualne Organizacje Wiedzy, Sieci Neuronowe w Zastosowaniu do
Wspomagania Tworzenia Konsorcjum, 2007, Analiza Systemowa w Finansach
i Zarządzaniu, ISBN 978838947521, strony 22-31
J.Chmielewski: Transfer wiedzy i innowacji w zakresie zastosowań informatyki
i cybernetyki jako sposób zwiększenia kapitału intelektualnego dla Polski i Regionów,
Płock, 2009.
A. Straszak: Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów. W: Artykuł
na VI Kongres Polskiego Stowarzyszenia Zarządzania Wiedzą, 2009
BBC: Financial crisis at-a-glance. W: BBC.com, http://news.bbc.co.uk/2/hi/business/
7656212.stm Oct.7 2008
Piotr Welenc, CISA, CGEIT: Transfer wiedzy i innowacji w zakresie zastosowań
informatyki i zarządzania wiedzą jako sposób zwiększenia sprawności i efektywności
sektora bankowego w Polsce, Płock 2009.
Artykuły prasowe 2008 r.: Rzeczpospolita, Gazeta Prawna, Gazeta Bankowa, Puls
Biznesu, Parkiet, BBC.com, i inne,
http://www.rp.pl/artykul/19419,245205_Od_bohatera_do_zera.html,
http://www.livemint.com/2009/01/07214335/Truth-about-Satyam-rise-and-f.html
BERNARD MADOFF – MYTH OF HONESTY HISTORY
Summary
The article presents the social and economics mechanisms of fraud, crimes and
economic abuses. Case study provides an analysis of illegal financial operations
disclosed in the final quarter of last year. Financial crisis is directly linked to the
crisis of ethical behavior and underestimated corporate governance in the
development of modern enterprises. Technology mechanisms left without adequate
controls, audit information and without the principles of "IT governance" may
constitute a threat of the financial system credibility.
Keywords: Madoff, corporate governance, audit information, fraud, crime, economic abuses.
Piotr Welenc, CISA, CGEIT
Zaoczne Studium Doktoranckie IBS PAN
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
201
JAROSŁAW WĄTRÓBSKI,
AGNIESZKA GARNYSZ
Zachodniopomorski Uniwersytet Technologiczny
MODEL SYSTEMU WSPOMAGANIA DECYZJI O LOKALIZACJI ODNAWIALNYCH
ŹRÓDEŁ ENERGII
Streszczenie
Celem artykułu jest analiza porównawcza wyników zastosowania metod wielokryterialnego wspomagania decyzji w procesie doboru lokalizacji elektrowni wiatrowych. W artykule przybliŜono problematykę związaną z warunkami posadowienia
elektrowni wiatrowych, dokonano syntezy stosowanych rozwiązań, zrealizowano
procedurę pozyskiwania rozwiązań decyzyjnych za pomocą metody AHP, TOPSIS
oraz NAIADE. Całość kończą wnioski przeprowadzonych badań.
Słowa kluczowe: odnawialne źródła energii, elektrownie wiatrowe, wielokryterialne wspomaganie
decyzji, AHP, TOPSIS, NAIADE.
1. Wprowadzenie
W ostatnich latach obserwuje się wzrost zainteresowania odnawialnymi źródłami energii
(OŹE). Przyczyn takiej sytuacji moŜna doszukiwać się w m.in. w rozwoju technologii
i uzaleŜnieniu się gospodarek narodowych wielu krajów od konwencjonalnych źródeł energii, co
spowodowało spadek zasobów tych surowców, przy jednoczesnym wzroście cen na rynku światowym. Wykorzystywanie tych źródłem powoduje takŜe, Ŝe do środowiska wprowadzane są zanieczyszczenia, m.in. tlenki siarki, azotu i węgla oraz pyły, co z kolei powoduje nieodwracalne zmiany klimatyczne. W minionych latach miało miejsce wiele spotkań na arenie międzynarodowej, których tematem zainteresowania były sposoby zmniejszenia degradacji naszego środowiska naturalnego1. Wynikiem tych spotkań było opracowanie szeregu dokumentów, wśród których jedno
z największych znaczeń ma tzw. Agenda 21 [33], przedstawiająca zestaw wytycznych i zaleceń,
które naleŜy podejmować w celu zapewnienia zrównowaŜonego rozwoju2. Jednym w wielu priorytetów w niej wymienianych jest ograniczenie negatywnego oddziaływania sektora energetycznego
na środowisko, co moŜe być zrealizowane poprzez ograniczenie wykorzystania konwencjonalnych
źródeł energii na rzec wzrostu udziału OŹE. Związek z tym zagadnieniem ma równieŜ „Strategia
zrównowaŜonego rozwoju Unii Europejskiej” [1], w której zapisano, iŜ celowe jest zwiększenie
poparcia dla badań, rozwoju i rozpowszechniania technologii związanych z energetyką odnawialną. Innymi dokumentami, które wskazują, jak duŜy nacisk kładzie się w polityce energetycznej
1 m.in. w Sztokholmie (1972), Rio de Janeiro (1992), Berlinie (1995), Kioto (1997), Johannesburgu (2002)
2 w polskim ustawodawstwie definicja zrównowaŜonego rozwoju została zawarta w artykule 3 ustawy Prawo ochrony
środowiska[ 29, wg którego przez zrównowaŜony rozwój rozumie się „rozwój społeczno-gospodarczy, w którym następuje proces integrowania działań politycznych, gospodarczych i społecznych, z zachowaniem równowagi przyrodniczej
oraz trwałości podstawowych procesów przyrodniczych, w celu zagwarantowania moŜliwości zaspokajania podstawowych potrzeb poszczególnych społeczności lub obywateli zarówno współczesnego pokolenia, jak i przyszłych pokoleń”
202
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
Unii Europejskiej na wykorzystanie OŹE, są m.in. [7, 11].
Z odnawialnych źródeł energii moŜna korzystać niemal w kaŜdym miejscu na świecie. Istotnym problemem pozostaje jednak ekonomiczne, ekologiczne i społeczne uzasadnienie budowy instalacji wykorzystujących ten rodzaj zasobów. W ramach niniejszego opracowania skupiono się na
wykorzystaniu elektrowni wiatrowych. Ze względu na złoŜony, wielokryterialny zbiór czynników
warunkujących opłacalność inwestycji w energetykę wiatrową stwierdzono, Ŝe dla problematyki
wyboru terenów pod lokalizację tego typu działalności zastosowanie znaleźć mogą metody wielokryterialnego wspomagania decyzji. Potwierdziła to takŜe analiza dotychczasowych badań z zakresu oceny instalacji odnawialnych źródeł energii. W związku z tym wykonano kolejne kroki procedury pozyskiwania rozwiązań decyzyjnych przy uŜyciu trzech metod: AHP, TOPSIS oraz NAIADE.
2. Odnawialne źródła energii
Zgodnie z klasyfikacją Światowej Rady Energetycznej energia wiatru jest jednym z rodzajów
odnawialnych źródeł energii [1]. Energia ta jest wykorzystywana do produkcji energii elektrycznej
przy zastosowaniu elektrowni wiatrowych – urządzeń wykorzystujących turbiny wiatrowe do przekształcenia energii wiatru na energię mechaniczną, która następnie jest zamieniana na energię elektryczną [12].
Aby w pełni wykorzystać potencjał wiatru, naleŜy odpowiednio zlokalizować siłownie wiatrową.
Z oczywistych względów, potencjalne tereny pod realizację tego typu inwestycji trzeba ocenić pod
względem zasobów wiatru. Analizy te dokonywane są dwuetapowo [25]. Pierwszy etap zakłada ocenę
w skali regionalnej (mezoskala), czyli analizę map potencjałów energetycznych na podstawie połoŜenia geograficznego. Natomiast etap drugi, to ocena w skali lokalnej (mikroskala), w ramach której wykonywana jest ocena ilościowa na podstawie prędkości i kierunku wiatru w oparciu
o kilkuletnie pomiary, topografię terenu, szorstkość itp. [1, 12]. NaleŜy jednak podkreślić, iŜ
umiejscowienie elektrowni wiatrowej jest nie tylko związane z problematyką wiatru w danym miejscu. Oprócz tego istnieje konieczność analizy czynników poza-wiatrowych. Trzeba wziąć pod uwagę m.in. fakt, iŜ elektrownie wiatrowe generują pewien poziom hałasu i wywierają wpływ na krajobraz, co z kolei wpływa na poziom akceptacji społeczeństw. Dlatego waŜne jest zachowanie odpowiedniej odległości od terenów zamieszkałych [31]. Szukając terenów pod lokalizacje elektrowni wiatrowych wskazane jest sprawdzenie, czy potencjalny obszar nie znajduje się w strefie, gdzie
zabronione jest montowanie tego typu instalacji, np. tereny włączone w Naturę 2000, tereny parków narodowych, krajobrazowych, rezerwatów przyrody [31]. Kolejną kwestią, którą trzeba przeanalizować, są ekonomiczne i ekologiczne aspekty wykorzystania energii wiatru [25]. Są one w
duŜym stopniu powiązane z zasobami energii wiatru. Ilość wytworzonej energii elektrycznej generuje z jednej strony zyski z instalacji, z drugiej zaś pewien poziom strat, czy teŜ czas zwrotu inwestycji oraz m.in. wielkość ograniczenia zuŜycia konwencjonalnych źródeł energii, co z kolei wpływa na obniŜenie ilości wydzielanych zanieczyszczeń [1, 16].
Przegląd literatury wskazuje na moŜliwość zastosowania metod wielokryterialnego wspomagana decyzji w problematyce wyboru lokalizacji róŜnego rodzaju działalności gospodarczych.
Przykładowo Forte [8]: w procesie oceny opcji zagospodarowania terenu w okolicy jeziora Miseno
we Włoszech wykorzystano metodę REGIME, NAIADE, AHP oraz FLAG. W pracy [19] przy
pomocy metody AHP dokonano oceny regionu Waterloo w Kanadzie w kontekście uŜycia róŜnych
instalacji OŹE, które mogłyby zostać potencjalnie zlokalizowane na tym terenie. Problematykę tę
podjęli takŜe Burton i Hubacek [3], którzy stosując metodę MACBETH ocenili potencjał lokaliza-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
203
cji tych instalacji w północnej Anglii, w mieście Kirklees. Eleftheriadou [6] zastosował metodę
PROMETHEE II do oceny moŜliwości posadowienia róŜnych wariantów elektrowni wiatrowych
na greckiej wyspie Lesvos. Zagadnienie to, dla warunków włoskich, Cavallaro i Ciraolo [5] rozwiązali wykorzystując inną metodę klasyfikowania, tj. NAIADE. Metoda ta została zaproponowana równieŜ przez Gamboa i Munda[9] do oceny potencjalnych lokalizacji farm wiatrowych w Katalonii, w Hiszpanii. Natomiast praca [15] poświęcona została ocenie alternatyw zakładających
róŜne moŜliwości rozmieszczenia farm wiatrowych w jednej z prowincji Chin przy pomocy metody AHP. Warto takŜe wspomnieć o pracy Georgopoulou [10], w której przedstawiono wyniki badań zakładających ocenę z wykorzystaniem metody ELECTRE III, projektów integrujących róŜne
typy OŹE na Krecie, w Grecji.
3. Zastosowanie metod wielokryterialnego wspomagania decyzji w wyborze lokalizacji elektrowni wiatrowych
Procedura pozyskiwania rozwiązań decyzyjnych przy wykorzystaniu metod wielokryterialnego
wspomagania decyzji rozpoczyna się od określenia problemu decyzyjnego, zbioru wariantów decyzyjnych oraz zbioru kryteriów.
W artykule podjęto problem wyboru lokalizacji elektrowni wiatrowych na terenie Polski. Potencjalne tereny do ich posadowienia ograniczono, w oparciu o analizę mapy energetycznej kraju
(Rys. 1), do obszarów leŜących na terenach dwóch stref - wybitnie korzystnej oraz korzystnej ze
względu na zasoby wiatru w makroskali.
Rys. 1. Lokalizacja projektów na tle mapy zasobów energetycznych wiatru
Źródło: opracowanie na podstawie [32]
W kolejnych krokach wyłączono tereny, na których wyklucza się, bądź nie zaleca się prowadzenia inwestycji związanych z energetyką wiatrową, tj. włączone w Naturę 2000, tereny parków
narodowych, krajobrazowych, rezerwatów przyrody. Obszary te określono na podstawie prac
[22,27,23,26,30,20]. Dalsze analizy tych dokumentów pozwoliły następnie na określenie pięciu
potencjalnych obszarów dla posadowienia elektrowni wiatrowych.
Na tej podstawie wyodrębniono 5-elementowy zbiór wariantów decyzyjnych:
A={A1,A2,A3,A4,A5}, gdzie: A1 - woj. zachodniopomorskie, powiat stargardzki, gmina Stargard
Szczeciński, A2 - woj. pomorskie, powiat słupski, gmina Damnica, A3 - woj. warmińsko-mazurskie,
204
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
powiat lidzbarski, gmina Lubomino, A4 - woj. lubelskie, powiat włodawski, gmina Hanna, A5 - woj.
śląskie, powiat Ŝywiecki, gmina Ślemień.
W ramach wymienionych projektów wzięto pod uwagę moŜliwość instalacji róŜnych konfiguracji 3 rodzajów turbin wiatrowych: V52-850kW, V80-2MW oraz V82-1.65MW (Tabela 1).
Analiza prac związanych z energetyką wiatrową, m.in. [9,12,15,25], pozwoliła na zbudowanie zbioru kryteriów: K={K1,K2,K3,K4}, gdzie: K1 - czynniki energetyczne (techniczne), K2 - czynniki ekonomiczne, K3 - czynniki socjologiczne, K4 - czynniki ekologiczne (środowiskowe). W ramach zbioru kryteriów wyodrębniono 4 podzbiory: K1={K11,K12}, K2={K21,K22,K23,K24},
K3={K31,K31}, K4={K41,K42,K43,K44,K45}, gdzie: K11 - ilość wyprodukowanej energii, K12 - uniknione zuŜycie węgla kamiennego; K21 - czas zwrotu inwestycji, K22 - koszty inwestycyjne, K23 koszt wytworzenia prądu, K24 - dochód dla gminy; K31 - liczba trwałych miejsc pracy, K32 - społeczna akceptacja; K41 - powierzchnia ziemi zajętej pod projekt, K42 - kompatybilność projektu z
innymi działaniami, K43 - hałas, K44 - wpływ na estetykę otoczenia, K45 - uniknięcie emisji CO2.
Zestawienie wartości, jakimi charakteryzuje się kaŜda z alternatyw ze względu na wybrane
kryteria, przedstawia Tabela 1.
Tabela 1. Charakterystyka wariantów decyzyjnych i kryteriów
Kryteria
Farma wiatrowa
Warianty decyzyjne
Liczba
turbin
A1
A2
A3
A4
A5
V52-850kW
0
0
1
0
0
V80-2MW
10
10
8
12
15
V82-1.65MW
2
0
2
0
0
23,3
20
20,15
24
30
16152
22608
21842
22608
18840
7524
10531
10175
10531
8776
8
6
7
7
8
93
80
81
96
120
13460
18840
18202
18840
15700
932
800
806
960
1200
4
3
4
4
5
4
8
8
7
3
2400
2000
2200
2400
3000
4
4
5
8
4
Moc zainstalowana [MW]
Ilość wyprodukowanej energii
elektrycznej [MWh/rok]; <max>
Uniknione zuŜycie węgla kamiennego [ton/rok]; <max>
Czas zwrotu inwestycji [lata];
<min>
Koszt inwestycji [mln zł]; <min>
Koszt wytworzenia prądu [zł/rok];
<min>
Dochód dla gminy [tyś. zł/rok];
<max>
Liczba trwałych miejsc pracy
[osób]; <max>
Stopień społecznej akceptacji3
<max>
Powierzchnia ziemi zajętej pod
projekt [km2]; <min>
Kompatybilność projektu z innymi
3 poziom społecznej akceptacji został określony w 10-stopniowej skali jakościowej, przy czym 1 oznacza najmniejszą
akceptacje, a 10 największą
205
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
Warianty decyzyjne
A1
A2
A3
A4
A5
64000
10400
20000
16400
76000
Wpływ na estetykę otoczenia5;
<max>
średnio
mniej
więcej
źle
mniej
więcej
źle
dobrze
średnio
Unikniona emisja CO2 [ton/rok];
<max>
11307
15826
15290
15826
13188
działaniami4; <max>
Generowanie hałasu [dB x liczba
ludzi]; <min>
Źródło: opracowanie własne
3. 1. Metoda AHP
AHP (ang. Analytic Hierarchy Process), to analityczny hierarchiczny proces decyzyjny. Metoda ta została opracowana przez Saaty'ego [24]. Procedura pozyskiwania rozwiązań decyzyjnych
w metodzie AHP polega na: wyznaczeniu wektora preferencji globalnych i lokalnych, agregacji
wektora ocen cząstkowych, obliczeniu wektora uporządkowania wariantów.
Drzewo hierarchiczne, które powstało w wyniku przeprowadzenia strukturalizacji problemu,
przedstawia Rys. 2.
wybór lokalizacji
elektrowni wiatrowych
czynniki
energetyczne
K11
A1
K12
czynniki
ekonomiczne
K21
A2
K22
K23
poziom 1
czynniki
socjologiczne
K24
A3
K31
K32
czynniki
ekologiczne
poziom 2
K41 K42 K43 K44 K45
A4
poziom 3
A5 poziom 4
Rys. 2. Struktura hierarchiczna
Źródło: opracowanie własne
Na podstawie tak skonstruowanej struktury hierarchicznej, wykonano kolejne kroki w ramach
procedury pozyskiwania rozwiązań decyzyjnych. Obliczenia rozpoczęto od poziomu drugiego,
przechodząc kolejno po strukturze w dół, kończąc poziomem czwartym. Wyznaczenie wektorów
hierarchii kryteriów głównych występujących na poziomie drugim, moŜliwe było dzięki stworzeniu
4 zastosowano 10-stopniową skalę jakościową (1 – brak kompatybilności, 10 – doskonała kompatybilność)
5 dla metody AHP i TOPSIS, w związku z tym, iŜ rozpatrywane były one w klasycznej odmianie, dane wejściowe wyraŜone zostały wartościami rzeczywistymi. Przyjęto 10-stopniową skalę jakościową , przy czym mniej więcej źle=4 średnio=5, dobrze=7,
206
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
jednej 4-wierszowej (4-kolumnowej) macierzy porównań parami. W przypadku kryteriów z poziomu trzeciego, konieczne było utworzenie 4 macierzy porównań parami, przy czym ich wymiary
uzaleŜnione były od liczby kryteriów uszczegóławiających daną kategorię czynników. Natomiast w
celu wyznaczenia poziomów preferencji wariantów względem poszczególnych kryteriów, zbudowano 13 macierzy, z czego kaŜda miała 5 wierszy i 5 kolumn. Podczas budowy macierzy wykorzystano lingwistyczną 9-stopniową skalę Saaty’ego [24], jako najpopularniejszą formę pozyskiwania
ocen.
Dla omówionych macierzy wyznaczono wektory preferencji lokalnych i globalnych. Spośród
kilku wymienianych metod, które są do tego stosowane, m.in. maksymalnej wartości własnej, najmniejszych kwadratów i logarytmicznych najmniejszych kwadratów [14], wybrano metodę maksymalnej wartości własnej. Przeprowadzono takŜe kontrolę spójności ocen. Obliczone wartości
indeksów zgodności CI oraz stosunków zgodności CR okazały się mniejsze od 0,1. Został zatem
spełniony warunek podany przez Saaty’ego [24]. Dlatego oceny moŜna uznać za zgodne.
Agregacji wektora ocen cząstkowych dokonano za pomocą kryterium addytywnego, które
wykorzystuje sumę waŜoną. Otrzymane w ten sposób wartości funkcji uŜyteczności uszeregowano
następnie w celu obliczenia wektora uporządkowania wariantów.
Wagi uzyskane dla 4 kryteriów głównych (czynników) oraz kryteriów szczegółowych przedstawia Rys. 3.
Rys. 3. Porównanie wag kryteriów głównych i szczegółowych
Źródło: opracowanie własne
Natomiast końcowy wektor uporządkowania wariantów przedstawia się następująco:
Wu=(0,125w1;0,256w2;0,211w3; 0,264w4; 0,144w5)
Analiza tego wektora wskazuje na zbliŜone wartości uŜyteczności cząstkowych dwóch alternatyw, tj. A2 i A4. W związku z tym przydatne stają się wartości uŜyteczności cząstkowych poszczególnych kryteriów głównych w kontekście kaŜdej z alternatyw (Rys. 4) lub dwóch porównywanych alternatyw (Rys. 5). Pozwolą one na stwierdzenie, ze względu na które czynniki (kryteria
główne) dane alternatywy są bardziej preferowane.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
207
Rys. 4. Ranking wariantów wraz z wartościami uŜyteczności cząstkowych alternatyw
Źródło: opracowanie własne
Rys. 5. Porównanie dwóch najlepszych alternatyw
Źródło: opracowanie własne
3. 2. Metoda TOPSIS
W kolejnym etapie badań podjęto próbę określenia, w jakiej odległości oceniane alternatywy
znajdują się od rozwiązania najbardziej preferowanego. PosłuŜono się przy tym metodą z grupy
określanej metodami punktu idealnego. Najpopularniejszą wśród nich, a opracowaną przez Hwanga i Yoona [13], jest TOPSIS (Technique for Order Performance by Similarity to Ideal Solution).
Opiera się ona na załoŜeniu, iŜ jako zwycięską (najlepszą) alternatywę naleŜy uznać tę, dla której
odległość od wariantu idealnego (najbardziej zgodnego z preferencjami decydenta) jest najmniejsza, przy jednocześnie zachowanej najdłuŜszej odległości od rozwiązania anty-idealnego. W celu
208
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
obliczenia tych odległości naleŜy kolejno wyznaczyć znormalizowaną macierz decyzyjną, znormalizowaną macierz decyzyjną przy uwzględnieniu wag kryteriów oraz rozwiązanie idealne i antyidealne. Z kolei na podstawie wartości odległości oblicza się względne bliskości alternatyw do
rozwiązania idealnego, słuŜące zbudowaniu rankingu alternatyw.
W metodzie tej, obok znajomości macierzy decyzyjnej, konieczne jest posiadanie informacji
o wagach przydzielonych kaŜdemu z kryteriów - w postaci wektora wag. Do jego wyznaczenia
posłuŜyła metoda AHP. Do obliczeń, wykonanych w ramach kaŜdego z etapów, wykorzystano metodykę szczegółowo opisaną m.in. w pracach [21, 28]. Ostatecznie, dzięki zastosowaniu metody
TOPSIS, otrzymano wartości względnych bliskości alternatyw do rozwiązania idealnego (Rys. 6).
Rys. 6. Ranking wariantów wg metody TOPSIS
Źródło: opracowanie własne
3. 2. Metoda NAIADE
W klasycznych odmianach metody AHP i TOPSIS zmienne są reprezentowane za pomocą
dokładnych liczb (ostrych). Tymczasem w wielu sytuacjach osoby podejmujące decyzję mogą być
niechętne albo niezdolne do podania dokładnych numerycznych wartości ocen, w związku z czym
często konieczne jest zastosowanie liczb rozmytych. UmoŜliwiają to rozwinięcia tychŜe metod –
rozmyte AHP i rozmyte TOPSIS. Jednak nie eliminuje to nadal problemu mieszanych danych, gdy
część informacji jest w skali jakościowej, a część ilościowej. Dodatkowo w przypadku obu metod
konieczna jest znajomość wag kryteriów. PowyŜszych niedostatków pozbawiona jest metoda
NAIADE (Novel Approach to Imprecise Assessment and Decision Environment), rozwinięta przez
G. Munda [17]. W metodzie tej nie uŜywa się tradycyjnego oszacowania kryteriów przy pomocy
wag [18], a wyrazy macierzy decyzyjnej6 mogą być liczbami ostrymi lub rozmytymi, zmiennymi
stochastycznymi, bądź wyraŜeniami lingwistycznymi.
6
w przypadku oceny opierającej się na wartościach przydzielonych do kryteriów dla kaŜdej z alternatyw, wykonywanej
przy uŜyciu macierzy „kryteria/alternatywy”; Dla metody NAIADE istnieje takŜe drugi typ oceny, który zakłada analizę
konfliktu między róŜnymi grupami interesu, a w której stosowana jest macierz „grupy/alternatywy”, bazująca jedynie na
skali lingwistycznej 18.
209
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
Dla rozpatrywanego problemu decyzyjnego badania ograniczono do oceny opartej na analizie
macierzy kryteria/alternatywy (Rys. 7).
Formułowanie alternatyw do oceny
Macierz wejściowa:
grupy vs. alternatywy
Analiza udziału
Faza oceny
Wskazanie na moŜliwe
konflikty między grupami interesu
Porównanie alternatyw
parami
Macierz wejściowa:
kryteria vs. alternatywy
Agregacja kryteriów
Jakościowe opinie
społeczności o alternatywach
Dendrogram przedstawiający odległości między grupami interesu
Indeksy wyników dla
kaŜdego kryterium
Ranking
alternatyw
Sugestie dla podejmującego decyzje
Rys. 7. Procedura pozyskiwania rozwiązań decyzyjnych wg metody NAIADE
Źródło: opracowanie własne na podstawie [4]
Wartościom wprowadzonym do tej macierzy nadano w większości typ ilościowy, ostry. Jedynie dla kryterium K44, czyli „wpływ na estetykę otoczenia”, wybrano reprezentacje lingwistyczną.
Składa się na nią 9 lingwistycznych zmiennych, zdefiniowanych przy pomocy liczb rozmytych, w
skali od 0 do 1 (Rys. 8). Umieszczone na tejŜe skali wartości liczbowe są punktami przecięć funkcji definiujących zbiór rozmyty [18].
c
a
d
e
f
g
b
0
i
h
0,08
0,24
0,41
0,59
0,76
0,92 1
Rys. 8. Skala rozmyto-lingwistyczna: a - ekstremalnie źle, b - bardzo źle, c - źle, d - mniej więcej
źle, e - umiarkowany, f – mniej więcej dobrze, g - dobrze, h - bardzo dobrze,
i- perfekcyjnie
Źródło: opracowanie własne na podstawie[18]
Funkcje przynaleŜności dla trzech zastosowanych w ocenie zmiennych lingwistycznych, tj.
dla: mniej więcej źle, średnio i dobrze, przedstawiają wzory (1-3)
210
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
0

2
2 x − 0,6 
0,6 ≤ x < 0,7
  0,2 

 
2
µ dobrze ( x) = 
 x − 0,8 
1
−
2



 0,2  0,7 ≤ x ≤ 0,9



  1− x  2
2
0,9 < x ≤ 1

  0,2 
(1)
  x − 0,3  2
0,3 ≤ x < 0,4

2
  0,2 
2

1 − 2 x − 0,5  0,4 ≤ x ≤ 0,6
 0,2 
µsrednio ( x) = 



2
  0,7 − x 
0,6 < x ≤ 0,7
2 0,2 

 
0
(2)
µ mniej wiecej
  x − 0,1 

 2 
  0,2 

2
 1 − 2 x − 0,2 
 0,2 
źle ( x) = 



  0,5 − x 
 2  0,2 

 
0
0,1 ≤ x < 0,2
0,2 ≤ x ≤ 0,4
(3)
0,4 < x ≤ 0,5
Obliczenia, jakie wykonywane są w ramach kolejnych etapów procedury pozyskiwania rozwiązań decyzyjnych wg tej metody, zostały przeprowadzone za pomocą programu NAIADE. W
wyniku jego działania wygenerowany został ranking Φ+ i Φ- oraz finalny ranking, powstały z ich
przecięcia (Rys. 9).
Φ+
Φ-
Ranking finalny
0.87
A4
0.64
A2
0.83
A2
0.64
A4
0.78
A3
0.74
A3
0.67
A5
0.88
A1
0.65
A1
A1
A5
0.89
Rys. 9. Rankingi wg metody NAIADE
Źródło: opracowanie własne
A2
A4
A3
A5
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
211
3. 4. Zestawienie wyników
Zestawienie rankingów, otrzymanych dla rozwaŜanego problemu decyzyjnego w wyniku zastosowania metody AHP, TOPSIS oraz NAIADE, przedstawia Tabela 2.
Tabela 2. Porównanie rankingów otrzymanych wg trzech metod
1
2
3
4
5
AHP
TOPSIS
A4
A2
A3
A5
A1
A4
A2
A3
A1
A5
Φ+
A4
A2
A3
A5
A1
NAIADE
ΦA2
A4
A3
A1
A5
finalny
A4, A2
A3
A1, A5
Źródło: opracowanie własne
Na tej podstawie moŜna stwierdzić, iŜ dwoma alternatywami, zajmującymi miejsce na szczycie rankingów, są dla wszystkich metod warianty A2 lub A4, przy czym jako bardziej preferowany
projekt naleŜy wskazać A4 (ze względu na pierwsze miejsce w rankingu Φ+). Z kolei na końcu
rankingów (4 i 5 miejsce) uplasowały się naprzemiennie alternatywa A1 oraz A5, na podstawie czego naleŜy stwierdzić, iŜ są one najmniej preferowanymi rozwiązaniami. Tymczasem alternatywa A3
kaŜdorazowo została zaszeregowana na miejscu trzecim.
W świetle powyŜszych rozwaŜań naleŜy wnioskować, Ŝe pozyskane syntetyczne rankingi alternatyw są silnie umocowane. NiezaleŜnie od obranej metody badawczej uzyskano bardzo zbliŜone wyniki, co stanowi potwierdzenie prawidłowości zrealizowanych badań
4. Podsumowanie
W artykule zaprezentowano praktyczne zastosowanie trzech metod wielokryterialnego
wspomagania decyzji, tj. AHP, TOPSIS i NAIADE, do znalezienia lokalizacji elektrowni wiatrowych na terenie Polski. Wskazano ponadto na moŜliwość powiązania ze sobą opisanych metod.
Metoda porównań parami, kojarzona przede wszystkim z AHP, posłuŜyła bowiem do wyznaczenia
wektora wag kryteriów, który wykorzystywany został w toku obliczeniowym metody TOPSIS.
Wymienić naleŜy ponadto pewne ograniczenia przeprowadzonych rozwaŜań, wskazując jednocześnie na moŜliwość realizacji dalszych badań. Reprezentacja danych została zawęŜona do dziedziny
liczb ostrych, jakościowej oraz lingwistycznej skali opisu. Tymczasem kaŜda z zaprezentowanych
metod umoŜliwia zastosowanie zasad logiki rozmytej. PoniewaŜ nie zrealizowano zagadnienia poszukiwania rozwiązań decyzyjnych z uwzględnieniem grup interesów, problem ten moŜna podjąć
w ramach metody AHP poprzez dodanie dodatkowego poziomu w drzewie decyzyjnym, bądź teŜ
zastosowanie oceny opartej o macierz udziału w przypadku metody NAIADE.
212
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
A Sustainable Europe for a Better World: A European Union Strategy for Sustainable
Development, COM (2001) 264 final, 15.05.2001.
Boczar T., Energetyka wiatrowa. Aktualne moŜliwości wykorzystania, Wyd. Pomiary
Automatyka Kontrola, Warszawa 2007.
Burton J., Hubacek K., Is small beautiful? A multicriteria assessment of small-scale
energy technology applications in local governments, Energy Policy 35 (2007), 6402–
6412.
Cabrera E., García-Serra J., Drought Management Planning in Water Supply Systems:
Proceedings from the UIMP International Course Held in Valencia, Springer, 1998.
Cavallaro F., Ciraolo L., A multicriteria approach to evaluate wind energy plants on an
Italian Island, Energy Policy 33 (2005), 235–244.
Eleftheriadou E., Haralambopoulos D., Polatidis H., A Multi-Criteria Approach to Siting
Wind Farms in Lesvos, Greece. [online] http://www.srcosmos.gr [dostęp: październik
2008].
Energy for the Future: Renewable Energy Sources. White Paper for a Community
Strategy and Action Plan, COM (97) 599 final, 26.11.1997.
Forte F., Nijkamp P., Torrieri F., Shared Choices on Local Sustainability Projects: A
Decision Support Framework, 2001. [online] ftp://zappa.ubvu.vu.nl/20010024.pdf
[dostęp: październik 2008].
Gamboa G., Munda G., The problem of windfarm location: A social multi-criteria
evaluation framework, Energy Policy 35 (2007), 1564–1583.
Georgopoulou E., Lalas D., Papagiannakis L., A Multicriteria Decision Aid approach for
energy planning problems: The case of renewable energy option, European Journal of
Operational Research 103 (1997), 38-54.
Green Paper. Towards a European Strategy for the Security Energy Supply, COM (2000)
769 final, 29.11.2000.
Gumuła S., Knap T., Strzelczyk P., Szczerba Z., Energetyka wiatrowa, Uczelniane
Wydawnictwa Naukowo-Dydaktyczne, Kraków 2006.
Hwang C.L., Yoon K., Multiple Attribute Decision Making: Methods and Applications,
Springer-Verlag, 1981.
Kwiesielewicz M., Analityczny hierarchiczny proces decyzyjny. Nierozmyte i rozmyte
porównania parami, Instytut Badań Systemowych PAN, Warszawa 2002.
Lee A.H.I., Chen H.H., Kang H., Multi-criteria decision making on strategic selection of
wind farms, Renewable Energy 34 (2009), 120–126.
Lewandowski W.M., Proekologiczne odnawialne źródła energii, WNT, Warszawa 2007.
Munda G., Multicriteria Evaluation in a Fuzzy Environment, Physica-Verlag, 1995.
NAIADE. Manual & tutorial, Joint Research Centre - EC, ISPRA SITE, 1996. [online]
http://www.aiaccproject.org. [dostęp: październik 2008].
Nigim K., Munier N., Green J., Pre-feasibility MCDM tools to aid communities in
prioritizing local diable renewable energy sources, Renewable Energy 29 (2004), 1775–
1791.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
213
20. Opracowanie metody programowania i modelowania systemów wykorzystania
odnawialnych źródeł energii na terenach nieprzemysłowych województwa śląskiego, wraz
z programem wykonawczym dla wybranych obszarów województwa, Polska Akademia
Nauk, Kraków-Katowice. [online] http://www.silesia-region.pl [dostęp: sierpień 2008].
21. Pacholski P., Zastosowanie zmodyfikowanej metody TOPSIS w rozwiązywaniu
problemów wielokryterialnej oceny przy wykorzystaniu nieprecyzyjnych danych
pomiarowych, Metody Informatyki Stosowanej, nr 2/2007, Gdańsk 2007, 95-102.
22. Plan zagospodarowania przestrzennego województwa zachodniopomorskiego, Regionalne
Biuro Gospodarki Przestrzennej Województwa Zachodniopomorskiego w Szczecinie,
Szczecin 2002 [online] www.rbgp.pl [dostęp: sierpień 2008].
23. Przyrodniczo-przestrzenne aspekty lokalizacji energetyki wiatrowej w województwie
warmińsko-mazurskim, Warmińsko-mazurskie biuro planowania przestrzennego w
Olsztynie, filia w Elblągu, Elbląg 2006. [online] http://www.wmbpp.olsztyn.pl [dostęp:
sierpień 2008],
24. Saaty T.L., Vargas L.G., Models, Methods, Concepts & Applications of the Analytic
Hierarchy Process, Springer, 2001.
25. Solińska M., Soliński I., Efektywność ekonomiczna proekologicznych inwestycji
rozwojowych w energetyce odnawialnej, Uczelniane Wydawnictwa NaukowoDydaktyczne, Kraków 2003.
26. Strategia ekoenergetyczna powiatu lidzbarskiego, Starostwo Powiatowe w Lidzbarku
Warmińskim, Lidzbark Warmiński 2002. [online] http://polandplan.energyprojects.net)
[dostęp: sierpień 2008].
27. Studium moŜliwości rozwoju energetyki wiatrowej w województwie pomorskim, Biuro
planowania przestrzennego w Słupsku, Słupsk 2003. [online] http://www.wojpomorskie.pl [dostęp: sierpień 2008].
28. Triantaphyllou E., Multi-Criteria Decision Making Methods: A Comparative Study,
Springer, 2000.
29. Ustawa Prawo ochrony środowiska z dnia 27 kwietnia 2001, Dz. U. z 20 czerwca 2001
roku, Nr 62, poz. 627.
30. Wojewódzki Program Rozwoju Alternatywnych Źródeł Energii dla Województwa
Lubelskiego,
Biuro
Planowania
Przestrzennego,
Lublin
2004.
[online]
http://www.oze.bpp.lublin.pl [dostęp: sierpień 2008].
31. http://www.elektrownie-wiatrowe.org.pl/ [dostęp: październik 2008].
32. http://www.ozee.kape.gov.pl [dostęp: listopad 2008].
33. http://www.un.org/esa/sustdev/documents/agenda21/english/agenda21toc.htm
[dostęp:
listopad 2008].
214
Jarosław Wątróbski, Agnieszka Garnysz
Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii
MCDA MODEL APPROACH FOR LOCALIZATION RENEWABLE ENERGY SOURCES
Summary
The aim of this article is comparative analysis results of use MCDA methods for
selection of localization wind farm. The aspects of localization determining factors
were stressed, synthesis applied solutions was executed, three MCDA methods –
AHP, TOPSIS and NAIADE was implemented. Conclusions, which were obtained using implemented procedures, were placed in the final, summary part of article.
Keywords: renewable energy sources, wind turbine, MCDA, AHP, TOPSIS, NAIADE
Jarosław Wątróbski
Agnieszka Garnysz
Katedra InŜynierii Systemów Informatycznych
Wydział Informatyki
Zachodniopomorski Uniwersytet Technologiczny
71-210 Szczecin, śołnierska 49
e-mail: [email protected]
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
215
ANTONI WILIŃSKI
Zachodniopomorski Uniwersytet Techniczny
METODA GMDH DO PROGNOZOWANIA RYNKÓW
W WARUNKACH KRYZYSU FINANSOWEGO
Streszczenie
W artykule rozwaŜany jest odwieczny problem dokładności predykcji na rynkach finansowych w celu osiągnięcia korzyści materialnych. Specyficzna gra inwestora z ciągle zmieniającym się rynkiem sprowadzająca się do uzyskania korzyści na
poprawnie przewidzianych róŜnicach ceny wybranego instrumentu finansowego
zwana jest spekulacją. W odczuciu społecznym tak określone zachowanie inwestora
często kojarzy się pejoratywnie, tu rozpatrywane jest w aspekcie aksjologicznym –
przyswojenia pewnej wyŜszej wartości, pokonania Ŝywiołu nieodgadnionego rynku
poprzez ekstrakcję wiedzy z zapisów o jego historii. Czy w takim ujęciu obserwowany
obecnie (grudzień 2008) tzw. kryzys globalny jest nieszczęściem czy wyzwaniem dla
spekulanta ? To pytanie retoryczne, jest z pewnością wyzwaniem.
Słowa kluczowe: predykcja, rynki finansowe, GMDH, sztuczna inteligencja, giełda, GPW, WIG
1. Wprowadzenie
Odpowiedź na pytanie, czy moŜna sobie poradzić z gwałtownie opadającymi cenami wszystkich prawie walorów na rynkach finansowych, jest oczywiście pozytywna. Czy kaŜdy moŜe poradzić sobie z ekonomicznymi i społecznymi skutkami kryzysu - oczywiście – nie kaŜdy. Wracając
do pytania o inwestycje na rynkach (walorach, akcjach, kursach) spadkowych - czy moŜna zarobić
- odpowiedź jest tu pozytywna?
Po pierwsze, uŜyto powyŜej sformułowania „prawie wszystkich”, po drugie, na spadkach, co
zupełnie oczywiste, takŜe moŜna zarabiać. Te dwa oczywiste oświadczenia wynikają wprost z
dość elementarnej wiedzy o instrumentach finansowych, nie dla wszystkich jednak dostępnej
[12,16].
Tak więc po pierwsze, nie wszystkie instrumenty finansowe (ceny towarów, akcji, indeksy
waluty, derywaty) spadają w czasie kryzysu. To po prostu niemoŜliwe z powodów formalnych. Np.
para walutowa oznacza wzajemny stosunek dwóch walut – bazowej i kwotowanej. Gdy wartość
jednej rośnie, to drugiej spada. Z tego oczywistego związku wynika, Ŝe przy spadających rynkach
muszą istnieć naturalnie z nimi związane – rosnące.
Po drugie, od tysięcy lat (prawdopodobnie od czasów Talesa [1]) zarobić moŜna na spadku
ceny [8,17]. Kreatywny Tales odkrył opcje . Dziś oprócz gry spekulacyjnej na derywatach, powszechnie stosowany jest mechanizm krótszej sprzedaŜy. Powszechnie, jednak na GPW z trudem i
od niedawna [6,19,22]. Istotą krótkiej sprzedaŜy jest poŜyczenie pewnego waloru (np. akcji, jednostek indeksowych, waluty bazowej) ze zobowiązaniem jego zwrotu w dobrowolnie wybranej przez
poŜyczającego chwili, z pewnym jednak zastrzeŜeniem. OtóŜ, gdyby w trakcie trwania owego zadłuŜenia wzrosła wartość poŜyczonego waloru, czyli wzrosłoby ryzyko odzyskania przez wierzy-
216
Antoni Wiliński
Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego
ciela udostępnionych poŜyczkobiorcy walorów, to ma on prawo, w ściśle określonych warunkach,
do zerwania umowy i pobrania pewnego zabezpieczenia, depozytu złoŜonego przez poŜyczkobiorcę.
To sytuacja odwrotna do prostego schematu, którym polscy inwestorzy na GWP byli faszerowani w latach 90-tych ubiegłego wieku. Wówczas tzw. długa sprzedaŜ polegała na tym, by kupić
taniej i sprzedać droŜej. Ten schemat, niczym dowcipny aforyzm, utrwalał przez kilkanaście lat
swoiste opóźnienie polskich inwestorów, gdy równocześnie na wszystkich rozwiniętych giełdach
całego świata funkcjonował z powodzeniem handel w obu kierunkach - wzrostu i spadku cen.
W ciągu wspomnianych kilkunastu lat zmieniła się teŜ gwałtownie dostępność światowego
rynku finansowego. Dzięki tysiącom internetowych platform brokerskich stał się on szansą dla
spauperyzowanych społeczeństw dalekiej Azji, Chin, Rosji i Europy Wschodniej. Tzw. rynek OTC
(Over the Control) stał się takŜe miejscem normalnego, codziennego inwestowania dla milionów
dobrych inwestorów z rozwiniętych krajów Europy Zachodniej i Ameryki Północnej [12].
2. Jak inwestować na spadkach
Najprostszą odpowiedzią na tytułowe pytanie jest – dokładnie tak jak na wzrostach. Z matematycznego punktu widzenia zysk z zastosowania pewnej strategii inwestycyjnej sprowadza się do
postawienia prognozy o zmianie obserwowanego waloru w wybranym horyzoncie predykcyjnym
i zawarciu umowy odpowiedniej do tej prognozy. W najprostszym przypadku umowa ta oznacza
otwarcie pozycji długiej (gdy prognozowany jest wzrost ceny obserwowanego waloru) lub krótkiej
(gdy prognoza przewiduje spadek) – rys. 1.
Rys.1. Przykład osiągnięcia zysku ∆Xli przy zmianie ceny Χi w przypadku otwarcia pozycji długiej,
oraz zysku ∆Xsi w przypadku otwarcia pozycji krótkiej.
Niestety nie ma dziś Ŝadnej skończonej metody prognostycznej, która pozwalałaby na jednoznaczne określanie momentów otwierania i zamykania pozycji, ani krótkich ani długich. Istnieje
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
217
wiele hipotez - o zmienności rynków, o powtarzalności pewnych wzorców [3,10,18], o samopodobieństwie krzywych przedstawiających zmiany cen w róŜnych przedziałach czasowych, o rozkładach statystycznych stóp zwrotu [4,7,19] – wszystkie te modele opisują rzeczywistość zawsze
z pewnymi załoŜeniami, niekiedy istotnie ją zniekształcającymi [20]. Czasami, pomimo tych zniekształceń mogą stanowić waŜki krok na drodze poznania nieodgadnionej natury. Tak było np.
z Mertonem i Scholesem, którzy pomimo błędnych załoŜeń o normalności rozkładów odchyleń od
wartości bieŜącej rynku otrzymali nagrodę Nobla za model wyceny opcji [2,8].
Pomimo tych piętrzących się trudności w rozpoznaniu tego wielowymiarowego [19,21] Ŝywiołu pojawia się ciągle coraz więcej dowodów istnienia pewnej ‘pamięci’ o przeszłych wzorcach
i korelacjach z innymi czynnikami. Z optymizmem piszą o tym m.in. tacy mistrzowie analizy technicznej jak Elder [4], Piper [16], Haugen [8] czy Murphy [15].
W szczególności Murphy [15] i Haugen [8] koncentrują się na klasycznej metodzie percepcji
wzorców przez człowieka (poprzedzającego przyszłe infoboty- automaty internetowe), rozpoznającego obrazy w róŜnej rozdzielczości – w róŜnych horyzontach czasowych. Ideę tę, w nieco innym ujęciu, zdecydowanie bardziej przystosowaną do automatycznego traktowania podjęli takŜe
Ivakhnenko, Madala i Mueller [10,13,14] nazywając ją „gromadzeniem podobieństw” (analog
complexing).
Najbardziej jednak optymistyczną z omawianych tu pozycji jest sprawozdanie Krutsingera z
rozmów z wieloma mistrzami foreksowego i giełdowego tradingu [12]. Nawiązując do tytułowego
przesłania – Ŝaden z tych mistrzów specjalnie nie przejmował się kierunkiem zmian danego rynku.
Rozpatrując wybrany instrument finansowy jako symetryczny przedmiot spekulacji (w sensie
prawnej moŜliwości prognozowania wzrostu i spadku ceny), zupełnie bez znaczenia staje się kierunek zmian. WaŜny jest znak pierwszej pochodnej tych zmian.
3. Przykład wykorzystywania wiedzy z przeszłości
W charakterze przykładu moŜliwości ekstrakcji wiedzy z danych zgromadzonych w przeszłości w celach predykcyjnych przedstawione będą wyniki autorskich badań. Celem tej krótkiej pracy
nie jest szczegółowe opisanie dość złoŜonego, opracowanego przez autora algorytmu predykcyjnego, a jedynie udowodnienie, Ŝe kierunek inwestowania (w sensie kierunku wzrostu obserwowanego
waloru, czy jego spadku) nie ma zasadniczego znaczenia. JeŜeli tak się stanie będzie to oznaczało,
Ŝe kryzys globalny wyraŜający się spadkiem większości cen, moŜe być potraktowany z pewnym
umiarkowanym optymizmem. Umiejętność poradzenia sobie z tymi spadkami wyznaczać będzie
jednak raczej wydzielone spekulacyjnie wyspy wiedzy i nie będzie upowaŜniała do generalizowania owego optymizmu.
Rozpatrywany przykład autorskiego algorytmu opiera się na połączeniu kilku znanych podejść do problemu predykcji – analizy regresyjnej i przetwarzania zespołowego (komitetowego).
Analiza regresyjna sprowadza się do zastosowania złoŜonej metody Ivakhnenki [10] zwanej
GMDH (Group Method of Data Handling ) w ujęciu regresji wielorakiej – tzn. takiej, dla której
zmienna obserwowana zaleŜy jednocześnie od wielu zmiennych obserwowanych. Dodatkowo
zgodnie z ideą modelowania zmiennej obserwowanej za pomocą szeregu Gabora, zmienne te występować mogą jako wyrazy wielomianów róŜnego stopnia i w postaci szeregów czasowych przesuniętych w czasie (wstecz) w stosunku do zmiennej obserwowanej. Istotą metody GMDH jest
przy tym jej zdolność do samoorganizacji pozwalająca na ograniczenie stopnia złoŜoności wielomianu (modelu) opisującego obserwowaną rzeczywistość.
218
Antoni Wiliński
Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego
Drugi waŜny aspekt zastosowanego algorytmu – przetwarzanie zespołowe, polega na programowym sceptycyzmie do wyników modelowania predykcji wg jednego wybranego kryterium i jednego zasobu danych. JeŜeli ta sama, w przybliŜeniu, metoda GMDH zastosowana będzie do obliczenia zachowania się zmiennej obserwowanej z róŜnymi zmiennymi objaśniającymi, to otrzymuje
się zupełnie odmienne modele prognostyczne, wzajemnie od siebie niezaleŜne. Podobnie jak w
analizie portfelowej uzyskuje się w ten sposób obniŜenie ryzyka popełnienia duŜego błędu predykcyjnego.
Badania przeprowadzono dla indeksu WIG20 jako zmiennej obserwowanej. To najwaŜniejszy wskaźnik Giełdy Papierów Wartościowych uwaŜnie obserwowany przez tysiące inwestorów
mających róŜne hipotezy na temat jego zachowań i uzaleŜnienia od własnej przeszłości i czynników zewnętrznych.
Nie wdając się w szczegółowe uzasadnienia autor przyjął, Ŝe WIG20 być moŜe będzie antycypowany o 1-2 dni przez zmiany kilkunastu najwaŜniejszych światowych rynków, przy czym wykluczona jest tu zwykła korelacja, gdyby taka bowiem była, to inwestycje na giełdzie ze względu
na swoją przewidywalność nie miałyby sensu.
Do tych najwaŜniejszych wyników arbitralnie zostały zaliczone: ceny ropy, złota, srebra, pary
walutowe EUR/USD, GBP/USD, USD/JPY, indeksy SP500, DJIA, CAC, DAX, Nikkei, Nasdaq.
Dla wszystkich tych zmiennych objaśniających zostały zebrane dane w postaci świec jednodniowych dla okresu ostatnich dwóch lat. Dla uproszczenia modelu do badań wzięto tylko wartość
Close. Dane te utworzyły macierz Xij dla i=1,2…..,N, j=1,2,…..,M, gdzie i-oznaczało numer wiersza (próby pomiaru dobowego) a j- numer kolumny, zmiennej oznaczającej wytypowany rynek.
Zmienną obserwowaną - indeks WIG20 oznaczano jako Yi, i=1,2,….,N, oczywiście takŜe
wybrano wartości zamknięć kolejnych sesji dobowych.
Następnie, niech macierz danych wejściowych Xij będzie poprzez wielokrotną konkatenację
poziomą rozszerzona do macierzy Xijr, gdzie j=1,2,….,K*M gdzie K- liczba kroków maksymalnego przesunięcia kolumn wstecz w dziedzinie czasu. Oznacza to, Ŝe tuŜ obok pierwotnej macierzy
danych Xij powstanie macierz Xij-1 dla której kaŜdy wyraz Xij1-1= Xi-1,j dla j1=M+1, M+2,….2M.
Podobnie Xijk-k=Xi-k,j dla jk= M(K-1)+1, M(K-1)+2,… K·M.
W autorskich badaniach zastosowano K=2, co oznaczało konkatenację poziomą obok pierwotnej macierzy danych Xij dwóch takich samych macierzy Xij-1 oraz Xij-2 o kolumnach odpowiednio przesuniętych wstecz o 1 lub 2 kroki (doby).
Kolejnym rozszerzeniem macierzy danych Xijr o wymiarach NxK·M jest umieszczenie obok
(w sensie konkatenacji poziomej) kolejnej macierzy utworzonej z iloczynów (drugiego stopnia)
kolumn macierzy Xijr. Liczba dodatkowych kolumn z iloczynów Xi1j· Xi2j , gdzie
i1,i2 є { 1,2,….K·M} wynosi K·M (K·M-1)/2. Powstaje ostatecznie macierz rozszerzona XijR
o wymiarach Nx(K·M +KM (KM-1)). Np. dla K=2 i M=12 ta rozszerzona macierz będzie miała
wymiar NxMR, gdzie MR=576. To juŜ potęŜna baza, słabo w większości skorelowanych danych,
pozwalająca na budowanie modeli nieliniowych (tu wielomianów drugiego stopnia).
Idea regresji wielorakiej sprowadzona jest w tym przypadku do zbudowania modelu zmiennej
obserwowanej X zaleŜnej od wielu zmiennych wejściowych wybieranych kolumnami z macierzy
XijR. Zbudowanie pewnego modelu Ŷ= f(XijR), dla wszystkich j=1,2,….,MR jest oczywiście całkowicie nieracjonalne – po pierwsze z powodu nieuchronnego „przeuczenia” modelu (model miałby znikomą przydatność prognostyczną) i po drugie, z powodów technologicznych. Czas maszynowy konieczny do przetwarzania informacji byłby nieakceptowanie długi, przekraczałby z pew-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
219
nością bariery pozwalające na zastosowanie modelu w praktyce.
W związku z tymi ograniczeniami Ivakhnenko [10] zastosował ideę poszukiwania lokalnie
optymalnego wielomianu o chwilowo poprawnych właściwościach predykcyjnych.
Koncepcja GMDH sprowadza się do wyboru pewnej podprzestrzeni XRij0=XRij, takiej, Ŝe stanowi ona bazę umoŜliwiającą zbudowanie wielomianowego modelu liniowego o postaci
gdzie i0,j0 є {1,2,…MR}.
Na potrzeby niniejszej pracy autor zbudował model bazy czterowymiarowej w postaci:
ŷ=a0+a1xi1+a2xj1+a3xi2xj2+a4xi3xj3
To oczywiście niewielki fragment nieskończonego szeregu Gabora, z którego drugi i trzeci wyraz
reprezentują liniową zaleŜność od wybranych zmiennych objaśniających i1,j1є{1,2,… MR}, a dwa
kolejne, zdolność nieliniową drugiego stopnia. Oczywiście zmienne o indeksach i2,i3,j2,j3 wybierane są takŜe z tego samego uniwersum o liczności MR.
Wyraz ao zwany wyrazem wolnym pozwala na wyodrębnienie w modelu wartości otwartej niezaleŜnej od zmiennych objaśniających.
Dla uzyskania predykcyjnej własności modelu ŷ zastosowano specyficzny schemat przesunięć
wektora y względem zmiennych objaśniających, wybieranych z macierzy XRij. Na rys. 2 przedstawiono przykład wzajemnego połoŜenia pięciu wektorów umoŜliwiający zbudowanie jednego z tysięcy modeli ŷ.
to
y
X7
X18
X157
X356
hhpp
Rys. 2. Przykład wzajemnego usytuowania wektorów o liczności 7, spośród których wektor
zmiennej obserwowanej y jest wysunięty w przód o co najmniej horyzont predykcyjny hp.
Na rysunku tym wybrano przykładowe zmienne x є XRij o indeksach sugerujących odpowiednie przesunięcie w czasie względem zmiennej obserwowanej y. Np. x7 naleŜy do pewnego,
podstawowego zbioru danych objaśniających (pierwszych 12 zmiennych) a macierz (podmacierz)
7 kolejnych wektorów tych zmiennych jest przesunięty o hp = 1 wstecz względem zmiennej y.
Wektor X18 zgodnie z wcześniejszym ustaleniem naleŜy więc do tej części macierzy XRij, która uzyskana została poprzez konkatenację poziomą pierwszego, podstawowego zbioru przesunięty o je-
220
Antoni Wiliński
Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego
den krok wstecz. Zmienne X157 i X356 to przykłady nieprzesuniętych zmiennych drugiego stopnia.
Zilustrowany na rysunku horyzont predykcyjny wynosi hp = 2 kroki.
Zakładając, Ŝe w chwili to wszystkie dane na rys. 2. są znane i znając zaleŜność
Ŷ(t0) = f(x7,x18,x157,x356) na podstawie tego modelu moŜna obliczyć przyszłą (prognozowaną)
wartość objaśnianą Ŷ (t0+2) po wprowadzeniu do modelu wartości wszystkich zmiennych objaśniających, które występują o hp później (czyli takie będą znane w chwili to).
Problemem waŜnym w związku z tym staje się sposób obliczenia owego modelu Ŷ jako wyniku pewnej transformaty obserwowanych w przeszłości zaleŜności pomiędzy wektorem y i wybranymi wektorami x є XRij .
Dla ustalenia owego związku stosuję się najczęściej, zgodnie z ideą regresji, zasadę minimalizacji odchyleń średniokwadratowych pomiędzy wektorem modelowanych zachowań zmiennej
obserwowanej ŷ, a jej wartościami pomierzonymi y. W ogólnym przypadku uzyskuje się to poprzez rozwiązanie równania Ŷ=A·X gdzie macierz współczynników A jest wynikiem (w ogólnym
przypadku) tzw. pseudoinwesji Moore’a-Penrose’a A=X\Y, gdzie operator „\”oznacza lewostronne
dzielenie macierzy, związane właśnie z inwersją (pseudoinwesją) macierzy niekwadratowej.
Jeśli w celu uwzględnienia „pamięci” o zachowaniu rynku, weźmie się pod uwagę pewną
liczbę zanotowanych pomiarów (kroków) wstecz od chwili bieŜącej, to model Ŷ winien mieć wymiary [1 x nz ], gdzie nz – to liczba kroków wstecz uwzględniona w modelu. Dla obliczenia
współczynników A naleŜy wziąć wówczas odpowiedni fragment macierzy XRij . Np. wybierając,
tak jak na rys. 2 bazę z czterech kolumn tej macierzy, uzyskuje się macierz X o wymiarach [ 4 x
nz] i wektor współczynników A [ 1 x 4 ] .
Często macierz X wzbogaca się o dodatkową jednostkową kolumnę jedynek X = [ 1 x1 x2 x3
x4] po to, by w nowym wektorze współczynników A [ 1 x 5 ] wydzielić ten niezaleŜny od zmiennych wejściowych. W wektorze tym właśnie ten pierwszy jest wspomnianym wyrazem wolnym w
liniowym równaniu opisywanym zmienną Ŷ.
Jakość modelu Y moŜe być oceniana za pomocą róŜnych norm ║Y-Ŷ║.
W przedstawionych poniŜej wynikach badań zastosowane było takie kryterium wyboru modelu Ŷopt spośród wielu rozpatrywanych, które dawało minimum rozbieŜności na odcinku predykcyjnym o długości hp – 2 kroki. Oczywiście mierzona była zgodność predykcji w „przeszłości” i wybierany model (wektor współczynników A) był uŜyty do wykonania bieŜącej predykcji.
Spośród wielu rozpatrywanych modeli ( na danym kroku symulacji) ze zbioru
{ Ŷ1Ŷ2...Ŷk } poszukiwany był ten, dla którego kryterium K
K
s
=
nz
∑
i = nz − hp
∧
Yis − Yis
→ min
Badana była więc tylko zbieŜność na odcinku predykcyjnym pomiędzy wartościami rzeczywistymi i modelu Ŷs, i ten model, który zapewniał najmniejsza sumę błędów był wykorzystany
do prognozy zachowań zmiennej Y w kolejnym kroku.
Zmienną tą był wybrany indeks WIG20. Jak wspomniano wcześniej w celu zbadania matematycznego modelu regresyjnego, w której zmienną objaśnioną był WIG20, a zmiennymi opisującymi
pewne charakterystyczne zmienne otaczającego świata wybrano 12 szeregów czasowych. Nie był
to wybór przypadkowy, wynikał bowiem z wiedzy i przekonania autora o potencjalnym, istotnym
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
221
wpływie tych czynników na badany indeks WIG20.
Oczywiście autor mógł niewłaściwie ocenić rzeczywistość zarówno w aspekcie ilościowym
wpływu tych rynków dla zachowania się WIG20, jak równieŜ w tak Ŝe w aspekcie związku przyczynowo-skutkowego. Czy na pewno zdarzenie w wytypowanych, najwaŜniejszych rynkach świata
antycypują zachowanie warszawskiej giełdy. Wielokrotnie podejmowane próby ustanowienia prostej korelacji zawodziły. Być moŜe więc niekiedy zachowanie rynków wschodnich poprzedzają
zmiany Wall Street. Być moŜe tak, być moŜe nie ? Jak zwykle, nie ma tu prostej odpowiedzi pozostaje myślenie indukcyjne. Jeśli coś daje się modelować wg pewnych załoŜeń, to naleŜy tę
okoliczność wykorzystać.
Dla zbadania dwóch niezaleŜnych źródeł sygnałów predykcyjnych podzielono wybrane
zmienne objaśniające na dwa zbiory Xij1 i Xij2. Dla kaŜdego z tych zbiorów zbadany był identyczny algorytm predykcyjny, wg którego otwierana była pozycja długa lub krótka (na indeksie WIG20
moŜliwe jest wykonanie krótkiej sprzedaŜy na pochodnej tego instrumentu finansowego zwanej
kontraktem - futures).
W ten sposób dla poszczególnych chwil czasu ti , i = 1,2,...,k powstały dwa szeregi
modelowanych zmian zmiennej obserwowanej {Ŷ11, Ŷ21..Ŷk1} oraz {Ŷ12, Ŷ22..Ŷk2} .
Wyniki tych symulacji porównywane były z rzeczywistymi wartościami zmiennej obserwowanej {y1,y2,…yk}, jednak to porównanie moŜliwe było dopiero po upływie czasu wyznaczonego
przez horyzont predykcyjny hp ( tu wynoszący 2 kroki, czyli dwie doby). Tak więc po kaŜdym kroku badane były bieŜące wykresy obu modeli w najbliŜszej historii i dla wykonania kolejnej predykcji wybierany był model aktualnie lepszy. Sukcesem danego modelu w chwili ti była zgodność
znaku predykcji i rzeczywistych zaobserwowanych zmian:
∧
1
Z
i
=
sign
∧
2
Z
i
=
sign
Z
i
=
sign
 ∧
Y


 ∧
Y




Y

1
Y
i
−
Y
i
−
Y
2
Jeśli występowało




2


i −1 



i−1 

∧ 1
−
i
i −1
∧
∧
1
Z
i
=
∧ 2
Z i lub Z
i
=
Z i to w danym modelu otwierana była odpowied-
nia pozycja (długa lub krótka, w zaleŜności od znaku). Udane otwarcie pozycji powodowało po
wykonaniu jednego kroku przyrost kapitału ∆yi =yi - yi-1 , po wykonaniu nieudanej predykcji –
taką samą stratę. Suma tych przyrostów nazywana jest zmienną narastania kapitału – jest jednym z
najwaŜniejszych wskaźników jakości systemu transakcyjnego na rynku finansowym.
k
Wykresy funkcji
przestawione są rys.3 dla obu
SK =
modeli jako
pe’a
SR
=
Sk1
1
K
std
Sk2.
i
K
Z
i = 1
(∆
∑
i =1
∆yi
dla
K = 1, 2 ... K
Obie krzywe mają zróŜnicowany przebieg i róŜny jest ich wskaźnik Shar-
∆ yi
yi
)
gdzie std (∆yi) jest odchyleniem standardowym szeregu ∆yi dla i= 1,2,…k
222
Antoni Wiliński
Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego
W czasie realizacji transakcji inwestycyjnych nie jest oczywiście znana przyszłość – nie
wiadomo więc, która z dwu rozpatrywanych strategii będzie lepsza ? MoŜna je jedynie obserwować i wybierać lepszą.
Krzywe narastania kapitalu
2000
Przyrost WIG20
1500
1000
500
0
-500
0
50
100
150
200
250
300
Kolejne sesje
350
400
450
500
Rys.3 Krzywe narastania kapitału dla dwóch róŜnych modeli predykcyjnych
i krzywa otrzymana w wyniku przetwarzania zespołowego (pogrubiona).
Na wykresie widoczne są trzy krzywe narastaniu kapitału – dwie cienkie dla dwóch odrębnych niezaleŜnych modeli predykcyjnych, zbudowanych na rozdzielonych podzbiorach danych
oraz krzywa pogrubiona będące rezultatem przetwarzania zespołowego. Przez narastanie kapitału
naleŜy rozumieć przyrost punktów indeksowych WIG20 od otwieranych pozycji (kontraktów) długich i krótkich (zakupu i sprzedaŜy kontraktów). PoniewaŜ na GPW stosuje się obecnie dźwignię
1:10 to kaŜdy punkt indeksowy oznacza 10 PLN.
Istota tego zespołowego przetwarzania jest specyficzna filtracja wyników uzyskiwanych
przez dwa rozpatrywane modele. Filtracja ta polegała na badaniu zwrotu z ostatnich f transakcji –
dla kaŜdego modelu oddzielnie. JeŜeli w danej chwili czasu przyrost punktów indeksowych dla
strategii S1 w ostatnich f krokach był większy niŜ dla strategii S2 , to w kolejnym kroku wybierana
była dla określenia prognozy strategia S1 . W przeciwnym przypadku wybierana była strategia S2 .
Uzyskane wyniki wskazują na interesujące, graficznie wyraŜone zabezpieczenie inwestora przed
niespodziewanymi duŜymi obsunięciami kapitału. PoniewaŜ podzbiory danych są od siebie
względnie niezaleŜne to indywidualne, dla odrębnych strategii, krzywe narastania kapitału są, lub
co najmniej powinny być, słabo skorelowane. Daje to podstawę do postawienia tezy o wzroście
bezpieczeństwa inwestora, o zmniejszeniu wariancji w szeregu czasowym zwrotu z kapitału.
W badaniach przedstawionych na rys. 3 zastosowano f=5. Badano takŜe szereg innych długości filtra f. W danej przestrzeni danych ten wymieniony okazał się najlepszy. Uzyskano wskaźniki
Sharpe’a wynoszące odpowiednio [0,0728 0,0380 0,0800] dla strategii podstawowych i strategii
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
223
przetwarzania zespołowego. Uzyskane wyniki są interesujące z praktycznego punktu widzenia
i potwierdzają tezę o moŜliwości zarabiania w warunkach kryzysu (w warunkach spadku cen większości notowanych instrumentów finansowych).
4. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
Brzeszczyński J., Kelm R. Ekonometryczne modele rynków finansowych. Modele kursów
giełdowych i kursów walutowych. WIG-Press, Warszawa 2002.
Crawford G., Sen B. Instrumenty pochodne, narzędzia podejmowania decyzji
finansowych. Liber, Warszawa 1999.
Duda R.O., Hart P.E. , Stork D.G., Pattern Classification, John Wiley, New York (2000).
Elder A. Come Into My Trading Room. Wiley Trading, 2002
Elton E.J, Gruber M.J. Nowoczesna teoria portfelowa i analiza papierów wartościowych
.WIG-PRESS, Warszawa 1998
Fiszeder P. Forecasting the Volatility of Polish Stock Index – WIG20, w: Forecasting
Financial Markets. Theory and Applications, Wydawnictwo Uniwersytetu Łódzkiego,
Łódź 2005.
Greshilov A.A., Stakun V.A., Stakun A.A. Matematiceskije metody postroenija
prognozov. Radio i sviaz. Moskva 1997.
Haugen R. Teoria nowoczesnego inwestowania. WIG-Press, Warszawa 1996.
Ivakhnenko A.G., Zaicenko J.P., Dimitrov V.D. Priniatije resenij na osnove
samoorganizacji. Sovetskoe Radio, Moskwa 1976
Ivakhnenko A.G., Ivakhnenko G.A., Obzor zadac po algoritmam Metoda Gruppowogo
Uceta Argumentov . Pattern Recognition and Image Analysis, 1995 vol. 5 no. 4 pp. 527535
Krawczak M., Jakubowski A., Konieczny P., Kulikowski R., Miklewski A., Szkatuła G.
Aktywne zarządzanie inwestycjami finansowymi – wybrane zagadnienia, Akademicka
Oficyna Wydawnicza EXIT, Warszawa 2003.
Krutsinger J. Systemy transakcyjne.Sekrety mistrzów. Wig-Press, Warszawa 1999.
Lemke F., Mueller J.A. Self- Organizing Data Mining A Portfolio Trading System.
Journal of Commputational Intelligence in Finance, 1997/05 pp 12-26
Madala H.R., Ivakhnenko A. G. Inductive Learning Algorithms for Complex Systems
Modelling. CRC Press 1994
Murphy J. Analiza techniczna rynków finansowych. WIG-Press, Warszawa 1999.
Piper J. The Way to Trade, Harriman Modern Classic, 2006.
Rothchild J. Ksiega bessy. WIG-Press, Warszawa 2000
Schwager J.D. Analiza techniczna rynków terminowych. WIG-Press, Warszawa 2002.
Tarczyński W, Łuniewska M. Metody wielowymiarowej analizy porównawczej na rynku
kapitałowym. PWN, Warszawa 2006.
Wierzbicki A. Badania operacyjne i systemowe w epoce cywilizacji wiedzy. Instytut
Badań Systemowych PAN seria Badania systemowe tom 64, Warszawa 2008, s. 13-35.
Wiliński A., Czapiewski P. GMDH-based Multiple Prediction of Financial Markets.
Polish Journal of Environmental Studies vol.17 No 3b, 2008 p.73-78
Witkowska D., Matuszewska A., Kompa K. Wprowadzenie do ekonometrii dynamicznej i
finansowej. Wydawnictwo SGGW, Warszawa 2008.
224
Antoni Wiliński
Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego
THE GMDH METHOD FOR MARKET FORECASTING IN THE CIRCUMSTANCES
OF FINANCIAL CRISIS
Summary
The paper considers the long-familiar problem of the accuracy of financial
markets prediction, performed for the purpose of gaining financial profits. Investor's
specific game against a constantly evolving market, comprising in acquiring profits
from the properly predicted differences of selected financial instrument's price, is
called a speculation. The social attitude towards thus described investor's behavior
is often pejorative. Here it is considered in the axiological sense - as acquiring a
certain higher value, defeating the incomprehensible phenomenon of the market
through the knowledge extraction from historical data. Having the above in mind,
shell we regard the currently observed (December 2008) so called global crisis as a
misfortune or as a challenge for the speculator? This is a rhetorical question, since
it should definitely be considered a challenge.
Keywords: prediction, financial markets, forex, artificial intelligence, GMDH, stock exchange
Warsaw Stock Exchange, index WIG.
Antoni Wiliński
Zachodniopomorski Uniwersytet Technologiczny
e-mail: [email protected]
http://www.wi.ps.pl
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
225
DONIESIENIE NAUKOWE
JOLANTA KONDRATOWICZ-POZORSKA
Uniwersytet Szczeciński
KOMUNIKACJA MARKETINGOWA W ZDOBYWANIU PRZEWAGI
KONKURENCYJNEJ POLSKICH GOSPODARSTW EKOLOGICZNYCH
Streszczenie
śadne przedsiębiorstwo nie jest w stanie działać na rynku bez odpowiedniego
systemu komunikacji z otoczeniem. Mimo, Ŝe gospodarstwa ekologiczne nastawione
są na tradycję i naturę to chcąc zdobyć przewagę konkurencyjną muszą stosować
najnowocześniejsze instrumenty komunikacji marketingowej. Jest to szczególnie
waŜne w obliczu pogłębiającej się konkurencji, procesów globalizacji i rosnącej
świadomości konsumentów. W pracy przeanalizowano wykorzystanie w praktyce instrumentów komunikacji marketingowej.
Słowa kluczowe: gospodarstwa ekologiczne, komunikacja marketingowa, przewaga konkurencyjna
1. Istota komunikacji marketingowej
Komunikacja rynkowa firm podlega wpływowi wielu procesów i tendencji rynkowych.
Wśród nich moŜna wymienić przede wszystkim: rosnącą konkurencję na rynku powodującą podobieństwo oferty rynkowej róŜnych producentów, procesy globalizacji i integracji, rozwój nowych
technik i technologii. W warunkach szybko zmieniającego się otoczenia i narastającej spirali konkurencji problem komunikacji firm z ich otoczeniem nabiera szczególnego znaczenia. Umiejętność
skutecznego komunikowania się przedsiębiorstw z otoczeniem rozumiana jako dwukierunkowy
przepływ informacji stała się istotną determinantą odniesienia przez ten podmiot szeroko rozumianego sukcesu rynkowego1.
Dwukierunkowość przepływu informacji powinna polegać na zapewnieniu sprzęŜeń zwrotnych oraz bazować na informacjach płynących z badań marketingowych. W XXI wieku trudno juŜ
konkurować uŜywając tylko takich instrumentów marketingowych jak: produkt, cena czy dystrybucja. Bez komunikacji firmy z rynkiem świadomie osłabia się oddziaływanie wcześniej wymienionych instrumentów, tworzy moŜliwość sztucznego odizolowania firmy od rynku i zachowań konsumentów, rezygnuje się z moŜliwości stworzenia (wykreowania) własnego niepowtarzalnego profilu rynkowego firmy.
Na przełom XX i XXI wieku przypada szczyt rozwoju komunikacji marketingowej firmy. Do
1 Rola marketingu w tworzeniu przewagi konkurencyjnej pod red. K.Śliwińskiej. Wyd. Akad. Ekon., Katowice 2007, s.21.
226
najwaŜniejszych przyczyn tego rozwoju zaliczyć moŜna:
1. Nasilającą się konkurencję, która jest efektem internacjonalizacji i globalizacji,
2. Pojawienie się nowych technologii,
3. Problemy z dotarciem do uwag konsumenta/odbiorcy,
4. Zmiany społeczne (wzrost świadomości konsumentów).
Komunikacja marketingowa moŜe być postrzegana jako:
- część ogólnej komunikacji firmy,
- koncepcja marketingowa stosowaną przez przedsiębiorstwo.
Prowadząc komunikację marketingową przedsiębiorstwo kontaktuje się z otoczeniem. Kontakt ten
pozwala na2:
- marketingowe oddziaływanie na klientów i potencjalnych nabywców,
- dostarczanie informacji, argumentacji i obietnic,
- nakłanianie do kupowania,
- zbieranie przychylnych opinii o firmie.
Firma
Firma
przekaz
Firma
medium
przekaz
konsument
konsument
Rys.1 . Model komunikacji interaktywnej
Źródło: D.L.Hoffman, T.P.Novak.1996. Marketing In Hypermedia Computer-Medicated
Environments. Journal of Marketing. Vol.60, nr 3.
W literaturze niemieckiej kontakt firmy z otoczeniem definiuje się szerzej, jako swoisty interaktywny dialog. W. Pepels3 uwaŜa, ze komunikacja taka powinna być tylko dwukierunkowa, tzn.
oprócz przepływu informacji między nadawcą a odbiorcą, występuje równoległy przepływ informacji w kierunku odwrotnym (sprzęŜenie zwrotne). Podobnego zdania jest równieŜ Ph. Kotler4
(rys.1.).
2. Komunikacja marketingowa w polskich gospodarstwach ekologicznych
2 T.Sztucki, 1997. Promocja – sztuka pozyskiwania nabywców. Wyd. Placet, Warszawa,s. 16.
3 W. Pepels, 1997. Einfuehrung In die Kommunikationspolitick. Schaeffer Poeschel Verlag. Stuttgart, s.12.
4 Ph. Kotler 2000. Marketing. Analiza, planowanie, wdraŜanie i kontrola. Gebethner i Spółka. Warszawa, s.546.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
227
2.1. Cel i metoda badawcza
Do końca 2008 roku w Polsce zarejestrowanych zostało około 11tys. gospodarstw ekologicznych. Z istoty swej są to gospodarstwa rolne oparte na tradycyjnym, naturalnym procesie produkcji, zgodnym z wymaganiami środowiska naturalnego. Produkcja odbywa się przy duŜym zaangaŜowaniu pracy czynnika ludzkiego, bez udziału środków chemicznych, i w tzw. obiegu zamkniętym. Produkty rolne z gospodarstw ekologicznych nie naleŜą więc do tanich. Czy wobec nadwyŜki
produktów spoŜywczych w Europie i Ameryce Północnej istnieje szansa na utrzymanie się i umocnienie na rynku gospodarstw ekologicznych i ich produktów? Nie jest łatwo odpowiedzieć na to
pytanie, ale jedno jest pewne, Ŝe gospodarstwa ekologiczne mogą być tradycyjne w sposobie produkcji, ale Ŝeby utrzymać pozycję na rynku muszą być nowoczesne w komunikacji z otoczeniem.
Obecnie stoją one na bardzo trudnej pozycji wyjściowej, gdyŜ nie mogą walczyć ceną (wysokie koszty produkcji), mają utrudniony system dystrybucji produktów (krótszy okres trwałości,
niemoŜliwość chemicznego przedłuŜania świeŜości, brak rozwiniętej sieci dystrybucji produktów
ekologicznych, itp.), a mimo to podejmują walkę o segment rynku i klienta.
Celem pracy jest analiza róŜnych form komunikacji marketingowej, która podejmowana jest
przez gospodarstwa ekologiczne w celu zdobywania przewagi konkurencyjnej na rynku dóbr konsumenckich.
W tym celu przeprowadzono badanie ankietowe za pomocą wywiadu prostego standaryzowanego z wykorzystaniem kwestionariusza w postaci ankiety elektronicznej. Ankietę wysłano do 10%
firm ekologicznych w całej Polsce.
Jednak współpracę podjęło tylko 873 gospodarstw ekologicznych.
2.2. Materiał badawczy
W wyniku analizy zgromadzonego materiału moŜna stwierdzić, Ŝe właściciele gospodarstw
ekologicznych w róŜnym stopniu znają i wykorzystują instrumenty komunikacji marketingowej.
Zdecydowana większość respondentów precyzyjnie podała definicję reklamy, promocji sprzedaŜy, sprzedaŜy osobistej i marketingu szeptanego (buzz marketing) - 82% poprawnych odpowiedzi. Niewiele natomiast znało pojęcie wydarzenia marketingowego (event marketing), czy public
relations (35%).
Zastosowanie w praktyce róŜnych form komunikacji marketingowej przedstawione zostało w
tabeli 1.
228
Tab.1 Formy komunikacji marketingowej stosowane przez gospodarstwa ekologiczne
Instrumenty
Reklama
Marketing szeptany
Promocja sprzedaŜy
SprzedaŜ osobista
Public relations
Nowoczesne instrumenty
Rodzaj instrumentu
Prasowa
Radiowa
Telewizyjna
Kinowa
W Internecie
Uliczna
Specjalistyczna
Skierowana do:
- konsumentów,
- pośredników handlowych,
- personelu
Zorganizowana,
Bezpośrednia
Troska o dobrą reputację,
Rozpowszechnianie informacji;
Utrzymywanie dobrych relacji z otoczeniem, itp.
Internet:
- strony WWW
- poczta elektroniczna
- grupy dyskusyjne
- banery reklamowe.
Telewizja i radio interaktywne
Telefonia komórkowa
Procent odpowiedzi potwierdzających stosowanie w praktyce [%]
35
<1
3
8
4
35
50
45
21
7
5
45
42
70
70
80
95
25
10
5
100
Źródło: obliczenia własne
W przeciwieństwie do mediów klasycznych (prasa, radio, telewizja), nowoczesne media są
znacznie częściej wykorzystywane przez gospodarstwa ekologiczne. Źródłem tego są dwa powody:
- stwarzają one jakościowo odmienne moŜliwości w procesie komunikacji (interaktywność i
multimedialność),
- ale przede wszystkim są tańsze.
Obecnie do najwaŜniejszych instrumentów komunikacji marketingowej gospodarstwa ekologiczne zaliczają reklamę prasową, w tym w czasopismach specjalistycznych (np. medycznych, rolnych, gospodarczych), jak i skierowanych do szerszej rzeszy społeczeństwa (np. czasopisma kobiece). Reklama ta ma uwypuklić właściwości zdrowotne Ŝywności ekologicznej, podkreślić
szczególną rolę kobiety w kształtowaniu zdrowych nawyków Ŝywieniowych itp.
Swoistą odmianą reklamy jest marketing szeptany, do którego stosowania przyznaje się co
drugi właściciel gospodarstwa ekologicznego. Buzz marketing sprowadza się do przekazywania
informacji o firmie i jej produktach wśród ludzi na zasadzie plotki.
Firmy ekologiczne korzystają bardzo ostroŜnie z trzeciego instrumentu, tj. promocji sprzeda-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 18, 2009
229
Ŝy. Wynika to z dwóch przesłanek:
1. Gospodarstwom ekologicznym brakuje kapitału finansowego na szeroko zakrojoną akcję
promocyjną,
2. Tradycji i doświadczenia w prowadzeniu handlu.
W związku z tym widoczna jest dysproporcja w stosowaniu promocji sprzedaŜy do róŜnych
grup adresatów. Gospodarstwa kierują ją przede wszystkim do konsumenta i robią to poprzez
sprzedaŜ osobistą (45%). Nadal rzadkością jest tworzenie grup produkcyjno-handlowych (45%),
które zajeły by się zawodowo promocją sprzedaŜy produktów ekologicznych w Polsce i za granicą.
Mimo, Ŝe właściciele gospodarstw ekologicznych nie znali definicji public relations to z badania wynika, Ŝe chętnie układają oni dobre relacje z najbliŜszym otoczeniem, dbają o dobrą reputację i chętnie podejmują działania zmierzające do propagowania wiedzy o zdrowej Ŝywności, jej
właściwościach, tradycyjnych metodach wytwarzania, ochronie środowiska itp.(około 70% odpowiedzi). Jednak na szczególną uwagę zasługuje wykorzystanie nowoczesnych form komunikacji
marketingowych przez tradycyjne gospodarstwa ekologiczne. Procent odpowiedzi potwierdzających wykorzystanie Internetu jest prawie 100%. Niemal wszystkie podmioty gospodarcze mają
własną stronę internetową lub adres e-mailowy oraz kontakt poprzez telefon komórkowy.
3. Wnioski
Gospodarstwa ekologiczne są zmuszone wykorzystywać komunikację marketingową do zdobywania przewagi rynkowej. Nie moŜna jednoznacznie określić, jakie to instrumenty powinny być
przede wszystkim stosowane by osiągnąć najlepszy rezultat rynkowy, ale moŜna powiedzieć, Ŝe
kaŜde działanie mające na celu stworzenie dla własnych produktów tzw. unikalnej propozycji marketingowej jest godne uwagi.
Działania gospodarstw ekologicznych muszą być dostosowane do głębokich zmian zachodzących w otoczeniu firmy, muszą nadąŜać, a nawet wyprzedzać preferencje klientów, dostosowywać
się do zmian zachowań konsumentów, coraz silniejszych procesów globalizacji i liberalizacji.
WaŜne jest teŜ szybkie wykorzystanie przez właścicieli gospodarstw wzrostu świadomości
i zachowań proekologicznych konsumentów oraz upowszechnianie się nowoczesnych technologii.
Przekazywanie informacji o gospodarstwach ekologicznych i ich produktach dzięki wykorzystaniu
najnowocześniejszych instrumentów komunikacji marketingowej pozwala na edukowanie i tworzenie się nowej rzeszy konsumentów Ŝywności naturalnej.
230
4. Literatura:
1.
2.
3.
4.
5.
Hoffman D.L, Novak T.P. Marketing In Hypermedia Computer-Medicated Environments.
Journal of Marketing. Vol.60, nr 3,1996.
Kotler P. Marketing. Analiza, planowanie, wdraŜanie i kontrola. Gebethner i Spółka.
Warszawa 2000
Pepels W. Einfuehrung In die Kommunikationspolitick. Schaeffer Poeschel Verlag.
Stuttgart 1997.
Rola marketingu w tworzeniu przewagi konkurencyjnej pod red. K.Śliwińskiej. Wyd.
Akad. Ekon., Katowice 2007.
Sztucki T. Promocja – sztuka pozyskiwania nabywców. Wyd. Placet, Warszawa 1997.
MARKETING COMMUNICATION OF POLISH ECOFARMS IN THE PROCESS
OF ACHIEVING COMPETITIVE ADVANTAGE
Summary
śadne przedsiębiorstwo nie jest w stanie działać na rynku bez odpowiedniego
systemu komunikacji z otoczeniem. Mimo, Ŝe gospodarstwa ekologiczne nastawione
są na tradycję i naturę to chcąc zdobyć przewagę konkurencyjną muszą stosować
najnowocześniejsze instrumenty komunikacji marketingowej. Jest to szczególnie
waŜne w obliczu pogłębiającej się konkurencji, procesów globalizacji i rosnącej
świadomości konsumentów. W pracy przeanalizowano wykorzystanie w praktyce instrumentów komunikacji marketingowej.
Keywords: ecological farms, communications of marketing, competitive advantage
Jolanta Kondratowicz-Pozorska
Katedra Ekonomii
Uniwersytet Szczeciński
e-mail: [email protected]

Podobne dokumenty