Tom 18v3 - Początek
Transkrypt
Tom 18v3 - Początek
STUDIA I MATERIAŁY POLSKIEGO STOWARZYSZENIA ZARZĄDZANIA WIEDZĄ Redaktor tomu: dr Arkadiusz Januszewski Komitet Redakcyjny: dr hab. inŜ. Waldemar Bojar prof. UTP prof. dr hab. Ryszard Budziński prof. dr hab. Andrzej Straszak Polskie Stowarzyszenie Zarządzania Wiedzą www.pszw.edu.pl Bydgoszcz 2009 2 Recenzenci: prof. dr hab. inŜ. Ryszard Budziński prof. dr hab. Witold Chmielarz prof. dr hab. inŜ. Ludosław Drelichowski prof. dr hab. Olgierd Hryniewicz prof. dr hab. Janusz Kacprzyk dr hab. inŜ. Jan Studziński Opracowanie redakcyjne i korekta: inŜ. Waldemar Kępa ISSN 1732-324X Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc 3 Spis treści IRENEUSZ BIELSKI Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej ............................................... 5 JAROSŁAW BECKER ...................................................................................................................... Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych ........................................................................................................................... 13 MIESZKO BOJAR ............................................................................................................................. Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego ryzyka ......................................................................................................................................... 26 JACEK CHMIELEWSKI ................................................................................................................... Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę .................................................................................................................................................... 35 MAGDALENA CISZCZYK, EMMA KUSZTINA ........................................................................... Model systemu informatycznego wspierającego realizację procesu nauczania opartego na kompetencjach w środowisku repozytorium wiedzy................................................................... 45 MAGDALENA CISZCZYK, PRZEMYSŁAW RÓśEWSKI, EMMA KUSZTINA......................... Definicje i standardy repozytorium wiedzy zbudowanego dla potrzeb prowadzenia procesu nauczania .................................................................................................................................... 53 LUDOSŁAW DRELICHOWSKI, AGNIESZKA BOGDAŃSKA..................................................... Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich 61 TOMASZ DUDEK, BOśENA ŚMIAŁKOWSKA ............................................................................ Architektura ekspertowego systemu oceny jakości..................................................................... 69 ARKADIUSZ JANUSZEWSKI ......................................................................................................... Cechy systemów klasy Business Intelligence stosowanych w controllingu ................................ 78 WALDEMAR KARWOWSKI, ALEKSANDRA SAWCZUK, ARKADIUSZ ORŁOWSKI ........... Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX...... 86 BERNARD F. KUBIAK, ANTONI KOROWICKI ........................................................................... Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji .................. 95 ANTONI KOROWICKI, BERNARD F. KUBIAK ........................................................................... Rola wiedzy w określaniu przydatności i zastosowań technologii informacji i komunikacji w organizacji............................................................................................................................. 104 EDWARD MICHALEWSKI.............................................................................................................. MoŜliwości audytu systemowego sektora bankowego w Polsce............................................... 114 MATEUSZ PIWOWARSKI............................................................................................................... Wielokryterialna analiza decyzyjna w systemach GIS.............................................................. 123 MATEUSZ PIWOWARSKI, PAWEŁ ZIEMBA............................................................................... Metoda Promethee II w wielokryterialnej ocenie produktów ................................................... 135 4 OREST POPOV, ANNA BARCZ, PIOTR PIELA ............................................................................ Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania .................................................................................................................................. 145 IZABELA ROJEK.............................................................................................................................. Podejścia stosowane we wspomaganiu sterowania siecią wodociągową .................................. 158 BOśENA ŚMIAŁKOWSKA, TOMASZ DUDEK ............................................................................ Ocena metod wersjowania baz i hurtowni danych .................................................................... 167 KRZYSZTOF ŚMIATACZ ................................................................................................................ Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego na przykładzie badań rynku telefonii komórkowej ........................................................................ 177 TATIANA TRETYAKOVA .............................................................................................................. Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji...... 184 PIOTR WELENC, .............................................................................................................................. Bernard Madoff – historia mitu uczciwości .............................................................................. 194 JAROSŁAW WĄTRÓBSKI, AGNIESZKA GARNYSZ .................................................................. Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii..................... 201 ANTONI WILIŃSKI.......................................................................................................................... Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego .................... 215 JOLANTA KONDRATOWICZ-POZORSKA................................................................................... Komunikacja marketingowa w zdobywaniu przewagi konkurencyjnej polskich gospodarstw ekologicznych ........................................................................................................................... 225 T Ireneusz Bielski Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej 5 IRENEUSZ BIELSKI Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy WSPÓŁCZESNE PRZEDSIĘBIORSTWA O DUśEJ ZDOLNOŚCI KONKURENCYJNEJ Streszczenie Artykuł opisuje poszukiwania cech przedsiębiorstw innowacyjnych. W rezultacie wieloetapowych badań realizowanych od 1997 roku na populacji około 500 przedsiębiorstw, głównie z regionu kujawsko-pomorskiego, stwierdzono, Ŝe podstawową cechą przedsiębiorstw odnoszących sukcesy rynkowe jest ich innowacyjność. W pracy zdefiniowano pojęcie innowacyjności oraz zdolności konkurencyjnej, dla której zaproponowano teŜ model analityczny. W świetle badań II etapu, największą aktywność innowacyjną wykazują prywatne , małe i średnie przedsiębiorstwa produkcyjne, działające w przemyśle maszynowym i uczestniczące w międzynarodowym transferze wiedzy. Przedsiębiorstwa te tworzą systemy zarządzania informacją, prowadzą działalność B&R, realizują strategie przedsiębiorcze, są elastyczne i tworzą efektywną konfigurację społeczną. Zaprezentowano cztery przedsiębiorstwa z Regionu spełniające większość kryteriów firm doskonale zarządzanych. Filarami sukcesu są w nich charyzmatyczne przywództwo, traktowanie innowacji i czasu jako głównych czynników sukcesu oraz powszechnie akceptowany system wartości aktywizujący zasoby ludzkie przedsiębiorstwa. Słowa kluczowe: przedsiębiorstwa innowacyjne, zarządzanie wiedzą, przywództwo 1.Wprowadzenie Zmieniające się szybko i radykalnie warunki środowiskowe, zwłaszcza zaś globalizacja gospodarki oraz narastająca konkurencja sektorowa powodują, Ŝe przedsiębiorstwa chcące odnieść sukces powinny być wyczulone na zmiany i gotowe do traktowania ich jako okazję a nie zagroŜenie. Kształtując poŜądane relacje z otoczeniem powinnozaś zaakceptować zasadę, Ŝe „decydujący dla przeŜycia systemu otwartego jest stosunek jego własnej zmienności do zmienności 1 systemów , z którymi pozostaje on w interakcji” . Przedsiębiorstwa działające w sektorach o zróŜnicowanej strukturze i warunkach środowiskowych mogą i powinny, przystosowując się do tych warunków, róŜnić się między sobą wieloma cechami. Wydaje się jednak wielce prawdopodobne, Ŝe istnieje znaczący zbiór cech przedsiębiorstwa, niezbędnych dla odniesienia sukcesu rynkowego. W literaturze spotkać moŜna wiele róŜnych podejść do tego zagadnienia, w których autorzy koncentrują się na odmiennych aspektach funkcjonowania organizacji. Ph.W. 2 Harris skupia się na elementach kultury organizacyjnej stwarzających przesłanki sukcesu 1 prawo poŜądanej zmienności, sformułowane przez W.R. Ashby’ego ,cyt. za: Z. Dworzecki, Zarządzanie strategiczne przedsiębiorstwem, Przegląd Organizacji 1989, nr 4, s.40. 2 Ph.W. Harris, Management in Transition, Jossey - Bass Publishers, San Francisco - London 1985, s.45-55 6 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 3 rynkowego przedsiębiorstwa. T.J. Peters i R.H.Jr. Watermann podają osiem cech doskonałej przedsiębiorstwa natomiast do analiz i poszukiwań cech przedsiębiorstwa doskonałego wykorzystują model „7S”. W modelu tym aŜ cztery wyróŜnione obszary związane są bezpośrednio z zasobami ludzkimi, co moŜe sugerować , iŜ to właśnie w nich upatrywać naleŜy głównych determinant sukcesu a takŜe wskazywać kierunek dalszych poszukiwań szczegółowych cech przedsiębiorstwa doskonale konkurencyjnego. Przyjęto, Ŝe konkurencyjność jest cechą przedsiębiorstwa utrzymującego się na rynku ( a zatem moŜe być oceniana wyłącznie ex post) dzięki posiadanej zdolności konkurencyjnej, natomiast zdolność konkurencyjna to umiejętność długotrwałego i efektywnego dostarczania oferty akceptowanej przez rynek i jest funkcją wielu zmiennych a jej model przedstawia się w następujący sposób: Zkp = f ( O, Po, Ś, t, Z, M) gdzie: Zkp – zdolność konkurencyjna przedsiębiorstwa; O – środowisko; Po – percepcja stanu środowiska, ze szczególnym uwraŜliwieniem na jego zmienność – wraŜliwość; Ś – świadomość , rozumiana jako zasób wiedzy umoŜliwiający wykorzystanie sygnału uzyskanego dzięki wraŜliwości i postawie decydenta; t – czas, w szczególności czas reakcji innowacyjnej, czyli czas od wystąpienia zdarzenia inspirującego do momentu wdroŜenia innowacji, będącej odpowiedzią na to zdarzenie; Z – zasoby przedsiębiorstwa, w szczególności kapitał intelektualny, umoŜliwiający reakcję innowacyjną ; M – motywacja - system aktywizowania zasobów ludzkich (źródło: opracowanie własne). Ponadto we wszystkich zaleceniach na czoło wysuwają się te czynniki, które związane są z moŜliwością reakcji innowacyjnej przedsiębiorstwa , przesądzającej o jego moŜliwości konkurowania na obsługiwanych rynkach. Przedsiębiorstwa mogą przetrwać i odnieść sukces w zmieniających się realiach rynkowych, „jeśli potrafią z innowacji zrobić odrębny, waŜny biznes, jeśli będą zdolne systematycznie i z zaangaŜowaniem odchodzić od wczorajszej przedsiębiorczości, 4 instalując taką organizację finansową i menedŜerską, jakiej innowacja wymaga” . Uzasadnione więc wydają się poszukiwania cech przedsiębiorstwa konkurencyjnej wśród przedsiębiorstw o duŜej aktywności innowacyjnej. 2. Cechy przedsiębiorstw o duŜej zdolności konkurencyjnej Przedsiębiorstwa osiągają wysoki poziom konkurencyjności wtedy, gdy potrafią przewidzieć, zaobserwować i wykorzystać zmiany w środowisku dla swoich celów. Podstawowym miernikiem efektywności gospodarowania jest zysk. Pośrednio lub bezpośrednio pojawia się on w wiązce celów strategicznych przedsiębiorstwa. Zdaniem P.F. Druckera mylne jest przekonanie, iŜ dostatecznie zyskowna i najmniej ryzykowna jest przeciętna pozycja w branŜy 5. Jego zdaniem zyskowne jest tylko przywództwo na rynku. A to oznacza zajęcie jednej z dwu skrajnych pozycji: albo dyktującego standardy lidera, albo specjalisty w wąskim segmencie, posiadającego przewagę wiedzy. KaŜda z tych pozycji moŜliwa jest do zdobycia tylko dla przedsiębiorstw innowacyjnych. Innowacyjność dotychczas nie była precyzyjnie definiowana, zazwyczaj do tej grupy zalicza się 3 T. J.Peters, R.H.Jr. Waterman, In Search of Excellence: Lessons from Americas Best Run Companies, New York 1982, s.30. 4 P.F. Drucker, Zarządzanie w czasach burzliwych, Nowoczesność, Warszawa 1995, s.66. 5 P.F. Drucker, Zarządzanie... op. cit., s.67 Ireneusz Bielski Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej 7 przedsiębiorstwa wykazujące duŜą aktywność w tym zakresie 6. Na podstawie przeprowadzonych badań ( badania autora prowadzone w 5. etapach od 1997 roku , w tym II. etap obejmujący lata 1996-2000 na populacji 226 róŜnych przedsiębiorstw, zlokalizowanych głównie w regionie kujawsko-pomorskim, poświęcone aktywności innowacyjnej i jej determinantom i IV. etap ( lata 2005- 2006) na populacji 155. firm , w tym 100 przedsiębiorstw przemysłu maszynowego, dotyczący percepcji zjawisk ekonomicznych przez kadrę kierowniczą i relacjom pomiędzy poglądami kadry i wynikami ) określono niektóre cechy przedsiębiorstwa konkurencyjnego a w dalszym etapie poszukiwania cech przedsiębiorstw innowacyjnych ograniczono do przedsiębiorstw prywatnych, małych i średnich (na 1. innowację w roku składa się wysiłek 6 pracowników w firmach zatrudniających do 10. osób, w zatrudniających ponad 2000 potrzeba juŜ 1179. zatrudnionych !), producentów z przemysłu maszynowego, uczestniczących w eksporcie, które to przedsiębiorstwa wykazały się najwyŜszą aktywnością innowacyjną.. Przedsiębiorstwa takie dostrzegają, przewidują zmiany w otoczeniu i wykorzystują je dla swoich celów. DąŜąc do ich osiągnięcia dokonują efektywnej transformacji zasobów w szczególności zaś: a) tworzą system pozyskiwania i przetwarzania danych oraz rozpowszechniania informacji wewnątrz przedsiębiorstwa; b) śledzą trendy konsumenckie oraz trendy w zakresie technologii i produktów; c) posiadają przywódców7 i mają wizję rozwoju; d) prowadzą działalność badawczo-rozwojową i przeznaczają na to odpowiednie nakłady finansowe. Ponad proporcjonalny przyrost ilości innowacji występuje tylko w przedziale, który w przybliŜeniu moŜna określić na 12-25% dochodu . Jednak koszty jednostkowe liczone w procentach dochodu na 1. innowację, w całym przedziale, wzrastają w tempie szybszym niŜ przyrost ilości innowacji. e) traktują czas, jako podstawowy zasób i wykorzystują go w walce konkurencyjnej; f) realizują strategie przedsiębiorcze 8; 6 Najczęściej przyjmuje się (za GUS), iŜ przedsiębiorstwa, które w ciągu roku wprowadziły 4 innowacje są silnie innowacyjne, te które wprowadziły 3 innowacje – średnio innowacyjne, zaś mniejsza ilość innowacji świadczy o słabej innowacyjności. W badaniach autora przyjęto skumulowany wskaźnik innowacyjności o wartości od 0 do 100, wyliczany jako suma poszczególnych innowacji w roku, o róŜnym stopniu oryginalności: patent-20;wzór uŜytkowy-10;znak towarowy-5; nowe w branŜy-10;nowe na rynku docelowym-5; nowe w firmie-2 pkt. 7 Przywództwo jest jednym z najwaŜniejszych czynników sukcesu tych organizacji. W niektórych publikacjach lokowane jest na pierwszym miejscu . Wymieniane cechy przywództwa to: wizja, siła autorytetu, skłonność do podejmowania ryzyka, chęć rywalizacji, odwaga i zdecydowanie, oportunizm, wdzięk w momentach napięcia i innowacyjność [ J.L.Stanton , R.L. George , Success Leaves A Marketer’s Guide to Winning Strategy, J.LStanton & R.J.George, Philadelphia USA 1994, s.17-18]. W innych źródłach akcentuje się takie cechy idealnego menedŜera, jak: umiejętność komunikowania się i motywowania, wizja firmy, gotowość ponoszenia ryzyka ale teŜ umiejętność kalkulowania i potrzeba stałego rozwoju, dąŜenie do mistrzostwa [J. Penc, Przedsiębiorstwo w burzliwym otoczeniu, OPO, Bydgoszcz 2002, s.114-115]; zaangaŜowanie, energia, zapał i wytrwałość, pragmatyzm i zdolność do wytyczania celów uwzględniających wielu interesariuszy [Ch. Coates, MenedŜer wszechstronny, WPSB, Kraków 1996, s.263]; świadomość ograniczonej moŜliwości obserwowania rzeczywistości i unikanie uproszczonego wnioskowania, otwarty i analityczny umysł [B. Pełka, Zarządzanie przedsiębiorstwami i menedŜeryzm, ORGMASZ, Warszawa 1996,s. 186-189, cyt. za J. Penc op. cit., s.118] oraz umiejętność myślenia systemowego, działania w wielokulturowym otoczeniu , gotowość do permanentnej nauki , twórczość i bycie „trochę uczniem a trochę nauczycielem”[C.K. Prahalad Rola menedŜerów nowej ery na konkurencyjnym rynku, [w:] Organizacja przyszłości, red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1998, s.191-192]. 8 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 g) koncentrują się na kluczowych kompetencjach i dokonują inwestycji w ich obszarze; h) uczestniczą w transferze wiedzy, wdraŜają nowe technologie, dostarczają nową wiedzę. Istotnym elementem transferu wiedzy jest uczestnictwo w targach, konkursach i wystawach oraz w eksporcie, wymuszające wysoki poziom innowacyjności ( Tab.1) ; Tablica 1. Porównanie aktywności innowacyjnej przedsiębiorstw eksportujących i pozostałych Przedsiębiorstwa Średnia przypadająca na 1. przedsiębiorstwo w roku Patent Eksportujące (35) 0,07 Wzór uŜytkowy 0,13 Pozostałe (191) 0,002 0,01 Nowe w branŜy 0,34 Nowe na rynku lokalnym 1,13 Nowe w firmie 2,41 Liczba innowacji 4,08 0,12 0,34 1,32 1,792 Źródło: badania własne ( II etap) i) są organizacjami uczącymi się. Zmiany traktowane są jako oś, wokół której koncentruje się 9 proces uczenia się organizacji, a takŜe tworzenia nowej wiedzy ; j) zarządzanie wiedzą traktują jako kluczowy czynnik sukcesu; k) tworzą efektywną konfigurację społeczną opartą na prostej i spójnej koncepcji zatrudniania , szkolenia, oceny i motywowania pracowników . W ramach tej koncepcji pracownicy wykonują odpowiedzialne zadania, posiadają duŜą autonomię i ograniczony jest ich lęk przed pomyłkami w 10 procesie innowacji ; l) są firmami elastycznymi i tworzą elastyczne struktury organizacyjne umoŜliwiająca swobodne przepływy informacji, transfer wiedzy wewnątrz organizacji oraz szybką reakcję na sygnały rynkowe. Szczególne znaczenie w takich strukturach odgrywają pracownicy zaplecza 11 badawczego pozostający w ścisłych kontaktach z pracownikami innych organizacji (np. na uczelni lub instytutów naukowo-badawczych); m) dostarczają na rynek nowe produkty, które mając odpowiednio duŜy udział w wolumenie 12 produkcji kształtują wizerunek przedsiębiorstwa . n) w podejściu do kształtowania przedsiębiorstwa decydującym jest dla nich system wartości, który określa zarówno podejście do biznesu oraz do ludzi, którym w tych przedsiębiorstwach zapewnia się szanse rozwoju. Istniejący realnie system wspólnych wartości zwiększa lojalność 8 „strategie przedsiębiorcze to zarazem strategie zarządzania innowacjami w przedsiębiorstwie” B. Wawrzyniak, Polityka strategiczna przedsiębiorstwa, PWE, Warszawa 1989, s.109.Algorytm strategii przedsiębiorczej opisano w pracy: I. Bielski, Marketing w przedsiębiorstwie. Poszukiwanie efektywności, OPO, Bydgoszcz 2002, s.206 9 M. Brzeziński , Proces uczenia się zmian, Przegląd Organizacji 2000, nr 3, s.19 10 T.Peters nawołuje do „ogłoszenia poraŜki częścią Ŝycia i ograniczania lęku pracowników przed pomyłkami”. T.Peters, Get Innovative or Get Dead , California Management Review 1991,nr 33 s.18 cyt. za: M.D. Hutt , T.W. Speh , Zarządzanie marketingiem. Strategia rynku dóbr i usług przemysłowych, Wydawnictwo Naukowe PWN, Warszawa 1997, s.354 11 S.J. Harryson, How Canon and Sony Drive Product Innovation Through Networking and Application – Focused R&D, Journal of Product Innovation Management 1997, s.295 12 Dynamizm, kreatywność i szybkość działania oraz program asortymentowy są czynnikami budującymi wizerunek firmy. „Dobry wizerunek firmy pełni rolę mnoŜnika wartości produktu”. Zob. J.Altkorn , Wizerunek firmy jako marka, Marketing w praktyce 1996 nr 4, s. 8,9 9 Ireneusz Bielski Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej pracowników wobec organizacji oraz ułatwia akceptację dla jej celów oraz wytęŜonej i ofiarnej 13 pracy . o) stosowane są teŜ w praktyce zasady obowiązujące w „3M” - przywódcy : zapewniają pracownikom swobodę myślenia, usuwają organizacyjne tabu, pozwalają popełniać błędy, doceniają innowacyjne pomysły, promują wymianę myśli i poglądów, są przywódcami w innowacyjnych przedsięwzięciach, angaŜują kluczowych klientów w procesy innowacyjne, pamiętają, Ŝe innowacje mogą mieć róŜne źródła, traktują technologie jako własność całego przedsiębiorstwa, są przygotowani na przeszkody we wdraŜaniu innowacji. p) wydajność pracy i pracowitość jest dla menedŜerów tych przedsiębiorstw wyzwaniem. Bez 14 dodatkowych nakładów zwiększają ją nieustannie – pracownikom stawiają wysokie wymagania . r) innowacja traktowana jest jako instrument marketingowy i przypisuje mu się duŜą wagę. Waga przypisywana innowacji pozostaje w ścisłych relacjach z innowacyjnością przedsiębiorstw 15 i ich kondycją ekonomiczną . 3. Przykłady przedsiębiorstw innowacyjnych Wybitne firmy funkcjonują nie tylko w rankingach FORTUNE czy Inc.Wśród kilkunastu znakomitych przedsiębiorstw uczestniczących w badaniach na szczególną uwagę zasługują BOHAMET, CIMAT, HYDRAPRESS oraz WAMET. Tablica 2. Wybrane przedsiębiorstwa innowacyjne regionu kujawsko- pomorskiego Nazwa przedsiębiorstwa BOHAMET CIMAT HYDRAPRESS WAMET 1.Rok załoŜenia 1983 1988 1984 1990 2.Forma własności Sp. jawna Sp. z o.o. Sp. z o.o. Sp. z o.o. 3.Rodzaj działalności Produkcja 4.Zatrudnienie 240 5.SprzedaŜ na 1 zatrudnionego Produkcja i usługi Produkcja i usługi przemysłowe przemysłowe 26 50 Produkcja i usługi przemysłowe 80 0,13 – 0,38 mln PLN 13 J.M. Kouzes , B.Z. Posner , Siedem lekcji na temat kierowania wyprawą w przyszłość, [w:] Lider przyszłości, red. F. Hesselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1997, s.122 14 Działania w tym obszarze są uporządkowane – od wyboru obszarów i celów, określenie minimum, wyraźne i stanowcze określenie oczekiwań i delegowanie odpowiedzialności poprzez monitorowanie aŜ do rozwoju i rozszerzania procesu poprawy wydajności. R.H.Schaffer ,śądaj więcej od swoich pracowników, Harvard Business Review Polska, 2004 kwiecień, s.114-117. 15 I. Bielski, Innowacje w kreowaniu zdolności konkurencyjnej przedsiębiorstwa,Wydawnictwa Uczelniane Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy Rozprawy nr 125, Bydgoszcz 2007, s.112-120 10 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 Nazwa przedsiębiorstwa 7.Udział nowych produktów w sprzedaŜy 8. Ilość innowacji w 2005 ( pkt. ) 9.Ilość patentów wzorów uŜytk. i 10.Eksport ( od kiedy) % w 2005 BOHAMET CIMAT HYDRAPRESS WAMET 10% 50% 90% 50% 20 80 60 100 20 4 5 12 Od 1996 50 Od 2000 25 Od 1994 20 Od 1995 20 Mgr inŜ., inŜ. Mgr inŜ., Mgr inŜ.. 11. Wykształcenie Mgr , Mgr inŜ. Dr inŜ., dr inŜ. dr inŜ. załoŜycieli pracowników WyŜsze - 33,75% w tym techniczne - 28,75 % Średnie - 43,75 % w tym techniczne - 37,50 % 12. Wydatki na B&R (% dochodu) 5-10 5-10 PoniŜej 5 5-10 13.Udział w targach ( rocznie) Więcej niŜ 3 razy 1 2-3 Więcej niŜ 3 razy Wiele, min. Wiele min. Wiele, min. elitarny Około 100. min. Gazela Biznesu certyfikat Teraz Polska 2001, Eurotool, 2004 Złoty Medal MTP TS16949 2002 Gazela Biznesu 2005 15.Pozycja na rynku Ok.40% świa- Wysoka specjaliza- Wysoka specjaliza- Wysoka specjalizacja., towego rynku cja., wąski segment cja., duŜy rynek Główny okien okrętogłównie wykonania krajowy producent. wych jednostkowe . 14. Nagrody i wyróŜnienia Źródło: opracowanie własne na podstawie wywiadów z właścicielami (V etap badań-2006). 4. Podsumowanie Przedsiebiorstwa działające w roŜnych warunkach, aby odnieść sukces rynkowy muszą, pozostając w zgodzie z deklarowaną misją, transformować swoje zasoby do stanu zgodnego z zaplanowaną strategią. W kaŜdych warunkach istnieje optymalna konfiguracja zasobów, specyficzna dla konkretnej sytuacji rynkowej. Uniwersalne wydają się jednak takie cechy i zachowania jak: utrzymywanie ścisłych kontaktów z nauką , uczestnictwo aktywne w twórczości technicznej i transferze wiedzy oraz upatrywanie w rozwoju własnym właścicieli i wszystkich Ireneusz Bielski Współczesne przedsiębiorstwa o duŜej zdolności konkurencyjnej 11 pracowników szansy na wygrywanie walki konkurencyjnej na światowych rynkach, bez względu na 16 to, jak dynamicznie będą się one zmieniać w przyszłości . Podstawową przesłanką, uzasadniającą tę wiarę w sukces jest umiejętność przyciągania, rozwijania i utrzymywania w swoich szeregach najlepszych, najbardziej uzdolnionych ludzi17 . 6. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. Altkorn J. , Wizerunek przedsiębiorstwa jako marka, „Marketing w praktyce” 1996, nr 4 Bielski I, Innowacje w kreowaniu zdolności konkurencyjnej przedsiębiorstwa, Wydawnictwa Uczelniane Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy Rozprawy nr 125, Bydgoszcz 2007 Bielski I., Marketing w przedsiębiorstwie. Poszukiwanie efektywności, OPO, Bydgoszcz 2002 Brzeziński M.,, Proces uczenia się zmian, Przegląd Organizacji 2000, nr 3 Coates Ch., MenedŜer wszechstronny, WPSB, Kraków 1996 Drucker P.F., Zarządzanie w czasach burzliwych, Nowoczesność, Warszawa 1995 Dworzecki Z., Zarządzanie strategiczne przedsiębiorstwem, „Przegląd Organizacji” 1989, nr 4 Hamel G., Prahalad C.K., Strategy as Stretch and Leverage, “Harvard Business Review” March-April 1993 Harris Ph.W., Management in Transition, Jossey - Bass Publishers, San Francisco London 1985 Harryson S.J., How Canon and Sony Drive Product Innovation Through Networking and Application – Focused R&D, “Journal of Product Innovation Management” 1997, nr 14 Hutt M.D. , Speh T.W., Zarządzanie marketingiem. Strategia rynku dóbr i usług przemysłowych, Wydawnictwo Naukowe PWN, Warszawa 1997 Kouzes J.M. , Posner B.Z., Siedem lekcji na temat kierowania wyprawą w przyszłość, [w:] Lider przyszłości, red. F. Hesselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1997 Kwiatkowski S., O psie, płocie, paradygmacie teorii organizacji i przyszłości praktyki zarządzania (II), „Przegląd Organizacji” 1996, nr 1, Pełka B., Zarządzanie przedsiębiorstwami i menedŜeryzm, ORGMASZ, Warszawa 1996 Penc J., Przedsiębiorstwo w burzliwym otoczeniu, OPO, Bydgoszcz 2002 Peters T., Get Innovative or Get Dead , “California Management Review” 1991,nr 33 Peters T.J., Waterman R.H.Jr. , In Search of Excellence: Lessons from Americas Best Run Companies, New York 1982 16 „Globalna konkurencja nie polega na przeciwstawieniu produktu produktowi, firmy firmie, czy handlowego ugrupowania handlowemu ugrupowaniu. Polega na przeciwstawieniu sposobu myślenia sposobowi myślenia” G. Hamel, C.K. Prahalad , Strategy as Stretch and Leverage, Harvard Business Review March-April 1993,s.77 cyt. za S. Kwiatkowski , O psie, płocie, paradygmacie teorii organizacji i przyszłości praktyki zarządzania (II), Przegląd Organizacji 1996, nr 1, s.11. 17A. Smith , T. Kelly , Kapitał ludzki w gospodarce cyfrowej, [w:] Organizacja przyszłości, red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1998, s.228 12 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 18. Prahalad C.K., Rola menedŜerów nowej ery na konkurencyjnym rynku, [w:] Organizacja przyszłości, red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1998 19. Schaffer R.H. ,śądaj więcej od swoich pracowników, „Harvard Business Review Polska” 2004 kwiecień 20. Smith A., Kelly T. , Kapitał ludzki w gospodarce cyfrowej, [w:] Organizacja przyszłości, red. F. Hasselbeim, M. Goldsmith, R. Beckhard, Business Press, Warszawa 1998 21. Stanton J.L., George R.L. , Success Leaves A Marketer’s Guide to Winning Strategy, J.L. Stanton & R.J.George, Philadelphia USA 1994 22. Stoner J.A.F. , Wankel Ch., Kierowanie , PWE, Warszawa 1994 23. Wawrzyniak B., Polityka strategiczna przedsiębiorstwa, PWE, Warszawa 1989 CONTEMPORARY ENTERPRISES ENCOMPASSED A GREAT COMPETITION CAPACITY Summary This text describes searching of features of excellent companies. As a result of multistage researches it was found out that innovation is a main feature of successful enterprises. It was defined the concept of innovativeness and competition ability, and moreover model of this one. Outstanding achievements in innovation activity have small and medium, private enterprises acting in machinery industry which take part in international transfer of knowledge. Polish excellent companies build an information management system, leading R&D activity and realizing enterprising strategy. They are flexible and create effective social configuration. Charismatic leader, treatment of time and innovation just as a main instruments of management, universally accepted shared values, these are pillars of the success of really existing firms which are presented in this work. Keywords: innovation enterprise, knowledge management, leadership Ireneusz Bielski Katedra InŜynierii Zarządzania Wydział Zarządzania Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy 85-970 Bydgoszcz, Al. S. Kaliskiego 7 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 13 JAROSŁAW BECKER Zachodniopomorski Uniwersytet Technologiczny MODEL GENERATORA SYSTEMÓW DECYZYJNYCH DLA RELIZACJI PROCESÓW PRZETARGOWYCH W AUKCJACH ELEKTRONICZNYCH Streszczenie W artykule zaprezentowano rezultaty pracy badawczej nad architekturą automatycznego wprowadzania zadań (problemów) decyzyjnych do wyspecjalizowanych systemów aukcyjno-przetargowych w kontekście zakresu ich funkcjonowania. RozwaŜania metodyczne koncentrują się na algorytmicznym ujęciu funkcji generatora systemów wspomagania decyzji. W tym zakresie omówiono wybrane metody wielokryterialnego wspomagania decyzji, zasady definiowania zadań decyzyjnych oraz funkcję generowania komponentów dla zautomatyzowanych systemów wspomagania decyzji (klasy DSS). Słowa kluczowe: wspomaganie decyzji wielokryterialnych, systemy wspomagania decyzji (SWD), generator SWD 1. Wprowadzenie W systemach przetargowych relacja kupującego z wieloma sprzedającymi w celu zawarcia transakcji jest formalnie wspomagana technologią informacyjną w formie elektronicznej licytacji. Jest to taki tryb udzielania zamówienia, w którym wykonawcy składają swoje oferty za pośrednictwem formularza umieszczonego na stronie internetowej. Jednak poza mechanizmami szeregowania (sortowania) ofert według wybranych cech, nie dostrzega się w tych rozwiązaniach wyraźnie postawionego problemu (algorytmu) wyboru ofert najlepszych z punktu widzenia wiązki preferowanych celów konsumenta. Problemem do rozwiązania jest wspomaganie i automatyzacja procesu 7decyzyjnego wyboru produktów lub usług przez konsumenta (dysponenta środków finansowych), zgodnie z jego kryteriami i indywidualną skalą preferencji. RozwaŜania metodyczne koncentrują się na algorytmicznym ujęciu funkcji generatora systemów wspomagania decyzji. Jako metodę przyjęto koncepcję zadania WPL (Wielokryterialnego Programowania Liniowego), w którym maksymalizuje się odpowiednią postać funkcji uŜyteczności dla róŜnie zdefiniowanych (niestandardowych) problemów decyzyjnych. W tym zakresie dokonano przeglądu wybranych metod WWD (Wielokryterialnego Wspomagania Decyzji), omówiono ideę definiowania szablonów zadań decyzyjnych, które stanowią podstawę dalszej dyskusji nad funkcjonowaniem modułu generatora i systemów wspomagania decyzji przetargowych. 2. Lokalizacja zadań decyzyjnych Generatory DSS (ang. Decisions Support System) są to pakiety programów, pozwalające na łatwe i szybkie zbudowanie konkretnej aplikacji DSS. W zaproponowanym rozwiązaniu działanie generatora sprowadza się do wspomagania projektanta w kreowaniu zadań decyzyjnych (definio- 14 Jarosław Becker Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych wanie szablonu), weryfikacji ich na danych testowych oraz automatycznym wygenerowaniu na ich podstawie uŜytkowych systemów DSS (rys. 1). specyficzne DSS 1 2 3 ? … n generator DSS narzędzia DSS CA VO, Solver, HTML, …, PHP Rys. 1. Technologie budowy systemów DSS Zadaniem generatora DSS jest wspomaganie procesu budowy wyspecjalizowanych systemów wspomagania decyzji (pewnej ich kategorii) dla problemów związanych z wyborem ofert, które uznaje się za najlepsze z punktu widzenia preferencji decydenta (dysponenta środków finansowych). NaleŜy zauwaŜyć, Ŝe formułowane zadania wyboru mogą mieć róŜną postać. MoŜna je podzielić na dwie kategorie. Do pierwszej zaliczymy zadania związane z organizacją przetargu na zakup usługi lub produktu (np. samochodu, komputera, kredytu, ubezpieczenia itd.) przez podmioty z sektora publicznego, prywatnego lub osoby fizyczne. W drugiej grupie znajdą się zadania podziału środków na określone cele gospodarcze. Na przykład problem rozdysponowania funduszy z Unii Europejskiej przyznawanych organizacjom (np. gminom, firmom) w formie dotacji na realizację określonych inwestycji (patrz: [17]). RóŜnica w tych dwu podejściach polega na tym, Ŝe w pierwszym przypadku bloki W1,W2,…,Wn stanowią wnioski zapisane pod postacią pojedynczych zmiennych (najczęściej typu binarnego). Natomiast w drugim, kaŜdy z bloków moŜe być kolekcją zmiennych w przedziale od 1 do 99 róŜnego typu, co umoŜliwia szerszy opis pojedynczego wniosku (W1,W2,…,Wn). Odpowiednia konstrukcja tego bloku daje moŜliwość „samodzielnego dostosowania się” wniosku (oferty) do wymogów optymalizacji globalnej całego zadania. Ogólnie zakłada się, Ŝe organizacja pracy w kaŜdym wygenerowanym internetowym systemie wyboru najlepszych ofert nakłada na uŜytkowników wymóg wypełnienia określonych formularzy wejścia. Po stronie organizatora – dysponenta środków finansowych – wprowadza się globalne warunki i zasady wyboru ofert w przetargu oraz precyzuje lokalne rygory dla wniosków (rys. 2, etap 1). W kolejnym kroku definiuje się zbiór kryteriów oceny wniosków i w formie dialogu określa się ich preferencje. W efekcie tych działań, po wprowadzeniu wszystkich informacji zostaje zdefiniowany szablon wraz z rygorami walidacji do wprowadzania danych przez wnioskodawców (rys. 2, etap 2). Po wprowadzeniu danych (wniosków ofertowych), automatycznie budowany jest wielokryterialny model o maksymalnym rozmiarze 70 tys. zmiennych decyzyjnych (rys. 2, etap 3). Następnie, wykonywane są obliczenia optymalizacyjne i wielokierunkowo edytowane wyniki rozwiązania decyzyjnego. Trzeba przy tym podkreślić, Ŝe po przeprowadzeniu obliczeń naleŜy zwrotnie dostarczyć uŜytkownikowi jego wniosek wraz z wynikami rozwiązania pozytywnego POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 15 i negatywnego (rys. 2, etap 4). W przypadku uzyskania wyniku negatywnego ma to duŜe znaczenie, bowiem wiadomo, co naleŜy poprawić w następnym zgłoszeniu. Rys. 2. Przetwarzanie danych w internetowym systemie wyboru najlepszych ofert Źródło: [17] WaŜnym problemem związanym z budową systemu informatycznego klasy DSS jest jego motor decyzyjny; algorytm najczęściej generujący rozwiązania planistyczne dla określonego problemu decyzyjnego. Rzecz staje się bardziej skomplikowana, gdy chcemy zbudować system informatyczny dla róŜnie definiowanych zadań decyzyjnych (modeli WPL). Często przeprowadzamy dyskusje na tematy formalistyczne, co wyraźnie odstrasza adresatów budowanych modeli. Najtrudniejszym momentem wdroŜenia nawet najbardziej udanej konstrukcji modelowej zadania decyzyjnego jest moŜliwość posługiwania się nią w praktyce. Przyjmuje się, Ŝe modele te na pewnym abstrakcyjnym poziomie muszą posiadać ujednoliconą postać, stanowiącą szablon dla róŜnych, niestandardowych zadań decyzyjnych. Chodzi przede wszystkim o to, aby moŜna było zastosować modele matematyczne w systemie informatycznym do wielu zastosowań praktycznych. Dlatego konieczne jest zastosowanie takiej obsługi informatycznej modeli WPL, która zwiększałaby przyjazność aplikacji. 16 Jarosław Becker Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych 3. Wybrane wielokryterialne metody wspomagania decyzji Definiując problem wyboru w systemie przetargowym rozwaŜa się sytuacje decyzyjne, gdzie skończony zbiór wniosków ofertowych (wariantów decyzyjnych) W poddany jest ocenie według n kryteriów g1,g2,…,gn, tworzących rodzinę G={1,2,…,n}. MoŜna załoŜyć, Ŝe im większa jest wartość funkcji kryterium gi(w), tym lepszy jest wariant w∈ W na kryterium gi, dla wszystkich i∈ G. Tak definiowany problem wyboru moŜna dalej rozpatrywać z punktu widzenia trzech problematyk decyzyjnych, mianowicie kiedy konsument (decydent) chce zgodnie z indywidualnymi preferencjami: • wyodrębnić minimalny zbiór najlepszych wariantów decyzyjnych ze zbioru W (problematyka wyboru α), • sklasyfikować warianty zbioru W według wcześniej zdefiniowanych kategorii (problematyka klasyfikacji β), • skonstruować ranking wariantów zbioru W od najlepszego do najgorszego (problematyka rangowania γ).[1] W większości przypadków sytuacja decyzyjna konsumenta, będącego ze sprzedającymi w relacji przetargowej, lokalizuje się w ramach problematyki α i γ lub w ograniczonej formie tylko jednej z nich. Problematyka klasyfikacji β moŜe wspierać jedynie etap analizy i wstępnej selekcji ofert rynkowych. Problematyka wyboru α polega na postawieniu problemu w kategoriach wyboru jednego „najlepszego” wariantu przez poszukiwanie takiego podzbioru W’ zbioru dopuszczalnych wariantów W, moŜliwie najmniej licznego i takiego, by dla kaŜdego wariantu z W\W’ istniał wariant naleŜący do zbioru W’ preferowany przez decydenta, oraz by podzbiór ten był złoŜony z wariantów, które decydent uznaje za wystarczające do tego, by odrzucić W\W’. W tej problematyce analityk winien wypracować zalecenie podające z maksymalną ścisłością i dokładnością rodzaj wskazanej decyzji. Problematyka porządkowania γ polega na postawieniu problemu w kategoriach porządkowania wszystkich lub niektórych wariantów ze zbioru W, to znaczy na ukierunkowanie badań mających na celu poszukiwanie klasyfikacji zdefiniowanej na podzbiorze W, aby wyodrębnić warianty „dostatecznie zadowalające”, w zaleŜności od ustalonego modelu preferencji. W problematyce porządkowania γ naleŜy dokonać wskazania porządku częściowego lub zupełnego klas grupujących warianty oceniane jako równowaŜne lub przyjąć metodykę opartą na procedurze klasyfikacji wariantów ze zbioru W, nadające się do wielokrotnego zastosowania.[1] Główna trudność przy wyborze, klasyfikacji czy porządkowaniu polega na uwzględnieniu oceny wariantów z róŜnych punktów widzenia, czyli oceny wielokryterialnej.[1] W takiej sytuacji waŜnym elementem procesu wspomagania decyzji jest wybór odpowiedniej metody modelowania preferencji i agregacji ocen. Zdaniem R. Słowińskiego [2] w rozwoju metod wielokryterialnego wspomagania decyzji (WWD) wykształciły się trzy klasy modeli agregacji preferencji: • do funkcji uŜyteczności (wartości), • do systemu relacyjnego (relacja przewyŜszania), • zastosowanie zbioru reguł decyzyjnych (“jeŜeli ... to ...”). Przegląd literatury [2], [3], [4] wskazuje na bardzo duŜą róŜnorodność procedur i metod wielokryterialnego wspomagania decyzji (ang. Multiple Criteria Decision Making – MCDM). W obszarze problematyki wyboru α moŜna wyróŜnić metodę Electre I [5], której istotą jest modelowanie POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 17 preferencji przy uŜyciu kryteriów prawdziwych i wyznaczenie podzbioru wariantów zawierających najlepszą alternatywę, oraz metodę Electre IS [3], którą rozszerzono o moŜliwość modelowania preferencji na zbiorze pseudo kryteriów. Poza tym w dziedzinie problemu α stosowana jest metoda leksykograficzna [6] oraz metody wydzielania dla minimalnej i maksymalnej wartości atrybutu [6] [7]. Kolejne wersje rozwinięć metody Electre I – takie jak: Electre II, III i IV [3] – wspomagają problematykę γ, ich cechą szczególną jest to, Ŝe ranking wariantów uzyskujemy na podstawie dwóch relacji przewyŜszania: słabej i silnej. Metoda MELCHIOR [8] to z kolei rozszerzenie wersji Electre IV o relację porządkową wyraŜającą względną waŜność kryteriów. Równie interesującą propozycję stanowi metoda NAIADE [9], u której podstaw leŜy zastosowanie operatora dystansowego, a zasilenia informacyjne mogą wystąpić w postaci róŜnych form preferencji (rozmytych, stochastycznych). Do grupy metod WWD stosowanych zarówno do problematyki wyboru α i szeregowania γ zaliczymy proste, addytywne metody wagowe [6] oraz ich wersje rozmyte [7]. W obu przypadkach wybór najlepszego wariantu odpowiada najwyŜszej wartości globalnego wskaźnika, którego wartość wyznaczana jest jako suma ocen cząstkowych względem wszystkich kryteriów. Odmienny i bardziej zaawansowany algorytm obliczeń posiadają metody, w których ranking wariantów oparty jest na agregacji cząstkowych funkcji uŜyteczności o postaci addytywnej: metoda MAUT [10], SMART [11] i UTA [12], oraz multiplikatywnej: metoda MAVT [10]. Przykładowo w metodzie UTA uŜyteczności częściowe wyznaczane są (dezagregacja informacji preferencyjnej) przy uŜyciu zasady regresji porządkowych. Na bazie tej metody R. Słowiński w pracy [2] proponuje nowe, interesujące podejście do rozwiązywania problemu porządkowania wariantów decyzyjnych według wartości wynikającej z syntezy ocen wielokryterialnych, polecane szczególnie dla sytuacji, w których preferencje decydenta są subiektywne i trudno definiowalne. Zaletą tego podejścia jest ograniczenie informacji preferencyjnej do postaci łatwo wyraŜalnego rankingu referencyjnego oraz moŜliwość interakcji z decydentem. Klasyfikując metodę hierarchicznej analizy problemu (ang. AHP – Analytic Hierarchy Process) według wzorcowych problematyk decyzyjnych zauwaŜymy, Ŝe wyniki agregacji stanowią w niej rozwiązanie problematyki γ i pośrednio α. Metoda AHP oparta jest na załoŜeniu kompensacyjnej strategii modelowania preferencji przy zachowaniu porównywalności wariantów. Uwzględnia specyfikę psychologicznych procesów wartościowania o charakterze hierarchicznym i relacyjnym. Wyniki otrzymane za pomocą tej metody są wartościami liczbowymi, określającymi hierarchię moŜliwych wariantów według zbiorczej i jakościowej oceny decydentów [13]. Analiza przydatności metod WWD do automatyzacji procesu wyboru konsumenta w postępowaniu przetargowym, wskazała na moŜliwość zastosowania ich w fazie przygotowawczej, kiedy konsument (decydent) określa warunki formalne, kryteria wyboru i indywidualne preferencje. Na uwagę zasługuje rozszerzona przez R. Słowińskiego procedura dialogowa metody UTA, w której informacja preferencyjna pochodząca od decydenta ma postać preporządku zupełnego (tzw. rankingu referencyjnego) w niewielkim podzbiorze wariantów decyzyjnych. Drugą jest metoda AHP, która wspiera artykułowanie preferencji decydenta, walidację ich relacji oraz wykorzystanie w procesie agregacji ocen. Po określeniu warunków wyboru (faza przygotowawcza przetargu) dalsze postępowanie związane z rozstrzygnięciem tej decyzji mieści się w problematyce optymalizacji wielokryterialnej. Zagadnienie to moŜna opisać pewną (adekwatną do rzeczywistości) zunifikowaną postacią zadania 18 Jarosław Becker Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych WPL. Opracowanie metody definiowania określonej kategorii zadań decyzyjnych ma tu zasadnicze znaczenie ze względu na dąŜenie do budowy informatycznego systemu wyceny wielu ofert i wyboru najlepszych z nich za pomocą np. inteligentnych agentów programowalnych na rynkach elektronicznych. 4. Funkcje generatora DSS W sprawnym poszukiwaniu rozwiązania spełniającego postulat syntezy globalnego modelu preferencji decydenta (GMPD) R. Słowiński w pracy [14] wyróŜnia trzy podejścia: z aprioryczną funkcją celu, z dialogowym trybem postępowania oraz z wyborem a posteriori rozwiązania uznanego za najlepsze. Formalne działania przetargowe nakładają na kupującego obowiązek jasnego zdefiniowania warunków i reguł zakupu, które po ich ogłoszeniu i uruchomieniu procedury nie powinny ulec zmianie, w przeciwnym wypadku całe postępowanie zostanie uniewaŜnione. W przypadku syntezy a priori mamy do czynienia z taką informacją dostarczoną przez decydenta, która pozwala na określenie wartości kryteriów przed rozpoczęciem obliczeń. Kryteria i ich wartości są znane, a poszukuje się rozwiązania najlepiej dostosowanego do zdefiniowanych wartości celów. Jak sugerują Z. Galas i in. (1987) w takiej sytuacji moŜna posłuŜyć się przy wyborze rozwiązania końcowego funkcją uŜyteczności. Zbiór ocen osiągalnych, a przez to zbiór decyzji dopuszczalnych, zostaje preuporządkowany liniowo, a stąd zbiór decyzji najlepszych z punktu widzenia uŜyteczności (maksymalizujących funkcję uŜyteczności), moŜe stanowić podstawę podjęcia decyzji końcowej. ZałoŜono, Ŝe system informatyczny DSS będzie generował rozwiązania informatyczne (aplikacje) dla róŜnie definiowanych zadań decyzyjnych. Chodzi o to, aby koncepcja budowy zadań WPL (i podporządkowana im architektura systemu informatycznego) dopuszczała moŜliwość formowania zadania dla pojedynczego odbiorcy (np. optymalizacja biznes planu) lub wielu uczestników (np. organizacja przetargu publicznego) oraz aby dawała moŜliwość indywidualizacji rozwiązań modelowych (bloków) całego zadania WPL. Zatem waŜna jest konstrukcja zadania WPL dla wielu zastosowań, jego podstaw metodycznych i organizacji systemu informatycznego. Problemy te przedstawiono w artykule J. Beckera [15], który stanowi podstawę całościowego opracowania w ujęciu formalnym procedury definiowania zadań decyzyjnych w generatorze systemów klasy DSS. Punktem startowym jest zdefiniowanie zadania decyzyjnego, którego postać pierwotna (startowa) jest pobierana z archiwum szablonów decyzyjnych. MoŜe on być dalej modyfikowany i uzupełniany przez operatora systemu. KaŜde zadanie (jego szablon z rekordem testowym) jest automatycznie archiwowane po przeprowadzeniu obliczeń za pomocą rekordu testowego. W archiwum DSS wyróŜnia się dwojakiego rodzaju szablony startowe: systemowe, wprowadzane do pliku archiwum automatycznie przez system wraz z jego pierwszym uruchomieniem (oznakowanie „AA, BB, …, ZZ” z uzupełniłem „00000”) oraz wszystkie występujące rozwiązania autorskie ze wskazaniem pochodzenia „AA, BB, …, ZZ” i daty powstania wersji, które były wykorzystywane do optymalizacji w systemie. Celem generatora zadań decyzyjnych (rys. 3) jest opracowanie szablonu dla definiowania bloku oferty (wniosku) lub propozycji planistycznej, które w jednorodnej postaci matematycznej będą lokowane w zadaniu głównym. W szablonie wyróŜnia się następujące grupy nastawień konstrukcyjnych: POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 19 decyzje – definiowanie zmiennych decyzyjnych Xn (1 ≤ n ≤ 99); opcje obsługi to wprowadź, usuń i deklaracje rodzaju zmiennych (binarne, całkowitoliczbowe i zmiennoprzecinkowe), • blok zadania – ustalanie relacji logicznych między zmiennymi w bloku zadania w postaci opisu postaci bilansu i relacji względem zasobów, • bilanse wspólne – ustalanie relacji logicznych między zmiennymi we wszystkich blokach zadania w postaci opisu postaci bilansu i relacji względem wspólnych zasobów, • kryteria – specyfikacja kryteriów cząstkowych, które będą uŜyte w dialogowym postępowaniu optymalizacyjnym (1 ≤ 99); w systemie określa się relacje mini/maks dla kaŜdego z przyjętych celów cząstkowych (ewentualnie moŜna określić „cele do osiągnięcia”, które winien spełnić system). Kolejnym etapem jest określanie parametrów techniczno-ekonomiczne bn; cn; dn; oraz wartości ograniczeń bbn; ccn; ddn; które będą podlegały aktualizacji w opcjach wprowadzania danych do informatycznych systemu DSS. • Rys. 3. Okno projektowania (generator) bloku decyzyjnego wraz z przywołanym algorytmem aktualizacji modelu (definiowanie parametru b1) Źródło: [16] 20 Jarosław Becker Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych Standardowym wyposaŜeniem generatora są opcje testujące, które umoŜliwiają weryfikowanie na bieŜąco poprawności obliczeniowej bloku zadania decyzyjnego. Podstawą jest rekord testowy, który towarzyszy kaŜdej konstrukcji opracowywanej w generatorze. Jest on pobierany z archiwum szablonów. Parametry techniczno-ekonomiczne rekordu testowego moŜna modyfikować w specjalnej programie „Test generatora”, którego opcje pozwalają na róŜnego rodzaju symulacje decyzyjne w obrębie jednego bloku zadania. Proces definiowania zadań decyzyjnych Szablon zadania decyzyjnego Projektowanie i testowanie Formularze wejścia i wyjścia Reguły walidacji, skrypty sterujące Struktury informacyjne bazy danych modelu Raporty Automatyczne generowanie systemu DSS Rys. 4. Proces definiowania i generowania systemu DSS Sprawny i poprawny merytorycznie szablon modelu decyzyjnego jest zapisany za potwierdzeniem operatora w bazie danych systemu DSS oraz automatycznie zarchiwizowany z odpowiednim oznaczeniem wersji w strukturze dziedziczonych rozwiązań. W ostatniej fazie generator konstruuje dwa formularze HTML wraz ze skryptami sterującymi, regułami walidacji danych oraz zakłada odpowiednie struktury informacyjne systemu DSS (rys. 4). Pierwszy formularz słuŜy do określenia warunków globalnych (bilansów głównych, kryteriów i preferencji) przez dysponenta środków finansowych (inicjatora sesji). Drugi do wprowadzania warunków lokalnych w poszczególnych blokach wniosków ofertowych (wartości: parametrów, ograniczeń, celów cząstkowych) przez potencjalnych graczy gry decyzyjnej. 5. Funkcjonowanie systemów DSS Warunki ogólne dla zadania, jako całości, gdy biorą udział w nim wszystkie oferty (bloki), są określane przez dysponenta środków finansowych (inicjatora sesji przetargowej). Elementami nastawialnymi są parametry ograniczeń wspólnych, wartości kryteriów do osiągnięcia oraz preferencje dla kryteriów cząstkowych. Przy czym, moŜna w tym module dokonywać korekty kierunku optymalizacji, czyli zmiany relacji mini\maks i wartości wag dla celów cząstkowych. Ta ostatnia właściwość moŜe być dokonywana arbitralnie na zasadzie „jak mi się wydaje?” lub przy uŜyciu wyspecjalizowanego pakietu AHP gwarantującego spójność ocen. Parametry indywidualnie zgłoszonych ofert (wniosków przetargowych lub innych danych) to: bn, bbn,, cn i dn, które dotyczą określonych bloków w macierzach cząstkowych (rys. 3). Główne funkcje w systemie dotyczą gromadzenia danych operacyjnych (wprowadzanie określonego bloku do wspólnego zadania lub jego usunięcie), aktualizacji parametrów techniczno-ekonomicznych zgłoszonego bloku (oferty, wniosku) oraz automatycznego testu poprawności wprowadzonego bloku do zadania (optymalizacja cząstkowa zapisu modelowego akceptująca umieszczenie bloku w POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 21 całym zadaniu). Zadanie moŜe składać się z jednego bloku (blk), który moŜe być definiowany maksymalnie przez 99 zmiennych (zmn), ograniczeń i kryteriów oceny. Ograniczona jest takŜe liczba bloków w zadaniu, których nie moŜe być więcej niŜ blk ≤ 70 000/zmn. Im mniej zmiennych w bloku, tym więcej bloków w zadaniu. Brak rozwiązania optymalnego dla aktualizowanego bloku (oferty, wniosku) automatycznie usuwa ten blok z całego zadania (blok fizyczny jest zapisany, ale niedostępny logicznie). Rys. 5. Okno dialogu adaptacyjnego w postępowaniu optymalizacyjnym, źródło: [16] W systemie występują róŜne postacie rachunku optymalizacyjnego. Wynika to z faktu, Ŝe rozpatruje się wiele funkcji systemu, w których konieczne jest zastosowanie algorytmu simpleks. Główne opcje zawierające optymalizację to: podgląd, w którym weryfikujemy skuteczność pojedynczych korekt bloków, weryfikacja rekordu testowego dla roŜnych parametrów technicznoekonomicznych bloku i róŜnych parametrów funkcji celu oraz funkcja poszukiwania zasadniczych rozwiązań decyzyjnych. Ciekawym rozwiązaniem jest okno postępowania optymalizacyjnego (rys. 5) w formie dialogu, gdzie strona (w optymalizacji – nazwijmy umownie: ofertą lub wnioskiem) ma moŜliwość korekty swoich parametrów funkcji celu i innych elementów tego bloku zadania. Po dokonaniu korekty, oferta (wniosek przetargowy) moŜe dalej uczestniczyć w rachunku optymalizacyjnym. Istotnym elementem, który wymaga dalszych prac nad algorytmem działania systemu DSS, jest wiedza „o przyczynie nie wejścia” określonego bloku (oferty, wniosku) do grupy rozwiązań 22 Jarosław Becker Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych najlepszych (Pareto-optymalnych). Rozwiązanie tego problemu na poziomie zautomatyzowanej procedury korekcyjnej ułatwiłoby szersze zastosowanie rozwiązań systemu DSS (patrz: agenty programowalne) do praktyki wyboru w wielu sytuacjach decyzyjnych. Pobierz dane dla wniosku wk (k = 1, 2, …, r) Wybór wniosku do korekty (t) Wt ;(xj <1) START s u' = ∑ c x (t ) k j =1 (t ) kj (t ) j Sortuj kryteria cząstkowe według waŜności : w k (k’ = 1, 2, …, r) (j = 1, 2, …, s) Macierz zadania z ostatniej sesji Poprawiasz parametry gry ? TAK NIE Ustaw zmienną algorytmu k':=1 k := k + 1 Modyfikacja parametrów gry : Pobranie wartości parametrów gry u 'k(t,)max- oferowane maksimum , pk(t ) - precyzja , NIE Oblicz wartość skoku : STOP TAK Brak kryteriów ? k =r TAK (t ) (t ) (t ) uk + z k ≥ uk , max Wnioski ofertowe z k(t ) = u k( t, )max − u k( t ) p k( t ) NIE Podstaw do modelu : Dodatek SOLVER Wnioski ofertowe u k(t ) := u k(t ) + z k( t ) Macierz zadania z ostatniej sesji Symulacja (optymalizacja ) Zapisz do zbioru : u k(t ) TAK Wszedł wniosek ? Xj(t) = 1 Zapis danych NIE Rys. 6. Algorytm automatycznej korekty parametrów wniosku Zaproponowany algorytm (rys. 6) słuŜy do zautomatyzowanego poszukiwania minimalnych wartości korekty kryteriów cząstkowych, które zagwarantują konkurencyjność odrzuconym wnioskodawcom. W symulacji wykorzystuje się macierz zadania decyzyjnego z ostatniej rozgrywki (sesji). Dla kaŜdego kryterium określa się indywidualne granice minimalnej i maksymalnej opłacalności. Wartość parametru precyzji dzieli przedział na równe odcinki, które stanowią wielkość cząstkowej poprawki (skok) w badaniu symulacyjnym. Kolejność korygowania kryteriów realizowana jest według uporządkowanych malejąco wartości ich preferencji (od najbardziej do najmniej preferowanych). Postępowanie iteracyjne w algorytmie (rys. 6) polega na: 1) zbadaniu i wyznaczeniu najbardziej preferowanego kryterium, którego wartość nie leŜy na granicy minimalnej opłacalności, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 23 2) podstawianiu do macierzy zadania decyzyjnego z ostatniej rozgrywki lub symulacji nowej wartości kryterium, powiększonej o wartość zdefiniowanego skoku, 3) przeprowadzeniu obliczeń optymalizacyjnych (symulacji) i porównaniu uzyskanych wyników: a) jeśli korygowany wniosek wszedł do puli rozwiązań akceptowanych, procedura symulacyjna jest przerywana, a algorytm przychodzi do punktu 4; b) jeśli korygowany wniosek wszedł do puli rozwiązań odrzuconych i wartość badanego kryterium nie leŜy na granicy minimalnej opłacalności algorytm wraca do punktu 2; c) jeśli korygowany wniosek wszedł do puli rozwiązań odrzuconych i wartości z przedziału opłacalności zostaną wyczerpane algorytm wraca do punktu 1 i podstawia kolejne kryterium; 4) przekazanie listy skorygowanych w symulacji wartości kryteriów, która stanowi punkt wyjścia do automatycznej korekty parametrów wniosku w kolejnej rozgrywce postępowania ofertowego. 6. Uwagi końcowe Ideą dialogowego toku postępowania jest umoŜliwienie wielokrotnego uczestniczenia strony w procesie ofertowym. Jest to zgodne z dyrektywą komisji europejskiej, która definiuje aukcję elektroniczną odwróconą (przetarg) jako: „proces odbywający się przy pomocy urządzeń elektronicznych, polegający na proponowaniu przez oferentów nowych cen, korygowanych w dół podczas aukcji, oraz innych wartości odnoszących się do istotnych elementów przetargu, które mogą być oceniane automatycznie”. Najczęstszym efektem jest polepszenie jakości ofert przy jednoczesnym ich (ofert, wniosków) potanieniu. Fakt, ten moŜe mieć ogromne znaczenie dla organizowania tego rodzaju przetargów publicznych, np. w Internecie. Podobnie moŜna potraktować problem planowania regionalnego, rozdziału zasobów w regionie lub wyznaczanie zadań do realizacji. Innym zastosowaniem moŜe być wykorzystanie opracowanej procedury optymalizacyjnej (jako algorytm wyboru) w projektowaniu agentów programowalnych. 7. Literatura 1. 2. 3. 4. 5. 6. Roy B., Wielokryterialne wspomaganie decyzji, WNT, Warszawa, 1990. Słowiński R., Podejście regresji porządkowej do wielokryterialnego porządkowania wariantów decyzyjnych, w: Techniki informacyjne w badaniach systemowych, pod red. Kulczyckiego P., Hryniewicza O., Kacprzyka J., Wyd. Naukowo-Techniczne, Warszawa 2007. Bouyssou D., Roy B., Aide Multicritere a la decision: Methodes et Cas. Economica, Paris, 1993. Słowiński R., Greco S., Matarazzo B., Axiomatization of utility, out ranking and decisionrule preferencje models for multiple-criteria classification problems under partial inconsistency with the dominance principle, „Control and Cybernetics”, Vol. 31. Roy B., The outranking approach and the foundations of Electre methods, Theory and decision 31, 1991. Hwang C.L., Youn K., Multiple Attribute Decision Making - Methods and Application: A State of the Art Survey, Springer-Verlag, New York, 1981. 24 Jarosław Becker Model generatora systemów decyzyjnych dla relizacji procesów przetargowych w aukcjach elektronicznych 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. Dubois D., Prade H., The use of Fuzzy Numbers in Decision Analysis w: Gupta, M.M. and Sanchez, E., Fuzzy information and decision Processes, North-Holland, 1982. Leclercq J.P., Propositions d’extension de la notion de dominance en présence de relations d’ordre sur les pseudo-critčres: MELCHIOR, Mathematical Social Sciences, 8, 1984. Munda G., Multicriteria evaluation in fuzzy environment, Theory and applications in ecological economies, Physica-Verlag, 1995. Keeney R., Raiffa H., Decision with Multiple Objectives; Preferences and Value TradeOffs, Wiley, New York, 1976. Olson D. L., Decision Aids for Selection Problems, Springer-Verlag, New York, 1996. Jacquet-Lagreze E.,, Siskos J., Assessing a Set of Additive Utility Functions for Multicriteria Decision Making, European Journal of Operational Research 10, 1982. Belton, V., Stewart T.J., Multiple Criteria Decision Analysis An Integrated Approach, Kluwer Academic Publishers, London, 2002. Słowiński R., Przegląd metod wielokryterialnego programowania liniowego, “Przegląd Statystyczny”, nr 3/4, Poznań 1984. Becker J., Architektura informatycznego systemu generowania wielokryterialnych rozwiązań decyzyjnych: (cz. 1) Koncepcja budowy modelu WPL oparta na niestandardowych zadaniach decyzyjnych, Seria IBS PAN: Badania Systemowe, Tom 64, Wyd. Instytut Badań Systemowych PAN & Polskie Towarzystwo Badań Operacyjnych i Systemowych, Warszawa 2008. Becker J., Budziński R., Architektura informatycznego systemu generowania wielokryterialnych rozwiązań decyzyjnych: (cz. 2) Organizacja struktur informacyjnych i funkcjonowanie systemu informatycznego, Seria: Badania Systemowe, Tom 62, Wyd. Instytut Badań Systemowych PAN & Polskie Towarzystwo Badań Operacyjnych i Systemowych, Warszawa 2008. Budziński R., Becker J., Durka M., Modele wielokryterialne WPL w systemie aukcji elektronicznej, w: Badania Operacyjne i Systemowe 2006, Metody i techniki, wydawca IBS PAN, Warszawa 2006. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 25 MODEL OF THE GENERATOR OF DECISION SYSTEMS FOR REALIZATION OF TENDER PROCESSES IN ELECTRONIC AUCTIONS Summary In the article presented are results of research work on architecture for automatic entry of decision-making tasks (problems) to specialized auction-tender systems in the context of selecting (the scope of) their operation. Methodical deliberations focus on the algorithmic perspective of the functions of a decision support systems generator. In this respect discussed: selected multiple criteria decision support methods, principles of defining decision-making tasks and the function of generating components for automated systems of the decision support (DSS class systems). Keywords: support for multiple criteria decisions, decision support systems (DSS), DSS generator Jarosław Becker Katedra InŜynierii Systemów Informacyjnych Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny 71-210 Szczecin, ul. śołnierska 49, e-mail: [email protected] http://kisi.wi.ps.pl 26 Mieszko Bojar Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego ryzyka MIESZKO BOJAR Bydgoszcz ROLA I ZNACZENIE PODSTAW PRAWNYCH UBEZPIECZEŃ GOSPODARCZYCH W WARUNKACH PODWYśSZONEGO RYZYKA Streszczenie Z przeprowadzonych studiów literatury przedmiotu oraz przeglądu moŜliwości eksploracji wiedzy z zakresu przepisów prawa dotyczącego ubezpieczeń gospodarczych wynika, Ŝe usługi z tego obszaru naleŜą w gospodarce rynkowej do dynamicznie rozwijających się działań pozwalających zarządzać ryzykiem związanym ze zdarzeniami losowymi, co moŜe łagodzić skutki kryzysu finansowego zarówno dla osób fizycznych jak i prawnych. Jest to efektem przeszczepienia na polski grunt zachodnich rozwiązań prawnych dokonywanym stopniowo przez polskiego ustawodawcę w okresie transformacji. Upowszechnienie wiedzy z zakresu stosowania przepisów prawnych poprzez rozwój i zastosowanie moŜliwości technologii informacyjnej w propagowaniu wiedzy prawniczej z tego obszaru dokonuje się m. in. za pośrednictwem internetowych portali komercyjnych i niekomercyjnych, co wpływa znacząco na rozwój rynku usług ubezpieczeniowych. Słowa kluczowe: usługi ubezpieczeniowe, przepisy prawne, zastosowanie IT 1. Wprowadzenie KaŜda aktywność gospodarcza i społeczna obarczona jest ryzykiem, ściśle związanym z występowaniem nieprzewidzianych zdarzeń losowych. W szczególności stopień ryzyka wzrasta w warunkach kryzysu finansowego, kiedy to podejmowanie i rozwijanie jakiejkolwiek działalności gospodarczej obarczone jest prawdopodobieństwem nieprzewidzianych zachowań partnerów z bliŜszego i dalszego otoczenia gospodarczego, jak równieŜ klienteli. We współczesnej gospodarce rynkowej występują zasadniczo dwie metody zabezpieczania się przed negatywnymi finansowo skutkami wystąpienia ryzyka. Pierwsza metoda polega na samodzielnym, indywidualnym gromadzeniu rezerwy środków finansowych, druga zaś na przeniesieniu tego finansowego cięŜaru na inny podmiot gospodarczy. Praktyka gospodarcza jednoznacznie wykazała, Ŝe zdecydowanie bardziej racjonalnym i efektywnym rozwiązaniem jest metoda druga, realizowana przez wyspecjalizowaną w tym zakresie instytucję. W literaturze ubezpieczenie definiuje się m.in. jako urządzenie gospodarcze, którego celem jest łagodzenie lub całkowite likwidowanie negatywnych skutków zdarzeń losowych poprzez rozłoŜenie cięŜaru tego łagodzenia na wiele podmiotów, którym dane zdarzenia zagraŜają. Dzięki takiemu rozwiązaniu przedsiębiorstwo moŜe zminimalizować finansowy problem związany z wystąpieniem strat losowych, czyli strat w duŜej mierze od niej niezaleŜnych, a przy tym potencjalnie nieuniknionych. WaŜną kwestią, która wymaga podkreślenia, jest fakt, iŜ do właściwego wykonywania przez ubezpieczyciela swojego nadrzędnego zadania wymagane jest zgromadzenie w ramach sytemu ubezpieczeń ogromnych środków pienięŜnych, na które składają się składki ubezpie- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 27 czeniowe oraz środki własne zakładów ubezpieczeń. Te tymczasowo wolne środki są przez zakłady ubezpieczeń zagospodarowywane na inne sposoby, np. w ramach prowadzonej przez nie działalności inwestycyjnej. Są one m.in. lokowane w róŜnego typu instrumenty finansowe, takie jak poŜyczki hipoteczne, depozyty skarbowe, papiery wartościowe, terminowe wkłady pienięŜne w bankach. Tym samym znaczna niekiedy część środków pienięŜnych gromadzonych przez zakłady ubezpieczeń zostaje włączona do obrotu finansowego, a przez to wykorzystana jest do finansowania róŜnych przedsięwzięć gospodarczych. W piśmiennictwie podkreśla się, iŜ we współczesnych gospodarkach rynkowych instytucje ubezpieczeniowe są zaliczane do największych inwestorów zarówno na rynku krajowym, jak i na międzynarodowym rynku kapitałowym. Niejednokrotnie pomijanym, ale waŜnym skutkiem działalności ubezpieczeniowej jest takŜe przesunięcie bieŜących wydatków konsumpcyjnych obywateli na okres późniejszy oraz na zmianę specyfiki tych wydatków. Dzieje się tak, dlatego, poniewaŜ składki na ubezpieczenia są wpłacane z bieŜących dochodów ludności, co bezpośrednio przekłada się na ograniczenie aktualnych wydatków konsumpcyjnych pierwszej potrzeby. Natomiast środki uzyskane wskutek wypłaty odszkodowania i świadczeń są głównie przeznaczane na zakup przedmiotów trwałego uŜytku. Usługi ubezpieczeniowe są często komplementarne z nabywanymi dobrami materialnymi. Obserwuje się, Ŝe wzrost popytu na określone dobra materialne przekłada się na wzrost popytu na konkretne produkty ubezpieczeniowe. Wzrost popytu na pojazdy mechaniczne oznacza zwiększony popyt na ubezpieczenia komunikacyjne. ZaleŜność ta występuje najczęściej, jeŜeli mamy do czynienia z sytuacją, która polega na tym, Ŝe nabycie dobra materialnego wiąŜe się z obowiązkiem zawarcia umowy ubezpieczenia. W miarę wzrostu dobrobytu społeczeństw, pomnaŜania bogactwa i względnego nadmiaru posiadanych środków finansowych chęć i potrzeba zabezpieczenia się przed utratą nagromadzonych dóbr upowszechnia się, a w ślad za tym rośnie popyt na usługi ubezpieczeniowe, wzrasta zatem i podaŜ. Jednak wiarygodność świadczonych przez prywatne podmioty usług ubezpieczeniowych musi być gwarantowana przez ścisły nadzór ze strony instytucji publicznych na mocy stanowionego prawa odpowiednio aktualizowanego do bieŜących potrzeb systemu społeczno-ekonomicznego. Tym bardziej takie funkcje kontrolne są waŜne w warunkach globalnego kryzysu finansowego, kiedy to następuje znaczny spadek zaufania klientów do wszelkiego typu instytucji zajmujących się obrotem środków finansowych. Wówczas takŜe waŜny jest, obok poprawnie stanowionych i egzekwowanych przepisów, dobry dostęp do informacji zainteresowanych korzystaniem z usług ubezpieczeniowych w celu szybkiego upowszechniania wiarygodnej wiedzy na ten temat, co pozwoli minimalizować ryzyko podejmowania błędnych decyzji. Podstawowym podziałem ubezpieczeń jest podział na ubezpieczenia społeczne i gospodarcze. Ubezpieczenia społeczne są narzędziem prowadzonej przez państwo polityki społecznej. Stanowią one zarazem jedną z technik zabezpieczenia społecznego rozumianego jako całokształt urządzeń publicznych chroniących obywateli przed skutkami zdarzeń losowych [2]. Ubezpieczenia gospodarcze są w głównej mierze ubezpieczeniami dobrowolnymi. Zakłady ubezpieczeń funkcjonujące na rynku ubezpieczeń gospodarczych oferują zarówno ubezpieczenia osobowe, jak i majątkowe [2]. 28 Mieszko Bojar Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego ryzyka 2. Podstawy prawne i rozwój przepisów regulujących krajowy rynek ubezpieczeń Ewolucja polskiego rynku ubezpieczeń, która dokonywała się na przestrzeni lat, pozostaje w ścisły związku z wydarzeniami politycznymi i gospodarczymi, które determinowały warunki wprowadzania nowych rozwiązań prawnych oraz systemowych do sektora ubezpieczeń. Powojenna gospodarka oparta na systemie nakazowo – rozdzielczym doprowadziła do ścisłego podporządkowania sfery ubezpieczeń i całego sektora finansowego władzy centralnej, czego efektem był praktyczny monopol państwa w zakresie usług finansowych oraz ekstremalnie wyskoki stopień koncentracji podaŜy tych usług. Sytuacja geopolityczna uniemoŜliwiała funkcjonowanie mechanizmu rynkowego do końca lat 80 XX w. Następstwem tego stanu rzeczy był niski poziom rozwoju usług ubezpieczeniowych oraz niski poziom kultury ubezpieczeniowej. Przełom końca lat 80. doprowadził do stopniowej implikacji elementów rynkowych do gospodarki krajowej. Wyrazem tego zjawiska było uchwalenie ustawy o ubezpieczeniach majątkowych i osobowych w 1984 roku [3]. Wejście w Ŝycie tego aktu normatywnego formalnie zniosło dotychczasowy duopol Państwowego Zakładu Ubezpieczeń – w zakresie bezpośrednich ubezpieczeń krajowych oraz Towarzystwa Ubezpieczeń i Reasekuracji Warta S.A. – w zakresie ubezpieczeń związanych z obrotem dewizowym i reasekuracją, handlem zagranicznym oraz z Ŝeglugą morską. Ustawa stworzyła tym samym warunki prawne do tworzenia za zgodą ministra finansów, innych państwowych zakładów ubezpieczeń, spółdzielczych zakładów ubezpieczeń, a takŜe spółek kapitałowych z dominującym udziałem Skarbu Państwa. Kolejnym etapem liberalizacji sektora ubezpieczeń była nowelizacja ustawy o ubezpieczeniach majątkowych i osobowych z 1984 r. dokonana w 1989 r. [4]. Fundamentalne zmiany w zakresie funkcjonowania i organizacji polskiego rynku przyniosła kolejna ustawa z 1990 roku [5]. Za pomocą tego aktu normatywnego ustawodawca uregulował m.in. następujące zagadnienia dotyczące problematyki ubezpieczeniowej: • wprowadzenie systemu ubezpieczeń obowiązkowych opartych na umowie ubezpieczenia, • stworzenie podstaw prawnych do demonopolizacji rynku ubezpieczeń, • określenie wymagań formalnoprawnych dla osób zarządzających działalnością zakładu ubezpieczeń • objęcie zakładów ubezpieczeń nadzorem państwowym, • wprowadzenie wymagań formalnoprawnych do podjęcia działalności ubezpieczeniowej przez podmioty gospodarcze, • ustalenie norm ostroŜnościowych funkcjonowania zakładów ubezpieczeń (określenie marginesu wypłacalności i kapitału gwarancyjnego), • ograniczenie działalności zakładów ubezpieczeń do działalności ubezpieczeniowej i z nią związanej, • ograniczenie formy prawnej działalności zakładów ubezpieczeń do spółek akcyjnych i zakładów ubezpieczeń wzajemnych, • zakaz jednoczesnego prowadzenia działalności w dziale ubezpieczeń na Ŝycie i w dziale pozostałych ubezpieczeń osobowych i majątkowych, Ustawodawca dokonując m.in. reformy prawa ubezpieczeniowego w Polsce na początku lat 90. miał na celu doprowadzenie Polski do faktycznego zintegrowania gospodarczego z krajami Europy Zachodniej, wynikało to z przyjętych priorytetów polityki zagranicznej państwa. Kryteria POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 29 podejmowania i prowadzenia działalności ubezpieczeniowej we Wspólnotach Europejskich były wówczas regulowane na podstawie dyrektyw ogłaszanych przez Radę Unii Europejskiej. Zmierzały one do ujednolicenia zasad świadczenia usług ubezpieczeniowych. Tak więc płaszczyzną odniesienia dla polskiego ustawodawcy w tej materii stały się równieŜ kolejne dyrektywy europejskie. Nowelizacja kodeksu cywilnego przeprowadzona w 1990 r. umoŜliwiła m.in. stosowanie zagranicznych warunków ubezpieczeń, co w pewnym zakresie potwierdziło dąŜenie do wprowadzenia w przyszłości swobody zawierania umów [6]. Układ Europejski, który wszedł w Ŝycie 1 stycznia 1994 r., określił kolejne zmiany polskiego prawa ubezpieczeniowego [7]. Jego postanowienia stanowiące umowę o stowarzyszeniu Polski ze Wspólnotami Europejskimi i ich krajami członkowskimi, przewidywały konieczność stopniowego dostosowywania polskiego ustawodawstwa do wymogów prawa wspólnotowego w róŜnych dziedzinach, w tym takŜe w sferze usług finansowych, a więc równieŜ obejmujących działalność banków i ubezpieczycieli. W roku 1995 wprowadzono kolejną istotną nowelizację ustawy o działalności ubezpieczeniowej [8]. NajwaŜniejsze jej regulacje dotyczyły m.in. usytuowania nadzoru ubezpieczeniowego, który wyłączony został z zakresu kompetencji ministra finansów. Doprowadzono do powstania Państwowego Urzędu Nadzoru Ubezpieczeń, jako centralnego organu administracji państwowej i zapewnienia bezpieczeństwa ubezpieczanych podmiotów. Kolejnym wyrazem dostosowania polskiego prawa ubezpieczeniowego do norm europejskich, było otwarcie polskiego rynku dla podmiotów zagranicznych, co nastąpiło w dniu 1 stycznia 1999 roku [9]. UmoŜliwiono tym samym zagranicznym zakładom ubezpieczeń moŜliwość podejmowania i prowadzenia działalności w Polsce za pośrednictwem swojego głównego oddziału. Końcowym etapem dostosowywania polskiej legislacji do faktycznego włączenia naszego rynku ubezpieczeń do jednolitego rynku europejskiego było wprowadzenie kolejnych uregulowań prawnych w 2000 roku [10]. Zmiany te polegały głównie na rozszerzeniu zakresu działalności Ubezpieczeniowego Funduszu Gwarancyjnego, zdefiniowaniu działalności ubezpieczeniowej i czynności ubezpieczeniowych oraz unormowaniu gospodarki finansowej zakładów ubezpieczeń (zarządzania aktywami). Obecnie w prawie krajowym świadczenie usług ubezpieczeniowych, czyli zasad zawierania i wykonywania umów ubezpieczeniowych reguluje zestaw ustaw pochodzący z maja 2003 roku [11]. Ustawa o działalności ubezpieczeniowej w sposób precyzyjny wymienia czynności, które wchodzą w zakres takiej działalności i które mogą być wykonywane przez zakłady ubezpieczeń. Pod pojęciem działalności ubezpieczeniowej naleŜy rozumieć wykonywanie czynności ubezpieczeniowych związanych z oferowaniem i udzielaniem ochrony na wypadek ryzyka wystąpienia skutków zdarzeń losowych”. Jednocześnie w sposób jednoznaczny wprowadzono konieczność ograniczenia aktywności gospodarczej zakładów ubezpieczeniowych tylko do działalności ubezpieczeniowej i innych bezpośrednio związanej ze świadczeniem usług ochrony przed skutkami ryzyka. To zastrzeŜenie nie obejmuje jednak wykonywania przez zakłady ubezpieczeń działalności akwizycyjnej na rzecz otwartych funduszy ubezpieczeń emerytalnych oraz usług związanych z zabezpieczeniem dokumentów ubezpieczeniowych sporządzanych na elektronicznych nośnikach informacji. Czynnościami ubezpieczeniowymi są m.in. • zawieranie umów ubezpieczenia, umów reasekuracji, umów gwarancji ubezpieczeniowych lub zlecanie ich zawierania uprawnionym pośrednikom ubezpieczeniowym, 30 Mieszko Bojar Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego ryzyka • składanie oświadczeń woli w sprawach roszczeń o odszkodowania lub inne świadczenia naleŜne z tytułu zawartych umów, • ustalanie składek i prowizji naleŜnych z tytułu zawieranych umów, • ustanawianie w drodze czynności cywilnoprawnych, zabezpieczeń rzeczowych lub osobistych, jeŜeli są one bezpośrednio związane z zawieraniem umów, • ocena ryzyka w umowach ubezpieczenia oraz umowach gwarancji ubezpieczeniowych, • wypłacenie odszkodowań i innych świadczeń naleŜnych z tytułu zawartych umów, • przejmowanie i zbywanie przedmiotów lub praw nabytych przez zakład ubezpieczeń w związku z wykonywaniem zawartych umów, • prowadzenie kontroli przestrzegania przez ubezpieczających lub ubezpieczonych obowiązków i zasad bezpieczeństwa odnoszących się do przedmiotów objętych ochroną ubezpieczeniową, • prowadzenie postępowań regresowych oraz postępowań windykacyjnych odnoszących się do wierzytelności ubezpieczającego, mających bezpośredni wpływ na zakres odpowiedzialności zakładu ubezpieczeń z tytułu zawartych umów, • lokowanie środków zakładów ubezpieczeń. Ustawa zalicza do czynności ubezpieczeniowych takŜe inne czynności, jeŜeli są wykonywane przez zakład ubezpieczeń. Są nimi takie działania, jak: • ustalanie wysokości szkód i rozmiaru odszkodowań oraz innych świadczeń naleŜnych uprawnionym z tytułu zawartych umów, • ustalanie przyczyn i okoliczności zdarzeń losowych, • ustalenie wartości przedmiotu ubezpieczenia, • czynności zapobiegania powstawaniu albo zmniejszania skutków wypadków ubezpieczeniowych lub finansowanie tych działań z funduszu prewencyjnego. W obowiązującym prawie ubezpieczeniowym podtrzymany został podział ubezpieczeń na dwa działy, a następnie na grupy i rodzaje ryzyka. Oddzielenie ubezpieczeń na Ŝycie od od pozostałych ubezpieczeń osobowych i ubezpieczeń majątkowych ugruntowuje zasadę niełączenia działalności w zakresie ubezpieczeń Ŝyciowych i pozostałych. Wynika to z przyjęcia jako podstawy dokonania kwalifikacji ryzyk i podziału ubezpieczeń zaleceń I dyrektywy Rady EWG z 1973 r. w sprawie koordynacji przepisów odnoszących się ubezpieczeń bezpośrednich innych niŜ ubezpieczenia na Ŝycie. Jedną z przyczyn takiego rozstrzygnięcia jest dąŜenie do jak najpełniejszej ochrony interesów ubezpieczonych, która mogłaby być zagroŜona w przypadku dokonywania przez ubezpieczyciela wypłat odszkodowań np. z tytułu ubezpieczeń osobowych ze środków pochodzących ze składek dokonywanych w ramach ubezpieczeń Ŝyciowych. Wydaje się, Ŝe efektem dobrze stanowionego i egzekwowanego w zakresie finansów publicznych prawa, a w szczególności jednego z jego dynamicznie rozwijających się elementów, czyli systemu ubezpieczeń gospodarczych, jest stosunkowa dobra pozycja polskiego sektora finansów publicznych na tle innych krajów członkowskich UE, co stwarza perspektywy na dalszy rozwój tego sektora nowoczesnych usług niematerialnych i minimalizację ryzyka w skali makro i mikro na szczeblu przedsiębiorstw. 31 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 3. Baza wiedzy dotycząca przepisów prawnych z zakresu ubezpieczeń W Polsce funkcjonuje szereg podmiotów gromadzących i zarazem udostępniających informacje dotyczące przepisów prawnych z zakresu usług ubezpieczeniowych. Podstawowe znaczenie w tym kontekście mają nowoczesne nośniki informacji związane z technologią informacyjną (IT), a w szczególności z komunikacją za pośrednictwem sieci rozległych, jaką jest m. in. sieć Internet. Ogromny rozwój technologii informacyjnej umoŜliwił potencjalnym klientom, jak równieŜ osobom ubezpieczonym łatwy i szybki dostęp do aktów normatywnych regulujących system ubezpieczeń na rynku krajowym i zagranicznym. Problemem jednak jest autoryzacja informacji z tego obszaru, jak równieŜ rozmiar zasobów informacyjnych z tego zakresu, a takŜe dogodność ich przeszukiwania. Lp. Adres strony internetowej: Dostępność porad prawnych on-line MoŜliwość znalezienia najbliŜszej kancelarii prawniczej Darmowy dostęp do bazy aktów prawnych Orzecznictwo Wyszukiwania informacji według haseł Wyszukiwanie informacji według aktów prawnych Wyszukiwanie informacji według ofert i prawnego serwisu inform. Tabela 1. Analiza struktur informacyjnych oraz kryteriów wyszukiwania informacji prawnej w wybranych portalach internetowych 1. 2. 3. 4. 5. www.ufg.pl www.pzu.pl www.infor.pl www.e-prawnik.pl www.polbrokers.pl + - + + + + + + + + - + + + + + + + + - 6. http://isip.sejm.gov .pl/prawo/index.ht ml - - + - + + - 7. 8. 9. www.lex.com.pl www.prawnik.pl www.gazetaprawn a.pl www.serwisprawa. pl www.rp.pl + - + + + + + + + + + + + + + + + + + + + + + - + + + - + + + + + - 10. 11. Źródło: badania własne na podstawie ww. źródeł internetowych Portale zajmujące się zbieraniem i udostępnianiem informacji tego typu moŜna zasadniczo podzielić ze względu na formę prezentacji danych z tym związanych. Do pierwszej grupy naleŜy zaliczyć portale, które umoŜliwiają zapoznanie się z regulacjami prawnymi z zakresu ubezpieczeń bez konieczności ponoszenia dodatkowych kosztów przez osobę zainteresowaną. Druga grupa 32 Mieszko Bojar Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego ryzyka składa się z programów oraz portali internetowych (Lex Omega, Lex Gamma, Lex Sigma, eprawnik.pl, do których dostęp jest odpłatny. Co do zasady przepisy prawa z zakresu usług ubezpieczeniowych są dostępne bezpłatnie na stronach internetowych instytucji państwowych, największych zakładów ubezpieczeń na polskim rynku oraz w portalach komercyjnych (tabela 1). Portale tego typu wyposaŜone są zazwyczaj w wyspecjalizowane oprogramowanie umoŜliwiające w łatwy i precyzyjny sposób przeszukiwania baz danych za pomocą wyszukiwarek informacji. Internetowy System Informacji Prawnej oferuje selekcję i wyszukiwanie własnego zbioru danych według haseł zawierających dowolną frazę określoną przez uŜytkownika, według haseł i aktów prawnych oraz najszerzej według haseł, aktów prawnych oraz ofert i prawnego serwisu informacyjnego, co tworzy bazę wiedzy prawnej w wyspecjalizowanych portalach, jak np. Lex (tabela 1). Portale prawne, jak lex, prawnik oraz prawnik, umoŜliwiają dodatkowo chronologiczne przeszukiwanie Dziennika Ustaw Rzeczpospolitej Polskiej oraz Monitora Polskiego, jak równieŜ wyszukiwanie zagadnień w bazie danych usystematyzowanych według poszczególnych gałęzi prawa. ToŜsame metody eksploracji wiedzy prawniczej wykorzystują inne wyspecjalizowane portale o tematyce prawnej, które zawierają równieŜ zbiory bibliograficzne oraz umoŜliwiają zapoznanie się z orzecznictwem sądowniczym na dany temat. Dodatkową usługą oferowaną przez portale zajmujące się problematyką prawną jest moŜliwość uzyskania przez osobę odwiedzającą daną stronę internetową porady prawnej on-line. WiąŜe się to jednak z koniecznością uiszczenia przez usługobiorcę określonej opłaty (tabela 1). Informacje prawne moŜna znaleźć m.in. pod następującymi adresami: - www.isip.sejm.gov.pl – Internetowy System Informacji Prawnej - www.ufg.pl Ubezpieczeniowy Fundusz Gwarancyjny - www.pzu.pl Powszechny Zakład Ubezpieczeń - www.infor.pl portal komercyjny - www.e-prawnik.pl – portal komercyjny - www.polbrokers.pl portal komercyjny - www.serwisprawa.pl – portal komercyjny - www.lex.com.pl – a Wolters Kluwer business – portal komercyjny - www.prawnik.pl – portal komercyjny - www.gazetaprawna.pl – portal komercyjny - www.serwisprawa.pl – portal komercyjny - www.rp.pl portal komercyjny dziennik Rzeczpospolita Zasadniczą kwestią dla osoby poszukującej informacji z zakresu prawa ubezpieczeniowego za pomocą źródeł internetowych jest poziom wiarygodności i aktualności zgromadzonych tam wiadomości. Działalność portali internetowych jak kaŜda inna działalność gospodarcza prowadzona w realiach wolnego rynku poddawana jest mechanizmom wolnorynkowym i jest przez nie permanentnie weryfikowana. Co za tym idzie portale najbardziej rzeczowe i wiarygodne, a takŜe oferujące przejrzysty interfejs eliminują portale o mniejszej uŜyteczności, przejmując ich uŜytkowników. Co do zasady więc, portale mające największą liczbę odwiedzin uŜytkowników, zapewniają najbardziej precyzyjną i wiarygodną pomoc prawną. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 33 4. Podsumowanie Z przeprowadzonych studiów literatury przedmiotu oraz przeglądu moŜliwości eksploracji wiedzy z zakresu przepisów prawa dotyczącego ubezpieczeń gospodarczych wynika, Ŝe usługi z tego zakresu naleŜą w gospodarce rynkowej do dynamicznie rozwijających się działań pozwalających minimalizować i zarządzać ryzykiem związanym ze zdarzeniami losowymi, co moŜe łagodzić skutki globalnego kryzysu finansowego zarówno dla osób fizycznych jak i prawnych. Warunkiem powodzenia dynamicznego rozwoju ubezpieczeń gospodarczych w okresie transformacji ustrojowej był proces unifikacji prawa zgodny w tym zakresie z wymogami integracji europejskiej oraz zmianami systemu społeczno-gospodarczego. MoŜna stwierdzić takŜe, iŜ permanentny wzrost rynku usług ubezpieczeniowych w okresie transformacji był moŜliwy dzięki konsekwentnie i restrykcyjnie prowadzonemu nadzorowi finansowemu realizowanemu na mocy adekwatnych i dostosowanych do wymogów współczesności przepisów. Innym równie waŜnym aspektem przyspieszającym tempo rozwoju sektora usług ubezpieczeniowych było upowszechnienie wiedzy z zakresu stosowania przepisów prawnych poprzez rozwój i zastosowanie moŜliwości technologii informacyjnej w upowszechnianiu wiedzy prawniczej z tego zakresu za pośrednictwem internetowych portali komercyjnych i niekomercyjnych. 5. Literatura 1. Praca pod red. T. Sangowskiego, 2001. Ubezpieczenia gospodarcze Poltext, Warszawa. s. 59, 60, 62 2. Garbiec R. 2003. Ubezpieczenia w Teorii i Praktyce. Wydaw. Wydz. Zarządzania Politech. Częstochowskiej, Częstochowa. 3. Ustawa z dnia 20 września 1984 r. o ubezpieczeniach majątkowych i osobowych, Dz.U. z 1984 r., Nr 45, poz. 242 4. Ustawa z dnia 17 maja 1989 r. o zmianie ustawy o ubezpieczeniach majątkowych i osobowych, Dz.U. 1989 r., Nr 30, poz. 160 5. Ustawa z dnia 28 lipca 1990 r. o działalności ubezpieczeniowej, Dz.U. z 1990 r., Nr 59, poz. 344 6. Ustawa z dnia 28 lipca 1990 r. o zmianie ustawy – Kodeks cywilny, Dz.U. z 1990 r. Nr 55, poz. 321 7. Por. Dz.U. z 1994 r., zał. do nr 11, poz. 38 z 27 stycznia 1994 r. 8. Ustawa z dnia 8 czerwca 1995 r. o zmianie ustawy o działalności ubezpieczeniowej, o zmianie rozporządzenia Prezydenta Rzeczpospolitej – Kodeks handlowy oraz o zmianie ustawy o podatku dochodowym od osób prawnych, Dz.U. z 1995 r. Nr 96, poz. 478 9. Ustawa z dnia 10 grudnia 1998 r. o zmianie ustawy o działalności ubezpieczeniowej, Dz.U. z 1998 r. Nr 155, poz. 1215 10. Ustawa z dnia 21 lipca 2000 r. o zmianie ustawy o działalności ubezpieczeniowej, Dz.U. z 2000 r. Nr 70, poz. 819 11. Ustawa z dnia 22 maja 2003 r. o działalności ubezpieczeniowej, Dz.U. Nr 124 poz. 1151, Ustawa z dnia 22 maja 2003 r. o pośrednictwie ubezpieczeniowym, Dz.U. Nr.124, poz. 1154, Ustawa z dnia 22 maja 2003 r. o ubezpieczeniach obowiązkowych, Ubezpieczeniowym Funduszu Gwarancyjnym i Polskim Biurze Ubezpieczycieli Komunalnych, Dz.U. Nr 124, poz. 1152; Ustawa z dnia 22 maja 2003 r. o nadzorze 34 Mieszko Bojar Rola i znaczenie podstaw prawnych ubezpieczeń gospodarczych w warunkach podwyŜszonego ryzyka ubezpieczeniowym i emerytalnym oraz Rzeczniku Ubezpieczonych, Dz.U. Nr 124, poz. 1153 A ROLE AND MEANINGS OF ECONOMICAL UNDERWRITES LEGAL BASES UNDER ADVANCED RISK Summary From carried out literature studies and review of possibilities of knowledge exploration from the scope of legal regulations concerning economical underwrites results that services from this area belong to those ones which are dynamically developed and let manage with risk closed to random events. It can soften effects of financial crisis both for physical and legal persons. This is effect of grafting for Polish system the Western legal solutions made gradually through Polish legislator during transformation. Spreading knowledge from the scope of usage of legal regulations through development and application of IT in propagation of legal knowledge from this area is made through Internet commercial and non-commercial portals, what stimulates essentially a development of insurance services market. Keywords: insurance services, legal regulations, IT application Mieszko Bojar 85-791 Bydgoszcz ul. Wierzejwskiego 1/44 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 35 JACEK CHMIELEWSKI Zaoczne Studium Doktoranckie IBS PAN ZARZĄDZANIE WIEDZĄ W WARUNKACH KRYZYSU FINANSOWEGO GOSPODARKI – SPOJRZENIE PRZEZ E-WIEDZĘ Streszczenie Globalny kryzys finansowy rozpoczął się w połowie 2007 roku, kiedy nastąpił spadek cen nieruchomości w Stanach Zjednoczonych. Pomimo powaŜnego zasięgu kryzysu musiało minąć kilka miesięcy, aby oficjalnie podano, ze jest to kryzys. Dlaczego w czasach szybkiego przepływu informacji nie jesteśmy w stanie szybko reagować na docierające dane i podejmować akcji korygujących? W artykule przedstawiono rozwaŜania dotyczące moŜliwych działań w aspekcie wykorzystania zarządzania wiedzą w warunkach kryzysu. Słowa kluczowe: kryzys finansowy, bazy wiedzy, plany pomocowe, zarządzanie wiedzą w organizacjach 1. Wprowadzenie Wydarzenia na rynkach finansowych począwszy od połowy roku 2007 spowodowały powaŜne konsekwencje nie tylko dla rynków finansowych, ale równieŜ w coraz wiekszym stopniu dla gospodarek krajów niezaleŜnie od stopnia rozwoju tych gospodarek. Wielkość kryzysu zdaniem ekspertów przewyŜsza największą recesję gospodarczą z roku 1929. MoŜna postawić tezę, Ŝe chęć osiągania wysokiego zwrotu z inwestycji spowodowała powstanie wysokiego ryzyka inwestycyjne, które było ukrywane na róŜne sposoby, ale istniało. Powstaje pytanie, dlaczego w istniejącej sieci wiedzy nie jesteśmy w stanie przewidzieć kryzysu, który był nieunikniony. Nie chodzi tu o koniunkturalny cykl rozwoju i spowolnienia rozwoju, ale o prowadzenie przez instytucje finansowe działalności, która nieuchronnie prowadziła do powstania globalnych problemów o charakatarze kryzysu. Dlaczego nie umiemy określać ryzyka inwestycji, w szczególności, dlaczego instytucje finansowe tworzą portfele inwestycji, które mogą doprowadzić do ich upadku? Alan Greenspan określił aktulną sytuację globalnych rynków finansowych jako „kredytowe tsunami stulecia”. Szczegółowy opis istonych faktów z zakresu rozwoju kryzysu finansowego moŜemy znaleŜć na: http://en.wikipedia.org/wiki/Global_financial_crisis_of_2008. W artykule moŜemy znaleźć szczegółowy opis wydarzeń od września 2008 do dnia obecnego. Najbardziej aktualne wydarzenia są dopisywane do artykyłu. W artykule mamy odwołania do 200 artykułów, ktróre ukazały się w The New York Times. Kryzys finansowy w sposób nieunikniony oddziałowuje na działalność gospodarczą. PoniŜej przedstawiona jest mapa pokazująca, które kraje w grudniu 2008 są juŜ objęte recesją. Istnieje równieŜ grupa krajów, która nie weszły jeszcze w recesję, ale kyzys finansowy spowodował powstanie problemów gospodarczych. Kryzys finansowy i kryzys gospodarczy mają zasięg globalny. 36 Jacek Chmielewski Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę Problemy banków w Stanach Zjednoczonych bardzo szybko przełoŜyły się na problemy banków europejskich. Kryzys sektora samochodowego (trójka producentów z Detroit) równieŜ znalazł odbicie w sektorze samochodowym Wielkiej Brytanii i Japonii. Rys. 1 – Recesja gospodarcza stan na grudzień 2008, Kraje w recesji (kolor Stanów Zjednoczonych), kraje powaŜnie zagroŜone recesją( kolor Rosji). Na podstawie: http://en.wikipedia.org/wiki/Global_financial_crisis_of_2008 Obecnie cały świat podejmuje wysiłki mające na celu wyprowadzenie gospodarki światowej z recesji i stworzenie mechanizmów, które mogłyby zapobiec powstawaniu podobnych problemów w przyszłości. Globalny przepływ informacji pozwolił szybko określić przyczyny powstania kryzysu wydaje się, Ŝe podejmowane działania prowadzące do wyjścia z kryzysu nie są juŜ tak oczywiste i mogą podlegać róŜnym ocenom. 2. RóŜne podejścia do rozwiązania kryzysu W chwili obecnej główną metdodą uzdrowienia sektora finansowego jest udzielanie pomocy rządowej dla dokapitalizowania instytucji, zwiększenia ich płynności finansowej i moŜliwości pozbycia się niepłynnych środków (toxic assets). Dla odblokowania linii kredytowych i uaktywnienia poŜyczek międzybankowych obniŜane są stopy procentowe przez banki centralne. Następuje równieŜ kupowanie instytucji finasowych przez inne instytucje. Do tej pory zostały uruchomione następujące pakiety pomocy: 700 mld $ plan Paulsona TARP (Troubled Assets Relief Program) 16.3 mld $ rządy Belgii, Holandii i Luksemburga zakupiły pakiety akcji banku Fortis 85 mld $ wsparcia Rezerwy Federalnej USA dla AIG Pakistan, Islandia, Węgry, Serbia i Ukraina były pierwszymi krajami, które zwróciły się o pomoc do Międzynarodowego Funduszu Walutowego (IMF – International Monetary Fund) POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 37 50 mld $ Rządu Rosji dla firm działających na terytorium Rosji 17.4 mld $ dla Chrysler, General Motors i Ford 586 mld $ rządu Chin jako inwestycje w infrastrukturę do końca roku 2010 99.8 mld $ Europejski Bank Centralny wystawił jako one-day-market-auction 850 mld $ Rządu Wielkiej Brytanii jako pakiet pomocowy dla banków 54 mld $ Rządu Japonii jako pomoc dla instytuacji finansowych 750 mld $ do 1000 mld $ w zapowiedzi Baraka Obamy na lata 2009 do 2010 jako pakiet stymulujący w zakresie infrastruktury transportowej, dostepu szerokopasmowego do Internetu i technologii pro-ekologicznych). 200 mld € Unii Europejskiej na pobudzenie gospodarki W zakresie przejęć ratunkowych na rynku instytuci finansowych: • Bank Of America przejął Merill Lynch • JP Morgan przejął Washington Mutual • Lloyds TSB ratuje Halifax Bank Jest równieŜ inne podejście w przypadku gospodarki niemieckiej. Minister Finansów Niemiec Peer Steinbruck podkreślił, Ŝe nie wierzy w pakiety pomocy i zapowiedział duŜe opory ze strony rządowej w wydawaniu pieniędzy państwowych na wsparcie sektora finansowego, choć wcześniej Hypo Real Estate pomoc rządową otrzymał. Rządowa pomoc prywatnemu sektorowi finansowemu odbywa się w oparciu o załoŜenie, Ŝe brak reakcji doprowadzi do wielkiego kryzysu, który nie zatrzyma się tylko wewnątrz tych instytucji, ale w sposób nieunikniony dotknie gospodarek. Trudno nie zgodzić się z tą tezą tym bardziej, Ŝe juŜ obecnie widać taki wpływ. Obecnie oceny podjętych działań w Stanach Zjednoczonych jest wstępnie określone jako właściwy kierunek. PoniŜej przedstawione są moŜliwe korzyści, jakie dla gospodarki mogą przynieść podjęte juŜ kroki (na podstawie: http://articles.moneycentral.msn.com/News/5-reasons-the-economy-might-recover-fasterthan-you-think.aspx ): • Konsekwencją kryzysu gospodarczego jest zmniejszenie zapotrzebowania na ropę naftową, co spowodowało zmniejszenie ceny za baryłkę ze 147$ do poniŜej 45$. Nie dysponuję danymi, które pokazałyby o ile równieŜ zmniejszyły się spekulacje na cenach ropy naftowej, ale moŜna przypuszczać, Ŝe w obecnej sytuacji spekulacja moŜe być mniejsza. Dla Stanów Zjednoczonych dobra cena ropy moŜe zwiększyć Produkt Krajowy Brutto o 2%. • Zmniejszenie oprocentowania kredytów hipotecznych dla poŜyczki 30 letniej do 5.19%. Daje to moŜliwość spłaty poŜyczek przez kredytobiorców a takŜe stwarza moŜliwość refinasowania kredytów hipotecznych przy zapowiedzi Departamnetu Skarbu Stanów Zjednoczonych na obniŜenie oprocentowania do 4.5%. Dodatkowo Rezerwa Federalna Stanów Zjednoczonych zapowiada skup papierów wartościowych emitowanych do kredytów hipotecznych. Dwuprocentowa obniŜka opocentowania kredytów hipotecznych oznacza w Stanach Zjednoczonyh zwrot 200 mld $ dla 45 milionów Amerykanów mających kredyty hipoteczne. • Rezerwa Federalna zwiększa płynność systemu finansowego tak szybko jak to jest tylko moŜliwe. Jest to istotna róŜnica w porównaniu z Wielką Recesją w roku 1930, gdzie Rezerwa Federalna nie wykonywała takich operacji. 38 Jacek Chmielewski Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę • Plan Baraka Obamy z utworzeniem 3 milionów nowych miejsc pracy w Stanach Zjednoczonych jest ciągle dyskutowana lub nawet krytykowana (Susan Woodward z UCLA i Robert Hall z MIT oceniają ten plan jako projekt kompleksowy). Nawet, gdy główny plan jest w trakcie dyskusji juŜ jest podejmowana próba uruchomienia kolejnego programu, który ma na celu zmniejszeniu podatków odprowadzanych przez indywidualnych podatników, podatków od działalności biznesowej i podatków od kapitału. • Fundamenty gospodarki Stanów Zjednoczonych ciągle pozycjonują ten kraj jako najbardziej konkurencyjna ekonomia na świecie. (World Economic Forum – Davos 2008, jako kolejne kraje wskazane zostały Szwajcaria, Dania, Szwecja i Singapur). Są równieŜ bardzo niepokojące informacje dotyczące pomysłów na działalność organizacji w czasach kryzysowych. Zapewne róŜne są przyczyny podejmowania decyzji o zwalnianiu pracowników, ale zapowiedzi niektórych firm mogą budzić, co najmniej zdziwienie. Trudno jest mi wytłumaczyć jak moŜna doprowadzić do sytuacji, w którym ogólnoświatowy bank zapowiada zwolnienie 75 000 pracowników, co stanowi 20% załogi. Powstaje pytanie czy struktura zatrudnienia była prawidłowa, czy czas prosperity nie jest czasem działania organizacji w warunkach braku racjonalizacji zatrudnienia. Dlaczego w czasie, gdy bardzo często pracownik jest pracownikiem wiedzy tak łatwo podejmowana jest decyzja o cięciu kosztów za pomocą redukcji zatrudnienia? Pozornie wygląda to na troskę organizacji o akcjonariuszy, ale moim zdaniem jest to błąd polegający na szukaniu oszczędności w sposób bardzo prymitywny i krótkoterminowy. Zapewne interesujące będzie porównanie w przyszłości czy faktycznie organizacje, które wykonają tak duŜe redukcje zatrudnienia wyjdą z kryzysu lepiej niŜ organizacje, które będą poszukiwały bardziej złoŜonych rozwiązań dla minimalizacji skutków kryzysu a w kolejnym kroku wychodzenie z kryzysu z korzyścią dla organizacji i akcjonariuszy. PoniŜsza tabelka podaje zapowiedzi organizacji, które zapowiedziały redukcję zatrudnienia. Rys. 2 – Zapowiedzi redukcji zatrudnienia – www.money.pl na podstawie doniesień prasowych POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 39 W Polsce podejście do kryzysu jest bardzo zachowawcze. Rozwiązanie problemu rozpoczeło się od zaklinania rzeczywistości, Ŝe dzieki naszemu sektorowi bankowemu nie będzie w Polsce kryzysu. Rzeczywistość okazała się znacznie bardziej skomplikowana i w sposób oczywisty zawirowania w gospodarkach światowych ma wpływ równiez na polską gospodarkę. Widać to na podstawie obniŜania prognoz PKB na rok 2009. Na początku grudnia 2008 Ministerstwo Finansów zweryfikowało zapisane z ustawie budŜetowej na rok 2009 tempo rozwoju gospodarczego z 4.8% do 3.7% i prognozowany wrzost bezrobocia z 7.1% do 7.2%. Deficyt budŜetowy pozostał na niezmienionym poziomie 18.2 Mld zlotych. Cały artykuł moŜna znaleźć na stronie Internetowej: http://www.money.pl/gospodarka/wiadomosci/artykul/kryzys;zmienia;rzadowe;prognozy,31,0,411 935.html. Dotychczas w ramach stabilizacji sektora bankowego Narodowy Bank Polski ogłosił we wrześniu 2008 Pakiet Zaufania, który ma na celu zwiększenie płynności banków działających na terenie Polski i przywrócenie operacji międzybankowych, które bardzo się zmniejszyły, gdyŜ banki nie chciały sobie nawzajem poŜyczać pieniędzy. W listopadzie 2008 Rząd RP ogłosił Plan Stabilności i Rozwoju w kwocie 91 mld złotych. W grudniu 2008 Rada Polityki PienięŜnej obniŜyła stopy procentowe po raz pierwszy w historii na koniec roku kalendarzowego. Trudno oceniać obecnie skuteczność interwencji podejmowanych dla ratowania sektora finansowego i gospodarek na świecie i w Polsce, moŜna zaryzykować stwierdzenie, Ŝe znaczące działania zostały podjęte z opóźnieniem głównie z powodu braku wiedzy o ryzyku świadomie ukrywanym przez instytucje finansowe w kredytach sub-prime. Zapewne lepszym scenariuszem byłyby działania zapobiegawcze podjęte juŜ w połowie 2007 roku, ale nie było takiej moŜliwości gdyŜ wiedza, którą posiadały rządy krajów nie była wystarczająca. 3. Zarządzanie wiedzą w organizacjach Rozwój organizacji w warunkach bardzo przyjaznego rozwijającego się otoczenia wydaje się zadaniem stosunkowo prostym. Znacznie trudniej jest chronić organizację w warunkach kryzysu, a w szczególności podejmować takie działania, które wzmacniają organizację i nie prowadzą do jej degradacji nawet w niesprzyjającym otoczeniu. Moim zdaniem powstaje połączenie pomiędzy wiedzą organizacji i jej innowacyjnością. Problem jest taki, Ŝe w warunkach rozwoju dość naturalnym wydaje się zmniejszenie nacisku na innowacje i budowanie wiedzy organizacji, bo biznes rozwija się dobrze i nie ma zbyt wielu chętnych menedŜerów na dodatkową pracę i wysiłek. Interesujące spojrzenie na innowacyjność bankową moŜna znaleźć w artykule Prezesa BRE Banku Mariusza Grendowicza na stronie Internetowej: http://www.rp.pl/artykul/232042.html. Brak jasnego ostrzeŜenia o nadchodzącym kryzysie jest dość istotną lekcją dla organizacji, Ŝe nawet w czasach rozwoju naleŜy mieć przygotowane scenariusze na pogorszenie koniunktury, które nie musi być spowodowane kryzysem, moŜe to być na przykład zacieśnienie rynku przez graczy na rynku, jak na przykład pojawienie się nowych podmiotów, które zwięszają konkurencję w sektorze. Wydaje się, zatem celowym utworzenie w organizacji procesów, które kontrolują organizację w zakresie: • Nieustającego rozwoju wiedzy nie tylko skierowanej na główną działalność organizacji (core, competencies), ale równieŜ wiedzę ekonomiczną i finansową 40 Jacek Chmielewski Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę • Nieustającego rozwoju organizacji poprzez rozwijanie produktów innowacyjnych z systemem nagrodowym. Wprowadzenie produktów innowacyjnych musi stanowić istotny element oceny kadry zarządzającej organizacjami i musi wpływać na wynagrodzenie. Dobrym przykładem braku wiedzy ekonomicznej równoległej do wiedzy dotyczącej podstawowej działalności organizacji są kłopoty polskich organizacji, które wykupiły walutowe transakcje terminowe. Spółka zaleŜna firmy notowanej na GPW złoŜyła wniosek o upadłość. Więcej, informacji moŜna znaleźć na stronie Internetowej: http://www.money.pl/gielda/wiadomosci/artykul/zarzad;elwo;zlozyl;wniosek;o;upadlosc,106,0,412 010.html. Podkreśliłem, Ŝe bazy wiedzy budowane w organizacjach nie tylko powinny dotyczyć głównej działalności, ale równieŜ wiedzy ekonomicznej. Dla przykładu chciałbym zaprezentować wyniki przeszukania strony Internetowej General Motors, jednej z trzech organizacji samochodowych z Detroit, które w sposób istotny zostały dotknięte przez kryzys finansowy. PoniŜszy rysunek przedstawia wydruk strony przeszukiwania słowa „knowledge management” na stronie Internetowej www.gm.com: Rys. 3- Wyniki wyszukiwania „knowledge management na stronie www.gm.com POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 41 Na czym polega problem? Moim zdaniem jest brak podejścia w sensie zarządzania wiedzą do aspektów ekonomicznych i finansowych działalności organizacji. Jeśli załoŜymy, Ŝe baza wiedzy organizacji lub zarządzanie wiedzą w organizacji przekłada się na działalność operacyjną pracowników moŜemy postawić tezę, Ŝe pracownicy sa skoncentrowani na dostarczanie celów definiowanych przez organizację, ale nie przykładają naleŜytej uwagi na aspekty ekonomiczne, które są ściśle powiązane z ich działalnością. MoŜe to prowadzić do dostarczania rozwiązań nieefektywnych ekonomicznie, co w szczególności w czasach kryzysu nie pozwala w sposób skuteczny umacniać organizacji i minimalizować skutków kryzysu. W zakresie zarządzania wiedzą w instytucjach finansowych wydaje się bardzo istotne ustalenie zasad publicznego dostępu do baz wiedzy. W szczególności bazy wiedzy instytucji ratingowych powinny zostać upowszechnione, jako Ŝe te instytucje przyczyniły się do powstania kryzysu finansowego. Nadawanie ratingów dla papierów wartościowych i instrumentów finansowych nie moŜe się odbywać na zasadzie monopolu (liczą się tak naprawdę trzy ogólno światowe agencje ratingowe) powinna to być wiedza powszechnie dostępna. Wydaje się równieŜ istotna potrzeba tworzenia baz wiedzy dla edukacji społeczeństw w zakresie produktów finansowych dostępnych na rynku. Marketing sprzedaŜy rozlicznych produktów finansowych musi być poparty równieŜ dostępem do baz wiedzy, które pozwolą podejmować świadome decyzje dla tych osób, które chcą podejmować świadome decyzje. Nie jest to budowanie systemu od nowa, poniŜej podałem przykład dostępu do baz wiedzy zarządzanych przez Bank of America na stronie Internetowej www.bankofamerica.com: :: Rys. 4- Wyniki wyszukiwania „knowledge management na stronie www.bankofamerica.com Podobne narzędzia i bazy danych powinny być dostępne w zakresie funduszy inwestycyjnych, 42 Jacek Chmielewski Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę które są jednym z produktów inwestycyjnych dla klientów indywidualnych. Klienci są właścicielami jednostek funduszy inwestycyjnych poprzez świadome zakupy, ale równieŜ jako klienci funduszy emerytalnych. 4. Systemowy monitoring ekonomiczny organizacji Kryzys finansowy wymusza nowe spojrzenie na działalność organizacji w zakresie bezpieczeństwa finansowego. Dynamiczny rozwój instytucji finansowych i liberalizacja rynku, operowanie przez instytucje finansowe i duŜe organizacje biznesowe budŜetami większymi niŜ PKB krajów, w których działają wymaga nowego podejścia do rynku. Moim zdaniem zmiany powinny dotyczyć uregulowanej prawnie większej jawności prowadzenia operacji przez instytucje finansowe i podmioty gospodarcze. W zakresie podmiotów gospodarczych dla spółek notowanych na giełdach jawność działań jest zachowana. Większa jawność jest potrzebna w zakresie działania instytucji finansowych. Kryzys finansowy wymusza równieŜ zwiększenie kontroli nad działalnością finansową organizacji gospodarczych, finansów regionów i budŜetów państw. Dobrym przykładem działalności instytucji nadzoru finansowego jest Komisja Nadzoru Finansowego, która krytykowana w przeszłości za konserwatyzm działania uchroniła polski sektor bankowy przed uczestniczeniem w bardzo ryzykownych operacjach globalnych rynków finansowych. Brak właściwego nadzoru nad wydatkami regionu moŜe doporowadzić do sytuacji, w jakiej znalazł się stan Kalifornia w Stanach Zjednoczonych. Zakładany deficyt budŜetowy 3.6 Mld $ w roku 2008 wzrósł do 14.8 Mld $. Więcej informacji na ten temat moŜna znaleźć na stronie Internetowej: http://blogs.moneycentral.msn.com/topstocks/archive/2008/12/11/california-and-the-greatstate-bailout.aspx. Oczywiście istnieją mechanizmy kontroli wewnątrz samych organizacji, ale często są to metody polegające na „obserwowowaniu” sytuacji zamiast pro aktywne działania wyprzedzające. Systemy nadzoru to kolejny obszar wymagający rozwoju baz wiedzy, które powinny być powszechnie dostępne w obrębie organizacji, ale równieŜ w zakresie moŜliwym do udostępnienia publicznego dla kaŜdego, kto chce dotrzeć do wiedzy. Moim zdaniem upowszechnieniu powinny podlegać następujące bazy wiedzy: • Baza wiedzy nadawania ocen przez agencje ratingowe. Baza powinna umoŜliwiać dotarcie do informacji, w jaki sposób dokonano oceny a nie tylko samego indeksu, który jest znany, ale nie wiemy jak został wyliczony. • Baza wiedzy wykorzystania środków pomocowych. Wiedza moŜe dopomóc w analizie oceny skuteczności dostarczanej pomocy, jednocześnie powinna zmusić, pobierajacych pomoc do racjonalnego wykorzystywania pomocy. 5. Uwagi końcowe Istotnym problemem w rozwiązaniu kryzysu finansowego przekładającego się na kryzys gospodarczy jest podjęcie odpowiednich kroków, które w sposób najbardziej skuteczny spowodują zakończenie kryzysu i skrócą czas trwania. Podejście do problemu wymaga podjęcia wysiłku rozszerzenia dostępności wiedzy i baz wiedzy w moŜliwie najszerszym zakresie, aby działalność wewnątrz organizacji jak najbardziej była skupiona na finansowym aspekcie działania organizacji. Rozszerzenia istniejących baz wiedzy jak równieŜ tworzenie nowych baz wymaga wsparcia sektora Naukowo-Badawczego, co zapewni systemowe podejście do rozwiązywania problemu. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 43 6. Literatura. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. Drelichowski L.:Podstawy InŜynierii Zarządzania Wiedzą. W: Biblioteka Polskiego Stowarzyszenia Zarządzanie Wiedzą, Polskie Stowarzyszenie Zarządzania Wiedzą, Bydgoszcz 2004 Straszak A.: Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów. W: Artykuł na VI Kongres Polskiego Stowarzyszenia Zarządzania Wiedzą, 2009 Theil S.: It does not exsist. W: Newsweek, http://www.newsweek.com/id/172613,Dec. 15, 2008 Soros G.:– The Credit Crisis of 2008 and What it Means. W: The New Paradigm for Financial Market, New York, ISBN 9781586486839 The Economist: Structural Cracks: Trouble ahead for global house prices. W: The Economist Newspaper Limited. http://www.economist.com/specialreports/ displaystory. cfm?story_id=11325408, May 15, 2008 Paulson H.: Statement by Secretary Henry M. Paulson, Jr. on Federal Housing Finance Agency to Protect Financial Market and Taxpayers. W: Press Room U.S Department of Treasury, http://www.treas.gov/press/releases/hp1129.htm, Sep.7, 2008 Fackler M.: Financial Crisis Spreads to Emerging Nations. W: The New York Times, World Business, http://www.nytimes.com/2008/10/24/business/worldbusiness/ 24won. html?_r=1 , Oct 23, 2008 Norris F.: United Panic. W: The New York Times, Business, http://norris.blogs.nytimes.com/2008/10/24/united-panic/, Oct. 24, 2008 Grynbaum M.: Bernanke Says Bailout Will Need Time to Work. W: The New York Times, Economy, http://www.nytimes.com/2008/10/16/business/economy/ 16bernanke.html, Oct. 15, 2008 Kary T., Scinta C.: JP Morgan Gave $138 Billion After Bancruptcy. W: Bloomberg.com, http://www.bloomberg.com/apps/news?pid=20601087&sid=aX7mhYCHmVf8&refer=ho me , Sept 16. 2008 Castle S.: European Officials Debate Need for Bailout Package. W: New York Times, World Business, http://www.nytimes.com/2008/10/02/business/worldbusiness/02regulate. html , Oct. 1, 2008 BBC: Financial crisis at-a-glance. W: BBC.com, http://news.bbc.co.uk/2/hi/business/ 7656212.stm , Oct.7 2008 Bull A.: Fed Says to Make Loans to Aid Money Market Funds. W: Reuters.com, http://www.reuters.com/article/ousiv/idUSN1926607920080919 , Sep. 19 2008 Read C.: Global Financial Meltdown: How we can avoid the next economic crisis. W: New York Palgrave Macmillian. ISBN 9780230222182. 44 Jacek Chmielewski Zarządzanie wiedzą w warunkach kryzysu finansowego gospodarki – spojrzenie przez e-wiedzę KNOWLEDGE MANAGEMENT DURING FINANCIAL CRISIS OF ECONOMY – OVERSIGHT BY E-KNOWLEDGE Summary The global financial crisis started in middle of 2007 year and has been triggered by decreased prices of properties in the United States. Even if it is broad scale crisis it has been passed a couple of months when it has been officially recognized that we are in the crisis stage. Why we can not take adjusted actions on timely manner when dataflow is unlimited. In the paper it is presented deliberations on knowledge management utilization over the economy crisis stage. Keywords: financial crisis, knowledge databases, bailouts, knowledge management in organizations Jacek Chmielewski Zaoczne Studium Doktorackie IBS PAN, Warszawa ul. Newelska 4 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 45 MAGDALENA CISZCZYK, EMMA KUSZTINA Politechnika Szczecińska MODEL SYSTEMU INFORMATYCZNEGO WSPIERAJĄCEGO REALIZACJĘ PROCESU NAUCZANIA OPARTEGO NA KOMPETENCJACH W ŚRODOWISKU REPOZYTORIUM WIEDZY Streszczenie Coraz powszechniejszą tendencją jest budowanie repozytoriów, w których przechowywane są materiały dydaktyczne, wykorzystywane dla potrzeb realizacji procesu nauczania. W artykule autorzy konfrontują zasady funkcjonowania „repozytoriów nauczania” z potrzebą nauczania opartego na kompetencjach. Wskazana luka jest postawą do opracowania systemu informatycznego, który będzie wspierał realizację procesu nauczania opartego na kompetencjach w środowisku repozytorium. Słowa kluczowe: repozytorium, proces nauczania, zarządzanie kompetencjami. 1. Wprowadzenie Budowa repozytoriów przechowujących materiały dydaktyczne jest obecnie przedmiotem zainteresowań zwłaszcza organizacji edukacyjnych [1], [2], [3], [4]. W leksykonie kształcenia na odległość opublikowanym przez IKO podjęto próbę definicji pojęcia repozytorium w kontekście realizacji procesu nauczania. Zgodnie z tą definicją repozytorium jest miejscem przechowywania ustrukturyzowanej wiedzy dziedzinowej, przeznaczonej do wielokrotnego wykorzystania w róŜnych kontekstach. Wiedza jest przedstawiona w postaci porcji zwanych - LO (Learning Object), które mogą być ułoŜone w róŜne sekwencje według celów i metod nauczania [5]. MoŜna zatem stwierdzić, Ŝe „repozytorium nauczania” jest specjalizowanym systemem informatycznym, który wykonuje funkcje przechowywania, udostępniania i modyfikowania ustrukturyzowanej wiedzy dziedzinowej. Wiedza zawarta w repozytorium słuŜy przede wszystkim kształtowaniu procesu poznawczego studentów, z kolei określone cele procesu nauczania decydują o głębokości i zakresie wiedzy w postaci LO. Z dydaktycznego punktu widzenia głównym przeznaczeniem „repozytorium nauczania” jest wsparcie procesu nabywania kompetencji. Z tego wynikają najwaŜniejsze wymagania dotyczące sposobu przedstawiania i udostępniania materiałów dydaktycznych zawartych w repozytorium. KaŜda porcja materiału dydaktycznego powinna być zorientowana na nabywanie określonych kompetencji. 2. Rola kompetencji w procesie nauczania Tradycyjne pojęcie kompetencji szeroko wykorzystywane jest w kontekście „sukcesu zawodowego” (D. C. McClelland’, 1973 „Testing for competence rather than intelligence”). Pod tym kątem kompetencje są czymś przeciwstawnym wynikom testów na inteligencję, lub tradycyjnym miernikom realizacji zadań szkolnych [6]. Istnieje wiele definicji pojęcia kompetencja, przy tym 46 Magdalena Ciszczyk, Emma Kusztina Model systemu informatycznego wspierającego realizację procesu nauczania opartego na kompetencjach środowisku repozytorium wiedzy w literaturze przedmiotu podkreśla się jego interdyscyplinarny charakter i rozróŜnia następujące aspekty: 1. merytoryczny – zgodnie z którym kompetencja to konieczność przekształcania wiedzy ukrytej w jawną, jej strukturyzowanie i łączenie wiedzy indywidualnej w wartość organizacyjną przedsiębiorstwa, która będzie stanowiła jego zasób niematerialny. Aktualizacja wiedzy o zjawiskach, technologiach, procesach z nimi związanych i obszarach, których dotyczą, stanowi nieodłączny element rozwoju kompetencji. 2. funkcjonalny – jest to opis zadań lub oczekiwanych efektów na stanowisku pracy. Obejmuje zasady, funkcje i style przyjęte do sprawnej realizacji bieŜących i przyszłych czynności specjalistów. 3. behawioralny – w którym kompetencje odnoszą się do zagadnień związanych z zachowaniami i postawami pracowniczymi, np. ponoszenie odpowiedzialności, perfekcjonizm, skłonność do dzielenia się wiedzą. 4. instytucjonalny – w ramach jednej firmy kompetencje jednostkowe są wzajemne powiązane, łączone są w celu osiągnięcia efektu synergii, który wskazuje kierunek rozwoju firmy. Z edukacyjnego punktu widzenia prezentowane podejścia nie definiują niestety zawartości kompetencji, którą moŜna ocenić i sprawdzić. Rodzi się zatem potrzeba sformułowania aspektu edukacyjnego pojęcia kompetencja, zgodnie z którym kompetencja jest umiejętnością wykorzystania posiadanej lub nabytej przez studenta/ucznia wiedzy teoretycznej w celu samodzielnego rozwiązania zadania praktycznego, projektowego oraz umiejętnością interpretacji i przekazywania wyników rozwiązania w terminach wykorzystanej teorii [5]. Innymi słowy, gwarancja nabycia kompetencji poprzez system nauczania wymaga przygotowania takiego repozytorium materiałów dydaktycznych, w którym w ramach jednej porcji materiałów dydaktycznych zostaną określone następne elementy: a. wiedza teoretyczna, (co to jest?), b. wiedza proceduralna ( jak to wykorzystać?), c. zadanie projektowe ( gdzie to warto wykorzystać?), d. zasady motywacji ( dlaczego warto współpracować?). Działanie to jest podstawą opracowania Learning Object dla określonych form zajęć, w którym do studenta zostaje dostarczony, poprzez mechanizmy repozytorium, zbiór trójek: „fragment opisu dziedziny – typowe zadanie – typowe rozwiązanie” wraz z odpowiednim zadaniem sprawdzającym [7]. Aspekty 1 – 5 razem stanowią spójny system zarządzania gospodarką opartą na wiedzy, w którym wiedza występuje jako surowiec a kompetencja - jako niematerialny produkt, przedmiot popytu i podaŜy. 3. Koncepcja modelu systemu informatycznego wspierającego zarządzanie procesem nabywania kompetencji w środowisku repozytorium wiedzy Analizując proces nabywania kompetencji przy wykorzystaniu repozytorium naleŜy juŜ na wstępie zauwaŜyć, Ŝe wymaga on nie tylko odpowiedniego mechanizmu porcjowania wiedzy, ale takŜe współpracy między uczestnikami procesu nauczania uwzględniającego plan rozwoju repozytorium i dopasowania do konkretnej sytuacji edukacyjnej. Przegląd istniejących rozwiązań ([1], [2], [8], [9], [10]) pozwala zauwaŜyć, Ŝe choć repozytoria zawierają w sobie przygotowany materiał dydaktyczny, to wciąŜ brakuje: metody ustalenia pro- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 47 porcji pomiędzy wiedzą teoretyczną a proceduralną, metody oceny zakresu i głębokości wiedzy dziedzinowej stanowiącej zawartość repozytorium, metody oceny kompletności pokrycia dziedziny materiałami dydaktycznymi, formalnej metody motywacji studentów do współpracy i rozwoju repozytorium, modelu określającego alternatywne kierunki rozwoju repozytorium. Rys. 1. Komponenty systemu informatycznego wspierającego proces nabywania kompetencji w środowisku repozytorium wiedzy Źródło: opracowanie własne W celu wypełnienia tej luki proponuje się opracowanie systemu informatycznego, na który składają się (rys.1): 1. model porcjowania wiedzy, 2. model motywacji uczestników, 3. model symulacyjny procesu uzupełnienia repozytorium. Pierwszy model działa w oparciu na algorytmie heurystycznym szerzej omówionym w [7]. Punktem wyjścia w modelu jest opracowanie ontologii dziedziny, jej podział na poszczególne jed- 48 Magdalena Ciszczyk, Emma Kusztina Model systemu informatycznego wspierającego realizację procesu nauczania opartego na kompetencjach środowisku repozytorium wiedzy nostki lekcyjne oraz wyodrębnienie fragmentów wiedzy teoretycznej i proceduralnej. Na bazie modelu ontologicznego dokonywane jest pierwotne załadowanie repozytorium oraz określany jest kierunek dalszego rozwoju repozytorium. Odpowiednio przygotowany materiał dydaktyczny pierwotnie zasilający repozytorium zwiększa zdolność studenta do strukturyzacji posiadanej wiedzy teoretycznej i połączenia jej z wynikami własnego doświadczenia. WzmoŜona zostaje równieŜ aktywność ucznia, który przyswajając określoną wiedzę teoretyczną Wt i otrzymując od nauczyciela przykład wraz z jego rozwiązaniem (wiedza proceduralna Wp), jest w stanie zbudować własne, Wp i wykorzystać ten sam mechanizm jego rozwiązania analogiczne zadanie - Z i +1 Wp Wp R ,rozwiązać podane zadanie nową metodą lub sformułować nowe zadanie - Z i wykoj i+2 Wp rzystać nowy sposób jego rozwiązania - R j +1 (tab.1). Tab. 1. Sposoby pracy z materiałem dydaktycznym [7]. Wt, Wp ; Wt = wykład, Wp = ćwiczenia, laboratorium Nauczyciel Wt Wp Wp Z Uczeń Wt Wp Z Uczeń Wt i R Wt i +1 j Wp R j +1 Wp Wp Z Uczeń i R j Wp R j+2 i+2 Model ontologiczny dziedziny jest podstawą do określenia modelu motywacji uczestników procesu nauczania, którzy na zasadach kooperacji i współpracy zasilają repozytorium nowym materiałem dydaktycznym. Praca z materiałem dydaktycznym i ukierunkowany rozwój tego materiału w repozytorium wymaga od nauczyciela i studenta odpowiedniego czasu i zaangaŜowania w proces dydaktyczny. W związku z powyŜszym moŜna zachowanie uczestników procesu nauczania opisać przez odpowiednią funkcję motywacji [11]. Zadaniem modelu motywacji jest znalezienie balansu pomiędzy funkcją motywacji nauczyciela i funkcją motywacji studenta, przy czym na funkcję motywacji nauczyciela składają się: • złoŜoność zadania, • aktualność zadania dla nauczyciela, • inne preferencje nauczyciela, a na funkcję motywacji studenta: • złoŜoność zadania i odpowiedni czas, który student musi poświęcić danemu zadaniu, • potencjalna ocena, która student moŜe otrzymać za wykonanie danego zadania, Wp Z POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 49 • inne preferencje studenta. Sprawdzenie załoŜeń modelu motywacji i ich weryfikacja moŜe być dokonana przez model symulacji, w którym proces współpracy nauczyciela i studenta moŜna interpretować jak system kolejkowy o następującej charakterystyce: − przy określonej zawartości i porcjach materiałów dydaktycznych moŜna załoŜyć, Ŝe praca nauczyciela polega na sprawdzeniu zadania; − wynik sprawdzenia jest określony: 1. ocena pozytywna i umieszczenie zadania w repozytorium, 2. ocena pozytywna bez umieszczenia zadania w repozytorium, 3. ocena negatywna - powtórzenie wykonania zadania lub udoskonalenie zadania na ocenę pozytywną celem umieszczenia w repozytorium; − przy określonym kursie czasie i grupie praca na stanowisku nauczyciela moŜe być potraktowana jak serwer z określonym wejściem, wyjściem, średnim czasem oceniania; − średni czas oceniania wynika z doświadczenia nauczyciela (specyfika kaŜdego kursu i przedmiotu, trudności zadań, typ grupy studentów, czas realizacji zajęć); − strumień przepływu studentów jest stochastyczny, markowski (w wybranym odcinku czasu nie ma pewności ilu studentów przyjdzie, nie wiadomo ilu zaliczy zadanie, nie wiadomo czy nie dojdzie nowy student, itp.); − studenci obsługiwani są na 1 serwerze. Przewiduje się moŜliwość kolejki, charakteryzującej się określonym czasem i sposobem obsługi. ZałoŜenia symulacji są prowadzone w środowisku Arena firmy Rockwell Software w postaci systemu kolejkowego, który modeluje współpracę nauczyciela i studenta podczas wykorzystania repozytorium (rys. 2). Rys. 2. Schemat modelu symulacyjnego w środowisku Arena Źródło: opracowanie własne Wykorzystanie modelu symulacyjnego pozwala zbierać i analizować dane statystyczne opisujące charakter procesu wykorzystania repozytorium. Wszystkie trzy modele zintegrowane w jedną całość tworzą w rezultacie model zarządzania grupą, która uczestniczy w procesie nauczania. Integracja ta daje moŜliwość po pierwsze odpowiedniego załadowania repozytorium, po drugie opracowania strategii współpracy w rozwoju re- 50 Magdalena Ciszczyk, Emma Kusztina Model systemu informatycznego wspierającego realizację procesu nauczania opartego na kompetencjach środowisku repozytorium wiedzy pozytorium dzięki funkcji motywacji, po trzecie sprawdzenia załoŜeń do procesu uzupełnienia repozytorium poprzez model symulacji. Proces nabywania kompetencji w tak zorganizowanym systemie jest zapewniony z jednej strony poprzez odpowiednie przygotowanie wiedzy teoretycznej, proceduralnej i zadania sprawdzającego, po drugie zaś kształtowane są inne aspekty rozpatrywania kompetencji poprzez zastosowanie modelu współpracy nauczyciela i studenta (model motywacji, model symulacji). 4. Uwagi końcowe Zmiana podejścia do zarządzania zasobami ludzkimi sprawia, Ŝe zarówno pracownicy, jak i kandydaci na określone stanowisko są oceniani przez pryzmat posiadanych kompetencji. Aby być kompetentnym, nie wystarczy posiadanie formalnego zaświadczenie, jakie jest wymagane przy potwierdzaniu kwalifikacji zawodowych. WaŜne są wiedza, doświadczenie i zdolność przystosowywania się do zmieniających się warunków, prowadzące razem do skutecznego działania. Precyzyjne określenie kompetencji oraz stworzenie profili kompetencyjnych dotyczących określonych stanowisk pracy wiąŜe się zatem z określeniem wymagań wiedzy, doświadczenia i umiejętności [12]. Organizacje edukacyjne, które chcą sprostać wymaganiom rynku pracy wprowadzają zmiany w dostępnych ofertach edukacyjnych jak równieŜ stosowanych narzędziach wspomagania procesu nauczania. Budowanie repozytoriów nauczania zawierających materiał dydaktyczny o odpowiedniej strukturze i dostosowany do potrzeb określonej sytuacji edukacyjnej to jedna z propozycji, by wspierać proces nauczania opartego na kompetencjach. Odpowiednie przygotowanie materiałów dydaktycznych, które wiąŜe się po pierwsze z opracowaniem modelu ontologicznego dziedziny, a po drugie z odpowiednim podziałem na wiedzę teoretyczną, proceduralną i zadanie sprawdzające zakres nabytej wiedzy to tylko wstęp do prowadzenia działań rozwojowych prowadzących do uzyskania wymaganych kompetencji. Zastosowanie mechanizmów współpracy w trakcie wykorzystania i rozwoju repozytorium prowadzą dodatkowo do kształtowania postaw, moŜliwości i osobowości uczestników procesu nauczania. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 51 7. Literatura 1. MIT OpenCourseWare, http://ocw.mit.edu/OcwWeb/web/home/home/index.htm, dostęp: 10.12.2008. 2. Notatki w Internecie, http://www.moodle.cel.agh.edu.pl/notatki/, dostęp: 10.12.2008. 3. WaŜniak, projekt:Opracowanie programów nauczania na odległość na kierunku studiów wyŜszych – Informatyka, http://wazniak.mimuw.edu.pl/, dostęp: 15.12.2008. 4. ALT Project: University System of Georgia Learning Object Repository, http://alt.usg.edu/learn/learning.phtml, dostęp: 15.12.2008 5. Tadeusiewicz R., Choraś R. S., Rudowski R. (Eds.): Leksykon haseł związanych z enauczaniem, WyŜsza Szkoła Humanistyczno-Ekonomiczna, Łódź, 2007. 6. Jabłońska-Wołoszyn M.: Kompetencje w organizacji, In: Personel i Zarządzanie, 21/2003, s.12. 7. Kusztina E., Zaikin O., Ciszczyk M., Tadeusiewicz R.: Quality factors for knowledge repository: based on e- Quality project, EUNIS 2008, http://eunis.dk/, dostęp: 16.12.2008. 8. Monahan T., McArdle G., Bertolotto M.: Virtual reality for collaborative e-learning, In: Computers & Education, Vol. 50, 2008, s.1339–1353. 9. Divjak B., Kukec S.K.:Teaching methods for international R&D project management, In: International Journal of Project Management , Vol. 26, 2008, 251–257. 10. Beatty B, Ulasewicz C.: Online Teaching and Learning in Transition: Faculty Perspectives on Moving from Blackboard to the Moodle Learning Management System, In: TechTrends, Vol. 50, No. 4, s.36-45. 11. RóŜewski P., Kusztina E., Ciszczyk M., Sikora K.: Competence theory as a tool for integrating information systems in education, In: Polish Journal of Environmental Studies, Vol.17, No. 3B, Polska, 2008. 12. Whiddett S., Hollyforde S.: Modele kompetencyjne w zarządzaniu zasobami ludzkimi, Oficyna Ekonomiczna, Kraków, 2003. 52 Magdalena Ciszczyk, Emma Kusztina Model systemu informatycznego wspierającego realizację procesu nauczania opartego na kompetencjach środowisku repozytorium wiedzy MODEL OF AN INFORMATION SYSTEM SUPPORTING REALIZATION OF THE COMPETENCE-BASED LEARNING PROCESS IN THE KNOWLEDGE REPOSITORY ENVIRONMENT Summary The idea of didactic materials repository creation is now becoming a fairly widespread tendency. In the article authors confront the functioning rules of "learning repositories" with the need for competence-based learning. The appointed gap is the basis for developing an information system which will support realization of the learning process based on competences in the repository environment. Keywords: repository, learning process, competence management. Magdalena Ciszczyk Emma Kusztina Zakład Systemów Produkcji Niematerialnej Wydział Informatyki Politechnika Szczecińska 71-210 Szczecin, ul. śołnierska 49 e-mail: [email protected] e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 53 MAGDALENA CISZCZYK, PRZEMYSŁAW RÓśEWSKI, EMMA KUSZTINA Politechnika Szczecińska DEFINICJE I STANDARDY REPOZYTORIUM WIEDZY ZBUDOWANEGO DLA POTRZEB PROWADZENIA PROCESU NAUCZANIA Streszczenie Koncepcja digitalizacji zasobów i budowy repozytoriów przechowujących te zbiory jest obecnie tendencją dość powszechną. Powstaje wiele róŜnych typów repozytoriów o określonym przeznaczeniu, strukturze i zawartości. Autorzy definiują repozytorium zbudowane dla potrzeb prowadzenia procesu nauczania. Przedstawiona jest klasyfikacja repozytoriów ze względu na pełnione funkcje oraz powiązane z nimi standardy informatyczne. Słowa kluczowe: repozytorium, proces nauczania, standardy 1. Wprowadzenie W XVIII-wiecznej klasycznej ekonomii kapitał miał charakter czysto materialny. Era informacji przekształciła istniejący ład i porządek. W rezultacie ziemia, kapitał finansowy czy surowce naturalne uznane za „motory” ery przemysłowej ustąpiły miejsca na piedestale na rzecz wiedzy, a na samą wartość rynkową organizacji kluczowy wpływ ma posiadany kapitał intelektualny. Kapitał intelektualny obejmuje krytyczną wiedzę przedsiębiorstwa, zasób wiedzy posiadanej przez ludzi tworzących jego społeczność oraz umiejętność wykorzystania wiedzy z poŜytkiem dla przedsiębiorstwa, co w konsekwencji pozwala na przekształcenie jej w składniki efektywności organizacji [1]. Źródłem kapitału intelektualnego są ludzie i posiadane przez nich kompetencje. Kompetencje stają się wskaźnikiem dla oceny zdolności i umiejętności człowieka w trakcie realizacji zadań. Posiadanie odpowiednich kompetencji jest niezbędne, by zaspokoić wymagania określonych stanowisk pracy, a z drugiej strony stają się one podstawą do awansu pracownika w ramach istniejących struktur organizacyjnych [2]. Wymagania na określone kompetencje płynące z rynku pracy znajdują swoje odzwierciedlenie w przygotowywanej ofercie edukacyjnej zarówno uczelni wyŜszych jak i firm prywatnych oferujących szkolenia i kursy. Organizacje te konkurują ze sobą zarówno na płaszczyźnie przekazywanych treści edukacyjnych i programów nauczania, ale takŜe szukają nowych metod i technik kształcenia. Rozwiązaniem, które zyskuje coraz większą popularność jest budowanie cyfrowych repozytoriów przechowujących publikacje, materiały dydaktyczne, czy ksiąŜki. Obecnie funkcjonuje wiele róŜnych repozytoriów: instytucjonalne, dziedzinowe, wydziałowe, osobowe, a nawet narodowe, a ich liczba z roku na rok rośnie (rys. 1) [3]. 54 Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina Definicje i standardy repozytorium wiedzy zbudowanego dla potrzeb prowadzenia procesu nauczania Rys. 1. Liczba repozytoriów na świecie wg DOAR [5]. Najwięcej repozytoriów powstaje w Stanach Zjednoczonych, zaś w Europie prym wiodą Wielka Brytania, Niemcy i Francja [6] . Niestety w Polsce wciąŜ napotyka się szereg przeszkód wynikających z natury prawnej, organizacyjnej i finansowej na budowanie elektronicznych zasobów, a inicjatywa otwartego dostępu do zasobów (Open Access) nie jest zbyt szeroko stosowana. Nie mamy takŜe zbyt wielu przedstawicieli w najwaŜniejszych digitalizacyjnych projektach Europy [7] . 2. Definicja repozytorium dla potrzeb prowadzenia procesu nauczania Idea budowania repozytorium nie jest nowa. Dawniej termin repozytorium oznaczał miejsce słuŜące do przechowywania akt i ksiąg urzędowych z moŜliwością korzystania z nich. Obecnie jest miejscem gromadzenia dokumentów cyfrowych, udostępnianych sieciowo, za pomocą odpowiedniego interfejsu dla wybranej grupy osób lub o nieograniczonym dostępie. Budowanie cyfrowych repozytoriów dla potrzeb przechowywania i udostępniania wiedzy było początkowo związane z procesem ewolucji systemów komunikacji naukowej i pojawiającą się potrzebą szybkiej i skutecznej wymiany informacją naukową. Efektem tej rewolucji stała się inicjatywa Open Access, zgodnie z którą zarekomendowano dwie drogi słuŜące uwolnieniu artykułów naukowych: pierwsza - wydawanie czasopism Open Access, a druga – archiwizowanie prac naukowych w repozytoriach [4]. Popularność drugiego rozwiązania spowodowała, Ŝe zaczęto je adaptować takŜe na potrzeby realizacji procesu nauczania. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 55 Rys. 2. Zawartość repozytoriów na świecie wg DOAR [4]. Jak wskazują statystyki dziś około 16% ogólnej liczby repozytoriów stanowią repozytoria zawierające materiały dydaktyczne (rys.2). Ich rozwój jest podyktowany wieloma czynnikami: pojawieniem się nowych technologii, procesami standaryzacyjnymi opisującymi zawartość repozytoriów, budowaniem wirtualnej społeczności czy choćby rozwojem technik i mechanizmów nauczania zdalnego. 3. Klasyfikacja repozytoriów ze względu na pełnione funkcje Jak zostało wspomniane wcześniej, wśród istniejących klasyfikacji repozytoriów najczęściej mówi się o repozytoriach instytucjonalnych bądź dziedzinowych lub dokonywany jest podział ze względu na przekazywane w nich treści. Przeprowadzona analiza róŜnych repozytoriów pozwala sklasyfikować je ze względu na zawartość i funkcje jakie pełnią (rys. 3). Istnieją repozytoria, w których zamieszczone materiały mają charakter prezentacyjny i często zawarte są w nich materiały multimedialne i audiowizualne. Jednak najbardziej liczną są obecnie repozytoria kształtujące światopogląd, w których prezentowane są wyniki badań naukowych z określonych dziedzin bądź przechowujące dorobek określonych organizacji. Głównym zasobem tych repozytoriów są artykuły weryfikowane przez specjalistów dziedziny. Trzecia wyodrębniona grupa to repozytoria przeznaczone dla potrzeb nauczania, zawierające przygotowany materiał dydaktyczny. Wśród nich wiodące jest repozytorium MIT OpenCourseWare (MIT OCW), w którym materiał dydaktyczny zorganizowany jest w postaci kursów o darmowym dostępie za pośrednictwem Internetu. Repozytorium to jest nadzorowane przez konsorcjum OCW, które wśród swoich członków zawiera wiele międzynarodowych organizacji edukacyjnych, np. CORE – China Open Resource for Education, Johns Hopkins Bloomberg School of Public Health, Massachusetts Institute of Technology, etc [8]. TakŜe w Polsce pojawiają się inicjatywy tworzenia repozytoriów z materiałami dydaktycznymi. Akademia Górniczo-Hutnicza w Krakowie buduje repozytorium w ramach prowadzonego konkursu dla studentów. Pod nadzorem opiekuna naukowego studenci przygotowują pracę z określonej dziedziny, która następnie jest oceniana za wartość dydaktyczną: logiczny układ treści, czytelność i jasność przekazu, prawidłowy dobór 56 Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina Definicje i standardy repozytorium wiedzy zbudowanego dla potrzeb prowadzenia procesu nauczania mediów do rodzaju przekazywanych treści, stopień interaktywności przekazu, moŜliwość dokonywania samooceny postępów w nauce a takŜe dostosowanie materiałów dydaktycznych dla osób niepełnosprawnych (skalowanie czcionek, kontrastowe tła itp.) oraz poziom techniczny pracy: zastosowane technologie informatyczne oraz inne elementy nie związane bezpośrednio z dydaktyką (obrazki, animacje flash oraz inne elementy techniczne), zgodność kodu pracy ze standardem W3C, HTML oraz CSS [9]. Innym rozwiązaniem praktykowanym przez samych studentów jest wymiana opracowanymi materiałami dydaktycznymi z określonych przedmiotów i od określonych wykładowców (np. Chomik) [10]. Rys. 3. Podział repozytorium ze względu na zawartość i pełnione funkcje Źródło: opracowanie własne na podstawie [4],[8],[9],[10],[14],[15] Wachlarz opracowywanych repozytoriów w poszczególnych kategoriach rozwija się kaŜdego dnia. KaŜde z istniejących repozytoriów moŜe posłuŜyć jak źródło do wykorzystania w realizacji procesu nauczania. Z dydaktycznego punku widzenia szczególnym zainteresowaniem objęte są jednak repozytoria zawierające przygotowany i podzielony na LO materiał dydaktyczny. Repozytoria te budowane są przy wykorzystaniu istniejących platform i standardów, które słuŜą dystrybuowaniu i opisywaniu poszczególnych LO. MoŜliwe jest wykorzystanie komercyjnego oprogramowania, w ramach którego umieszczony zostanie materiał dydaktyczny jak np. Oracle iLearning, LMS – WBTServer, SABA Learning Enterprise, ale coraz powszechniejsze staje się wykorzystywanie platformy Moodle lub Sakai, rozpowszechnianych na zasadzie licencji Open Source [11]. Wśród stosowanych standardów opisu treści wyróŜnić moŜna AICC, IMS lub PENS, ale przewodnią rolę pełni standard SCORM, na który składają się: standard pakowania treści, standard komunikacji, standard meta danych, standard budowania sekwencji [12], [13]. Dostępne rozwiązania programistyczne pozwalają analizować „repozytoria nauczania” jak POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 57 systemy klasy LMS, LCMS, które zapewniają określoną funkcjonalność ich uŜytkownikom i tworzą środowisko sieciowe wymiany wiedzy w postaci opracowanych materiałów dydaktycznych. JednakŜe z punktu widzenia procesu nabywania kompetencji przez uczestników procesu nauczania naleŜy dokładnie określić cel, zakres i strukturę wiedzy dziedzinowej dla potrzeb określonej sytuacji edukacyjnej. Analiza ta wymaga wprowadzenia definicji kompetencji w aspekcie edukacyjnym. 4. Repozytorium nauczania zdalnego oparte na standardzie SCORM W wyniku ciągłego rozwoju systemów nauczania zdalnego, realizowanego m.in. poprzez projekty europejskie i krajowe, powstał szereg repozytoriów przechowujących róŜnego rodzaju zasoby dydaktyczne. Aktualny staje się problem dostępu do rozproszonej treści dydaktycznej, umieszczonej w róŜnych repozytoriach, uzyskania moŜliwości jej przeszukiwania i indeksowania. Tak zdefiniowany problem został juŜ częściowo rozwiązany w repozytoriach ogólnej treści za pomocą standardu OAI-PMH (The Open Archives Initiative Protocol for Metadata Harvesting). Standard ten opiera się na koncepcji selektywnego pobierania z danego repozytorium matadanych opisujących zasoby cyfrowe zawarte w danym repozytorium. OAI-PMH umoŜliwia transfer metadanych nie określając, co te metadane zawierają i w jakim są standardzie. W ramach standardu zostały zdefiniowane role (harvester, repozytorium, element, rekord, zbiór) i procedury (Identify, ListMetadataFormats, ListSets, ListIdentifiers, ListRecords, GetRecord). W systemach nauczania zdalnego przyjęto podobne podejście [18]. Systemy nauczania zdalnego, które są zgodne z standardem SCORM 2004, posiadają materiał dydaktyczny podzielony na Learning Object [17]. KaŜdy Learning Object jest opisany za pomocą standardu IEEE LOM (IEEE Learning Object Metadata). Opis taki pozwala na wyszukiwanie i łączenie zgodnych semantycznie i pojęciowo zasobów wiedzy. Standard IEEE LOM zawiera następujące kategorie: - Ogólna (ang. General) – informacje, które opisują zasób jako całość. - Cykl Ŝycia (ang. Lifecycle) – cechy powiązane z historią i obecnym stanem zasobu oraz osób, które stworzyły dany zasób. - Meta-metadane (ang. Meta-Metadata) – zawiera opis metadanych dla metadanych. - Techniczna (ang. Technical) – określa techniczne wymagania i charakterystyki zasobu. - Edukacyjna (ang. Educational) – określa edukacyjne i pedagogiczne charakterystyki danego zasobu. - Prawa (ang. Rights) – opisuje prawa autorskie i warunki uŜywania zasobu. - Relacje (ang. Relational) – określa sposób powiązania z innymi zasobami. - Adnotacje (ang. Annotation) – zawiera dodatkowe informacje odnośnie zasobu. Mogą to być komentarze do konkretnych zastosowań, dydaktyczne wskazówki, porady zastosowania. - Klasyfikacyjna (ang. Classification) – opisuje, w jaki sposób moŜna sklasyfikować informacje zawarte w zasobie. Learning Object wyposaŜony w opis w standardzie IEEE LOM jest umieszczony w repozytorium. Standard SCORM nie definiuje jednak jak wyszukiwać danego Learning Object w jednym repozytorium lub ich federacji. Dlatego powstała standard uzupełniający CORDRA (Content Object Repository Discovery and Registration/Resolution Architecture), który określa otwarty, bazujący na standardach model pozwalający na implementację systemu informatycznego dostępu do rozproszonego zbioru Learning Objects. Podstawowe podejście, stosowane w standardzie CORDRA [16], zakłada stworzenie federa- 58 Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina Definicje i standardy repozytorium wiedzy zbudowanego dla potrzeb prowadzenia procesu nauczania cji repozytoriów poprzez wydzielenie centralnego rejestru, który będzie przechowywał matadane wszystkich Learning Objects naleŜących do danej federacji. Zbiór repozytoriów wraz z rejestrem tworzą federacje. Federacje moŜna łączyć poprzez model warstwowy. KaŜda z federacji reprezentuje pewien zbiór materiałów dydaktycznych, który moŜe charakteryzować się własnym zestawem metadanych, polityką dostępu, prawami autorskimi itd. W Internecie moŜna znaleźć juŜ wiele działających rejestrów Learning Object wspierających standard CORDRA: - http://www.adlregistry.org/ Advanced Distributed Learning (ADL) Registry website. - http://www.eleonet.org/eleonet/index.htm Eleonet (European Learning Object Network), europejski rejestr LO. - http://lre.eun.org/ Learning Resource Exchange for Schools, European Schoolnet. 5. Uwagi końcowe Rozwój systemów nauczania zdalnego związany jest nie tylko z budową coraz bardziej inteligentnych systemów nauczania student-komputer, ale równieŜ z budową i rozwojem odpowiedniej infrastruktury informatycznej. Systemy informatyczne nauczania zdalnego stanowią juŜ oddzielną gałąź rynku systemów oprogramowania. Jest to moŜliwe, poniewaŜ są one juŜ w bardzo duŜym stopniu opisane odpowiednimi standardami, pracującymi na poziomie kursów, repozytoriów, systemów nauczania, testów itd. Repozytoria materiałów dydaktycznych stanowią jeden z najistotniejszych kierunków rozwoju informatycznych systemów nauczania zdalnego. Kapitał wiedzy jest właśnie w nich zgromadzony, jego pomnaŜanie wymaga zbudowania efektywnej infrastruktury działania repozytorium. Autorzy w artykule przedstawili definicję i klasyfikację repozytoriów nauczania zdalnego. Dodatkowo pokazali, jakie standardy nauczania zdalnego obecnie wspierają ich budowę oraz dąŜą do opracowania globalnej składnicy materiałów dydaktycznych (ang. global content infrastructure). 6. Literatura 1. 2. 3. 4. 5. 6. 7. Czekaj J. (Ed.): Zeszyty naukowe Akademii Ekonomicznej w Krakowie. Nr 648. Prace z zakresu metod organizacji i zarządzania, Wydawnictwo Akademii Ekonomicznej, Kraków, 2004, s.7. Whiddett S., Hollyforde S.: Modele kompetencyjne w zarządzaniu zasobami ludzkimi, Oficyna Ekonomiczna, Kraków, 2003. Peters T.A. Digital Repositories: Individual, Disciplinebased, Institutional, Consortial, or National?, In: The Journal of Academic Librarianship, Vol. 28, No. 6, s. 414–417. Kaczmarek E., Rychlik M.: Czy repozytoria będą wspierać naukę w Polsce?, http://www.citebase.org/fulltext?format=application%2Fpdf&identifier=oai%3Aeprints.rc lis.org%3A12226, dostęp: 10.12.2008. OpenDOAR, http://www.opendoar.org/, dostęp:15.12.2008. ROAR, http://roar.eprints.org/index.php?action=generate_chart&chart_field=country&chart_ type=pie&submit=Gener, dostęp:15.12.2008. Bednarek-Michalska B.: Fundusze na budowanie zasobów elektronicznych w Polsce, http://www.ebib.info/publikacje/matkonf/iwb3/artykul.php?b, dostęp: 10.12.2008. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 59 MIT OpenCourseWare, http://ocw.mit.edu/OcwWeb/web/home/home/index.htm, dostęp: 10.12.2008. Notatki w Internecie, http://www.moodle.cel.agh.edu.pl/notatki/, dostęp: 10.12.2008. Chomik, http://www.chomikuj.pl/Chomik.aspx?id=SGHowy, dostęp: 11.12.2008. Kusztina E., Zaikin O., Ciszczyk M., Tadeusiewicz R.: Quality factors for knowledge repository: based on e- Quality project, EUNIS 2008, http://eunis.dk/, dostęp: 16.12.2008. Kotrys R.: Standardy w nauczaniu na odległość, Poznańskie Warsztaty Poligraficzne; http://www.pwt.et.put.poznan.pl/2004/PWT1613.pdf, dostęp: 28.11.2008. SCORM; http://www.adlnet.gov/scorm/, dostęp: 28.11.2008. WaŜniak, projekt:Opracowanie programów nauczania na odległość na kierunku studiów wyŜszych – Informatyka, http://wazniak.mimuw.edu.pl/, dostęp: 15.12.2008. ALT Project: University System of Georgia Learning Object Repository, http://alt.usg.edu/learn/learning.phtml, dostęp: 15.12.2008. Jerez, H., Manepalli, G., Blanchi, C., Lannom, L.W.: ADL-R: The First Instance of a CORDRA Registry. D-Lib Magazine, 12(2), February 2006. http://www.dlib.org/dlib/february06/jerez/02jerez.html RóŜewski P., Kusztina E., Zaikin O.: Modele i metody zarządzania procesem Otwartego Nauczania Zdalnego, Instytut Badań Systemowych PAN, Seria: Badania Systemowe, tom 61, Warszawa- Szczecin 2008 Biskupska M.: Standardy repozytoriów e-learningowych, VI Warsztaty e-learningowe „ELEARNING – Innowacje rozwiązań i zastosowań”, 11 grudnia 2008, Warszawa. 60 Magdalena Ciszczyk,Przemysław RóŜewski, Emma Kusztina Definicje i standardy repozytorium wiedzy zbudowanego dla potrzeb prowadzenia procesu nauczania DEFINITION AND STANDARDS KNOWLEDGE REPOSITORY DESIGNED TO TEACHING/LEARNING PROCESS SUPPORT Summary The concept of didactical content digitalization in the form of repository is a common research topic. There are a set of content repositories built for different purpose and function. In the paper authors defined the concept of repository for purpose of teaching/learning process. The present classification is aimed to classify repository based on this function and aim. Moreover repository dedicated standards are discussed in the paper. Keywords: repository, learning process, standards Magdalena Ciszczyk Przemysław RóŜewski Emma Kusztina Zakład Systemów Produkcji Niematerialnej Wydział Informatyki Politechnika Szczecińska 71-210 Szczecin, ul. śołnierska 49 email: [email protected] email: [email protected] email: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 61 LUDOSŁAW DRELICHOWSKI Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy AGNIESZKA BOGDAŃSKA Elfville s.c. OCENA ZASTOSOWAŃ TECHNOLOGII INFORMACYJNYCH W POZAROLNICZYM ROZWOJU OBSZARÓW WIEJSKICH Streszczenie W pracy skoncentrowano się na analizie rezultatów zastosowań technologii internetowych w promowaniu oferty turystycznej zlokalizowanej na obszarze Borów Tucholskich. Zakres nakładów i stosowane formy promocji internetowych w analizowanym przedsięwzięciu pozwoliły ocenić osiągnięty poziom wskaźnika wykorzystania miejsc i stopy zwrotu nakładów inwestycyjnych na podstawie pierwszych dwu lat działalności obiektu. Uzyskane rezultaty potwierdzają cytowaną w literaturze wysoką efektywność zastosowań technologii internetowych w róŜnych formach usług turystycznych. Słowa kluczowe: technologie internetowe, rozwój obszarów wiejskich, Bory Tucholskie, turystyka 1. Wprowadzenie Przebieg procesów aktywizacji obszarów wiejskich naleŜy do jednego z priorytetowych programów finansowanych ze środków Unii Europejskiej, co wynika z jego waŜnej roli we wspomaganiu rozwoju terenów o zapóźnieniu rozwojowym oraz znaczeniu w zakresie niezbędnego rozwoju infrastruktury na tych obszarach. Tradycyjny rozwój sieci komunikacyjnej uzupełniany jest priorytetami w zakresie unowocześniania łączności telekomunikacyjnej, co materializować moŜe przykład projektu inwestycyjnego realizowanego w woj. kujawsko-pomorskim pod hasłem „szerokopasmowy Internet w kaŜdej gminie Kruszewski i wsp (2007)”. Jak waŜny jest problem sprawnej łączności do aktywizacji produkcji surowców integrowanej z dystrybucją przetworów rolno-spoŜywczych, moŜe stanowić przykład wymagań sprawnej łączności sieciowej dostawców surowców przez partnerów Wielkopolskiej Giełdy Rolno-Ogrodniczej w Poznaniu. Stosowany przez tę organizację system logistyczny posiadał wiele alternatywnych dróg komunikacyjnych, podczas gdy aktualnie warunkiem tej współpracy jest łączność internetowa Drelichowski L. Hempowicz G., Kamiński Ł. Niemier L.(2007). Warto zwrócić uwagę, Ŝe w niezwykle waŜnym obszarze funkcjonowania rynków turystycznych na obszarach wiejskich juŜ w roku 1996 Kubiak i Korowicki(1996) analizują funkcjonowanie globalnych rynków elektronicznych w turystyce. Cytowane wyŜej prace w całej rozciągłości potwierdzają, Ŝe reguły funkcjonowania elektronicznych rynków turystycznych w pełni juŜ dotyczą agroturystyki i turystyki obszarów wiejskich. Funkcjonowanie sieci informacyjno-komunikacyjnych jest ściśle związane ze stanem wiedzy dotyczącym kluczowych dla funkcjonowania organizacji jej zasobów, które decydują o uwarunkowaniach technologicznych, kreatywności zatrudnionych pracowników i ich zdolności 62 Ludosław Drelichowski, Agnieszka Bogdańska Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich do dokonywania zmian. Prezentowane w pracy uwarunkowania mogą nawiązywać do konwencji przyjętej w ramach realizowanego projektu PR 6 TOWORDS "Migrating networks from a producer TOWARDS a market orientation within the agri-food sector" FP6-2004-FOOD-3-C Contract no.: 518702. Właśnie te badania i analizy uświadomiły potrzebę nowego spojrzenia na występowanie silnych więzi pomiędzy zdolnością przedsiębiorstw do dokonania zmian uwzględniających oczekiwania partnerów firmy, co staję się jednym z niezwykle waŜnych aspektów aktywizacji obszarów wiejskich. Z drugiej strony idea sieci migrujących wyraŜa interakcje pomiędzy stosowanym – rozwijanym standardem powiązań sieciowych z partnerami, a zdolnością do poprawy jakości obsługi klienta, czego przesłankę stanowi rozwój technologii internetowych Drelichowski L. Rutkiewicz Ł.(2007). Badania prowadzone przez Drelichowskiego i Lustiga(2007) dotyczące oceny efektywności zastosowań technologii internetowych w gospodarstwach agroturystycznych w Borach Tucholskich dostarczają dowodów osiągania radykalnie wyŜszej efektywności wykorzystania kwater w gospodarstwach stosujących technologie internetowe. Ponad trzykrotnie wyŜszy poziom wykorzystania dysponowanych miejsc noclegowych na korzyść gospodarstw korzystających z Internetu, stanowi niezbity dla nich dowód źródeł przewagi konkurencyjnej. Presja tworzona przez młodzieŜ zamieszkałą na obszarach wiejskich w zakresie konieczności doskonalenia moŜliwości dostępu do szybkiej sieci Internetowej, stwarza szansę na efektywne przyspieszenie tego procesu wspomaganego dodatkowo, przez osiedlających się z wyboru na obszarach wiejskich mieszkańców duŜych aglomeracji. Rozwój usług turystycznych i agroturystyki na terenach o duŜych walorach krajobrazowych, stymulował będzie rozwój lokalnych firm przetwórstwa rolnospoŜywczego. Zaopatrzenie obiektów turystycznych w lokalne przetwory rolno-spoŜywcze sprzyjać będzie ich rozwojowi oraz intensyfikacji sieciowej wymiany informacji. 2. Uwarunkowania rozwoju turystyki w aspekcie postępu technologicznego i globalizacji Informacja i wiedza zawsze były towarem cieszącym się popytem, a w czasach globalizacji ten "zasób" jest zdecydowanie bardziej dostępny i konieczny dla rozwoju niŜ kiedykolwiek. Dynamiczny rozwój wszystkich form komunikacji, a zwłaszcza Internetu oprócz zmian o charakterze społecznym, mocno przyczynił się do zmian w sektorze usług turystycznych. W 2004 roku 82,3% przedsiębiorstw turystycznych UE 25 posiadało stronę internetową lub było w sieci wirtualnej. Co ciekawe, przewyŜszało to o 24,6% średnią dla pozostałych działów gospodarki1. Zasięg działań prowadzonych w Internecie trudno porównać z jakąkolwiek inną formą dotarcia do potencjalnego klienta, dlatego właśnie rozwój turystyki, która musi dotrzeć do bardzo duŜej ilości odbiorców, najbardziej na tym zyskał i stymuluje moŜliwości jej rozwoju. Z drugiej strony ma to teŜ ogromne znaczenie dla potencjalnych zainteresowanych, poniewaŜ nastąpił równieŜ rozwój dostępu do informacji dotyczących walorów krajobrazowo kulturowych poszczególnych miejscowości, regionów i krajów. Teraz moŜna w łatwy i co najwaŜniejsze tani sposób znajdować informacje odnośnie wymarzonego zakwaterowania adekwatne do własnych potrzeb i zainteresowań. W ten sposób kreowany się jednocześnie popyt na nieznane do tej pory produkty turystyczne. Dla potwierdzenia powyŜszych rozwaŜań, a równieŜ pewności, Ŝe Polska nie pozostaje w tyle za Europą w tendencjach gospodarczych, badania wykazują, Ŝe liczba gospodarstw domowych 1 Miecznikowski S., Rynek technologii informatycznych i jego wykorzystanie w sektorze turystycznym, Ekonomiczne Problemy Turystyki nr 7, 2006r. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 63 posiadających dostęp do Internetu w miejscu zamieszkania w 2007 roku przekroczyła juŜ 5mln (41% ogółu), z czego w 4,8mln gospodarstw (38% ogółu) rzeczywiście korzysta z tej sieci. W miastach powyŜej 100 tyś mieszkańców. dostęp do sieci deklaruje 60% ludności, a w miastach o liczbie ludności poniŜej 100tys. 56%. Na obszarach wiejskich dostępność Internetu wzrosła o 10% w porównaniu z rokiem ubiegłym i wynosiła 46% ogółu gospodarstw. Co najciekawsze, badania pokazują, Ŝe jako cel korzystania z Internetu 11% badanych daje korzystanie z serwisów poświęconych turystyce, a wyszukiwanie informacji o usługach i towarach aŜ 27% 2 3. Analiza efektywności rozwoju wykorzystania bazy turystycznej w ramach organizacji Elfville s.c. w Borach Tucholskich Polska branŜa turystyczna w porównaniu z krajami Europy Zachodniej i Afryki Północnej dopiero raczkuje. Istnieje jeszcze wiele miejsc zupełnie niezagospodarowanych pod względem turystycznym, gdzie brak jakiejkolwiek bazy noclegowej, a walory przyrodnicze, czy kulturowe są nie do przecenienia. Przykład powiatu tucholskiego dowodzi, Ŝe istnieje jeszcze niewykorzystany, ogromny potencjał turystyczny w naszym kraju, tym bardziej, Ŝe pozwala stworzyć produkt idealnie wpasowujący się w najnowsze trendy turystyki – nieskomercjalizowany, naturalny, ekologiczny, specyficzny3. Próbą wpasowania się w zidentyfikowaną „niszę turystyczną” było stworzenie przez firmę Elfville s.c. w zabytkowym, o charakterze regionalnym budynku „Leśnych Apartamentów” nad Bielską Strugą. W środku Tucholskiego Parku Krajobrazowego, w pierwszym tygodniu lipca 2007r. rozpoczęła się działalność operacyjną polegającą na wynajmie stylowych apartamentów. W drewnianym, odrestaurowanym budynku, będącym przykładem architektury z pierwszej połowy XIX w., zostały urządzone stylowe i komfortowe apartamenty na wynajem. KaŜdy z apartamentów jest czteroosobowy, składa się z sypialni, duŜego pokoju z aneksem kuchennym i kominkiem lub piecem kaflowym oraz łazienki. Całe umeblowanie wraz z wyposaŜeniem zachowane jest w stylu epoki, a renowacja obiektu przebiegała tak, aby zachować jak najwięcej oryginalnych elementów. Ponadto kaŜdy z oferowanych pokoi jest urządzony w odmiennym klimacie, a efektu końcowego dopełnia połoŜenie obiektu w środku lasu. Dostojności obiektowi dodaje równieŜ duŜa 2ha działka – leśna polana ze starodrzewem. Dojazd do Bielskiej Strugi prowadzi malowniczą drogą gruntową i moŜna mieć wraŜenie, Ŝe człowiek nagle znalazł się w zupełnie innym świecie. Badania pokazują, Ŝe 62% turystów jako najwaŜniejsze dla wymarzonego miejsca na wypoczynek uwaŜają spokój i ciszę. Bielska Struga to nie jest nawet wieś, a cisza panująca tam jest aŜ dziwna, czasami przerywana odgłosami zwierząt, co nie pozostawia wątpliwości, czyim domem jest las. Co ciekawe, niewielu jest śmiałków, którzy nie boją się wyjść w nocy na spacer, choćby tylko na teren działki. Projekt rewitalizacji „Leśnych Apartamentów” był współfinansowany ze środków Unii Europejskiej i budŜetu państwa w ramach Zintegrowanego Programu Operacyjnego Rozwoju Regionalnego, Priorytet III, Działanie 3.4. Ponadto uzyskał wyróŜnienie przez Toruńską Agencję Rozwoju Regionalnego, jako wzorcowo zrealizowany projekt współfinansowany ze środków unijnych w województwie kujawsko-pomorskim. 2 Opracowanie GUS, Wykorzystanie technologii informacyjno-telekomunikacyjnych w gospodarstwach domowych i przez osoby prywatne w 2007 r. 3 A.Bogdańska, Uwarunkowania rozwoju turystyki na przykładzie powiatu tucholskiego, AR Szczecin 2006r. 64 Ludosław Drelichowski, Agnieszka Bogdańska Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich ZałoŜenia rentowności przedsięwzięcia opierały się na wydawać by się mogło, bardzo optymistycznych załoŜeniach polegających na osiągnięciu 30% obłoŜenia juŜ w pierwszym roku działalności przedsiębiorstwa. W Polsce średnie obłoŜenie mierzone w stopniu wykorzystania miejsc noclegowych w 2006r. dla obiektów najbardziej podobnych, czyli pensjonatów wyniosło właśnie 30%. Najbardziej obleganymi obiektami są hotele, których stopień wykorzystania wyniósł 36% w 2006r. (tabela nr 1). Z tego powodu podczas tworzenia biznes planu przedsięwzięcia duŜy nacisk został połoŜony na strategię promocji projektu, tak, aby ambitne cele i optymalne prognozy finansowe mogły zostać zrealizowane. Wspomniana wyŜej praca Drelichowskiego i Lustiga(2007) wyraźnie ukazuje jak ogromne są róŜnice w efektywności działalności gospodarstw agroturystycznych promujących się w Internecie i nie stosujących tego rodzaju reklamy. Skoro 3,5 krotne zwiększenie ilości klientów udaje się uzyskać poprzez zastosowanie odpowiedniej strategii reklamy, konieczność poświęcenia na to znacznej części budŜetu jest oczywista. Jeśli chodzi o sposób organizacji krajowych podróŜy długookresowych w Polsce to 78% badanych robi to samodzielnie, natomiast w przypadku podróŜy krótkookresowych aŜ 89%4. Tak więc promocja poprzez biura podróŜy z pewnością okazałaby się bardzo kosztotwórcza (prowizja biur wynosi 2030% przychodów) i mogłaby być nieskuteczna, w przypadku naszego kraju. Dlatego teŜ, biorąc pod uwagę dostępność Internetu, niską cenę pozyskania informacji z punktu widzenia klienta oraz zasięg tego narzędzia, decyzja o promocji obiektu podjęła się sama. Pierwszym krokiem było utworzenie profesjonalnej strony internetowej, wykupienie reklamy poprzez linki sponsorowane, umieszczenie banerów reklamowych na regionalnych stronach internetowych, moŜliwości dokonania rezerwacji za pośrednictwem Internetu oraz reklamy na portalach słuŜących za bazę danych na temat obiektów noclegowych w Polsce. Najbardziej istotnym elementem kosztowym były linki sponsorowane, jednak ustalony budŜet przeznaczony na reklamę i tak wydawał się stosunkowo niewielki. Po 6 miesiącach działalności konkretne wielkości ujęte w liczbach wykazały to, co moŜna było przypuszczać, a co prezentuje tabela nr2. Tabela nr 1. Stopień wykorzystania miejsc noclegowych w turystycznych obiektach zbiorowego zakwaterowania według miesięcy. Rodzaj obiektu Obiekty hotelowe W tym: pensjonaty Domy wycieczkowe 01 02 03 04 05 06 07 08 09 10 11 12 2005 2006 Ogółem w% 35 36 24 27 26 30 26 29 29 31 36 36 39 40 49 51 47 46 36 37 34 35 29 30 25 27 2006 30 29 31 23 21 28 32 49 46 33 22 15 21 2006 32 30 31 23 28 34 40 45 47 29 29 27 22 Rok Źródło opracowania: GUS, Departament Statystyki Usług, Turystyka w 2006 r., kier. dr A.Baran. 4 Instytut Turystyki, PodróŜe Polaków w 2006r. 65 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 Tabela nr 2. Stopień wykorzystania miejsc noclegowych w Leśnych Apartamentach w Bielskiej Strudze w ujęciu miesięcznym. Rodzaj obiektu Leśne Apartamenty ROK Ogółem w% 01 02 03 04 05 06 07 08 09 10 11 12 2007/ 2008 40 7 19 27 28 45* 60* 74 95 54 24 19 27 * - prognoza Źródło opracowania: badania własne. Koszt poniesionych nakładów na reklamę internetową przy poziomie obłoŜenia 40% stanowi 6,4% przychodów przedsiębiorstwa, natomiast suma kosztów działalności wynosi 41,8%. Tak więc dochód stanowi 51,8% przychodów. Relacja kosztu reklamy internetowej do dochodu w 1 roku działalności dochód 52% koszt działalnoś ci 42% koszt działalności koszt reklamy dochód koszt reklamy 6% Dla porównania wielkości obłoŜenia obiektów w Polsce, poniŜsza tabela nr 2 prezentuje dane dotyczące stopnia wykorzystania miejsc w hotelach i podobnych obiektach w wybranych krajach. Prezentowane wielkości obnaŜają nieefektywność polskiej gospodarki turystycznej, ale jednocześnie prezentują wielkości, które moŜna osiągnąć w tego rodzaju działalności. Daje to pozytywne prognozy dla rozwoju sektora usług turystycznych, a jednocześnie wyznacza kierunek rozwoju i pokazuje konkretne, osiągalne wielkości dotyczące obłoŜenia. 66 Ludosław Drelichowski, Agnieszka Bogdańska Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich Tabela nr 3 Stopień wykorzystania miejsc w hotelach i podobnych obiektach (netto%) w 2005r. Kraj Austria Estonia Francja Słowenia Cypr Grecja Ogółem w% 42 45 59 48 57 48 01 02 03 04 05 06 07 08 09 10 11 12 55 27 49 42 29 25 65 30 52 45 35 28 58 38 57 43 46 33 25 43 55 41 47 29 31 48 61 48 64 449 36 53 67 53 70 64 48 70 65 59 79 80 58 61 67 70 93 91 40 48 68 58 76 73 30 45 60 47 70 46 24 38 54 38 45 28 36 36 49 37 28 27 Źródło opracowania: GUS, Departament Statystyki Usług,, Turystyka w 2006r., kier. dr A.Baran W przypadku branŜy turystycznej efektywność inwestycji wzrasta wraz z czasem, jaki upływa od momentu rozpoczęcia działalności. Zyskowność hoteli (czyli obiektów o najwyŜszym stopniu wykorzystania ze wszystkich kategorii obiektów noclegowych, co pokazują dane GUS i w tabeli nr 1) określa się po 2-3 latach działalności na 8-12% (stosunek zysku netto do kapitałów własnych), a po 4-5 latach na około 15%, natomiast stopę zwrotu poniesionych nakładów na 10 lat.5 W przypadku inwestycji w Leśne Apartamenty w Bielskiej Strudze efektywność jest wyjątkowo wysoka, bo juŜ w 1 roku działalności wyniosła 18%, a stopa zwrotu poniesionych nakładów stanowi obecnie jedynie 6 lat. Efektywność ta zaleŜy jednak od wielu czynników, z których najwaŜniejsza jest promocja. Nawet najwyŜsza jakość produktu turystycznego, najlepiej zorganizowane przedsiębiorstwo i najwyŜsza kultura obsługi nie zapewni efektywności nieodpowiednio wypromowanemu przedsięwzięciu. Z przytoczonego przykładu jednoznacznie wynika, Ŝe bez odpowiedniej promocji internetowej przedsiębiorstwo byłoby naraŜone na bankructwo, pomimo wielkiej staranności na wszystkich pozostałych etapach działalności jak: wytworzenie produktu o wysokim standardzie, właściwe oszacowanie optymalnej ceny, jakość wykończenia apartamentów, lokalizacja obiektu i sposób finansowania. 4. Podsumowanie Prezentowane w niniejszej pracy wyniki badań dotyczących roli technologii internetowych w rozwoju usług turystycznych na terenie obszarów wiejskich wskazują na dominujące znaczenie ich zastosowania dla wskaźnika efektywności inwestycji. Chmielarz (2007) w pracy dotyczącej systemów biznesu elektronicznego prezentuje równieŜ analizę moŜliwości zastosowania systemów elektronicznego biznesu w turystyce. Przytoczone pozycje literatury dotyczące zastosowań technologii informacyjnych w turystyce i wyniki badań empirycznych wskazują, Ŝe rola technologii internetowych w aktywizacji obszarów wiejskich będzie obejmowała coraz szerszy zakres usług realizowanych w formule pracy zdalnej, tak jak obecnie dotyczy to rozwoju turystyki. Rozwój usług turystycznych na miarę predyspozycji regionów o wysokim potencjale posiadanych zasobów, stymuluje rozwój produkcji przetworów spoŜywczych sprzyjając wzajemnym korzyściom wynikającym ze wzrostu skali i atrakcyjności kompleksowych usług oferowanych przez region. Ten rodzaj powiązań sprzyja funkcjonowaniu sieci informacyjno-komunikacyjnych pozwala na 5 Bednarska M,. Gołębiewski G,. Marcinkiewicz E, Olszewski M(2007)., Przedsiębiorstwo turystyczne. Ujęcie statyczne i dynamiczne,. PWE Warszawa , s. 257 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 67 doskonalenie kooperacji pomiędzy podmiotami produkcyjno usługowymi, podnosząc jakość i kompleksowość oferowanych usług. 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Bednarska M,.Gołębiewski G,.Marcinkiewicz E, Olszewski M(2007)., Przedsiębiorstwo turystyczne. Ujęcie statyczne i dynamiczne,. PWE Warszawa Bogdańska. A.,(2006): Potencjał rozwojowy obszarów wiejskich. Uwarunkowania rozwoju turystyki na przykładzie powiatu tucholskiego, Wyd. Akademia Rolnicza Szczecin Chmielarz (2007) Systemy biznesu elektronicznego. Difin Drelichowski L. Lustig J (2007) : Application of Internet techniques in promotion of agritourist farms in the National Park in the Bory Tucholskie Studies & Proceedings PSZW nr 11 , Bydgoszcz . Drelichowski L. Rutkiewicz Ł.(2007): Koncepcja agrobiznesu w strukturze sieci branŜowych portali Internetowych firmy Vertica Studia i Materiały nr 12 Polskie Stowarzyszenie Zarządzania Wiedzą Bydgoszcz Drelichowski L. Hempowicz G., Kamiński Ł. Niemier L.(2007): Analiza uwarunkowań techniczno-organizacyjnych funkcjonowania sieci rynku hurtowego Wielkopolskiej Gildii Rolno-Ogrodniczej w Poznaniu. Studia i Materiały nr 12 Polskie Stowarzyszenie Zarządzania Wiedzą Bydgoszcz. Kruszewski Z., Leszczyński A., Straszak A., Zabłudowski A.(2007): Technologie informatyczno-łącznościowo-transportowe szansą przyspieszenia konkurencyjności i innowacyjności w Polsce Wielkich Szybkości. Studia i Materiały nr 10 Polskie Stowarzyszenie Zarządzania Wiedzą Bydgoszcz. Kubiak B.F., Korowicki A., Globalne rynki elektroniczne w turystyce. Komputerowe Systemy Wielodostępne Bydgoszcz Ciechocinek 1996r. Miecznikowski S. (2006), Rynek technologii informatycznych i jego wykorzystanie w sektorze turystycznym, Ekonomiczne Problemy Turystyki nr 7. 68 Ludosław Drelichowski, Agnieszka Bogdańska Ocena zastosowań technologii informacyjnych w pozarolniczym rozwoju obszarów wiejskich EVALUATION OF INFORMATION TECHNOLOGY APPLICATION IN OF NONRURAL AREAS DEVELOPMENT Summary The paper presents the results of the analysis of information technology application In the promotion of the tourist offer located in the Bory Tucholskie area. The scope of outlays and the applied forms of the Internet promotions In the venture facilitated the assessment of the index of the hotel beds occupation and the return rate of the investment outlays on the basis of the first months of the tourist facility operation. The results achieved confirm the high efficiency of Internet solution application in various forms of tourist services quoted in the literature. Keywards: Internet technology, rural areas development, Bory Tucholskie, tourist Ludosław Drelichowski Katedra Informatyki w Zarządzaniu, Wydział Zarządzania Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy 85-970 Bydgoszcz, Al. S. Kaliskiego 7 e-mail: [email protected] Agnieszka Bogdańska Elfville s.c., Bydgoszcz POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 69 TOMASZ DUDEK Akademia Morska BOśENA ŚMIAŁKOWSKA Zachodniopomorski Uniwersytet Technologiczny ARCHITEKTURA EKSPERTOWEGO SYSTEMU OCENY JAKOŚCI Streszczenie Jednym z systemów wspomagania zarządzania jakością są systemy ekspertowe. Aby systemy ekspertowe oceny jakości spełniły swoją rolę muszą mieć odpowiednią architekturę (strukturę) dzięki której moŜliwa będzie efektywna i wieloaspektowa (kompleksowa) ocena jakości w oparciu o dostępne dane, metody wywodu wiedzy i wiedzę eksperta. Dane będące podstawą oceny jakości zwykle mają heterogeniczny charakter a ocena jakości często oparta jest na zmiennych w czasie kryteriach tej oceny. W artykule zaprezentowano architekturę ekspertowego systemu oceny jakości z uwzględnieniem zmiennego charakteru kryteriów oceny i heterogeniczności źródeł danych zasilających ten system. Słowa kluczowe: ontologie, inŜynieria ontologii, systemy ekspertowe, jakość, wiedza, heterogeniczność. 1. Wprowadzenie Działalność gospodarcza firm, przedsiębiorstw czy organizacji, to dbałość o poziom jakości wytwarzanych przez nie produktów i świadczonych usług. O jakości nie decydują jednak same wymagania uŜytkowe czy ich specyfikacja, ale moŜliwie najlepsze ich ustalenie oraz stopień ich spełnienia. Efektywna i kompleksowa ocena jakości uzaleŜniona jest od wyboru metod, wiedzy i doświadczenia oceniających oraz od jakości i ilości dostępnych danych. W ocenie jakości (np. oprogramowania, kształcenia, świadczonych usług, procesu produkcji, itp.) moŜna wykorzystać specjalistyczne oprogramowanie, które tę ocenę będzie wspomagać zarówno w aspektach wytwarzanego produktu jako efektu końcowego, jak równieŜ w aspektach przebiegu procesów związanych z jego wytwarzaniem, w całym cyklu Ŝycia (równieŜ w eksploatacji, uŜytkowaniu). Takim oprogramowaniem wspomagającym wieloaspektową ocenę jakości moŜe byś system ekspertowy. Systemy ekspertowe [4][5] mogą wspomagać wnioskowanie, ocenę oraz podejmowanie decyzji, działając w sposób zbliŜony do procesu rozumowania człowieka. WaŜną rolę w systemie ekspertowym pełnią tzw. eksperci, którzy udostępniają w nim swoją wiedzę i doświadczenie. Systemy ekspertowe mają liczne zastosowania w takich dziedzinach jak: finanse, procesy wytwórcze, zarządzanie, kolejkowanie i ustalanie połączeń (szczególnie dla linii lotniczych), obsługa klientów, projektowanie, militaria, analiza danych, inŜynieria oprogramowania, administracja państwowa, przemysł transportowy i kosmicznym oraz wielu innych. MoŜna je klasyfikować ze względu na rolę i funkcje jakie im przypisano, wyróŜniając systemy doradcze, podejmujące lub 70 Tomasz Dudek, BoŜena Śmiałkowski Architektura ekspertowego systemu oceny jakości wspomagające decyzje czy wreszcie krytykujące, przedstawiające problem i warianty jego rozwiązania. Ze względu na uzyskiwane z systemu ekspertowego wyniki, wyróŜnia się równieŜ ekspertowe systemy ukierunkowane na diagnozę, prognozę i plan rozumiany jako opis stanu, do którego naleŜy dąŜyć. Istnieją teŜ systemy ekspertowe z wiedzą pewną (zdeterminowaną) i niepewną. Systemy ekspertowe moŜna równieŜ sklasyfikować ze względu na sposób ich budowy, wyróŜniając gotowe (dziedzinowe) systemy szkieletowe z pustą bazą wiedzy oraz dedykowane systemy, tworzone od podstaw. NiezaleŜnie jednak od zaprezentowanej klasyfikacji i zastosowań systemów ekspertowych istotne są funkcje przez nie realizowane. Jednym z moŜliwych zastosowań systemów ekspertowych jest system oceny jakości, oznaczony skrótowo symbolem SEOJ. Zadaniem takiego systemu (Np. oceny jakości oprogramowania, jakości kształcenia) moŜe być: - Diagnoza jakości produktu (Np. oprogramowania) lub świadczonej usługi (Np. edukacyjnych) i procesów wytwarzania (realizacji usług), - Prognoza (oszacowanie) jakości efektu końcowego (produktu lub świadczonej usługi), - Dobór jakości wzorcowej (np. oprogramowania), którą naleŜy osiągnąć i związane z tym aspektem badania. Istotnym elementem systemu SEOJ są dane źródłowe zasilające system, zaś istotną cechą tych danych jest ich heterogeniczny charakter. Heterogeniczność danych w informatyce oznacza róŜnorodność tych danych pod względem źródeł ich pochodzenia, struktur, poziomów odniesienia jak i metod pomiaru. NaleŜy dodatkowo podkreślić, Ŝe często kryteria oceny jakości są zmienne w czasie. 2. Heterogeniczny i zmienny w czasie charakter danych zasilających ekspertowy system oceny jakości Ekspertowy system oceny jakości produktów, wyrobów, świadczonych usług czy realizowanych procesów jest zasilany w następujące dane źródłowe: - Dane liczbowe o miarach jakości produktów, wyrobów, świadczonych usługach, realizowanych procesach, etc, - Dane opisowe o wytwarzanych produktach, wyrobach, świadczonych usługach czy realizowanych procesach, zespole wytwórców, procesie wytwarzania, etc. - Dane niemierzalne wyraŜone w aspektach kategorycznych, na podstawie wiedzy eksperta, odnoszące się do oceny jakości, - Inne dane semantycznie związane z oceną jakości (Np. dane o planach, umowach, kontraktach, załoŜeniach, oczekiwaniach klientów, etc.), - Metadane o danych przechowywanych w bazie danych i bazie wiedzy. Źródła zasilające systemy SEOJ mogą być dostępne dynamicznie lub statycznie. Są róŜnych typów (Np. bazy danych, pliki lub strony w formacie HTML). Mogą mieć róŜnorodne znaczenie, formę zapisu, strukturę, itp. Dla przykładu w ocenie jakości kształcenia w szkole wyŜszej moŜna za źródła danych przyjąć wyniki pomiarów ankietowania studentów lub absolwentów, rankingi róŜnych instytucji, obowiązujące standardy kształcenia, oceny róŜnych gremiów akredytacyjnych, sylwetkę absolwenta, itp. Oznacza to, Ŝe źródła danych w systemie SEOJ mają heterogeniczny charakter. Inną waŜną cechą danych źródłowych w systemie SEOJ jest zmienny charakter kryteriów oce- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 71 ny jakości. Dla przykładu ocena jakości oprogramowania realizowana w latach 80-tych XX wieku opierała się na innych kryteriach oceny niŜ ma to miejsce na początku XXI wieku. MoŜna spodziewać się, Ŝe wraz z rozwojem metod, technik czy metodyk wytwarzania oprogramowania, a takŜe wraz z pojawieniem się w przyszłości nowych standardów w dziedzinie inŜynierii oprogramowania, będziemy stosować inne kryteria oceny oprogramowania niŜ na początku XXI wieku. Gdy zaś rozwaŜymy kryteria oceny jakości kształcenia studentów to równieŜ zauwaŜymy, Ŝe na przestrzeni czasu są one zmienne i róŜne a takŜe zaleŜne od czasu odniesienia się do tej oceny jakości. Podobne własności mają dane źródłowe w innych dziedzinach oceny jakości. 3. Architektura ekspertowy system oceny jakości PoniewaŜ istotnym uwarunkowaniem systemów SEOJ jest heterogeniczny i zmienny w czasie charakter danych zasilających takie systemy, to musi w nich istnieć wydzielony modułu integracji heterogenicznych źródeł danych. NaleŜy zauwaŜyć, Ŝe z kaŜdym źródłem danych w systemie SEOJ związana jest określona terminologia, określone nazewnictwo. Dla przykładu, rozpatrując ankiety studentów w ekspertowym systemie oceny jakości procesu kształcenia za takie pojęcia przyjąć moŜna „program przedmiotu”, „punktualność prowadzącego”, „przygotowanie do zajęć”, „realizację przedmiotu”, itp. Między pojęciami z tej terminologii zachodzą relacje, Np. częścią oceny realizacji przedmiotu jest ocena punktualności prowadzącego, itp. Zgodnie zaś z literaturą pojęcia terminologie i relacje między nimi moŜna opisać formalnie tzw. ontologią [3]. Dzięki ontologiom moŜliwa jest komunikacja bez konieczności operowania na wspólnej bazie wiedzy ale i na wcześniej zdefiniowanych słownikach z zapytaniami i określonymi wyjątkami. Ontologie umoŜliwiają takŜe efektywny dostęp do informacji zawartych w wielu odrębnych repozytoriach i bazach wiedzy, przez co integrują dane, funkcjonalności, platformy, dziedziny, itp. Nie narzucają one konieczności odwzorowania jedynie świata rzeczywistego. Pozwalają takŜe na opis zasobów, które często nie są wiernymi odpowiednikami rzeczywistych obiektów. Ontologie wspomagają ujednolicenie wszystkich semantycznych róŜnic informacji dostarczanych przez system i dlatego mogą być podstawą modułu integracji heterogenicznych źródeł danych. ZałóŜmy, Ŝe w systemie SEOJ dostępnych jest n heterogenicznych źródeł danych symbolicznie oznaczonych jako Z1, …, Zn Wówczas zgodnie z zasadami tworzenia ontologii moŜna dla tych źródeł opracować odpowiednie ontologie O1, …, On wg zasady, Ŝe Oi jest ontologią dla źródła Zi (i=1, …, n). Łączenie wielu ontologii w jedną ontologię globalną jest moŜliwe dzięki dostępnym w literaturze metodom, zaimplementowanym w dostosowanych do tego, pakietach oprogramowania (Np. OntoStudio). Wówczas stosując jedną z tych metod dla integracji ontologii Oi (i=1, …, n) moŜna zbudować ontologię globalną OG. Kolejnym krokiem obsługi heterogeniczności danych jest etap wyznaczania funkcji przejścia między ontologiami Oi (i=1, …, n) a ontologią globalną OG i odwrotnie między OG a ontologiami Oi (i=1, …, n). Integracja danych dotyczy łączenia dowolnych pojęć, które mogą być zarówno synonimami 72 Tomasz Dudek, BoŜena Śmiałkowski Architektura ekspertowego systemu oceny jakości jak i homonimami (zaimplementowane modele opisujące podobieństwo, zaprojektowane w oparciu o model Tverskyego [8], który definiuje miarę podobieństwa jako proces dopasowania cech). Model ten dostarcza wartości podobieństwa, które nie jest tylko wypadkową wspólnych cech, ale uwzględnia takŜe róŜnice między pojęciami (obiektami). MoŜliwe jest równieŜ rozszerzenie metody odkrywania podobieństw terminów o ideę kontekstów (podobieństwo terminów zaleŜne jest od kontekstu, w jakim się do nich odnoszono). Kontekst określa prawdziwość lub fałszywość stwierdzenia jak i jego znaczenie. Poprzez dodanie funkcji rozpatrujących podobieństwa, w metodzie integracji opartej na ontologiach, osiągnąć moŜna większą precyzję porównań pomiędzy pojęciami róŜnych ontologii, a połączenie ontologii i kontekstów dostarczy wyŜszego poziomu informacji semantycznej wymaganej w integracji danych. Metodę integracji ontologii a co zatem idzie i heterogenicznych źródeł danych, dokładniej zaprezentowano w literaturze (choćby [3]). Na metodzie integracji ontologii oparto koncepcję realizacji modułu integracji heterogenicznych źródeł danych w systemie SEOJ. W dalszej części moduł ten nazwano modułem obsługi ontologii i oznaczono symbolem MOO. MoŜna zatem stwierdzić, Ŝe w strukturze ekspertowego systemu oceny jakości SEOJ niezbędne są następujące moduły funkcjonalne: - Moduł obsługi ontologii MOO, - Moduł pozyskiwania i gromadzenia wiedzy, umoŜliwiający zdobywanie oraz modyfikowanie wiedzy o produktach, usługach i procesach, - Baza danych o produktach, procesach i usługach, - Baza wiedzy (ang. knowledge base), zawierająca informacje dziedzinowe i informacje o podejmowanych przez eksperta decyzjach, - Mechanizmy wnioskowania (ang. inference engine), które odpowiadają za rozwiązanie problemu oraz za poprawne zastosowanie wiedzy zgromadzonej w bazie wiedzy, - Moduł objaśniająco - wyjaśniający (ang. explanation facility), którego głównym zadaniem jest komunikacja ze światem zewnętrznym. zaś ogólna struktura takiego systemu jest zgodna z rys.1. W module obsługi ontologii MOO dostępne będą następujące funkcje: − Tworzenie ontologii wraz z tworzeniem leksykonów, aksjomatów, zbioru konceptów, terminologii, atrybutów, wyników pomiaru ocen (osobników), sieci semantycznych dla ontologii wraz z opisem relacji między konceptami, − Łączenie dwóch wskazanych przez uŜytkownika ontologii, − Tworzenie regionów i sygnatur dla wskazanej przez uŜytkownika ontologii, − Tworzenie odwzorowań (funkcji przejść) między dwoma wybranymi ontologiami, − Zapamiętanie ontologii wynikowej, − Obsługa zapytań o ocenę jakości sformułowaną w terminologii dowolnej ontologii. Baza danych w systemie ekspertowym słuŜy gromadzeniu danych o wytwarzanym produkcie, świadczonej usłudze (w przypadku SEOJ do oceny jakości produktów informatycznych będzie to bieŜący rejestr miar jakości oprogramowania w kolejnych etapach jego wytwarzania, wskaźniki jakości dla punktów funkcyjnych, etc.) i przebiegu procesów wytwarzania (Np. dla oceny jakości oprogramowania ewidencja opóźnień, wyników testów, danych o przebiegu procesu wytwarzania oprogramowania, wyniki międzyprocesowego audytu, etc.). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 73 Rys. 1. Architektura systemu ekspertowego oceny jakości Źródło: opracowanie własne na podstawie [3], [6] i [7] Aby wykorzystanie modułu obsługi ontologii MOO w systemie SEOJ było moŜliwe, niezbędne jest przechowywanie w formie warstwy metadanych (WM na rys.1) danych o strukturze wywodu kolejnych ontologii, opisie zbiorów konceptów, aksjomatów, relacji między konceptami danej ontologii, sieci semantycznych, ontologii, sygnatur, regionów, odwzorowań między ontologiami. Warstwa tych metadanych moŜe być zrealizowana w formie tabel powiązanych między sobą na zasadzie relacyjnej bazy danych. W skład tej warstwy wchodzą dane o aksjomatach i ich typach, atrybutach, funkcjach przejścia, grafach (sieciach semantycznych), konceptach, leksykonach, ontologiach, osobnikach, regionach, relacjach i ich typach a takŜe dane o sygnaturach bitowych, a wszystko po to by moŜliwa była integracja ontologii odpowiadających heterogenicznym źródłom danych. WyposaŜenie systemu SEOJO w warstwę metadanych (WM) i moduł obsługi ontologii (MOO), pozwoli na utworzenie ekspertowego systemu oceny jakości, w którym wszystkie źródła mogą być w dowolnej chwili osi czasu, z pewnym opóźnieniem wynikającym z konieczności przestrojenia systemu, zintegrowane mimo ich róŜnorodności. Wiedza dziedzinowa w ekspertowym systemie oceny jakości jest reprezentowana, wywodzona oraz przetwarzana przez tzw. inŜyniera wiedzy wspomaganego bazą danych i bazą wiedzy. Jest ona związana ze znajomością miar jakości produktu finalnego lub usługi, ze znajomością cyklu Ŝycia, z kategoryzacją problemu, z rodzajem organizacji procesów wytwarzania, z ich charakterystykami, narzędziami pomiaru, ze znajomością reguł stosowanych w dziedzinie, itp. Istnieje kilka rodzajów baz wiedzy. Do waŜniejszych naleŜy zaliczyć następujące: - Baza tekstów (ang. text base) - występuje w niej naturalna strukturalizacja zawartych informacji. Taka baza jest nie uporządkowana, dlatego teŜ operacje na niej mogą być wykonywane w sposób dowolny, 74 Tomasz Dudek, BoŜena Śmiałkowski Architektura ekspertowego systemu oceny jakości - Baza reguł (ang. rule base) - zawiera wiedzę o obowiązujących w danej dziedzinie zaleŜnościach i jest najwaŜniejszą częścią bazy wiedzy, - Baza modeli (ang. model base) - zawiera modele matematyczne (logiczno-matematyczne przedstawienie pojęcia, systemu lub działań) danej dziedziny, - Baza wiedzy zdroworozsądkowej (ang. common sense knowledge base) - odzwierciedla potencjalne, racjonalne zachowania się człowieka. Zawiera reguły definiujące sposoby podejmowania decyzji, które reprezentują metawiedzę systemu ekspertowego. Moduł objaśniająco - wyjaśniający jest odpowiedzialny zarówno za wprowadzanie danych do systemu, jak i za wyprowadzanie na zewnątrz wniosków systemu. Moduł ten wspomaga uŜytkownika radą oraz sugestią, ostateczna decyzja naleŜy jednak do samego uŜytkownika. Wywodzenie wiedzy, wnioskowanie w systemie ekspertowym jest procesem wyszukania konkluzji przy wykorzystaniu zbioru reguł i faktów w konkretnej sytuacji, w określonych warunkach. Podstawowymi metodami wnioskowania są wnioskowanie „wstecz" (ang. backward chaining) oraz wnioskowanie „wprzód" (ang. forward chaining). Wnioskowanie „wprzód" zaczyna od faktów i posuwa się w kierunku diagnozy. Systemy ekspertowe na podstawie podanych informacji i reguł zawartych w bazie wiedzy stara się wygenerować nowe fakty. Fakty te są dołączane do bazy wiedzy, a cały proces zostaje powtórzony. Wnioskowanie kończy się, kiedy nie jest moŜliwe wygenerowanie Ŝadnych nowych faktów lub gdy poszukiwana reguła została odnaleziona. Wnioskowanie „wstecz" rozpoczyna się od hipotezy i poszukiwania argumentów (dowodów), które pozwolą ją potwierdzić lub obalić, korzystając z reguł zawartych w bazie wiedzy. Jeśli reguły korzystają z faktów, które nie są znane, a które wynikają z innych reguł, to system najpierw sprawdza te reguły. Jeśli danych faktów nie da się wyprowadzić za pomocą reguł wówczas system pyta o nie uŜytkownika. Proces wnioskowania zwykle odbywa się rekurencyjnie, aŜ do momentu, kiedy uda się uzyskać wszystkie dane potwierdzające bądź odrzucające postawione hipotezy. Dzięki systemowi ekspertowemu SEOJ z bazą wiedzy dziedzinowej moŜliwe jest: - Stawianie diagnoz w zakresie oceny jakości produkty, usługi (np. dla oceny jakości oprogramowania odpowiedź na pytanie czy produkt będzie wysokiej jakości lub, jaką jakość posiada obecnie), - Formułowanie wniosków o wytwarzanym produkcie lub świadczonych usługach, - Formułowanie diagnoz i prognoz o procesach wytwarzania produkty czy świadczenia usług (np. dla produkcji oprogramowania, odpowiedź na pytanie czy lepszy produkt moŜna uzyskać, gdy zastosuje się określony proces produkcji, określoną metodę jego wytwarzania, narzędzia programowe, etc.). - Formułowanie wniosków o zmienności jakości oprogramowania w jego cyklu Ŝycia, - Identyfikacja oceny jakości wytwarzanego produktu (oprogramowania) i wykonywanych procesów oraz zadań produkcyjnych, - Integracja danych róŜnorodnych, informacji i wiedzy w jednym systemie, - Oszczędność czasu przeznaczonego na ocenę jakości, - Eliminacja niepoŜądanych i błędnych rozwiązań (ocen), - MoŜliwość uŜycia wielu miar, parametrów nawet często trudnych do porównania w procesie oceny jakości i podejmowaniu działań projakościowych (decyzyjnych), - Zmniejszenie kosztów oceny jakości poprzez wdroŜenie wypracowanych procedur zbierania danych, wnioskowania i wywodu wiedzy, itp. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 75 4. Metoda integracji danych podstawą adaptacyjnego i otwartego charakteru systemów ekspertowych oceny jakości. Dzięki zastosowaniu metody integracji opartej na ontologiach w module integracji heterogenicznych źródeł danych rozwiązano w systemie SEOJ dodatkowo następujące, znaczące problemy: - MoŜliwe jest uzupełnienie ocen jakościowych o nowe źródła danych. Muszą być wówczas dodane terminy, nie zawarte dotychczas w ontologii globalnej. Wymagane jest równieŜ zdefiniowanie relacji między tymi terminami oraz zintegrowanie dotychczasowej ontologii globalnej z ontologią powstałą dla nowych źródeł oceny, - Dzięki współdzieleniu słowników oraz odwzorowaniu lokalnych ontologii w ontologię globalną moŜliwe jest porównanie ocen jakości. Główną cechą systemu SEOJ jest integracja funkcji i danych oraz jego otwarty charakter na nowe źródła (struktury) danych, róŜne sposoby obróbki danych, metody wywodu wiedzy. Otwartość systemu SEOJO na nowe źródła danych wynika z metody integracji, zaś otwartość na róŜne sposoby wywodu wiedzy i róŜne sposoby obróbki danych, z istoty systemów ekspertowych. Systemu SEOJ wymaga wykonania konwersji danych, do takich struktur, które są niezbędne dla stosowanych w systemie metod wywodu wiedzy, za kaŜdym razem, gdy pojawi się nowe źródło danych. Gdy zostanie on oparty na relacyjnej bazie danych to taka konwersja jest moŜliwa dzięki wbudowanym w systemy zarządzania bazami danych mechanizmom (np. zmaterializowane perspektywy, modyfikacje schematu bazy danych, konwersje między bazami danych). JednakŜe najwaŜniejszą, obok integracji danych, cechą systemu SEOJ jest moŜliwość zautomatyzowania procesu adaptacji bazy danych i bazy wiedzy do nowych pojawiających się źródeł danych, róŜnych względem danych składowanych w bazie danych systemu pod względem pochodzenia, typu wartości, znaczenia, przeznaczenia, itd. Ten adaptacyjny i otwarty charakter metody integracji opartej na systemie SEOJ, zilustrowano schematycznie na rys. 2. Rys. 2. Otwarty i adaptacyjny charakter systemu SEOJ Źródło: opracowanie własne 76 Tomasz Dudek, BoŜena Śmiałkowski Architektura ekspertowego systemu oceny jakości Metoda integracji heterogenicznych źródeł danych czyni ekspertowy system oceny jakości otwartym na nowe heterogeniczne źródła danych. 5. Podsumowanie WaŜną cechą danych źródłowych zasilających ekspertowy systemy oceny jakości jest heterogeniczność. Ta własność doprowadziła do sytuacji, w której aby dany system uznać za niezaleŜny (od nowych i zmiennych w czasie źródeł danych) naleŜy uwzględnić integrację danych źródłowych oraz zmienny w czasie charakter kryteriów oceny. System ekspertowy SEOJ, zgodny z zaprezentowaną w artykule architekturą, wykazuje otwartość na problem pojawienia się coraz to nowszych źródeł danych (wcześniej nieznanych), które mogą wzbogacić proces oceny jakości, o nowe kryteria oceny. 6. Literatura 1. 2. 3. 4. 5. 6. 7. 8. BusinessObjects SA: From operational to analytical reporting with business objects data integrator. www.businessobjects.com/products/dataintegration, 2004 Carey M.: Towards Heterogeneous Multimedia Information Systems: The Garlic Approach. International Workshop on Distributed Object Management, Waszyngton, 1995 Dudek T.: Integracja danych w systemach ekspertowych oceny jakości. Roczniki Informatyki Stosowanej Wydziału Informatyki PS nr 9, n.t. Metody Informatyki Stosowanej w Zarządzaniu, Szczecin, 2005 Dudek T.: System informatyczny jako narzędzie wspomagające wycenę nieruchomości. Roczniki Informatyki Stosowanej Wydziału Informatyki PS, Metody Informatyki Stosowanej w Zarządzaniu, Szczecin, 2004 Janowski A., Szulwic J., Wróblewska D.: SIP i systemy ekspertowe w zarządzaniu hałasem. www.i-net.pl/publikacje/janowski-szulwic-wroblewska-halas_sip.pdf, 2005 Michalik K., „Architektura i cechy systemów ekspertowych”, aitech.pl/content/ view/79/142/lang,ISO-8859-2, 2006 Śmiałkowska B.: Multi-version metadata model at enterprise’s data warehouse with ontologies. Materiały międzynarodowej konferencji Advanced Computer Systems, Świnoujście, 2006 Tversky A.: Features of Similarity. Psychological Review, 1977 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 77 EXPERT SYSTEM ARCHITECTURE FOR QUALITY VALUATION Summary The computer monitoring systems for water networks have been implemented in Polish waterworks in arising range in the last 10 years but their use there does not meet their potentialities. These systems are used currently as self-contained programs for collecting the data of water production and of water pressures in area pump works informing the water net operators about the general state of their object while could and should be used as elements of the water net management systems. Such an information system for management of communal water networks is presented in the paper. Keywords: communal water network management, computer decisions making systems, GIS, mathematical modeling of water network systems Tomasz Dudek Akademia Morska [email protected] BoŜena Śmiałkowska Zachodniopomorski Uniwersytet Technologiczny [email protected] http://www.kisi.wi.zut.edu.pl 78 Arkadiusz Januszewski Cechy systemów klasy Business Intelligence stosowanych w controllingu ARKADIUSZ JANUSZEWSKI Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy CECHY SYSTEMÓW KLASY BUSINESS INTELLIGENCE STOSOWANYCH W CONTROLLINGU Streszczenie W artykule podkreślono wzrost zainteresowania systemami klasy Business Intelligence, przeznaczonymi dla wspomagania controllingu. Opisano ich cechy funkcjonalne oraz techniczne. Wskazano zalety rozwiązań informatycznych dla controllingu i budŜetowania, które wynikają z zastosowania technologii OLAP oraz technologii internetowych i intranetowych. Słowa kluczowe: controlling, budŜetowanie, On-line Analytical Proccesing, Business Intelligence 1. Wprowadzenie Jeszcze kilka lat temu wieku większość stosowanych w Polsce systemów wspomagających controlling operacyjny, w tym budŜetowanie, oparta była na arkuszu kalkulacyjnym. Wyniki badań autora z roku 1997 wykazały np., Ŝe z 13 firm, które wdroŜyły budŜetowanie, aŜ 11 wspomagało ten proces arkuszem kalkulacyjnym [4, s.124-129]. Dominację arkusza kalkulacyjnego potwierdziły badania przeprowadzone na grupie 118 duŜych firm przez firmę Arthur Andersen w 1999 roku. Zdecydowana większość z 44% jednostek, które deklarowały uŜywanie narzędzi informatycznych do wspierania budŜetowania i konsolidacji sprawozdań, uŜywało w tym celu arkusza kalkulacyjnego [1, s.32]. TakŜe sondaŜ dedykowanego controllerom portalu internetowego www.controlling.info.pl z 2001 roku, wskazał na zdecydowaną przewagę arkusza kalkulacyjnego nad innymi narzędziami: aŜ 154 ze 199 firm (77%) dla potrzeb controllingu stosowało w tym czasie to popularne narzędzie, a jedynie w 19 jednostkach (10%) - oprogramowanie specjalistyczne. Rozwój i większa dostępność narzędzi klasy Business Intelligence spowodowały, Ŝe obecnie coraz więcej przedsiębiorstw, do wspomagania controllingu i rachunkowości zarządczej wybiera – zamiast arkusza kalkulacyjnego – specjalistyczne oprogramowanie wykorzystujące technologię hurtowni danych i narzędzia wielowymiarowego, interaktywnego przetwarzania analitycznego OLAP (on-line analytical processing). Przedstawione w raporcie Poland Enterprise Application Software 2007−2011 Forecast and 2006 Vendor Shares wyniki badań IDC Polska przeprowadzonych dla CFO Magazyn Finansowy wykazały, Ŝe w ciągu ostatnich 3 lat na polskim rynku znacząco wzrosło zainteresowanie specjalistycznymi narzędziami przeznaczonymi do controllingu (zarządzania budŜetami i analiz) [7]. W 2006 roku odnotowano 37% więcej wdroŜeń niŜ w roku poprzednim. Większość z wdroŜonych systemów została wykonana w technologii OLAP. Bardzo często zdarza się, Ŝe w stosowanych w przedsiębiorstwach systemach controllingu i budŜetowania wprowadza się zmiany technologiczne polegające na zamianie oprogramowania POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 79 opartego na arkuszu kalkulacyjnym na oprogramowanie specjalistyczne wykorzystujące technologię OLAP1. Celem artykułu jest przedstawienie cech funkcjonalnych oraz technicznych systemów informatycznych przeznaczonych dla controllingu, które zostały wykonane w technologii OLAP. Systemy te posiadają wiele zalet w stosunku do rozwiązań opartych na arkuszu kalkulacyjnym i z tego powodu warto poznać ich moŜliwości. 2. Cechy funkcjonalne systemów OLAP stosowanych w controllingu Szczególne znaczenie w systemach controllingu ma moŜliwość analizowania danych kosztowych i przychodowych w wielu wymiarach jednocześnie oraz poruszania się po hierarchii wymiarów. Zwiększa to znacznie szybkość analizowania dostępnych danych, ich porównywania w róŜnych przekrojach i ustalania kluczowych wartości, które w głównej mierze wpływają na zagregowane dane syntetyczne. MoŜliwości analityczne systemów OLAP są wykorzystywane najczęściej w następujący sposób: • przedstawianie kosztów w wielu wymiarach jednocześnie – np. rodzaju, miejsca powstawania kosztu (MPK) i czasu; • przedstawianie sprzedaŜy (w układzie wartościowym i ilościowym) w wielu wymiarach jednocześnie – np. produktu, klienta, geografii i czasu; • przedstawianie zysku lub tzw. marŜy pokrycia finansowego w wielu wymiarach jednocześnie – np. produktu, klienta, geografii i czasu; • porównywanie wyników (przychodów, kosztów, zysku) róŜnych centrów zysku i centrów inwestycji między sobą, w czasie i na róŜnym poziomie szczegółowości analizowanych pozycji; • drąŜenie w głąb (drill down) i konsolidowanie (roll up) kosztów według hierarchii wymiarów – np. od kont syntetycznych do róŜnych poziomów kont analitycznych, od MPK wyŜszych poziomów do MPK niŜszych poziomów; • drąŜenie w głąb (drill down) konsolidowanie (roll up) przychodów i zysku (marŜy) według hierarchii wymiarów – np. od regionów sprzedaŜy przez grupy klientów do poszczególnych klientów; • konsolidowanie budŜetów kosztów podrzędnych MPK (znajdujących się na niŜszych poziomach hierarchii) w budŜety nadrzędnych MPK, co jest przydatne w trakcie negocjacji budŜetów; • konsolidowanie budŜetów przychodowo-kosztowych podrzędnych centrów zysku w budŜety nadrzędnych centrów zysku, co jest przydatne w trakcie negocjacji budŜetów; • porównywanie danych planowanych i rzeczywistych o przychodach i kosztach w wielu wymiarach jednocześnie i poruszanie się w głąb hierarchii zdefiniowanych wymiarów, co ułatwia ustalenie przyczyn odchyleń; 1 Według W.Kiljańskiego szefa firmy Controlling systems spośród ponad 50 wdroŜeń systemu Eureca, które miały miejsce do połowy roku 2008, jednie w dwóch przypadkach, wdroŜenie systemu controllingu polegało na jego zbudowaniu „od zera” – w pozostałych przypadkach przedsiębiorstwa eksploatowały systemy oparte na arkuszu kalkulacyjnym. (Informacja uzyskana w trakcie dyskusji na seminarium poświęconym wdroŜeniom systemu Eureca, które odbyło się w kwietniu 2008 roku w Warszawie). 80 Arkadiusz Januszewski Cechy systemów klasy Business Intelligence stosowanych w controllingu • porównywanie róŜnych wersji budŜetów w wielu wymiarach jednocześnie i porównywanie odpowiadających im wskaźników syntetycznych, co ułatwia wybranie właściwego wariantu budŜetu; • przedstawianie struktury kosztów, przychodów i zysku) w ujęciu procentowym w wielu wymiarach jednocześnie i na róŜnym poziomie szczegółowości; • przedstawianie dynamiki kosztów, przychodów, wyników, pozycji sprawozdania finansowego (bilansu, rachunku zysków i strat, przepływów pienięŜnych) w czasie i na róŜnych poziomach szczegółowości. W tabeli 1 przedstawiono podstawowy zakres wspomagania controllingu, które moŜe być realizowane w systemie opartym na hurtowni danych i technologii OLAP. Podana charakterystyka obejmuje często stosowane wymiary analityczne i badane miary (fakty). Tabela 1. Przykładowe obszary zastosowań technologii OLAP w controllingu i rachunkowości zarządczej Zagadnienie Typowe miary Typowe wymiary Zakres wspomagania BudŜetowanie kosztów i kontrola wykonania koszt wykonany okres koszt planowany MPK kontrola odchyleń kosztów rzeczywistych od planowanych, identyfikacja przyczynowa, wersja budŜetu rodzaj kosztu produkt przedsięwzięcie symulacja zmiany budŜetów pozycji kosztów (oraz natychmiastowe odzwierciedlanie zamiany warunków symulacji w prezentowanych wskaźnikach i sprawozdaniach) zlecenie produkcyjne BudŜetowanie sprzedaŜy wartość sprzedaŜy okres ilość produkt cena klient wspomaganie sporządzania budŜetu bezpośrednio w wielowymiarowym modelu OLAP region Rachunek kosztów i marŜy koszt okres marŜa MPK koszt jednostkowy metoda kalkulacji rodzaj kosztu produkt porównanie róŜnych metod kalkulacji kosztów (np. tradycyjnych z rachunkiem kosztów działań) i ich wpływu na takie wielkości jak np.: jednostkowy koszt wytworzenia wyrobów lub półfabrykatów, marŜa na wyrobach półfabrykat przedsięwzięcie zlecenie produkcyjne Badanie i planowanie przepływu środków wpływ okres wypływ przedział czasowy przegląd historii bilansu środków pienięŜnych identyfikacja przyszłych zagroŜeń POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 Zagadnienie pienięŜnych Typowe miary Typowe wymiary rodzaj działalności Zakres wspomagania płynności finansowej źródło przepływu identyfikacja obszarów 81 planowanie inwestycji Analiza struktury i dynamiki bilansu oraz rachunku wyników koszt przedział czasowy przychód pozycja bilansu wynik pozycja rachunku wyników wartość aktywów identyfikacja niekorzystnych trendów zmiany struktury i dynamiki aktywów i pasywów oraz kosztów, przychodów i wyników wartość pasywów Analiza wskaźnikowa działalności przedsiębiorstwa wartości wskaźników przedział czasowy wskaźnik pozycja sprawozdania finansowego konto syntetyczne konto analityczne analiza historii kształtowania się wskaźników oceny działalności identyfikacja przyczyn kształtowania się wskaźników symulacja wpływu zmiany wartości pozycji bilansu lub rachunku wyników na kształtowanie się wskaźników Źródło: [6]. 3. Cechy techniczne oprogramowania OLAP wspomagającego controlling i wynikające z nich korzyści funkcjonalne Do najpopularniejszych, rodzimych rozwiązań wspomagających controlling operacyjny, które zostały wykonane w technologii OLAP i stanowią niezaleŜne rozwiązania typu stand-alone, naleŜy system EURECA firmy Controlling Systems, która w latach 2004−2007 zanotowała największą liczbę wdroŜeń zakończonych i rozpoczętych oraz TETA Controlling firmy TETA (tabela 2). Pozostałe, wymienione w tabeli 2, systemy są bądź produktami firm zachodnich (Prophix, InForum, Business Objects), bądź stanowią część oferowanego zintegrowanego systemu wspomagającego zarządzanie (CDN XL Controlling, systemy BPSC, Optima Controlling – kiedyś sprzedawana jako część systemu IFS Applications [4]). Oba wspomniane wyŜej rozwiązania zostały wykonane w oparciu o technologie hurtowni danych firmy Microsoft i są przeznaczone głównie dla średniej wielkości przedsiębiorstw, a ich dostawcy świadczą usługi integracji swoich produktów z systemami transakcyjnymi pochodzącymi od róŜnych producentów. NiŜej zostaną przedstawione cechy techniczne i wynikające z nich korzyści funkcjonalne systemu EURECA, który według IDC Polska oferuje najbardziej wszechstronne funkcjonalności oraz został wdroŜony w przedsiębiorstwach i instytucjach z najbardziej zróŜnicowanych branŜ (od transportu, logistyki, dystrybucji po edukację i media), a takŜe w firmach, w których proces budŜetowania jest najbardziej rozbudowany. System EURECA został wykonany w technologii firmy Microsoft .NET, przy zastosowaniu narzędzi Microsoft Visual Studio .NET do tworzenia graficznego interfejsu uŜytkownika, pracuje 82 Arkadiusz Januszewski Cechy systemów klasy Business Intelligence stosowanych w controllingu w oparciu o relacyjną bazę danych Microsoft SQL i wielowymiarową bazę danych Microsoft OLAP oraz wykorzystuje usługi analityczne Microsoft Analysis Services2. Architekturę systemu EURECA tworzą: • warstwa logiki biznesowej, działająca w oparciu o hurtownię danych; • mechanizmy do tworzenia hurtowni danych, wielowymiarowych struktur danych oraz do zasilania hurtowni danymi z systemów transakcyjnych: • tabele baz danych w Microsoft SQL Server, słuŜące do gromadzenia ściśle określonych danych z systemów transakcyjnych, • usługi DTS (Data Transformation Services), słuŜące do przenoszenia danych między wieloma niejednorodnymi bazami (dokonują transformacji danych do zdefiniowanych tymczasowych tabel baz danych oraz przetwarzają pobrane dane i wpisują je do właściwych tabel, uaktualniając jednocześnie zdefiniowane struktury wielowymiarowe); • warstwa prezentacyjna z interfejsem uŜytkownika. Tabela 2. Dostawcy specjalistycznych narzędzi do budŜetowania i analiz Firma oferująca narzędzia Nazwa narzędzia Przeznaczenie WdroŜenia zakończone w latach 2004–2007 WdroŜenia rozpoczęte Controlling Systems EURECA budŜetowanie i analizy 33 15 TETA TETA Controlling budŜetowanie i analizy 18 4 Consorg Optima Controlling budŜetowanie i analizy 11 2 Solemis Prophix budŜetowanie i analizy 17 2 inForum BI inForum Business Intelligence budŜetowanie i analizy 20 7 Business Objects Budgeting, Payroll Planning, Sales Planning budŜetowanie n/d n/d Business Objects Plan Reporting analizy n/d n/d 1 12 Business Objects BudŜetowanie BPSC budŜetowanie Impuls BI SWD ComArch 1 14 35 0 CDN XL Controlling budŜetowanie i analizy 340 12 Comarch Business Intelligence budŜetowanie i analizy 10 5 Źródło: [7] ( na podstawie badań IDC Polska) 2 Opis systemu EURECA podaję na podstawie [2] i [3]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 83 Na uwagę zasługuje tu przede wszystkim wykorzystanie wielowymiarowych struktur danych zawartych w technologii OLAP, która zapewnia opracowywanie, kontrolowanie i analizowanie budŜetów w ujęciach: • wielowymiarowym - dzięki temu moŜna np. jednocześnie zarządzać budŜetem sprzedaŜy podziale na segmenty rynku, regiony geograficzne czy grupy asortymentowe; • wielomiarowym - dzięki temu moŜna jednocześnie planować i obserwować wiele miar dla jednego zjawiska np. ilość, wartość i średnią cenę sprzedaŜy; • wielookresowym - dzięki moŜna np. zarządzać budŜetami projektów trwających od listopada do kwietnia lub inwestycji trwających np. 27 miesięcy. Do waŜnych cech technicznych opisywanego produktu naleŜą: • zapewnienie dostępu do danych i funkcji systemu za pomocą przeglądarki internetowej, • integracja z pakietem Microsoft Office (głównie z MS-Excel), • wielojęzyczność, • moŜliwość automatycznego pobierania danych z systemów transakcyjnych, • wykorzystanie do tworzenia wykresów popularnego narzędzia Crystal Reports firmy Seagate Crystal Decisions. MoŜliwość prowadzenia analiz zgromadzonych danych za pośrednictwem przeglądarki internetowej jest szczególnie istotna dla firm rozproszonych terytorialnie, które posiadają wiele oddziałów. Zapewnienie dostępu do funkcji systemu poprzez Internet oraz intranet firmy oznacza, Ŝe z jego funkcji moŜna korzystać praktycznie z dowolnego miejsca i w dowolnym czasie. W stosunku do systemów budŜetowania opartych na arkuszu kalkulacyjnym rozwiązanie takie posiada następujące zalety3: • budŜety cząstkowe4 - tworzonych przez zarządzających nimi kierowników – mogą być wprowadzane z dowolnego miejsca do wspólnej bazy danych; • zapisane we wspólnej bazie danych budŜety cząstkowe mogą być bez opóźnień automatycznie konsolidowane tworząc budŜety jednostek znajdujących się na wyŜszych poziomach struktury organizacyjnej oraz budŜet główny całego przedsiębiorstwa; • zapisane budŜety cząstkowe oraz skonsolidowane budŜety mogą być natychmiast udostępniane kierownikom wyŜszych szczebli zarządzania i controllerom finansowym, co przyspiesza proces negocjacji budŜetów; • kierownicy poszczególnych komórek z dowolnego miejsca na bieŜąco śledzić poziom realizacji budŜetów (za które są odpowiedzialni) oraz uzyskiwać dostęp do listy transakcji (dokumentów) składających się na wykonanie ich fragmentu budŜetu; • kierownicy oddziałów, analitycy i controllerzy mogą z dowolnego miejsca na bieŜąco analizować informacje o stanie zasobów finansowych i materialnych, poziomie kosztów 3 Oczywiście - oprócz dostępu z dowolnego miejsca - wymienione cechy posiada kaŜdy wielodostępny system budŜetowania, który zapisuje dane we wspólnej bazie danych. Arkusz kalkulacyjny MS Excel jest jednym z najczęściej uŜywanych narzędzi w controllingu. Jest stosunkowo prosty w obsłudze, ma bogatą funkcjonalność i jest wyposaŜony w wiele kreatorów wykresów i raportów. Ma jednak teŜ róŜne ograniczenia i niedogodności, takie jak dość kłopotliwe i czasochłonne pobieranie danych z systemów transakcyjnych (konieczne w przypadku systemu budŜetowania), problematycznym wielodostępem czy brakiem moŜliwości zarządzania uprawnieniami. 4 BudŜety cząstkowe składają się na budŜet całego przedsiębiorstwa, który powinien być tworzony automatycznie w procesie konsolidacji. 84 Arkadiusz Januszewski Cechy systemów klasy Business Intelligence stosowanych w controllingu i wyników swojej placówki oraz całej firmy, dzięki czemu nie są uzaleŜnieni od raportów tworzonych przez pracowników w siedzibie głównej, co przyspiesza proces podejmowania decyzji i redukuje błędne decyzje podejmowane na podstawie nieaktualnych danych. W systemie EURECA moŜna w dowolnym momencie wyeksportować dane do arkusza kalkulacyjnego MS-Excel, w celu przeprowadzania dodatkowych analiz oraz umieścić raporty graficzne w MS-PowerPoint w celu przygotowania prezentacji dla zarządu. WaŜną korzyścią z integracji z MS-Excel jest moŜliwość bezproblemowego wczytywania arkuszy kalkulacyjnych do bazy systemu, czyli traktowanie plików MS-Excel jako źródła danych. Jest to szczególnie przydatne na etapie wdraŜania systemu, kiedy to kierownicy często przygotowują budŜety właśnie w arkuszu kalkulacyjnym. MoŜe być takŜe wykorzystane w przypadku gdy – przed przesłaniem danych z systemu dziedzinowego do systemu budŜetowania – zachodzi konieczność wykonania dodatkowych obliczeń (np. rozliczenia kosztów) nie przewidzianych w systemie dziedzinowym. Warto teŜ wspomnieć, Ŝe w EURECE zastosowano gotowe komponenty MS-Office co zapewnia identyczne jak w MS-Excel poruszanie się po tabelach z danymi (arkuszach budŜetowych). Wielojęzyczność i łatwe dostosowanie raportów do standardów krajowych, dotyczących języka i sposobu formatowania (np. liczb) oznacza, Ŝe EURECA moŜe być z powodzeniem uŜywana przez firmy międzynarodowe. Dzięki moŜliwości automatyzacji procesu pobierania danych z systemów transakcyjnych moŜna na bieŜąco śledzić stopień realizacji planów. Proces ten opiera się na oryginalnej metodologii DiMARTS, opracowanej przez Controlling Systems, która umoŜliwia pobranie danych do aplikacji ze standardowych, zdefiniowanych na etapie wdroŜenia formatów plików. Korzysta się z wcześniej zdefiniowanej procedury, która pobiera dane z odpowiednich tabel baz danych systemów transakcyjnych (finansowo-księgowego, płacowego, sprzedaŜy itp.), konwertuje je, oczyszcza, agreguje i zapisuje w kostkach OLAP. Dane o wykonaniu planów są pobierane w trybie off-line, z róŜną częstością, w zaleŜności potrzeb firmy i zostają zestawione ze wszystkimi, zdefiniowanymi przez uŜytkowników wersjami planów. 4. Zakończenie Kierunek zmian w rozwiązaniach informatycznych przeznaczonych dla controllingu i budŜetowania naleŜy uznać za słuszny. Technologie OLAP i technologie internetowych, które zostały zaimplementowane w kaŜdym, liczącym się na polskim rynku, oprogramowaniu controllingowym stwarzają duŜo większe moŜliwości, niŜ te, które oferowały systemy oparte jedynie na arkuszu kalkulacyjnym lub te, które stanowiły integralną część systemu finansowo-księgowego, względnie moduł systemu klasy ERP (Enterprise Resources Planning). Kluczowe zalety nowych rozwiązań to zastosowanie technologii relacyjnych i wielowymiarowych baz danych, dostęp do bazy danych systemu controllingowego za pomocą przeglądarki internetowej, moŜliwość przeprowadzania wielowymiarowych analizy OLAP oraz ścisła integracja z Ms-Excel, która m.in. ułatwia wdroŜenie nowego systemu – nie wymusza bowiem natychmiastowej zmiany przyzwyczajeń pracowników zaangaŜowanych w proces tworzenia i kontrolowania budŜetów. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 85 5. Literatura 1. 2. 3. 4. 5. 6. 7. Arthur Andersen (1999) Zarządzanie finansami – szanse i bariery. Raport z badania polskich przedsiębiorstw, Warszawa Controlling Systems (2007) Materiały informacyjne [Dostęp 2 grudnia 2007] Dostępne w Internecie http://www.c-systems.pl/ FiM Consulting (2007) EURECA – rozwiązanie do budŜetowania i analiz wielowymiarowych. Materiały informacyjne [on-line] [Dostęp 2 grudnia 2007] Dostępny w Internecie http://www.fim.pl/pdf/EURECA_informacje.pdf Greczuszkin S. (2002) Partner czyli współproducent. Teleinfo nr 6 Januszewski A. (1998) Komputerowo wspomagane budŜetowanie kosztów w przedsiębiorstwach o złoŜonych strukturach zarządzania, rozprawa doktorska, Uniwersytet Gdański 1998 Sierocki R. (2007) OLAP to efektywna technologia przetwarzania danych analitycznych. Controlling i Rachunkowość Zarządcza, Nr 1 Szarska E. (2007) W czym budŜetować ? W czym analizować ? CFO Magazyn Finansistów, IDG Poland, wrzesień FEATURES OF BUSSINES INTELLIGENCE SYSTEMS CLASS IMPLEMENTED IN CONTROLLNG Summary The article shows the increase of application of Business Intelligence systems used in controlling and budgeting area. The functional and technical features of those systems are described. The advantages of controlling and budgeting information solutions due to using OLAP and Internet technologies are pointed out. Keywords: controlling, budgeting, Business Intelligence, On-line Analytical Processing, Business Intelligence Arkadiusz Januszewski Katedra InŜynierii Zarządzania Wydział Zarządzania Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy 85-796 Bydgoszcz, Al. Kaliskiego 7 bud.3.1 e-mail: [email protected] 86 Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX WALDEMAR KARWOWSKI, ALEKSANDRA SAWCZUK, ARKADIUSZ ORŁOWSKI Katedra Informatyki SGGW ZARZĄDZANIE KONTAMI BANKOWYMI NA PRZYKŁADZIE APLIKACJI WYKORZYSTUJACEJ STANDARD OFX Streszczenie Artykuł przedstawia podstawy standardu Open Financial Exchange (OFX) oraz proces formułowania załoŜeń, projektowania i tworzenia prostego systemu do obsługi wyciągów bankowych. Omówiono podstawowe elementy standardu i ich rolę w dokumencie OFX. Przedstawiono przykładowe komunikaty ze szczególnym uwzględnieniem zapytań dotyczących wyciągu bankowego. Następnie zaprezentowano wymagania programu oparte o rozpoznane potrzeby potencjalnych uŜytkowników. Przedstawiono najwaŜniejsze elementy projektu oraz omówiono wykorzystane technologie. Na końcu sformułowano wnioski i doświadczenia zebrane podczas realizacji projektu. Słowa kluczowe: OFX, XML, informatyczne systemy bankowe, wymiana danych 1. Wstęp Współcześnie praktycznie wszędzie, niezaleŜnie od tego czy jest to urząd, instytucja finansowa, firma produkcyjna czy usługowa następuje wymiana danych. Dane dotyczą klientów, produktów a takŜe związanych z nimi operacji finansowych. Przekazywane są one w róŜnej postaci, pomiędzy wieloma systemami i programami, działającymi w róŜnych firmowych działach. JeŜeli dane te są przekazywane w róŜnych formatach to staje się to uciąŜliwe dla tych, którzy chcą je wykorzystać w innej aplikacji w postaci innej niŜ źródłowa. Ręczne przepisywanie jest do przyjęcia tylko w przypadku niewielkich dokumentów. Konwertowanie danych przez pracowników, nawet przy pomocy rozmaitych narzędzi, jest uciąŜliwe, czasochłonne i niestety dość często bywa działaniem generującym błędy. W efekcie na większą skalę jest to postępowanie bardzo kosztowne, co szczególnie w okresie kryzysu finansowego, ma niebagatelne znaczenie. Obecnie obrót pieniądza odbywa się przede wszystkim w formie elektronicznej, tradycyjne formy: monety, banknoty czy czeki mają znaczenie drugorzędne, natomiast dane o operacjach finansowych są bardzo waŜne, powinny być przekazywane i przetwarzane w moŜliwie najkrótszym czasie. W odpowiedzi na te potrzeby powstały róŜne standardy do bezpośredniej wymiany informacji finansowych, jednym z najwaŜniejszych jest OFX [1]. Standard ten jest bardzo obszerny ze względu na ilość czynności bankowych jakie obsługuje, zajmuje się teŜ bezpieczeństwem wymiany danych oraz synchronizacją. JednakŜe firmy w zaleŜności od potrzeby mogą wykorzystywać tylko niektóre jego elementy. Celem niniejszej pracy jest pokazanie jak moŜna usprawnić zarządzanie kontem bankowym oraz zbadanie czy moŜna przy pomocy powszechnie dostępnych narzędzi programistycznych zbudować funkcjonalną aplikację wspierającą standard OFX. Praca jest częścią większego cyklu badań na temat re- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 87 prezentacji informacji finansowych w języku XML [2]. Oprócz walorów technicznych wyniki mogą stanowić podstawę integracji koncepcji z dziedziny operacji finansowych w formie modelu ontologicznego. 2. Podstawy standardu OFX W dobie informatyzacji wielu klientów instytucji finansowych korzysta ze swoich rachunków bankowych poprzez strony WWW. Dla przeciętnego uŜytkownika korzystającego z bankowości elektronicznej przejrzenie historii swoich transakcji, które prawdopodobnie nie są zbyt liczne, nie jest zadaniem trudnym. Do tego wystarczają podstawowe usługi dostarczane przez dany bank. Problem pojawia się wtedy, gdy indywidualny klient lub instytucja finansowa, generuje miesięcznie kilka tysięcy transakcji na swoim rachunku bankowym i dostępne proste narzędzia stają się niezbyt wygodne. W związku z rosnąca liczbą transakcji zawieranych za pośrednictwem sieci internetowej pojawiło się zapotrzebowanie na nowoczesne narzędzia, które umoŜliwiły by szybką, spójną i uniwersalną komunikację pomiędzy klientami a bankami. Odpowiednią podstawą do sformalizowania wymiany takich danych okazał się język znaczników XML (eXtensible Markup Language). Jest to standard tekstowy, którego podstawowym celem jest przechowywanie danych i ich struktury, a nie ich prezentacja. Podstawową jego cechą jest samoopisywalność – dobrze nazwane znaczniki w dokumencie XML opisują wartości jakie zawierają i co one oznaczają. Teksty przygotowane w ten sposób moŜna formatować na róŜne sposoby i poddawać je dalszemu przetwarzaniu. Dodatkowo cechą tego języka są jasno i jednoznacznie zdefiniowane reguły tworzenia dokumentów oraz łatwość w tworzeniu oprogramowania korzystającego z tychŜe dokumentów. Jest to standard otwarty i niezaleŜny od platformy, został utworzony i jest rozwijany przez niedochodową organizację W3C na otwartej bezpłatnej licencji. XML stał się podstawą kilku standardów w branŜy finansowej, najbardziej popularnym z nich jest OFX który powstał w 1997 roku dzięki współpracy trzech firm: CheckFreeCorp, Intuit Inc. oraz Microsoft Corporation. Standard ten jest, jak sama nazwa wskazuje, standardem otwartym – oznacza to, Ŝe kaŜdy, zarówno klient indywidualny jak i duŜa instytucja finansowa, moŜe bezpłatnie z niego korzystać. W szczególności standard OFX wspomaga szeroki zakres finansowych czynności, takich jak: wyciągi bankowe, karty kredytowe, przelewy środków, poŜyczki, płatności konsumenckie, płatności firmy, wyciągi brokerskie, włączając w to historię transakcji, bieŜące portfele akcji, salda dla normalnych kont i planów oszczędnościowych 401(k) (Brokerage and mutual fund statement download, including transaction history, current holdings, and balances for normal accounts and 401(k) accounts), przedstawienia do zapłaty i wypłaty, formularze podatkowe, pobieranie obrazów dla celów bankowych. Udostępniony jest równieŜ mechanizm automatic 1–Way OFX (Active Statements/Web Connect), który umoŜliwia instytucji finansowej dostarczanie historii transakcji ze stron internetowych z aplikacjami bankowymi bezpośrednio do klientów, którzy uŜywają programu MS Money. Wyciągi są dostarczane do aplikacji klienckiej w postaci pliku zgodnego ze schematem OFX. Drugą grupę funkcjonalności stanowi wspomaganie komunikacji pomiędzy instytucjami finansowymi włączając takich członków jak: banki, domy maklerskie, partnerzy handlowi, doradcy finansowi czy agencje rządowe. Ponadto OFX wspomaga szeroki zakres nakładek (front–end applications) – w tym aplikacje internetowe, obsługując wszystkie typy usług finansowych na wszystkich platformach. Dzięki otwartości i rozszerzalności standard znajduje zastosowanie nie tylko w realiach amerykańskich, moŜe być stosowany w innych krajach. 88 Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX Standard zakłada działanie w modelu klient - serwer. Najogólniej mówiąc komunikacja w systemie OFX odbywa się za pomocą par zapytanie – odpowiedź. Zapytanie ma postać dokumentu XML zgodnego ze schematem OFX, który jest przesyłany przez aplikację kliencką do serwera. Serwer na zapytanie klienta wysyła odpowiedź, która ma równieŜ strukturę dokumentu XML. Ma to odwzorowanie w nazewnictwie znaczników: nazwy znaczników oznaczających zapytania kończą się literami RQ, natomiast nazwy znaczników oznaczające odpowiedzi serwera – literami RS. Przedstawimy teraz w skrócie budowę dokumentu OFX, jest ona zdefiniowana za pomocą schematów XML. Na początku pliku OFX znajduje się typowa deklaracja XML, zaś bezpośrednio po niej deklaracja OFX: <?xml version="1.0" encoding="UTF–8"?> <?OFX OFXHEADER="200" VERSION="211" SECURITY="NONE" OLDFILEUID="NONE" NEWFILEUID="NONE"?> Wszystkie atrybuty w deklaracji OFX są wymagane i przyjmują wartość NONE jeśli klient albo serwer ich nie wykorzystują. OFXHEADER – określa wersję deklaracji OFX; specyfikacja 2.1.1 korzysta z wersji 2.0.0 tej instrukcji, zatem wartość tego atrybutu jest 200. VERSION – określa numer wersji OFX w jakiej będą zapisywane kolejne bloki dokumentu OFX; dla specyfikacji OFX 2.1.1. wartość atrybutu wynosi 211. SECURITY – określa typ poziomu zabezpieczenia jeŜeli jest uŜyte dla bloków OFX; moŜe przyjmować dwie wartości: NONE albo TYPE1. OLDFILEUID – identyfikuje ostatnie zapytanie i odpowiedź, która została otrzymana i przetworzona przez klienta. NEWFILEUID – jednoznacznie identyfikuje plik z zapytaniem. NEWFILEUID musi być wysłany z kaŜdym zapytaniem oraz serwer musi umieścić ten sam identyfikator w odpowiedzi. Ma to na celu szybkie zidentyfikowanie dwóch tych samych zapytań i jest takŜe wykorzystywane w obsłudze błędów. Po deklaracji następuje właściwy blok OFX, rozpoczyna się on od bloku zwanego top–level OFX. Jest to korzeń dokumentu z elementem głównym OFX i odnośnikiem do głównego schematu standardu OFX, którym jest plik OFX2_Protocol.xsd. Plik ten zawiera łącza do pozostałych schematów OFX . Przykładowo: <ofx:OFX xmlns:ofx="http://ofx.net/types/2003/04" xmlns:xsi="http://www.w3.org/2001/XMLSchema–instance" xsi:schemaLocation="http://ofx.net/types/2003/04 OFX2_Protocol.xsd"> Struktura dokumentu jest hierarchiczna, wszystkie kolejne bloki są zagnieŜdŜone w blokach wyŜszego poziomu. Drugi blok to zestawy wiadomości i wersje kontrolne (Message Sets and Version Control). OFX organizuje wiadomości w zestawy. Ogólnie zestawy te zawierają całość (lub część) usługi jaką chciałby wykonać uŜytkownik serwisu obsługującego OFX. Znaczniki zestawów wiadomości są nazywane według następującej konwencji: <xxxMSGSRQVn> – Ŝądanie skierowane do serwera, oraz <xxxMSGSRSVn> – odpowiedź z serwera, gdzie xxx – oznacza konkretną operację bankową, natomiast n – oznacza numer wersji kontrolnej, która została uŜyta w wiadomości; dla schematu OFX w wersji 2.1.1 (i poprzednich) wartość ta zawsze wynosi 1. KaŜda pojedyncza wiadomość musi być zawarta w odpowiednim dla niej zestawie wiadomości. Z kolei zestawy wiadomości muszą spełniać następujące zasady: zapytanie RQ moŜe zawierać co najwyŜej jedno opakowanie zestawu wiadomości (message set wrapper) kaŜdego typu; wszystkie wiadomości umieszczone wewnątrz jednego zestawu muszą pochodzić z tej samej wersji kontrolnej; serwer musi odpowiadać uŜywając tych samych zestawów wiadomości i wersji jakie zostały uŜyte w pliku POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 89 z Ŝądaniem. Zestawy wiadomości w pliku OFX muszą pojawiać się w ustalonym porządku, na przykład SIGNONMSGSRQV1 (Signon) musi poprzedzić SIGNUPMSGSRQV1 (Signup). Trzeci blok to opakowania synchronizacji (Synchronizations wrappers). Standard OFX zapewnia synchronizację danych. Jest ona wykorzystywana w przypadku wystąpienia błędów, na przykład zapewnia prawidłowe przetworzenie zapytań pochodzących z wielu aplikacji jednego klienta, na przykład odtwarza dane z backupu. Kolejnym blokiem OFX jest transakcja (transaction). Transakcja składa się z wiadomości i z dodatkowych informacji z nią związanych, takich jak np. unikalny identyfikator transakcji, który jest uŜywany, aby zapobiec ewentualnej niejednoznaczności w dopasowywaniu zapytania i związanej z nim odpowiedzi. Instrukcje inne niŜ SONRQ/SONRS (element ten identyfikuje i autoryzuje uŜytkownika wobec instytucji finansowej) są przetwarzane jako transakcje. KaŜda wiadomość jest otoczona odpowiadającym jej opakowaniem transakcji (transaction wrapper). Nazwy opakowań transakcji są budowane wg wzoru: <xxxTRNRQ>/<xxxTRNRS>. KaŜde opakowanie transakcji otacza pojedynczą transakcję, np. opakowanie transakcji <LOANSTMTTRNRS> otacza odpowiedź serwera <LOANSTMTRS>. Najbardziej zagnieŜdŜony blok to wiadomości. Specyfikacja OFX uŜywa takŜe jednolitej konwencji do nazywania znaczników poszczególnych instrukcji w zaleŜności od ich funkcji. PoniŜsza tabela przedstawia te grupy razem z przykładem konkretnego polecenia dla zapytania RQ. Tabela 1. Konwencja w nazewnictwie znaczników w OFX Grupa wiadomości RQ Przykład RQ <STMTRQ> Funkcja Basic <xxxRQ> odczyt czynności Add <xxxRQ> Modify <xxxMODRQ> <PMTMODRQ> modyfikacja Delete <xxxDELRQ> <PAYEEDELRQ> usuwanie Cancel (1) <xxxCANRQ> Cancel (2) <xxxCANCRQ> tworzenie nowej instancji obiektu anulowanie <PMTCANCRQ> anulowanie Źródło: http://www.ofx.net/ Przykładowo wiadomość dla wyciągu bankowego składa się z zapytania <STMTRQ> i odpowiedzi <STMTRS>. 3. Wyciąg bankowy w OFX Za pomocą standardu OFX klient moŜe utworzyć wyciąg elektroniczny zawierający takie same informacje jak wyciąg bankowy na papierze. Aplikacje klienckie zazwyczaj pozwalają uŜytkownikom zobaczyć dokonane transakcje i prowadzą uŜytkowników poprzez proces księgowania ich przychodów i wydatków na podstawie transakcji zarejestrowanych przez serwer instytucji finansowej. KaŜda transakcja finansowa ma swoje ID nadane przez instytucję finansową, dzięki czemu w systemie OFX sprawdzane jest czy dana transakcja została przetworzona tylko raz. śądanie wyciągu bankowego moŜe zawierać daty początkowe i końcowe. OFX moŜe takŜe uŜywać 90 Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX końcowej daty jako początkowej przy następnym Ŝądaniu wyciągu bankowego. Schemat wyciągu bankowego wymaga, aby klient określił konto, z którego chce otrzymać listę transakcji, oraz Ŝeby wskazał czy serwer powinien ściągać transakcje i/lub salda konta. JeŜeli klient zaŜyczy sobie wyciągnięcia transakcji, moŜe on określić z jakiego przedziału czasowego mają one pochodzić. W tym przypadku serwer zwraca transakcje, które pasują do zdefiniowanego w Ŝądaniu przedziału czasowego i saldo dla konta. JeŜeli uŜytkownik nie zdefiniuje przedziału czasowego zostaną ściągnięte wszystkie transakcje zarejestrowane na danym koncie. Dokument XML zgodny ze schematem OFX i definiujący zapytanie od klienta o wyciąg bankowy zawiera się w zestawie wiadomości BANKMSGSRQV1, w transakcji STMTTRNRQ. Zestaw wiadomości jest typu BankRequestMessageSetV1 i jego definicja znajduje się w głównym pliku standardu OFX – w OFX2_Protocol.xsd. Struktura zestawu wiadomości BANKMSGSRQV1 została przedstawiona poniŜej: <BANKMSGSRQV1> <STMTTRNRQ> <TRNUID>TRANSACTION20080615040430</TRNUID> <TAN>20080615040430</TAN> <STMTRQ> <BANKACCTFROM> <BANKID>f123456</BANKID> <ACCTID>ac129876</ACCTID> <ACCTTYPE>CREDITLINE</ACCTTYPE> </BANKACCTFROM> <INCTRAN> <DTSTART>20050206</DTSTART> <DTEND>20050212</DTEND> <INCLUDE>Y</INCLUDE> </INCTRAN> </STMTRQ> </STMTTRNRQ> </BANKMSGSRQV1> Agregat <STMTTRN> opisuje pojedynczą transakcję. Identyfikuje typ transakcji i datę, kiedy została przesłana. Ten agregat moŜe takŜe zawierać dodatkowe informacje, aby pomóc aplikacji klienckiej rozpoznać poszczególne transakcje: numer rachunku, nazwę płatnika, notatkę. Transakcja moŜe posiadać Standard Industrial Code, który klient moŜe uŜyć do skategoryzowania transakcji. KaŜdy agregat <STMTTRN> posiada identyfikator, uŜywany przez aplikację kliencką w celu wykrycia, czy serwer ściągnął juŜ wcześniej daną transakcję. Agregat <STMTTRNRQ> jest opakowaniem transakcji i właśnie w nim znajduje się zapytanie o wyciąg bankowy z danego konta – <STMTRQ>, które jest typu StatementRequest. <STMTRQ> składa się kilku z elementów i agregatów. <STMTRQ> jest wymaganym agregatem dla opakowania transakcji <STMTTRNRQ>. Składa się z agregatu <BANKACCTFROM> zawierającego informacje o koncie, którego dotyczy Ŝądanie klienta. Agregat ten składa się z kilku elementów, które, w zaleŜności od kraju, mogą przechowywać róŜne informacje. Przykładowo element <BANKID> w Belgii zawiera kod banku, w Kanadzie i w USA numer transakcji, w Wielkiej Brytanii – kod sortowania transakcji w wycią- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 91 gu. Natomiast <ACCTID> oraz <ACCTTYPE> określają odpowiednio numer konta bankowego oraz jego typ bez względu na kraj. OFX wyróŜnia cztery typy kont bankowych: CHECKING – rachunek rozliczeniowy; SAVINGS – konto oszczędnościowe; MONEYMRKT – rynek pienięŜny; CREDITLINE – konto kredytowe. Struktura zestawu wiadomości BANKMSGSRSV1 jest podobna do zapytania. Wartości transakcji zwrócone w odpowiedzi serwera są przedstawione w czytelnej dla uŜytkownika postaci, np. jeŜeli klient zapłacił kartą w sklepie, to wartość transakcji będzie ujemna; jeŜeli konto zostało zasilone przez przelew zewnętrzny – wartość ta będzie dodatnia. Odpowiedź serwera moŜe zawierać nieograniczoną ilość opakowań transakcji, w dowolnej kolejności. Składa się ona z elementów, które prezentują róŜne salda, czyli róŜne transakcje <STMTTRN>, których moŜe być zero albo więcej. Odpowiedź serwera moŜe zawierać takŜe agregat <BALLIST>, który pozwala instytucji finansowej wysyłać do uŜytkownika dowolną liczbę agregatów <BAL>, z opisem i tekstem pomocy. Opakowanie transakcji <STMTTRNRS> zawiera standardowe elementy, agregat <STMTRS> moŜe występować wiele razy (minimum jeden raz). Jak widać nawet tak z pozoru prosta operacja jak wyciąg jest w formacie OFX dosyć rozbudowana aby zagwarantować uwzględnienie rozmaitych opcji. Realizacja innych operacji jest podobna, bardziej szczegółowy opis nie jest moŜliwy bez nadmiernego zwiększenia objętości niniejszej pracy. 4. Proces realizacji projektu Po przeanalizowaniu potrzeb potencjalnych uŜytkowników zdecydowano, Ŝe podstawowym wymogiem jest obsługa wyciągu bankowego. UmoŜliwia on klientowi otrzymanie transakcji i sald, które są zazwyczaj częścią standardowego wyciągu papierowego. Klienci mogą uzyskiwać takie dane codziennie jeśli tylko tego sobie zaŜyczą. Zaprojektowany program jest przykładem aplikacji klienckiej, która umoŜliwia tworzenie zapytań do serwera w postaci wygenerowanych dokumentów XML, zgodnych ze standardem OFX [3]. Oprócz tworzenia zapytań aplikacja obsługuje równieŜ import dokumentów zgodnych z OFX. Zgodnie z przyjętym załoŜeniem spośród wielu transakcji bankowych, dla których specyfikacja OFX zawiera schematy pytań i odpowiedzi w systemie klient – serwer wybrano zapytanie o wyciąg bankowy, które zaimplementowano w aplikacji. PoniewaŜ aplikacja nie obsługuje całego standardu, jedynie jego część, w przypadku czytania analizowane są tylko elementy zaimplementowane. Trzeba zaznaczyć, Ŝe rozszerzenie programu na inne zapytania nie powinno sprawiać większych trudności, wymagać będzie jednak znacznej rozbudowy graficznego interfejsu uŜytkownika. Program umoŜliwia uŜytkownikowi wprowadzenie danych do transakcji wyciągu bankowego zgodnej ze standardem OFX. Do korzystania z aplikacji nie jest niezbędne posiadanie jakiejkolwiek wiedzy na temat standardu OFX, czy nawet języka XML. Do implementacji wybrano środowisko Visual Studio oraz język C# wraz z platformą .NET [4]. Program w obecnej wersji wykorzystuje funkcje dostępne w bezpłatnej wersji C# Express. W programie wykorzystano przede wszystkim bibliotekę System.Xml, która pozwala na obsługę podstawowych standardów związanych z językiem XML: Docmument Object Model, XML Schema, XML Namespaces, XPath i XSLT. Do tworzenia graficznego interfejsu uŜytkownika wykorzystano kontrolki System.Windows.Forms, zapis i odczyt plików realizuje biblioteka System.IO. Wybrane narzędzia programistyczne sprawdziły się bardzo dobrze, podczas realizacji nie było Ŝadnego problemu od strony technologii. 92 Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX Program posiada dwie zakładki: Settings oraz Data. Pierwsza zakładka słuŜy do konfiguracji zestawu wiadomości SIGNONMSGSRQV1. Ta zakładka nie jest przeznaczona dla przeciętnego uŜytkownika, ale dla administratora aplikacji. Druga z zakładek – Data – jest juŜ przeznaczona dla uŜytkownika i pozwala na wygenerowanie pliku z zapytaniem do serwera instytucji finansowej o wyciąg transakcji bankowych (Rysunek 1). UŜytkownik obowiązkowo musi określić konto, z którego chciałby dostać wyciąg bankowy poprzez pola w grupie Bank Account From, a takŜe znać ID banku. JeŜeli aplikacja byłaby dedykowana dla konkretnej instytucji, pole to moŜe mieć ustaloną zawsze wartość, zdefiniowaną przez dostawcę oprogramowania. Rysunek 1. Główne okno programu „OFX program” Źródło: opracowanie własne 5. Podsumowanie W chwili obecnej tylko dwa banki w Polsce oferują obsługę schematu OFX – CitiBank i ING Bank Śląski, natomiast na świecie jest ich około 5000. Prawdopodobnie przyczyną słabego rozwoju standardu OFX w polskich bankach jest to, Ŝe jak kaŜde nowe rozwiązanie, wymaga ono czasu i pieniędzy. Drugą istotną rzeczą jest fakt, Ŝe instytucje finansowe postrzegają schemat OFX tylko jako rozwiązanie dla transakcji online, a zapominają, Ŝe standard OFX równie dobrze moŜe być tylko wykorzystany do struktury wyciągów bankowych, czyli w jego statycznej formie. DuŜe instytucje finansowe dysponujące zasobami finansowymi, jeŜeli zdecydują się na implementację OFX, mają do wyboru wiele moŜliwości. Inaczej sytuacja wygląda z punktu widzenia POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 93 indywidualnego uŜytkownika chcącego zarządzać swoimi finansami. Import dokumentów XML zgodnych ze standardem OFX jest obecnie zaimplementowany w takich programach jak Money firmy Microsoft, GnuCash (rozwijanego na licencji OpenGL) czy Quicken firmy Intuit. Mamy takŜe sporo naszych rodzimych programów wspomagających zarządzanie budŜetem: DBBD Twój BudŜet 1.2.5, ePortfel Lite, Interesik 2005 czy Skarbnik 4, niestety tylko ten ostatni umoŜliwia import dokumentów w formacie OFX. Stworzona przez nas aplikacja spełnia wszystkie początkowe załoŜenia. Dzięki obiektowemu podejściu, istnieje moŜliwość jej rozwoju poprzez dodanie nowych modułów (np. moŜliwości przechowywania przez uŜytkowników plików na serwerze). Zmiana taka nie pociąga za sobą ingerencji w juŜ napisany kod, poniewaŜ polega ona tylko na dodaniu odpowiednich klas oraz szablonów odpowiedzialnych za widok. 6. Literatura 1. 2. 3. 4. Standard OFX: http://www.ofx.net/ Karwowski W., Orłowski A., Standard ACORD przykład implementacji, Monografia „Informatyka dla Przyszłości”, redakcja naukowa: Jerzy Kisielnicki, Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego, Warszawa 2008, str. 291299. Perry S. C., „C# i .NET”, Helion 2006. Sawczuk A. OFX - format do wymiany danych finansowych z przykładem wykorzystania. Praca magisterska, SGGW Warszawa, 2008. 94 Waldemar Karwowski, Aleksandra Sawczuk, Arkadiusz Orłowski Zarządzanie kontami bankowymi na przykładzie aplikacji wykorzystujacej standard OFX BANK ACCOUNTS MANAGEMENT BY AN EXAMPLE OF APPLICATION USING OFX STANDARD Summary The purpose of this paper is presentation of Open Financial Exchange (OFX) standard, together with requirements, designing and implementation process of simple bank account statement application. Main elements of the standard were described together with their role in OFX document. Sample messages, particularly connected with bank account statement are presented. Then system requirements based on typical user needs are described. Main parts of software project and utilized technologies are discussed. At the end conclusions and experience gathered during project realization are summarized. Keywords: OFX, XML, information bank systems, data exchange Waldemar Karwowski Aleksandra Sawczuk Arkadiusz Orłowski Katedra Informatyki SGGW 02-787 Warszawa ul.Nowoursynowska 159 e-mail: [email protected] e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 95 BERNARD F. KUBIAK, ANTONI KOROWICKI Uniwersytet Gdański SYSTEMY INFORMATYCZNE WSPOMAGAJĄCE ZARZĄDZANIE WIEDZĄ I WARTOŚCIĄ ORGANIZACJI Streszczenie W artykule omówiono przemiany w gospodarce spowodowane wdroŜeniem systemu zarządzania wartością organizacji wspomaganego zastosowaniem technologii informacji i komunikacji (TIK). Przedstawiono równieŜ nowe uwarunkowania rozwoju organizacji oraz tworzenia i pomiaru jej wartości poprzez zastosowanie zintegrowanego systemu informacyjnego (ZSI). Ponadto, zaprezentowano zasady i etapy tworzenia wartości oraz metody i narzędzia zarządzania wartością organizacji. Określono teŜ potrzeby informacyjne systemu zarządzania wartością organizacji. Słowa kluczowe: wartość dodana, wartość organizacji, system zarządzania wiedzą, tworzenie i pomiar oraz zarządzanie wiedzą, metody i narzędzia zarządzania wiedzą, zintegrowane systemy zarządzania. 1. Wartość organizacji a wartość dodana Zdefiniowanie i rozróŜnienie obu tych pojęć jest przydatne zarówno dla menedŜerów i akcjonariuszy (właścicieli), jak równieŜ personelu finansowo-księgowego. Kształtowanie się tych wielkości wywiera znaczący wpływ na pozycję konkurencyjną organizacji, lojalność jej klientów oraz przypływ lub odpływ inwestorów i kapitałów. Koncepcja wartości organizacji i wartości dodanej jest zatem pomocna w podejmowaniu decyzji strategicznych. Dlatego warto przypomnieć, Ŝe wartość organizacji tworzą takie elementy składowe jak: 1. wartość bieŜąca przepływów pienięŜnych w okresie prognozy (= gotówka na spłatę długów, dywidend i wykup akcji własnych); 2. wartość bieŜąca wartości rezydualnej (wartość organizacji wykraczająca poza okres prognozy zdyskontowanych przepływów pienięŜnych); 3. przychód uzyskany ze sprzedaŜy papierów wartościowych1. Z dotychczasowych doświadczeń wynika, Ŝe w tworzeniu wartości organizacji z punktu widzenia akcjonariuszy największe znaczenie odgrywają przepływy pienięŜne. Wynika stąd potrzeba opracowywania strategii zwiększania wartości organizacji i wyboru najskuteczniejszych 1 Pot. teŜ Dobija M., Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN, Warszawa 1997, s. 360 i nast.; Zarządzanie wartością firmy, red., A. Herman, A. Szablewski, Wydawnictwo Poltex, Warszawa 1999, s. 53 i nast.; Strategie wzrostu wartości firmy. Studium przypadków, red., A. Szablewski, Wydawnictwo Poltext, Warszawa 2000, s. 72 i nast. 96 Bernard F. Kubiak, Antoni Korowicki Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji metod jej formułowania i realizacji. Do powszechnie uznanych generatorów wartości organizacji zalicza się: 1. stopę wzrostu przychodów; 2. wzrost marŜy operacyjnej; 3. stawkę podatku dochodowego; 4. wydatki na zwiększenie kapitału obrotowego; 5. poziom inwestycji w sferze kapitału trwałego; 6. koszt kapitału; 7. okres trwania wzrostu wartości. Natomiast przez wartość dodaną rozumie się róŜnicę pomiędzy przychodem ze sprzedaŜy a wartością zakupionych surowców i usług, zwanych teŜ kosztami zewnętrznymi. Ustalanie wartości dodanej nawiązuje do algorytmu obliczania dochodu narodowego i wymaga przekształcenia rachunku zysków i strat. Przedstawiony sposób liczenia wartości dodanej nie jest jeszcze stosowany w Polsce2. W myśl tej koncepcji przychód ze sprzedaŜy powstaje z odpowiedniego połączenia zakupionych surowców i usług, pracy załogi (kapitał ludzki) i kapitału finansowego (kapitał własny i kapitał obcy). W praktyce wartość dodaną rozpatruje się najczęściej z punktu widzenia oczekiwań akcjonariuszy. Bierze się stąd określenie wartość dodana dla akcjonariuszy i organizacji, które swym zakresem wykracza poza wcześniej wspomnianą wartość dodaną. Formuła obliczania wartości dodanej dla akcjonariuszy obejmuje takie czynniki jak przychody (z działalności operacyjnej, inwestycyjnej, finansowej), wydatki kapitałowe, koszt kapitału, zbywalne papiery wartościowe, zadłuŜenie i współczynnik dyskontowy. W praktyce wartość dodaną zwiększa równieŜ wartość uŜytkowa dodana do pierwotnej uŜyteczności produktów lub usług organizacji. Z punktu widzenia menedŜerskiego największe znaczenie w formułowaniu strategii zwiększania wartości organizacji ma podwyŜszanie marŜy zysku operacyjnego przekraczające koszty kapitału; uzyskiwanie duŜej dynamiki sprzedaŜy (przekraczającej dynamikę wzrostu kosztów kapitału); obniŜanie kosztów kapitału przedsięwzięć inwestycyjnych oraz wydłuŜanie okresu tworzenia wartości dodanej organizacji dla akcjonariuszy. MenedŜerowie powinni zatem systematycznie analizować kierunki zmian (trendy) marŜy operacyjnej i kosztów kapitałów w organizacji macierzystej i organizacjach partnerskich oraz konkurencyjnych. 2. Nowe uwarunkowania rozwoju organizacji oraz tworzenia i pomiaru jej wartości Istota tworzenia wartości organizacji polega na maksymalizowaniu jej wartości rynkowej i ciągłym zwiększaniu stanu posiadania jej właścicieli. Osiąganie tych celów wymaga wdroŜenia systemów zarządzania zorientowanych na zwiększanie wartości rynkowej organizacji i oceny rezultatów jej działań (operacyjnych, inwestycyjnych i finansowych) przy zastosowaniu mierników opartych na wartości dodanej. Wzrost wartości organizacji następuje w sytuacji, gdy zwrot zainwestowanego kapitału rosnąco przewyŜsza średniowaŜony jego koszt zastosowania przy jednoczesnym zachowaniu długotrwałej przewagi konkurencyjnej. Sprawność i konkurencyjność organizacji jest tu oceniana poprzez kryterium wykorzystywania potencjału zwiększania jej wartości w długim okresie czasu. 2 Por. Dobija M., Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN, Warszawa 1997, s. 357 i nast. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 97 DuŜy wpływ na poszerzenie moŜliwości kreowania wartości organizacji wywierają światowe megatrendy rozwojowe, do których zalicza się: 1. przechodzenie od społeczeństw przemysłowych do społeczeństw informacyjnych (informacja stała się najwaŜniejszym czynnikiem produkcji i wymiany; stosowanie zgromadzonej wiedzy wypiera doskonalenie metod rozwijania wiedzy); 2. globalizacja gospodarki, produkcji, wymiany i sieci informacyjnych; 3. rozwój gospodarki opartej na przepływach (symbolach) kapitałów, kursów walutowych, kredytów; 4. umiędzynarodowienie rynków (uzaleŜnienie handlu zagranicznego od inwestycji zagranicznych); 5. zastępowanie technologii cięŜkich technologiami lekkimi dla środowiska (wzrost produktywności i rozwój skutecznych systemów zarządzania); 6. przewaga podaŜy nad popytem; 7. skrócenie cyklu Ŝycia produktów i usług; 8. zdolność organizacji do wprowadzania innowacji; 9. spłaszczenie cyklu rozwoju faz rynku (pomijanie niektórych faz); 10. wirtualizacja i umiędzynarodowienie działalności organizacji (sieciowa kooperacja)3. Obok kreowania wartości organizacji istotne znaczenie odgrywa prawidłowa ocena rezultatów jej działalności. Stosowane dotychczas mierniki oceny (zyskowność akcji, okres zwrotu kapitału akcyjnego, okres zwrotu aktywów netto, okres zwrotu kapitału zaangaŜowanego) były słabo powiązane z cenami akcji i wartością rynkową organizacji, poniewaŜ nie uwzględniały przepływu środków pienięŜnych, wartości dodanej dla akcjonariuszy i całkowitego zwrotu dla akcjonariuszy. Szczególnie przydatna w tej ocenie okazała się rynkowa wartość dodana (wartość rynkowa organizacji minus wartość księgowa kapitału akcyjnego), ekonomiczna wartość dodana [(zysk operacyjny po opodatkowaniu minus koszt kapitału) x kapitał zaangaŜowany], wartość dodana dla akcjonariuszy i całkowity dochód dla akcjonariuszy. Mierniki oparte na wartości dodanej okazały się najprzydatniejsze w ocenie wariantów projektów inwestycji kapitałowych, reorganizacji procesów, wprowadzania zarządzania wartością organizacji. 3. Zasady i etapy tworzenia wartości organizacji Maksymalizacja wartości organizacji, zwłaszcza zwiększanie jej wartości rynkowej, wymusza sformułowanie odpowiedniej strategii i właściwego oddziaływania na kształtowanie się czynników krytycznych wartości organizacji. Wynika stąd konieczność zastosowania systemu zarządzania wartością (Value Based Management) i przestrzegania następujących zasad tego systemu: 1. 2. 3. stałe przeformułowywanie priorytetów biznesu i strategii organizacji na maksymalizację wartości rynkowej w długim okresie; przechodzenie od zarządzania przez funkcje (zadania) do zarządzania procesami (zarządzanie procesowe); tworzenie centrów kosztów i zysku w przekroju strategicznych jednostek biznesu; 3 Por. Zarządzanie wartością firmy, red., A. Herman, A. Szablewski, Wydawnictwo Poltex, Warszawa 1999, s. 14 i nast. 98 Bernard F. Kubiak, Antoni Korowicki Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji 4. wprowadzanie systemu motywacyjnego zorientowanego na stały wzrost wartości organizacji; 5. wdraŜanie sprawnego i nowoczesnego systemu komunikowania się wewnątrz i na zewnątrz organizacji (Internet, intranet, extranet) oraz multimedia4. Wprowadzaniu systemu zarządzania wartością powinno towarzyszyć stałe przeprowadzanie reengineeringu i outsourcingu, czyli koncentrowanie się organizacji na kompetencjach kluczowych (obszary i procesy o maksymalnej wartości dodanej) zapewniających przewagę konkurencyjną oraz rezygnowanie z działalności i procesów, w których organizacja nie osiąga maksymalnej wartości dodanej i trwałej przewagi konkurencyjnej. Wynikają stąd nowe moŜliwości tworzenia potencjału, kanałów i form sprzedaŜy poprzez kooperację, alianse i fuzję zapewniających wzrost marŜy zysku. Dodatkowym źródłem wzrostu wartości organizacji jest tworzenie centrów kosztów i właściwe zarządzanie nimi, polegające na systematycznym ich obniŜaniu. Strategia obniŜki kosztów powinna równieŜ objąć dostosowanie stanu zatrudnienia do moŜliwości wzrostu sprzedaŜy i marŜy operacyjnej. Zmniejszanie stanu zatrudnienia moŜe być łagodzone poprzez realizację długofalowej strategii wzrostu wartości organizacji i konieczności stałego zwiększania kwalifikacji pracowników (łatwiejszy start do nowego miejsca pracy). Skuteczne zarządzanie wartością organizacji wymaga: 1. 2. 3. 4. 5. stałego zwiększania wartości rynkowej organizacji dla akcjonariuszy; wprowadzania zarządzania procesami (klient – rynek – handlowcy –dystrybucja – produkcja - zasoby organizacji) w miejsce zarządzania funkcjami; przechodzenia od hierarchii i konkurencji do rynku, współpracy i koordynacji; przeprowadzania perspektywicznych (5-10 lat) analiz finansowych organizacji w celu określenia trendów rozwojowych; zapewniania właścicielom/akcjonariuszom coraz większej dywidendy i rosnących cen akcji. 4. Metody i narzędzia zarządzania wartością organizacji Wzrost wartości organizacji (zwłaszcza wartości rynkowej) wymaga zastosowania nowoczesnych i skutecznych narzędzi zarządzania tą wartością. Obok narzędzi tradycyjnych stosuje się coraz więcej narzędzi informatycznych. Do grupy pierwszej narzędzi zalicza się takie metody zarządzania jak: kompleksowe zarządzanie jakością (Total Quality Management –TQM), odchudzanie (spłaszczanie) struktur organizacyjnych (Lean Management), Outsourcing (zlecanie na zewnątrz nieefektywnych działań, procesów i operacji), Benchmarking (naśladowanie optymalnych wzorców organizacyjnych, technicznych, technologicznych i finansowych), restrukturyzację, reengineering (radykalna zmiana sposobu wykonywania pracy) oraz przedefiniowywanie strategii organizacji zorientowane na reengineering. 4 Por. Kubiak B. F., A. Korowicki, Działalność gospodarcza w sieci globalnej – stan i perspektywy, W: Human-Computer Interaction, red. B F. Kubiak, A. Korowicki, Wydawnictwo Stella Maris, Gdańsk 1999, s. 15 i nast.; Zarządzanie wartością firmy, op. cit., s. 51 i nast.; Strategie wzrostu wartości firmy. Studium przypadków, red., A. Szablewski, Wydawnictwo Poltext, Warszawa 2000, s. 36-37; Dobija M., Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN, Warszawa 1997, s. 357 i nast. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 99 Grupa narzędzi informatycznych obejmuje zintegrowane pakiety typu CAM (Computer Aided Manufacturing), CAD (Computer Aided Design), CIM (Computer Integrated Manufacturing), ARIS (Architecture of Integrated Systems), MRP (Manufacturing Resource Planning), ERP (Enterprise Resource Planning) – mySAPSuite, BAAN, Movex, IFS i in. systemy klasy ERP, w przeciwieństwie do systemów wcześniejszych (SIZ, MRP i in.) umoŜliwiają budŜetowanie kosztów i przychodów, controlling i analizę procesów finansowych, a więc szeroko pojmowany monitoring finansowy. W realizacji strategii wzrostu wartości organizacji szczególnie przydatna okazała się ZrównowaŜona Karta Wyników (ZKW), głównie dzięki powiązaniu kontroli działalności operacyjnej z monitorowaniem realizacji strategii organizacji. ZKW gwarantuje przepływ informacji o celach organizacji i stopniu ich realizacji w przekroju jednostek organizacyjnych poprzez zastosowanie róŜnych wskaźników dotyczących takich obszarów działalności jak finanse, klienci, procesy i zasoby5. ZKW nie zastępuje strategii, ale opisuje ją za pomocą wskaźników ułatwiających zrozumienie przez poszczególne komórki i pracowników oraz określenie własnego ich wkładu w realizację misji i strategii organizacji. ZKW dostarcza więc danych niezbędnych do opracowania właściwego systemu motywacji. 5. Zintegrowane systemy informatyczne w usprawnieniu zarządzania wiedzą i wartością organizacji System WdroŜenie i eksploatacja ZSI nie jest celem samym w sobie, lecz drogą ulepszenia i racjonalizacji działania przedsiębiorstwa, a w konsekwencji sposobem usprawniania zarządzania wartością i umocnienia jego pozycji na rynku. Przetrwanie w warunkach zmiennego rynku zmusza organizacje do tworzenia i rozwoju systemów wspomagania decyzji. Realizacja tego postulatu wymaga precyzyjnego określenia stanu, w jakim się znajdują organizacje i celów, jakie chcą osiągnąć. Wymaga to spójnego zastosowania metod, technik i narzędzi strukturalnych oraz obiektowych, które w pierwszej fazie posłuŜą do stworzenia formalnego opisu przedsiębiorstwa, jego działalności i zamierzeń, następnie zaś doprowadzą do zastosowania technologii informacji, ułatwiającej dynamiczne sterowanie i nadąŜanie za zmianami sytuacji na rynku. Implementowanie nowych procesów w przedsiębiorstwie lub reorganizacja starych jest skutecznie wspomagana przez narzędzia opracowane i stosowane m. in. przez firmę SAP AG i SAP Polska. Narzędzia te (np. Bussines Modeller mySAPSuite) wbudowane w system ułatwiają i przyspieszają ustalenie, które procesy standardowo obsługiwane przez moduły systemu mySAPSuite są dostosowane do charakterystyki przedsiębiorstwa, a które naleŜy zmodyfikować, aby spełnić jego specyficzne wymagania. Stosowanie tej metody podczas restrukturyzacji i reengineeringu procesów w przedsiębiorstwie na potrzeby systemu mySAPSuite skraca czas konieczny do rozpoczęcia eksploatacji systemu. Usprawnione procesy gospodarcze organizacji wymagają zintegrowanej obsługi decyzyjnej i informacyjnej, w której priorytetem staje się krótkookresowe i strategiczne planowanie działań z wykorzystaniem zarządzania popytem (zaleŜnym i niezaleŜnym) i uniwersalnego równania produkcji3. Oparta na tych załoŜeniach rekonstrukcja procesów prowadzi do wzrostu 5 Por.: Gruchman G.B., Znaczenie doskonalenia procesów w wdraŜaniu strategii firmy, (W:) Human-Computer Interaction, red., B.F. Kubiak, A. Korowicki, Wydawnictwo Stella Maris, Gdańsk 1999, s. 89 i nast. 100 Bernard F. Kubiak, Antoni Korowicki Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji produktywności zasobów w bieŜącej i perspektywicznej działalności, a tym samym wzrostu efektywności organizacji. Z licznych badań wynika, Ŝe systemy zarządzania w bardzo wielu - nie tylko polskich organizacjach nie obsługują kreatywnie zachodzących w nich procesów gospodarczych, nie odzwierciedlają w pełni specyfiki ich struktur organizacyjnych. Z trudem są przystosowywane do zachodzących zmian wewnętrznych i zewnętrznych, usprawnień technologicznych i rynkowych (wykorzystanie rynku elektronicznego za pośrednictwem Internetu). ObniŜa to ich sprawność, wydajność i moŜliwość szybkiego reagowania na zmienne potrzeby rynku i klientów. W konsekwencji większość krajowych systemów informatycznych zarządzania (SIZ) równieŜ nie spełnia tych wymagań, głównie dlatego Ŝe wspiera i antycypuje tradycyjne metody zarządzania. W rezultacie krajowe SIZ cechuje nadal dwoista niespójność funkcjonalna, bowiem są one w duŜej mierze niespójne z systemami zarządzania organizacji macierzystych i funkcjonują jako systemy niezintegrowane. Podsystemy dziedzinowe, jako nie powiązane rozwiązania cząstkowe, funkcjonują bez wspólnej bazy danych. UŜytkownicy takiego SIZ nie mogą jednocześnie uŜywać tych samych danych w realizacji wspólnych celów i zadań. Tym sposobem nie wykorzystuje się postępu i zmian jakościowych w SIZ, wynikających z zastosowania TI, polegających na zastosowaniu wspólnej bazy danych (jednokrotne wprowadzenie danych, stała ich aktualizacja i udostępnianie wszystkim uŜytkownikom) i moŜliwości zintegrowania wszystkich podsystemów SI, tworzących odtąd spójną całość z systemem zarządzania. Postulaty te spełniają ZSI do wspomagania zarządzania produkcją, dystrybucją i finansami, klasy MRP/ERP. Systemy te cechuje kompleksowość funkcjonalna (swoim zakresem obejmują wszystkie obszary działalności technicznej i ekonomicznej), orientacja procesowa a nie zadaniowa, integracja procesów i danych, elastyczność strukturalna i funkcjonalna wynikająca z otwartości systemowej i sprzętowo-programowej, najwyŜsze zaawansowanie technologiczne i programistyczne (zastosowanie co najmniej języków czwartej generacji oraz bezkodowych generatorów aplikacji baz danych, np. firmy Enterprise Software MAGIC), spełnianie istoty i załoŜeń TQM, ISO 9000/14000 i controllingu4. WdroŜenie modułu contollingu umoŜliwia zarówno sterowanie i kontrolę kosztów i przychodów działalności operacyjnej, jak równieŜ nadzór nad realizacją projektów inwestycyjnych i ich kosztorysów. Controlling finansowy i controlling inwestycji usprawniły zarządzanie finansami organizacji i procesami odnowy jej majątku trwałego, głównie poprzez planowanie i kontrolę wykonania budŜetu, a takŜe pogłębioną analizę przebiegu realizacji procesów inwestycyjnych. Zakres funkcjonalny ZSI klasy MRP II obejmuje logistykę (produkcja i dystrybucja) i częściowo finanse organizacji, co sprawia Ŝe jest to głównie system ilościowego wspomagania zarządzania. Zawiera osiemnaście modułów, w tym powiązania z dostawcami i odbiorcami (moduł EDI), moduł finanse (odpowiednik rachunkowości finansowej, poszerzonej o gospodarkę środkami trwałymi i wyposaŜeniem) i moduł zarządzania przedsięwzięciami (pozyskiwanie i wykorzystanie zasobów, kastomizacja produktu, budŜetowanie przedsięwzięć, ich kalkulacja), analiza i inne (zarządzanie remontami, jakością, gospodarką transportową, system informowania kierownictwa). System ERP umoŜliwia nie tylko planowanie i bilansowanie niezbędnych zasobów produkcyjnych, lecz takŜe porównanie stanu rzeczywistego produkcji z wielkościami planowanymi na poziomie 4 Szerzej por. P. Adamczewski, W przeddzień wielkiej zmiany. Strategie i Technologie, Dodatek Specjalny tygodnika „Computerworld”, IDG Poland S.A., K. Szot, Warszawa 1997. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 101 głównego harmonogramu produkcji oraz harmonogramów warsztatowych (spojrzenie "z góry w dół" na procesy) a takŜe symulację planów produkcji w ujęciu wartościowym. Potwierdza to tezę, iŜ ERP jest systemem ilościowo-wartościowego wspomagania zarządzania poprzez utworzenie systemu kwantyfikacji i pomiaru realizacji zadań oraz określania odchyleń i uruchamiania procedur korekty operatywnej. Integrowanie wszystkich funkcji działalności organizacji umoŜliwia planowanie i operatywne monitorowanie realizacji przyjętych zadań oraz koncentrację na produktach rynkowych5. Z danych statystycznych twórcy standardu MRP II wynika, iŜ organizacje w których funkcjonuje ten system uzyskują wzrost sprzedaŜy od 16-28%, wzrost wydajności pracy o 10-16%, zmniejszenie zapasów o 17-75%, znaczne skrócenie cyklu produkcyjnego wyrobów i poprawę obsługi klientów, usprawnienie zarządzania jakością, finansami i informacją dla kierownictwa. 6. Podsumowanie Kreowanie wartości i znaczenia marki organizacji odgrywa zasadniczą rolę w spełnianiu oczekiwań jej właścicieli i akcjonariuszy oraz satysfakcji klientów nabywających produkty i usługi danej organizacji. Istota tworzenia wartości polega zatem na stałym zwiększaniu jej wartości rynkowej i satysfakcji akcjonariuszy, właścicieli i klientów. Największy wpływ na zwiększanie wartości organizacji wywiera znajomość kierunków zmian i wzrost marŜy zysku operacyjnego powyŜej kosztów pozyskania kapitału oraz systematyczne zwiększanie dynamiki sprzedaŜy, minimalizacja kosztów kapitałów przedsięwzięć inwestycyjnych organizacji macierzystej, partnerów i konkurentów oraz wydłuŜanie czasu tworzenia wartości dodanej organizacji dla akcjonariuszy. Istotne znaczenie w kreowaniu wartości organizacji odgrywają teŜ światowe megatrendy rozwojowe. Osiąganie tych, nierzadko sprzecznych, celów wymaga wdroŜenia systemu zarządzania wartością i oceny rezultatów działań organizacji w sferze operacyjnej, inwestycyjnej i finansowej. Wprowadzaniu systemu zarządzania wartością powinien towarzyszyć Reengineering i outsourcing. Organizacja musi zatem koncentrować się na kompetencjach kluczowych (obszary i procesy o maksymalnej wartości dodanej), które zapewnią jej przewagę konkurencyjną. Jednocześnie powinna rezygnować z działalności i procesów w których nie moŜe maksymalizować wartości dodanej i osiągać przynajmniej przejściowej przewagi konkurencyjnej. Tym sposobem ujawniają się nowe moŜliwości tworzenia potencjału, kanału i form sprzedaŜy dzięki rozwojowi kooperacji, aliansów i fuzji prowadzących do wzrostu marŜy zysku i tworzenia nowych centrów kosztów oraz wprowadzania właściwego zarządzania nimi. 7. Literatura 1. 2. 3. 4. Adamczewski P.: WdroŜeniowe uwarunkowania zintegrowanych systemów informatycznych, Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998. Clarke L.: Zarządzanie zmianą, Gebethner & Ska, Warszawa 1997. Dobija M.: Rachunkowość zarządcza i controlling, Wydawnictwo Naukowe PWN, Warszawa 1997. Drucker P.: The New Organisation, „Harvard Business Review”, 1988, no 1 & 2. 5 Por. teŜ I. D. Bartczak, 1997, Wspomagać zarządzanie, „Computerworld” 1996, nr 12; K. Krupa, MRP II. Nowoczesne narzędzia wspomagające zarządzanie a zmiany struktur organizacyjnych, Servierr, Warszawa. 102 Bernard F. Kubiak, Antoni Korowicki Systemy informatyczne wspomagające zarządzanie wiedzą i wartością organizacji 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. Greniewski M. J.: ERP a teoria chaosu, W: Human-Computer Interaction, red., B.F. Kubiak, A. Korowicki, Gdańsk 1999. Gruchman G. B.: Znaczenie doskonalenia procesów w wdraŜaniu strategii firmy, W: Human-Computer Interaction, red., B.F. Kubiak, A. Korowicki, Gdańsk 1999. Hamel G., Prahalad C. K.: Przewaga konkurencyjna jutra. Strategia przejmowania kontroli nad branŜą i tworzenia rynków przyszłości, Business Press, Warszawa 1999. Kasprzak T.: Ewolucja przedsiębiorstw ery informacji, Studia Informatyki Gospodarczej, Wydawnictwo Nowy Dziennik Sp. z o.o., Katedra Informatyki Gospodarczej i Analiz Ekonomicznych Uniwersytet Warszawski, Warszawa 2000. Kisielnicki J., Sroka H.: Systemy informacyjne biznesu, Agencja Wydawnicza „Placet”, Warszawa 1999. Kubiak B. F., Korowicki A.: Globalizacja rynku i handlu elektronicznego, (w:) Infogryf `96, TNOiK, Szczecin-Kołobrzeg, 1996, t. 1. Kubiak B. F.: Sieci komputerowe i techniki multimedialne w rozwoju organizacji wirtualnych i handlu elektronicznego, W: KolportaŜ prasy. Nowoczesne techniki i technologie, red., J. Kania, Szczecin-Expo, Szczecin 1997. Kubiak B.F., Korowicki A.: Kapitał intelektualny w procesach zmian i wzrostu konkurencyjności organizacji, W: Zastosowanie technologii informacyjnych do wspomagania zarządzania procesami gospodarczymi, red., N. Siemieniuk, R. Mosdorf, WyŜsza Szkoła Finansów i Zarządzania w Białymstoku, Białystok 2008. Kubiak B.F., Korowicki A.: Rola potencjału intelektualnego w doskonaleniu zarządzania wiedzą, Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, 2008, nr 13. Kubiak B.F., Korowicki A.: Rola i znaczenie kapitału intelektualnego w kształtowaniu efektywności organizacji turystycznych, Zeszyty Naukowe, Ekonomiczne Problemy Usług nr 19, Uniwersytet Szczeciński w Szczecinie, Szczecin 2008, nr 496. Olszak C.M., Ziemba E.: Strategie i modele gospodarki elektronicznej, Wydawnictwo Naukowe PWN, Warszawa 2007. Olszak C.M.: Tworzenie i wykorzystanie systemów Business Intelligence na potrzeby współczesnej organizacji, Prace Naukowe Sigillum Academiae Oeconomicae, Wydawnictwo Naukowe Akademii Ekonomicznej im. Karola Adamieckiego w Katowicach, Katowice 2007. Staniszkis W.: Corporate Information Resource, (w:) Human-Computer Interaction, red., B.F. Kubiak, A. Korowicki, Gdańsk 1999. Strategie wzrostu wartości firmy. Studium przypadków, red., A. Szablewski, Wydawnictwo Poltext, Warszawa 2000. Zarządzanie wartością firmy, red., A. Herman, A. Szablewski, Wydawnictwo Poltext, Warszawa 2000. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 103 IT BASED VALUE AND KNOWLEDGE MANAGEMENT IN AN ORGANIZATION Summary This article provides a short discussion on economy transformation and changes caused by the implementation of The Value Management System (VMS) aided by The Information and Communication Technology (ICT) in an organization. A set of new circumstances of the organization development and developing and measuring its value using Integrated Information System have been analyzed. Additionally, the principles and phases of value creating and methods and tools of VMS in an organization were considered. At the end of the article the information needs of VMS have been described. Keywords: added value, organization value, value management system, value creating, measuring and managing, value management methods and tools, integrated management systems. Bernard F. Kubiak Antoni Korowicki Uniwersytet Gdański e-mail: [email protected] e-mail: [email protected] http://www.univ.gda.pl 104 Antoni Korowicki, Bernard F. Kubiak Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji ANTONI KOROWICKI, BERNARD F. KUBIAK Uniwersytet Gdański ROLA WIEDZY W OKREŚLANIU PRZYDATNOŚCI I ZASTOSOWAŃ TECHNOLOGII INFORMACJI I KOMUNIKACJI W ORGANIZACJI Streszczenie W artykule omówiono znaczenie wiedzy w określaniu innowacyjnych sposobów globalnego zastosowania nowoczesnej technologii informacji i komunikacji (tik). Przedstawiono równieŜ nowe formuły organizacji adekwatne do sieciowego modelu funkcjonowania oraz tworzenia i zarządzania jej wiedzą. Uzasadniono konieczność odchodzenia od restrukturyzacji i reengineeringu oraz zastępowania tych kierunków zmian przeformułowywaniem strategii organizacji i sektora przy udziale zintegrowanego zastosowania tik. Ponadto, zaprezentowano nowy paradygmat strategii i uwarunkowania jej pomyślnej realizacji z punktu widzenia globalnej gospodarki cyfrowej. Słowa kluczowe: Technologia Informacji i Komunikacji (TIK), innowacyjne zastosowania TIK, model organizacji sieciowej, łańcuch wartości, sieciowy łańcuch wartości, reorganizacja, reengineering, nowy paradygmat strategii, przeformułowywanie strategii. 1. Innowacyjne zastosowania TIK Innowacyjne sposoby wykorzystania TIK, jak równieŜ potencjalne alternatywy nowych strategii TIK mogą być osiągane tylko przy znaczących zmianach oraz w warunkach długookresowego inwestowania, zapewniającego połączenie odpowiednich aplikacji TIK z gruntownymi zmianami w procesach biznesowych (reengineering) danej gałęzi. Powodzenie tych przedsięwzięć zaleŜy od radykalnej i głębokiej reorganizacji firm i sposobów wykorzystywania zasobów (przyrodniczych i antropogenicznych) oraz obsługi klientów, równieŜ nastawionych na powszechne zastosowanie TIK. Organizacje doświadczone w stosowaniu TIK znacznie wyprzedziły konkurentów podejmujących próby opracowania nowych strategii z wykorzystaniem TIK. Zaniechanie tych działań utrudnia tworzenie przyszłości organizacji. Dlatego tak waŜna jest – obok umiejętności kreowania nowych produktów i obszarów działalności - wiedza na temat wpływu TIK na konkurencyjność organizacji i inicjowanie nowych projektów jej zastosowania w odpowiednim czasie i miejscu. Odnosi się to głównie do średniego szczebla zarządzania, poniewaŜ większość organizacji w Polsce wciąŜ znajduje się na pierwszym poziomie zastosowań TIK, tj. w fazie nie zintegrowanych (wyizolowanych) aplikacji TIK. WydłuŜanie się tej fazy zastosowań TIK jest spowodowane niedocenianiem przez kierownictwo naczelne moŜliwości wpływu TIK na usprawnienie funkcjonowania organizacji oraz nieprecyzyjnym formułowaniem celów dla TIK w realizacji tych usprawnień, głównie wskutek niezrozumienia jej idei i przydatności. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 105 Brak dostatecznej wiedzy na temat istoty i roli TIK wśród kierownictwa naczelnego jest najczęstszą przyczyną niemoŜności sformułowania spójnej strategii rozwoju organizacji i jej strategii TIK [10]. Do innych waŜnych przyczyn utrudniających formułowanie wspólnej strategii naleŜą: • nieznajomość wśród kierownictwa czynników krytycznych sukcesu (zarządzanie zmianą, ludźmi i technologią), głównie zaś informacji niezbędnych w konkurencyjnym realizowaniu biznesu; • niezaspokajanie informacyjnych potrzeb zarządzania przez systemy informatyczne funkcjonujące w organizacjach; • brak priorytetów wdraŜania TIK w poszczególnych podsystemach SI. Rozwiązywanie tych problemów naleŜy do kierownictwa naczelnego organizacji. JednakŜe w analizie i rozstrzyganiu specyficznych problemów organizacji za pomocą TIK uczestniczy równieŜ jej najniŜszy szczebel zarządzania, a nawet pracownicy szeregowi. Dlatego procesem stałej edukacji dotyczącej zastosowań TIK powinno być objęte zarówno kierownictwo naczelne, jak i pozostali pracownicy organizacji. Zapewni to likwidowanie luki kulturowej, jaka istnieje pomiędzy kierownictwem i szeregowymi uŜytkownikami TIK a profesjonalistami TIK. Nabycie wiedzy o przydatności i stosowaniu TIK w biznesie nie gwarantuje zmiany wieloletnich przyzwyczajeń związanych z róŜnymi kulturami pracy, stanowi jednak wypróbowany sposób ewolucyjnej zmiany świadomości i określania stopnia zaangaŜowania kierownictwa naczelnego w rozwój zastosowań TIK w organizacji. 2. Sieciowy model organizacji – przechodzenie od łańcucha wartości do sieci wartości Do czasu wprowadzenia otwartych sieci informatycznych relacje gospodarcze zewnętrzne pomiędzy uczestnikami procesów produkcji i wymiany, jak równieŜ wewnątrz poszczególnych organizacji odbywały się w ramach łańcucha wartości (według M. Portera). Łańcuch (dodawania) wartości odzwierciedlał przepływ produktów i usług od dostawców do producentów, którzy poddawali je określonym transformacjom dodając nową, własną wartość, a następnie sprzedawali je jako swoje produkty finalne (wyroby gotowe, usługi) klientom. Producenci starali się utrzymywać jak najlepsze relacje z dostawcami poprzez wynegocjowanie najkorzystniejszych cen zakupu czynników produkcji, optymalizować wykorzystanie własnego potencjału przetwórczego i usługowego oraz zaspokajać oczekiwania i potrzeby klientów w wyniku odpowiednich działań marketingowych. W interakcji pomiędzy dostawcami, producentami, pośrednikami i klientami następował fizyczny przepływ danych drogą korespondencyjną poprzez raporty, formularze, czeki, faktury, kwity magazynowe, karty pracy, schematy i rysunki, wydruki komputerowe, a takŜe rozmowy telefoniczne, narady i dyskusje. W niektórych branŜach fizyczny przepływ danych był sterowany za pomocą systemów informatycznych zarządzania (jeszcze nie zawsze zintegrowanych). Fizyczna wymiana informacji nie została wyeliminowana nawet po zastosowaniu faksów, telefonów komórkowych, modemów i komputerów przenośnych. Nie nastąpił równieŜ zasadniczy przełom w charakterze funkcjonowania poszczególnych organizacji i pracy ich personelu (pracowano tak samo), chociaŜ praca była juŜ wykonywana zdalnie (telework), w dowolnym miejscu i czasie, nierzadko poza miejscem zatrudnienia (w domu, samolocie, pociągu, w terenie, poza krajem itd.), a więc prace wykonywano „zawsze i wszędzie”. Wprowadzenie nowoczesnych technologii informacji, infomediów, Internetu i Intranetu spowodowało gruntowną weryfikację koncepcji zdalnej pracy. W miejsce łańcucha wartości, na 106 Antoni Korowicki, Bernard F. Kubiak Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji którego poszczególnych „odcinkach” funkcjonowały organizacje i załogi, zaczęto wprowadzać cyfrową sieć wartości (value network) i międzyorganizacyjne zintegrowane sieciowe systemy informacyjne. Cyfrowe sieci wartości zintegrowały interakcje podmiotów gospodarczych nie tylko z ich partnerami (dostawcy, pośrednicy, konsultanci, banki, ubezpieczyciele i in.) i klientami aktualnymi i potencjalnymi (za pomocą ekstranetu), lecz takŜe z konkurentami. Wymusiły teŜ przedefiniowanie zdalnego wykonywania zleconych zadań i włączenia wielu prac niefizycznych, zapoczątkowanych współpracą w sieci. Nastąpiła radykalna zmiana sposobów wykonywania pracy wskutek utworzenia organizacji wirtualnych oraz wysoko wydajnych zespołów (task-focused teams)1, realizujących własne zadania w poczuciu wspólnoty, współodpowiedzialności i wzajemnego wspierania. Funkcjonowanie w warunkach gospodarki cyfrowej poprzez wprowadzenie sieci wartości spowodowało zatem powtórne przeanalizowanie charakteru i funkcji zdalnej pracy, odejście od dotychczasowych stereotypów sposobów jej wykonywania i przedstawiania (wizerunku), zmianę postrzegania zdalnego wykonywania pracy (szersza współpraca i koordynacja) i – co najwaŜniejsze – poszerzenie reengineeringu i jego efektów (obniŜka kosztów i racjonalizacja procesów gospodarczych) o koncepcję sieci tworzenia wartości, uzupełnioną wspieraniem się wszystkich pracowników w realizacji zadań2. Jest to początek multiorganizacji przyszłości, która będzie funkcjonowała według zasady rezygnacji w biznesie z podejścia „dla mnie” na rzecz rozwiązań promujących całą (lub całe) branŜę. Nową formułę organizacji (firmy) postrzega się jako współpracujące w sieci globalnej, a nie w strukturze hierarchicznej, rozproszone zespoły zadaniowe (robocze) zorientowane procesowo, pełniące naprzemiennie funkcje klientów i dostawców (serwerów), w zaleŜności od tego, czy współpracują z zespołami wewnątrz czy z zewnątrz organizacji. Zespoły zadaniowe występują w roli klientów, gdy otrzymują zasoby rzeczowe, zasoby finansowe, intelektualne lub zasoby informacyjne od zespołów-dostawców, warunkujących lub wspomagających realizację zadań zespołów-klientów. W toku tej interakcji zespoły pozyskują nowe informacje, które oferują innym zespołom-klientom juŜ jako wartość dodaną swoich usług lub produktów. Łańcuch wartości zamienia się tu w sieć wartości. Wartość dodana powstaje w toku wzajemnej interakcji lub oddziaływania uczestników-uŜytkowników otwartej sieci. Tym samym następuje odchodzenie od działalności w otoczeniu organizacji (firm i przedsiębiorstw) i upowszechnianie funkcjonowania w otoczeniu sieciowym. 1 Por. teŜ Kubiak B. F., 1999, Modele i architektura organizacji wirtualnych I międzyorganizacyjnych systemów informacyjnych, (W:) Procesy i systemy informacyjne w środowisku wirtualnym, red., J. Oleński, Studia Informatyki Gospodarczej, Wydawnictwo Nowy Dziennik Sp. z o. o., Katedra Cybernetyki i Badań Operacyjnych, Uniwersytet Warszawski, Warszawa, s. 201 i nast.; P. Drucker, 1988, The New Organisation, „Harvard Business Review”, styczeń - luty; D. Tapscott, 1998, Gospodarka cyfrowa. Nadzieje i niepokoje Ery Świadomości Systemowej, Business Press, Warszawa, s. 95 i nast. 2 Zwolennicy zdalnej pracy wskazują na nowe moŜliwości ograniczania kosztów (głównie energii), ochrony środowiska (np. poprzez zmniejszenie natęŜenia ruchu drogowego), aktywizacji zawodowej niepełnosprawnych i samotnych rodziców, efektywnej pracy. Natomiast oponenci tego typu pracy eksponują alienację pracowników, obniŜenie komunikacji współpracujących, spadek poufności realizowanych projektów, a ponadto trudności organizacji środowiska pracy poza miejscem zatrudnienia i współpracy wyłącznie za pomocą „odpersonalizowaną” siecią elektroniczną (por. teŜ D. Tapscott, 1998, Gospodarka cyfrowa. Nadzieje i niepokoje Ery Świadomości Systemowej, Business Press, Warszawa, s. 229 i nast.). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 107 Sieciowy model organizacji sprzyja elastyczności i szybkości działania, nowatorstwu, przedsiębiorczości oraz gotowości do nieustannego uczenia się i wzrostu odpowiedzialności. Wprowadzaniu tych nowych, krytycznych czynników sukcesu powinno towarzyszyć stworzenie wspólnej dla całej firmy wizji przyszłości, która sprowadza się do kreowania nowych produktów, rynków i obszarów działalności w perspektywie 5-10 lat. Chodzi zatem nie tyle o umiejętność działania, ile o umiejętność myślenia o przyszłości organizacji. Redukcja i przemodelowanie podstawowych procesów organizacji, a więc restrukturyzacja i reengineering zapewniają jedynie odnowę starych struktur i procesów, a nie tworzenie przyszłości (sektorów jutra) organizacji. Warunki te spełnia stałe reformowanie strategii organizacji, co wiąŜe się z określeniem: jakie nowe cechy kluczowej konkurencji organizacja musi wypracować, jakie nowe koncepcje produktów naleŜy zaproponować przyszłym potencjalnym klientom, a w związku z tym - jakie nowe alianse organizacja musi utworzyć, wreszcie – jakie programy rozwojowe organizacja powinna chronić oraz jakie długoterminowe działania prawne powinna popierać [1]. 3. Restrukturyzacja spóźnioną próbą poprawy przeszłości Restrukturyzacja przekształca (transformuje) organizację, ale nie zmienia sposobu wykonywania jej pracy i jest spowodowana tempem zmian w otoczeniu danej branŜy i wewnątrz organizacji. Dotyczy ona decyzji odnośnie tego, jakie rynki obsługiwać, jakie technologie opanować, jakich klientów pozyskać (zaopatrywać) i jak zoptymalizować wykorzystanie zasobów intelektualnych (potencjał ludzki) i informacyjnych. W praktyce restrukturyzacja pomniejsza wielkość organizacji poprzez redukcję jej struktur, nieefektywnych jednostek i stanu zatrudnienia, obniŜkę kosztów zarządzania, delegowanie uprawnień zespołom pracowników, przemodelowanie procesów podstawowych i pomocniczych oraz racjonalizację (częściej redukcję) portfela inwestycji. Z licznych doświadczeń restrukturyzacji wynika, iŜ racjonalizacja struktury organizacyjnej jest najczęściej spóźnioną próbą naprawy błędów przeszłości a nie zasadniczą jej odnową. Pomaga zyskać na czasie, ale nie sprzyja tworzeniu nowych produktów, rynków i obszarów działalności. Zmniejszenie wielkości organizacji poprzez restrukturyzację nie wystarcza, mimo Ŝe prowadzi do jej wyszczuplenia, co nie oznacza – poprawy kondycji, pozycji konkurencyjnej ani wykreowania zyskownej przyszłości [16]. Przeciwnicy restrukturyzacji podkreślają natomiast, Ŝe firma w toku transformacji organizacyjnych pozbywa się aktualnych obszarów działalności, jeśli szybciej staje się mniejsza niŜ lepsza; traci równieŜ przyszłe obszary działalności, gdy staje się lepsza, ale nie inna. Organizacja moŜe zatem zredukować swoje struktury, nawet dokonać reengineeringu, nie redefiniując jednak swojej strategii i koncepcji obsługi rynku w świetle potrzeb potencjalnych klientów następnej dekady. Jest to typowy przejaw obrony aktualnego przywództwa rynkowego, która nie zapewnia pomyślnej kreacji przywództwa w przyszłości. Znane są przypadki utraty przywództwa rynkowego wskutek braku jego przeformułowywania i pozostawaniu przy zachowawczym podejściu, braku wystarczającej kreatywności w określaniu granic rynku w perspektywie 10 lat oraz wykorzystywania szans, innowacyjności, odkrywania i wprowadzania nowych form współpracy z klientami i partnerami biznesowymi. Wyjściem z tej kryzysowej sytuacji jest co najmniej dokonanie reengineeringu. 108 Antoni Korowicki, Bernard F. Kubiak Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji 4. Reengineering zmianą opóźnioną Koncepcja reengineeringu obejmuje działania prowadzące do wyeliminowania procesów nie tworzących wartości dodanej, jej maksymalizacji w procesach dotąd przynoszących tę wartość, zorientowania procesów na satysfakcję i korzyści dla klientów, skrócenia cyklu (czasu), zmniejszenia kosztów i osiągnięcia globalnej jakości [2], [3], [16]. Reengineering wymusza takŜe rewizję postaw kierownictwa naczelnego organizacji i załoŜeń decyzji odnośnie wyboru rynków, technologii, klientów oraz kierunków i sposobów wykorzystywania zasobów intelektualnych i zasobów informacyjnych organizacji. Przeprojektowanie procesów (reengineering) i przebiegu pracy (workflow) odbywa się w większym stopniu z udziałem własnej kadry, niŜ ekspertów z zewnątrz i obejmuje definiowanie podstaw i załoŜeń strategii organizacji, formułowanie zasad reengineeringu jako podstawy realizacji strategii organizacji, z uwzględnieniem identyfikacji, modelowania i realizacji procesów oraz analizy spójności zrekonstruowanych procesów. W działaniach tych nie moŜna pominąć przezbrojenia technologii (automatyzować czy zaniechać?), przebudowy stylu pracy organizacji i konieczności stworzenia infrastruktury programu reengineeringu procesów. Restrukturyzacja (zmniejszenie firmy przez redukcję personelu, portfela zleceń i inwestycji) i reengineering sprawiają Ŝe, organizacja staje się mniejsza, lepsza i szybsza (por. teŜ [15], [17]. Rzadziej zmiany te prowadzą do przeformułowania strategii organizacji i jej całkowitego przedefiniowania w zakresie kanałów sprzedaŜy, procesów produkcyjnych, klientów, zasad awansowania kadry kierowniczej, czynników krytycznych sukcesu i in. 5. Przeformułowywanie strategii działania i strategii SI/TIK organizacji Kreowanie przyszłości przez organizacje wymaga nie tylko reengineeringu ich procesów, ale równieŜ reengineeringu branŜy, czyli przedefiniowania organizacji i ich strategii a takŜe polityki całej branŜy [1]. Organizacja i branŜa powinny wypracować unikalny sposób widzenia przyszłości, który wyprzedza o 5-10 lat plany strategiczne. Istotne jest równieŜ wyobraŜenie o przyszłości lepszej od tej, jaką postrzegają konkurenci. Wizja ta dotyczy produktów i usług własnych oraz całej branŜy, które jeszcze nie zaistniały. Kolejne wyzwanie dotyczy stworzenia tych produktów i usług oraz wykreowania nowej przestrzeni konkurencyjnej. Wynika stąd, iŜ przyszłość naleŜy do organizacji, które opanują umiejętność kreowania nowych produktów i obszarów działalności, przy zachowaniu dotychczasowych kryteriów oceny skuteczności działania (koszty, jakość, czas realizacji produktów i usług), a nie tylko zdolność do permanentnego reengineeringu procesów, uznawany raczej za sposób doskonalenia wyników bieŜących niŜ przyszłościowych. Najtrudniejszym problemem organizacji i branŜy jest określenie, co jest potrzebne dla wykreowania zasadniczych zmian w branŜy z korzyścią dla klientów i firm w niej funkcjonujących, a takŜe jakie działania naleŜy podjąć, aby zespół liderów mógł stworzyć perspektywiczną, wiarygodną wizję przyszłości i urzeczywistnić ją zgodnie z oczekiwaniami potencjalnych klientów. Doświadczenia krajów wysoko rozwiniętych (Japonia, USA, Niemcy, i in.) dowodzą, iŜ chodzi tu o tworzenie rynków i branŜ jutra poprzez kreowanie nowych form przewagi konkurencyjnej i jakościowej, radykalne zmiany zasad działania oraz sposobów realizacji procesów. W odniesieniu do organizacji oznacza to zmianę kompetencji kluczowych (np. dywersyfikacja) w ugruntowanej branŜy, zmianę dotychczasowych granic pomiędzy branŜami oraz stworzenie nowej branŜy dla swojej działalności lub przedefiniowanie starej. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 109 Prawidłowe zrozumienie przyszłości branŜy oraz stworzenie proaktywnego programu transformacji wymaga wizji przebiegu transformacji realizowanego sektora działalności i odpowiedzi na następujące pytania: 1) jaki powinien być wizerunek branŜy w następnych 5-10 latach? 2) jakie podjąć działania, aby w branŜy „jutra” uzyskiwać największe korzyści? 3) jakie umiejętności i jakie cechy konkurencyjności naleŜy kształtować obecnie w branŜy, aby osiągnąć przywództwo w przyszłości? 4) jaka struktura organizacyjna firmy umoŜliwi wykorzystywanie okazji rynkowych w przyszłości?. Realizacja proaktywnego programu transformacji sektora działalności organizacji i branŜy nie jest moŜliwa bez zintegrowanego zastosowania nowoczesnej TIK (w tym systemów klasy ERP). Dlatego udział kierownictwa w kreowaniu zastosowań TIK w biznesie wzrasta w miarę postępującej integracji w organizacjach i ich współpracy z dostawcami zasobów i odbiorcami, pośrednikami i klientami końcowi produktów i usług (coraz powszechniej stosuje się pakiet Client Relationship Management – zarządzanie współpracą z partnerami i klientami). Nieuchronne staje się globalne zastosowanie TIK, które w istotny sposób oddziałuje na pracę, strukturę organizacyjną, powiązania i współpracę wewnętrzną (łańcuch wartości) oraz kooperację zewnętrzną (sieć wartości) a takŜe politykę organizacji. Ponadto, zmiany te oddziałują na rolę zasobu intelektualnego w biznesie, który z wykonawcy poleceń kierownictwa przeobraŜa się w partnera w wyznaczaniu i realizacji zadań oraz projektowaniu produktu lub usługi. Oznacza to, Ŝe organizacja włącza pracowników i klientów do przeprojektowania procesów, przebiegu pracy, produktów i usług. Problem tkwi jednak w trudności pomiaru wpływu TIK na osiąganie zamierzonych celów organizacji. TIK moŜe bowiem jednocześnie ułatwiać i utrudniać ich osiąganie. Przykładem jest wykorzystanie sieci komputerowych, które usprawniają wewnętrzną i zewnętrzną komunikację w organizacji, ale wymagają całkowitej zmiany funkcjonowania i stylu jej pracy, a więc permanentnego reengineeringu i przedefiniowania strategii organizacji. Formułowanie efektywnej strategii TIK dla organizacji wymaga wiedzy, współpracy i porozumienia pomiędzy kierownictwem naczelnym i profesjonalistami TIK. W wielu organizacjach obserwuje się brak takiego porozumienia głównie dlatego, Ŝe obie grupy funkcjonują w róŜny sposób i koncentrują swoją uwagę na zupełnie odmiennych funkcjach i działaniach. Nietrafione pomysły kierownictwa, realizowane przy pomocy duŜych inwestycji związanych z wprowadzeniem TIK, bywają bardzo kosztowne dla organizacji. Sytuację tę pogarsza niemoŜność opisania przez menedŜerów swojej działalności z wymaganą dokładnością lub na takim poziomie abstrakcji, który umoŜliwiłby jej przełoŜenie na język TIK. Do tego dochodzą nowe potrzeby organizacji, które mogą wymagać zmian w systemach informacyjnych (SI) i TIK. Z doświadczeń róŜnych organizacji wynika, iŜ akceptują potrzebę zreformowania swoich strategii i przystępują do przedefiniowywania swojej branŜy dopiero wówczas, gdy restrukturyzacja i reengineering nie mogą powstrzymać ich upadku [1], [7], [8], [9]. Zmniejszają wówczas zatrudnienie, portfel zamówień i inwestycje, a kiedy zmiany te nie polepszają pozycji konkurencyjnej, organizacje przystępują do racjonalizacji procesów nieefektywnych, czyli reengineeringu. Najczęściej zmiany te są spóźnione lub niewystarczające, zwłaszcza gdy tempo zmian w branŜy macierzystej jest znaczne a organizacja nie tylko nie nadąŜa za tymi zmianami, lecz nie jest a stanie dokonać reengineeringu branŜy, w której funkcjonuje. Znawcy tych problemów dowodzą, iŜ reengineering jest w takich sytuacjach niewystarczający, poniewaŜ sprzyja tylko doganianiu a nie wykreowaniu przyszłości. Dlatego organizacja powinna systematycznie dokonywać reengineeringu, przeformułowywać własne pojmowanie przywództwa, reformować strategię i definiować na nowo swoją branŜę [19]. 110 Antoni Korowicki, Bernard F. Kubiak Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji 6. Dochodzenie do przyszłości przed konkurentami Tworzenie przyszłości organizacji i zwiększanie jej wartości, a w konsekwencji przewagi konkurencyjnej jej jutra nie jest moŜliwe bez kreowania i zdominowania pojawiających się moŜliwości oraz wykorzystywania istniejących mocnych stron (potencjału) organizacji. Organizacja nie jest w stanie osiągnąć przyszłości przed konkurentami dokonując jedynie reengineeringu (doganianie przyszłości poprzez racjonalizację procesów) i benchmarkingu (powielanie metod, produktów i procesów konkurentów), konieczne jest takŜe stworzenie własnego, unikalnego, niezaleŜnego sposobu dostrzegania przyszłych szans oraz dróg i sposobów ich wykorzystywania. Organizacja nie moŜe tylko naśladować konkurentów, lecz musi wytyczyć własny program działania, unikalny i trudny do skopiowania oraz wdroŜenia przez konkurentów. Według G. Hamela i C.K. Prahalada [1] proces dochodzenia do przyszłości przed konkurentami wymaga: 1) zrozumienia, czym róŜni się konkurowanie o przyszłość od konkurowania o teraźniejszość; 2) nieustannego wzbogacania wiedzy o przyszłych moŜliwościach; 3) umiejętności motywowania wszystkich szczebli zarządzania i pracowników organizacji do pokonywania długiej i trudnej drogi dochodzenia do przyszłości; 4) umiejętności i zdolności wyprzedzania konkurentów w dochodzeniu do przyszłości z pominięciem zbędnego ryzyka w działalności. Spełnienie wymienionych postulatów wiąŜe się z wprowadzeniem nowego paradygmatu strategii, według którego organizacja odrzuca znaczną część swojej przeszłości w celu wykreowania właściwej przyszłości, optymalizuje pozycjonowanie nie tylko na obecnie zajmowanych, lecz takŜe przyszłych rynkach. Ponadto powinna opracowywać plany strategiczne i strategiczną koncepcję architektoniczną w celu określenia cech konkurencyjności umoŜliwiających opanowanie rynków przyszłości, wyznaczać ambitne cele (tzw. „dźwignia celów” słuŜąca pokonywaniu ograniczeń dostępności zasobów) wykraczające poza harmonizację celów i zasobów, prowadzić działania konkurencyjne w istniejących segmentach rynku oraz kształtować strukturę sektorów przyszłości, poprzedzać zdobywanie przywództwa w zakresie cech kluczowej konkurencyjności konkurowaniem o przywództwo w zakresie produktu, uwzględniać zarówno konkurencję pomiędzy poszczególnymi organizacjami, jak równieŜ w ramach i pomiędzy koalicjami organizacji. Istotne jest równieŜ zwiększanie ilości poszukiwanych nowych produktów i tempa uczenia się nowych rynków oraz wprowadzania ich na rynki, jak równieŜ szybsze wyprzedzanie konkurentów na krytycznym rynku globalnym. Nowy paradygmat organizacji (odchudzona, spłaszczona, procesowa, modułowa, wirtualna, usieciowiona) nie sprzyja realizacji nowego paradygmatu jej strategii głównie wskutek braku wspólnej inteligencji menedŜerów i całej załogi, a więc pogłębionej świadomości stawania się strategicznym, czyli jak wyprzedzać konkurencję i stworzyć własną, unikalną wizję przyszłości organizacji, co wymaga z kolei umiejętności stworzenia unikalnego obrazu tego, jak i co moŜe być [1], [4], [5]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 111 7. Podsumowanie Sektor i organizacje w nim funkcjonujące muszą wspólnie opracowywać unikalne wizje przyszłości, korzystniejsze niŜ konkurenci, wyprzedzające o 5-10 lat plany strategiczne. Wizja ta dotyczy nie istniejących jeszcze produktów i obszarów działalności, a więc nowej przestrzeni konkurencyjnej. Pomyślne przewidywanie przyszłości organizacji i sektora oraz tworzenie proaktywnego programu transformacji wymaga określenia wizji przebiegu jego realizacji, która nie jest moŜliwa bez zintegrowanego zastosowania nowoczesnej TIK, łączącej wszystkich uczestników globalnego łańcucha wartości (dostawcy, partnerzy, odbiorcy, konkurenci). Konieczne zatem staje się globalne zastosowanie TIK, które zmienia pracę i strukturę organizacji, jej powiązania i współpracę wewnętrzną (łańcuch wartości) i zewnętrzną (sieć wartości). Przeformułowywanie strategii organizacji i sektora wymaga nie tylko wiedzy, porozumienia i współpracy menedŜerów i informatyków, ale takŜe wyprzedzania sytuacji kryzysowych i bankructwa. Restrukturyzacja jest działaniem spóźnionym, reengineering zapewnia jedynie racjonalizację procesów, dopiero przeformułowanie strategii umoŜliwia kreowanie przyszłości organizacji i sektora. 8. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Hamel G., Prahalad C.K.,: Przewaga konkurencyjna jutra. Strategia przejmowania kontroli nad branŜą i tworzenia rynków przyszłości, Business Press, Warszawa 1999. Hammer M., Champy J.: Reengineering w przedsiębiorstwie, Neumann Management Institute, Warszawa 1996. Hammer M.: ReinŜynieria i jej następstwa, Wydawnictwo Naukowe PWN, Warszawa 1999. Hesselbein F., Goldsmith M., Beckhard R.: Organizacja przyszłości, Business Press, Warszawa 1998. Kasprzak T.: Ewolucja przedsiębiorstw ery informacji, Studia Informatyki Gospodarczej, Wydawnictwo Nowy Dziennik Sp. z o.o., Katedra Informatyki Gospodarczej i Analiz Ekonomicznych Uniwersytet Warszawski, Warszawa 2000. Koch R.: Strategia. Jak opracować i wprowadzić w Ŝycie najskuteczniejszą strategię. Przewodnik, Wydawnictwo Profesjonalnej Szkoły Biznesu, Kraków 1998. Kubiak B. F., Korowicki A.: Restrukturyzacja zarządzania procesami gospodarczymi współczesnej organizacji z wykorzystaniem technologii informacji, W: Human-Computer Interaction, red., B. F. Kubiak, A. Korowicki, Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk 1997. Kubiak B. F., Korowicki A.: Strategia planowania rozwoju firmy i jej systemu informacyjnego, Zeszyty Naukowe Uniwersytetu Szczecińskiego, Studia Informatica, 1998, nr 9. Kubiak B.F., Korowicki A.: Międzyorganizacyjne systemy informacyjne w rozwoju wirtualizacji, W: Modele informacyjne procesów gospodarczych, red., T. Kasprzak, Wydawnictwo Uniwersytetu Warszawskiego - Institut für Wirtschaftsinformatik Universität des Saarlandes, Warszawa-Saarbrücken 1998. 112 Antoni Korowicki, Bernard F. Kubiak Rola wiedzy w określaniu przydatności i zastosowań technologii informacji w organizacji 10. Kubiak B.F., Korowicki A.: Zintegrowane systemy informatyczne klasy MRP II w restrukturyzacji procesów współczesnej organizacji, „InfoMan. Systemy Zarządzania Informacją”, 1998, nr 2 i 3. 11. Kubiak B.F., Korowicki A.: Działalność gospodarcza w sieci globalnej – stan i perspektywy, W: Human-Computer Interaction, red., B. F. Kubiak, A. Korowicki, Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk 1999. 12. Kubiak B.F., Korowicki A.: Kapitał intelektualny w procesach zmian i wzrostu konkurencyjności organizacji, W: Zastosowanie technologii informacyjnych do wspomagania zarządzania procesami gospodarczymi, red., N. Siemieniuk, R. Mosdorf, WyŜsza Szkoła Finansów i Zarządzania w Białymstoku, Białystok 2008. 13. Kubiak B.F., Korowicki A.: Rola potencjału intelektualnego w doskonaleniu zarządzania wiedzą. Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, 2008, 13. 14. Kubiak B.F., Korowicki A.: Rola i znaczenie kapitału intelektualnego w kształtowaniu efektywności organizacji turystycznych, Zeszyty Naukowe, Ekonomiczne Problemy Usług nr 19, Uniwersytet Szczeciński w Szczecinie, Szczecin 2008, 496. 15. Manganelli R.L., Klein M. M.: Reengineering, Polskie Wydawnictwo Ekonomiczne, Warszawa 1998. 16. Müller U.R.: Szczupłe organizacje, Agencja Wydawnicza „Placet”, Warszawa 1997. 17. Peppard J., Rowland P.: Re-engineering, Gebethner & Ska, Warszawa 1999. 18. Schlesinger P. F., Sathe V., Schlesinger L. A., Kotter J.: Projektowanie organizacji, Wydawnictwo Naukowe PWN, Warszawa 1999. 19. Staniszkis W.: Corporate Information Resource, W: Human-Computer Interaction, red., B. F. Kubiak, A. Korowicki, Gdańsk 1999. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 113 THE KNOWLEDGE ROLE IN DEFINING THE INFORMATION AND COMMUNICATION TECHNOLOGY USABILITY AND FISSIBILITY IN AN ORGANIZATION Summary This paper describes the knowledge significance in defining innovative ways of Information and Communication Technology (ICT) global applications. Also the new organizational formulas adequate to the network model functioning and knowledge creating and measuring were discussed. Further on there was justified the necessity of giving up corporate restructuring, reengineering and introducing permanent re-formulating corporate and sector strategy aided by the ICT. Additionally, new strategy paradigm and circumstances of its success performance from the global digital economy point of view have been presented. Key words: Information and Communication Technology (ICT), innovative ICT applications, network organization model, value chain, network value chain, reorganization, reengineering, new strategy paradigm, strategy re-formulation Antoni Korowicki Bernard F. Kubiak Uniwersytet Gdański e-mail: [email protected] e-mail: [email protected] http://www.univ.gda.pl 114 Edward Michalewski MoŜliwości audytu systemowego sektora bankowego w Polsce EDWARD MICHALEWSKI Instytut Badań Systemowych PANWarszawa MOśLIWOŚCI AUDYTU SYSTEMOWEGO SEKTORA BANKOWEGO W POLSCE Streszczenie RozwaŜono moŜliwości jakie daje audyt sektora bankowego w przypadku wykorzystania podejścia systemowego. Przedstawiono róŜnorodność sektora bankowego w Polsce i jego powiązania z europejskim systemem bankowym. Opisano istniejące mechanizmy audytu, kontroli i nadzoru sektora bankowego. Omówiono problemy wynikające z braku powiązań między nimi i wymiany informacji. Zaproponowano rozwiązanie oparte o podejście systemowe. Przedstawiono wnioski końcowe. Słowa kluczowe: audyt systemowy, narzędzia wspomagające analizę diagnostyczną, sektor bankowy, zarządzanie wiedzą. 1. Wprowadzenie Podstawowym celem niniejszej publikacji jest próba przedstawienia moŜliwości, jakie daje audyt sektora bankowego w Polsce w przypadku wykorzystania podejścia systemowego. Nazwa bank pochodzi od włoskiej nazwy banco, czyli ławki, kontuaru, przy którym pracowali włoscy handlarze. Zajmowali się oni przede wszystkim przekazywaniem pieniędzy od jednego klienta do drugiego. Obecnie w literaturze [1] moŜna spotkać następujące wyjaśnienie: " Bank to instytucja finansowa, której zadaniem jest obsługa obiegu pieniądza oraz skupianie wolnych kapitałów finansowych i oszczędności oraz przekształcanie ich w kapitały funkcjonujące." Sektor bankowy obejmuje całokształt instytucji bankowych, a takŜe normy określające wzajemne powiązania i stosunki z otoczeniem. O sektorze bankowym moŜna jednak mówić dopiero wówczas, gdy rozwój banków, a takŜe rynków finansowych, pozwolą na ustalenie zasad struktury tego sektora. Dlatego teŜ dopiero powstanie wielopoziomowego układu, złoŜonego z banku centralnego (emisyjnego) i banków komercyjnych, jest uznawane za podstawę dla określenia się sektora bankowego. Sektor bankowy obejmuje następujące podstawowe grupy banków: • banki centralne powstałe na bazie banków emisyjnych, • banki operacyjne (komercyjne, handlowe), • banki specjalne (wyspecjalizowane), • spółdzielczość kredytową, • kasy oszczędnościowe. Zasady funkcjonowania sektora bankowego w kaŜdym kraju określa prawo bankowe, czyli zbiór ustaw, dekretów, zarządzeń i innych aktów prawnych regulujących działalność banków. Ustala ono m.in. rodzaje banków, ich czynności, rolę banku centralnego oraz zadania nadzoru bankowego. Nowe prawo bankowe w Polsce [2], obowiązujące od 1 stycznia 1998 r., określa zasady działalności bankowej, tworzenia i organizacji banków oraz zasady sprawowania nadzoru bankowego, postępowania naprawczego i likwidacji banków. Cechą charakterystyczną tego prawa jest POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 115 to, Ŝe odnosi się ono wyłącznie do banków i stosunków między bankiem a klientem, a nie obowiązuje innych przedsiębiorstw. Ramowe przepisy dotyczące operacji bankowych zawierają następujące rozdziały ustawy: • rachunki bankowe, • bankowe rozliczenia pienięŜne, • kredyty i poŜyczki pienięŜne, • gwarancje bankowe, poręczenia i akredytywy, • emisja bankowych papierów wartościowych. Wykonując te operacje, banki są ustawowo zobowiązane do utrzymania płynności płatniczej, zapewniającej wywiązanie się z wszystkich zobowiązań zgodnie z terminem ich płatności. W tym celu przepisy ustawy wprowadzają rozwiązanie słuŜące zapewnieniu bezpieczeństwa środków pienięŜnych powierzonych bankom przez klientów. Jednak w ciągu ostatnich lat obserwowana jest tendencja do coraz dalej idącej dereglamentacji bankowości, czyli zmniejszenia ograniczeń, znoszenia norm [3]. Ustawy w ciągu najbliŜszych lat będą stopniowo rewidowane i uzupełniane, m.in. w celu coraz bliŜszego dostosowania prawa polskiego do norm Unii Europejskiej. Zdolność sektora bankowego do zachowania płynności finansowej oraz poszczególnych banków do pokrywania strat i ryzyka z kapitału własnego nieodłącznie towarzyszącego ich działalności nazywamy stabilnością systemu bankowego. ZaleŜy ona od trzech podstawowych czynników: • stopnia konkurencji panującej na rynku finansowym, • struktury instytucjonalnej systemu bankowego, • sprawności funkcjonowania samych banków. Podstawowymi funkcjami sektora bankowego są: • kreowanie przez bank emisyjny pieniądza jako ostatecznego środka zapłaty, • kreowanie przez banki operacyjne pieniądza jako środka płatniczego, • zaspakajanie zapotrzebowania na pieniądz za pomocą kredytu, • pośredniczenie między posiadaczami środków pienięŜnych i ich uŜytkownikami. Na rozwój sektora bankowego wywierają wpływ następujące czynniki: • porządek społeczny i gospodarczy, który określa społeczne wartości i cele gospodarcze, • struktura i wielkość popytu na usługi bankowe, • regulacje prawne działań bankowych, • skłonność banków do innowacji. Wszystkie te czynniki są ze sobą ściśle powiązane i naleŜy je rozpatrywać we wzajemnym związku – podejście systemowe. Uwzględnienie tych czynników moŜe być skuteczną dźwignią rozwoju sektora bankowego ukierunkowanego przez nadrzędne cele systemu gospodarczego. 2. Kontrola, nadzór i audyt sektora bankowego Przedstawiony powyŜej złoŜony układ sektora bankowego podlega wielostronnej kontroli w ramach stałego nadzoru i sporadycznego audytu. Celem tych poczynań jest zapewnienie bezpieczeństwa sektora bankowego. MoŜna rozróŜnić dwie podstawowe formy tej kontroli: wewnętrzną i zewnętrzną. Kontrola wewnętrzna istnieje w kaŜdej instytucji sektora bankowego i jest ukierunkowana w pierwszej kolejności na zabezpieczenie jej własnych wewnętrznych interesów, zaś dopiero 116 Edward Michalewski MoŜliwości audytu systemowego sektora bankowego w Polsce w drugiej kolejności interesów jej klientów. Pewnym odstępstwem jest audyt systemów informatycznych, który jest ukierunkowany nie tylko na bezpieczeństwo danych (a więc równieŜ danych klientów), ale teŜ na zapewnienie kompatybilności tych systemów z informatycznymi systemami zewnętrznymi. Taka sytuacja powoduje, Ŝe kontrola zewnętrzna w kaŜdym kraju jest niewyobraŜalnie rozbudowana i rozwija się nadal w sposób dynamiczny. Dominująca rola przypada tu na bank centralny. W przypadku Polski wynika to bezpośrednio z jego podstawowych, ustawowych funkcji [4] - Narodowy Bank Polski, jako bank centralny, pełni trzy podstawowe funkcje: Bank emisyjny. NBP ma wyłączne prawo emitowania znaków pienięŜnych będących prawnym środkiem płatniczym w Polsce. Narodowy Bank Polski określa wielkość ich emisji oraz moment wprowadzenia do obiegu, za którego płynność odpowiada. Ponadto, organizuje obieg pienięŜny i reguluje ilość pieniądza w obiegu. Bank banków. NBP pełni w stosunku do banków funkcje regulacyjne, które mają na celu zapewnienie bezpieczeństwa depozytów zgromadzonych w bankach oraz stabilności sektora bankowego. Organizuje system rozliczeń pienięŜnych, prowadzi bieŜące rozrachunki międzybankowe i aktywnie uczestniczy w międzybankowym rynku pienięŜnym. Narodowy Bank Polski jest odpowiedzialny za stabilność i bezpieczeństwo całego systemu bankowego. Pełniąc funkcję banku banków, sprawuje kontrolę nad działalnością banków, a w szczególności nad przestrzeganiem przepisów prawa bankowego. Ponadto NBP nadzoruje systemy płatności w Polsce. Centralny bank państwa. NBP prowadzi obsługę bankową budŜetu państwa, prowadzi rachunki bankowe rządu i centralnych instytucji państwowych, państwowych funduszy celowych i państwowych jednostek budŜetowych oraz realizuje ich zlecenia płatnicze. Dominującą rolę w nadzorze polskiego sektora bankowego pełni Komisja Nadzoru Bankowego [5]. Organem wykonawczym Komisji, realizującym i koordynującym decyzje oraz określone przez nią zadania jest, wydzielony organizacyjnie w strukturze NBP, Generalny Inspektorat Nadzoru Bankowego. Do zadań Komisji Nadzoru Bankowego naleŜy w szczególności: • określanie zasad działania banków zapewniających bezpieczeństwo środków pienięŜnych zgromadzonych przez klientów w bankach, • nadzorowanie banków w zakresie przestrzegania określonych ustaw, statutu i innych przepisów prawa oraz obowiązujących je norm finansowych, • dokonywanie okresowych ocen stanu ekonomicznego banków i przedstawianie ich Radzie Polityki PienięŜnej [6] oraz wpływu polityki pienięŜnej, podatkowej i nadzorczej na ich rozwój, • opiniowanie zasad organizacji nadzoru bankowego i ustalanie trybu jego wykonywania. Zgodnie z art. 77 ust. 2 ustawy o nadzorze nad rynkiem finansowym do 31 grudnia 2007 roku Komisja Nadzoru Bankowego, działa w składzie: • Przewodniczący Komisji - Przewodniczący Komisji Nadzoru Finansowego albo wyznaczony przez niego Zastępca Przewodniczącego; • Zastępca Przewodniczącego Komisji - minister właściwy do spraw instytucji finansowych lub delegowany przez niego sekretarz lub podsekretarz stanu w urzędzie obsługującym ministra właściwego do spraw instytucji finansowych; • przedstawiciel Prezydenta Rzeczypospolitej Polskiej; POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 • • 117 Prezes Zarządu Bankowego Funduszu Gwarancyjnego; Prezes Narodowego Banku Polskiego albo wyznaczony przez niego Wiceprezes Narodowego Banku Polskiego; • przedstawiciel ministra właściwego do spraw instytucji finansowych; • Generalny Inspektor Nadzoru Bankowego. Celem nadzoru, prowadzonego przez Komisję Nadzoru Bankowego i realizowanego przez Generalny Inspektorat Nadzoru Bankowego, jest monitorowanie i ograniczenie nadmiernego poziomu róŜnych rodzajów ryzyka podejmowanego przez banki, które to ryzyka mogłyby mieć negatywny wpływ na bezpieczeństwo depozytów powierzonych bankom oraz zagrozić stabilności systemu finansowego. GINB dopuszcza i zakłada w swoim podejściu to, Ŝe banki podejmują ryzyko, ale jednocześnie analizuje czy wielkość tego ryzyka jest w rozsądnej proporcji do posiadanego przez bank kapitału, uzyskiwanego wyniku finansowego, utworzonych rezerw oraz jakości systemów zarządzania ryzykiem. Działania Komisji Nadzoru Bankowego oraz GINB nie zwalniają kierownictwa banków od ostatecznej odpowiedzialności za zarządzaną instytucję, gdyŜ GINB nie uzurpuje sobie prawa i odpowiedzialności za codzienne zarządzanie bankiem. Głównymi narzędziami GINB w realizacji powierzonych przez Komisję Nadzoru Bankowego zadań są: właściwa i profesjonalna ocena adekwatności i kwalifikacji kierownictwa banków (proces licencjonowania i monitorowania struktury zarządczej oraz właścicielskiej), tworzenie regulacji limitujących ryzyko (m.in. współczynnik wypłacalności, limit na otwartą pozycję walutową netto), monitorowanie sytuacji finansowej banków poprzez okresową sprawozdawczość nadsyłaną do NBP i wykrywanie sygnałów świadczących o potencjalnych zagroŜeniach stabilności banków, inspekcje na miejscu w bankach celem oceny poziomu i sposobu zarządzania ryzykami przez banki oraz zgodności ich działania z prawem i dobrą praktyką bankową. W ramach tej działalności opracowano m.in. nowy System Informacji Sprawozdawczej (SIS), który będzie obowiązywał wszystkie banki działające w Polsce [7]. Zgodnie z jego załoŜeniami sprawozdania banków komercyjnych oraz niezrzeszonego banku spółdzielczego (KBS), niezaleŜnie od kontroli systemowej, przechodzą równieŜ weryfikację merytoryczną, mającą na celu sprawdzenie spójności sprawozdań. Kolejną instytucją zajmującą się kontrolą i nadzorem sektora bankowego w Polsce jest Ministerstwo Finansów. Na 38 departamentów MF aŜ 14 bezpośrednio, lub pośrednio zajmują się nadzorem sektora bankowego. W zakres tej działalności wchodzi równieŜ analiza wyników audytów poszczególnych banków prowadzonych przez renomowane firmy (jak np. PricewaterhouseCoopers). Pacą analityczną zajmuje się równieŜ NBP. W szczególności w ramach seminarium naukowych Instytutu Ekonomicznego NBP opracowano raporty dotyczące m.in. adaptacyjności gospodarki polskiej do szoków makroekonomicznych [8], wpływu bezpośrednich inwestycji zagranicznych [9], czy teŜ problemu tzw. „bąbli” na rynku nieruchomości mieszkaniowych [10]. Istotne miejsce zajmują tu raporty dotyczące wpływu, w szczególności na polski sektor bankowy, procesów związanych z przejściem na euro [11]. MoŜna więc twierdzić, Ŝe kontrola, nadzór i audyt sektora bankowego w Polsce są tak rozbudowane, Ŝe powinno to zapewnić pełne bezpieczeństwo tego sektora (co przy kaŜdej okazji usilnie podkreślają oficjalne środki przekazu). A jednak pewne wątpliwości istnieją i spróbujemy je rozwaŜyć poniŜej. 118 Edward Michalewski MoŜliwości audytu systemowego sektora bankowego w Polsce 3. Podejście systemowe Podstawowa wątpliwość, co do skuteczności tego rozbudowanego układu kontroli, nadzoru i audytu sektora bankowego, wynika z braku (prawie całkowitego) przepływu informacji o wynikach dokonanych kontroli i audytów pomiędzy poszczególnymi instytucjami odpowiedzialnymi za bezpieczeństwo sektora bankowego. W odniesieniu do kontroli wewnętrznej moŜe to jeszcze mieć jakieś racjonalne uzasadnienie, jednak w przypadku kontroli i audytów zewnętrznych świadczy jedynie o ich niedoskonałości. Podstawowy zarzut – brak podejścia systemowego. Podejście systemowe do tak złoŜonej problematyki jak audyt sektora bankowego moŜe mieć wiele propozycji rozwiązań: uwzględnienie powiązań z otoczeniem, badany obiekt jako system, wieloaspektowość, badania interdyscyplinarne, badania operacyjne jako podstawa, logistyka jako podstawa i wiele innych. Wydaje się jednak, Ŝe budowa modelu badanego obiektu jest najbardziej istotnym elementem rozwiązania problemu [12]. Wynika to ze specyfiki podejścia systemowego do konkretnie rozpatrywanego zadania – audytu sektora bankowego. Bogata literatura w zakresie teorii organizacji, np. fundamentalna praca prof. J.Zieleniewskiego [13], reprezentuje tzw. klasyczne podejście, w którym badany obiekt jest rozpatrywany wieloaspektowo w sposób nawzajem niezaleŜny (Rys. 1). Ze względu na sprzeczne nieraz interesy, zawarte w poszczególnych projektach usprawnień, moŜe się zdarzyć, Ŝe wynik końcowy wdroŜenia tych usprawnień będzie niekorzystny dla badanego obiektu. Wynika z tego konieczność innego podejścia do zagadnienia - właśnie systemowego. Nie twierdzę, Ŝe to co chciałbym tu zaproponować jest jedynie słusznym ujęciem tego zagadnienia. Jest to jeszcze jedna próba rozwiązania tego problemu, polegająca na wprowadzeniu pomiędzy Ŝywym obiektem a propozycjami jego usprawnień pewnego rodzaju buforu, w postaci modelu globalnego (systemowego), na którym zostałyby uprzednio sprawdzone róŜne aspekty rozwiązań. Wyniki negatywne powodowałyby zmianę załoŜeń aspektowych i dopiero ogólnie akceptowany wynik pozytywny byłby wdraŜany na obiekcie rzeczywistym (Rys. 2). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 119 Oczywiście idealnym modelem globalnym byłby model, który uwzględniałby wszystkie moŜliwe (dziś i jutro) aspekty. Jest to niemoŜliwe, jednak konsekwentne dąŜenie do tego ideału, realizowane m.in. w trakcie tworzenia i wieloletniego rozwoju metody DIANA, dało jak się wydaje obiecujące wyniki [12]. 4. Model systemowy sektora bankowego W oparciu o doświadczenia z metody DIANA moŜna zaproponować model sektora bankowego w postaci polihierarchicznej, wielopoziomowej, przestrzennej sieci powiązań informacyjnych, który przedstawiono na Rys. 3: Rys. 3. Wielopoziomowy model sektora bankowego (Źródło: własne) PowyŜszy model uzupełniają powiązania z otoczeniem. Jest to niezwykle istotna sprawa, dlatego naleŜy uwzględnić wszystkie najwaŜniejsze sygnalizowane w literaturze aspekty relacji: obiekt – otoczenie. 120 Edward Michalewski MoŜliwości audytu systemowego sektora bankowego w Polsce 5. Wnioski końcowe PowyŜsza propozycja stworzenia audytu systemowego wymaga oczywiście jeszcze wielu szczegółowych prac, jednak wydaje się Ŝe ten wysiłek warto wykonać, szczególnie w obliczu sytuacji kryzysowej. Wymaga to zastosowania nowoczesnych metod, opartych o analizę systemową oraz nowoczesnych narzędzi wykorzystujących te metody w oparciu o technikę komputerową do wspomagania tych procesów. Kluczową rolę będzie odgrywać zbudowanie odpowiedniego szczegółowego modelu sektora bankowego, który uwzględniałby wszystkie istotne aspekty jego funkcjonowania. Dzięki temu moŜliwa byłaby wieloaspektowa analiza diagnostyczna i usprawnianie sektora bankowego oraz wielowariantowe i bezpieczne (bo na modelu) projektowanie poszczególnych elementów tego sektora. Kształt polskiego sektora bankowego to efekt procesów, które zachodziły na tym obszarze w ciągu ostatnich kilkunastu lat. Spośród kilkudziesięciu (51 - stan na koniec lipca 2007) banków komercyjnych, które na nim działają, największą grupę stanowią banki w większości, bądź w całości sprywatyzowane. W ich prywatyzacji brały udział największe finansowe instytucje w Europie i na świecie [14]. Stąd (jak pokazuje tabela 1) bardzo duŜe udziały własnościowe w polskich bankach mają inwestorzy zagraniczni: Tabela 1. Struktura własnościowa banków w Polsce Struktura własnościowa banków w Polsce (stan na 30 lipiec 2007 r.) inwestorzy zagraniczni 70% Skarb Państwa 11,1% państwowe osoby prawne 2,2% udziałowcy banków spółdzielczych 4,2% pozostałe podmioty krajowe 12,2% drobni akcjonariusze 13,3% Źródło: [14] Powinno to stanowić rodzaj dzwonka alarmowego i pozostawiam to bez komentarza. Wreszcie prawdziwym wyzwaniem będzie uwzględnienie w modelu powiązań polskiego sektora bankowego z Europejskim systemem bankowym [15] oraz procesów związanych z przejściem na euro [16]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 121 6. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. System bankowy Słownik wybranych terminów (praca zbiorowa), http://www.business.gov.pl/System,bankowy,i,uslugi,finansowe,66.html MinisterstwoFinansówRPhttp://www.mf.gov.pl/index.php?const= 1&dzial =11&wysw= 2&sub=sub2 Narodowy Bank Polski http://www.nbp.pl/Home.aspx?f=onbp/organizacja/ Podstawowe funkcje NBP http://www.nbp.pl/Home.aspx?f=onbp/informacje/funkcje_ banku_centralnego.html Komisja Nadzoru Bankowego http://www.nbp.pl/Home.aspx?f=onbp/organizacja/ komisja.html Synteza Raportu o sytuacji sektora bankowego w 2007 r. (praca zbiorowa), Raporty Komisji Nadzoru Bankowego, Wyd. NBP, Warszawa, 2008 SIS – nowy system sprawozdawczości banków, http://www.nbp.gov.pl M. Bukowski, G. Koloch, P. Lewandowski: Adaptacyjność gospodarki polskiej do szoków makroekonomicznych (Instytut Badań Strukturalnych), Mat. Sem. Instytutu Ekonomicznego NBP, październik 2008, http://www.nbp.gov.pl/ K. Lada, G.Tchorek: Przepływy Bezposrednich Inwestycji Zagranicznych w Europie a utworzenie strefy euro, Mat. Sem. Instytutu Ekonomicznego NBP, wrzesień 2008, http://www.nbp.gov.pl/ J. Łaszek, H. Augustyniak, M. Widłak: Euro a ryzyko bąbli na rynku nieruchomości mieszkaniowych, Mat. Sem. Instytutu Ekonomicznego NBP, wrzesień 2008, http://www.nbp.gov.pl/ J. Grabczyński, J. Hylewski, A. Roy, E. Szafarczyk, M. Zielińska: Skutki integracji walutowej dla procesu zarządzania rezerwami dewizowymi w NBP, Mat. Sem. Instytutu Ekonomicznego NBP, grudzień 2008, http://www.nbp.gov.pl/ Michalewski E.: Podstawy metody analizy diagnostycznej i projektowania systemów zarządzania (metoda DIANA). Wyd. IBS PAN, Seria Badania Systemowe, tom 34, Warszawa 2004 J. Zieleniewski: "Organizacja i zarządzanie ", PWN, Warszawa, 1979. System bankowy i usługi finansowe, http://www.business.gov.pl/System,bankowy, i,uslugi,finansowe Europejski system bankowy, http://www.business.gov.pl/ESB Pieniądz rezerwowy i czynniki jego kreacji (http://www.nbp.gov.pl) 122 Edward Michalewski MoŜliwości audytu systemowego sektora bankowego w Polsce CAPABILITIES OF SYSTEMS AUDIT OF BANK SECTORS IN POLAND Summary Capabilities in case of utilization of system approach consider that give audit sector bank. Diversity of bank sector present in Poland and with European Banking System coherence . It describe existing mechanisms of audit, control and oversight of bank sector. It discuss subsequent problems from lack of coherence between them and exchanges of information. Based solution suggest about system approach. It present final conclusions.. Keywords: systems audit, instruments of computer-aided analysis diagnostic, bank sector, knowledge management. Edward Michalewski Instytut Badań Systemowych PAN, Warszawa, Newelska 6 e-mail: [email protected] http://www.ibspan.waw.pl/~michalew POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 123 MATEUSZ PIWOWARSKI Politechnika Szczecińska WIELOKRYTERIALNA ANALIZA DECYZYJNA W SYSTEMACH GIS Streszczenie Zwiększenie funkcjonalności systemów GIS w kontekście wspomagania podejmowania decyzji jest moŜliwe przez adaptację metod wielokryterialnych. Metody te mogą być wykorzystywane do budowy mapy decyzji oraz końcowej oceny alternatyw decyzji. Słowa kluczowe: MCDA, wielokryterialna analiza decyzyjna, GIS, geoinformacja 1. Wprowadzenie Informacja przestrzenna dotyczy lokalizacji obiektów w określonych układach współrzędnych (zazwyczaj odniesionych do powierzchni ziemi), ich właściwości geometrycznych oraz relacji przestrzennych zachodzących pomiędzy nimi. Początki określania połoŜenia interesujących nas rzeczy, przedmiotów, obszarów, czy zjawisk były stosunkowo prymitywne: rysunki, schematy, mapy papierowe o niskiej dokładności. Wraz z rozwojem techniki powstawały coraz bardziej zaawansowane sposoby pozyskiwania, przetwarzania i wizualizacji danych przestrzennych. Oprócz komputerowych baz danych, istnieją obecnie bardzo precyzyjne urządzenia do budowy map numerycznych, a takŜe wyspecjalizowane oprogramowanie do realizacji złoŜonych analiz przestrzennych. Systemy GIS stanowią coraz częściej narzędzie wspomagające podejmowanie decyzji na róŜnych poziomach zarządzania. Nie są one jednak wyposaŜone w mechanizmy pozwalające na wielokryterialną analizę decyzyjną i uwzględnianie indywidualnych preferencji decydenta. Celem niniejszego artykułu jest przedstawienie problematyki (w oparciu o literaturę światową) integracji metod wielokryterialnych z systemami GIS. 2. Analiza i modelowanie danych przestrzennych Początek systemów GIS sięga połowy lat sześćdziesiątych XX wieku, kiedy powstał Kanadyjski System Informacji Przestrzennej (ang. Canada Geographic Information System). Celem tego systemu było wspomaganie pomiarów kartometrycznych i prezentacja danych w postaci zestawień tabelarycznych [1]. Następne lata to dynamiczny rozwój systemów geoinformacyjnych w róŜnych aspektach ich funkcjonowania. Do podstawowych funkcji systemów GIS zalicza się opracowywanie map numerycznych, pomiary kartometryczne, modelowanie, zarządzanie oraz monitoring. Funkcjonalność ta zapewnia szerokie moŜliwości praktycznego stosowania systemów w wielu obszarach Ŝycia. Przykładowo, w administracji lokalnej systemy GIS znajdują zastosowania do wspomagania działań analitycznych w gospodarce mieszkaniowej, inwentaryzacji i planowaniu infrastruktury, uŜytkowaniu terenów, zarządzaniu kryzysowym, monitoringu środowiska, itp. Systemy geoinformacyjne są równieŜ powszechnie stosowane do wspomagania krótko i długo terminowych decyzji lokalizacyjnych, planowaniu działalności i usług gospodarczych, w logistyce, transporcie, środowisku przyrodniczym, hydrologii, zdrowiu, polityce i wielu innych obszarach 124 Mateusz Piwowarski Wielokryterialna analiza decyzyjna w systemach GIS [2,3]. O funkcjonalności systemów GIS w znacznym stopniu decydują moŜliwości z zakresu przeprowadzania analiz przestrzennych. Analiza ta jest podstawową cechą systemów geoinformacyjnych i polega na poszukiwaniu uporządkowania lub odchyleń od regularnego rozkładu zmiennych w przestrzeni, a takŜe odnajdowaniu zaleŜności pomiędzy zmiennymi w celu ustalenia związku przyczynowo-skutkowego. Dotyczy ona róŜnego rodzaju obliczeń i przekształceń (arytmetycznych, geometrycznych, logicznych, statystycznych) w wyniku, których uzyskuje się informacje o charakterze przestrzennym dedykowane zazwyczaj wspomaganiu decyzji. Przedmiotem analiz mogą być [8]: − atrybuty obiektów, − geometryczne cechy obiektów, − równocześnie cechy geometryczne i atrybuty obiektów. Funkcje analityczne systemów GIS obejmują przetwarzanie informacji pochodzącej zazwyczaj z kilku warstw mapy numerycznej w efekcie, czego jest moŜliwość wykrywania róŜnorodnych zaleŜności pomiędzy obiektami. W wielu przypadkach operacje te mogą być realizowane zarówno na danych wektorowych jak i rastrowych, chociaŜ większą funkcjonalność dostarczają dane w formacie wektorowym [4]. Do podstawowych metod analizy danych przestrzennych zalicza się [2]: − kwerendy (zapytania do bazy danych), − metody pomiaru charakterystyk geometrycznych obiektów (np. pole powierzchni, kształt), − przekształcenia (wyznaczanie relacji geometrycznych między obiektami). W oparciu o te sposoby i techniki pomiarów moŜna realizować bardziej zaawansowane działania, jak np. [7]: − konstruowanie wskaźników sumarycznych (miary połoŜenia, rozproszenia, oceny prawidłowości rozmieszczenia, fragmentacja, wymiary fraktalne, itp.), − weryfikacja hipotez statystycznych, − stosowanie metod optymalizacyjnych (wyznaczanie np. lokalizacji zjawisk punktowych, wybór najkrótszej, czy optymalnej drogi), − konstrukcja modeli i modelowanie zjawisk zróŜnicowanych przestrzennie. Szczegółową charakterystykę metod i zastosowań analiz danych przestrzennych przeprowadził Haining R. [5] oraz Maguire D. i inni [6]. Modele przestrzenne konstruuje się w celu znalezienia optymalnego rozwiązania przestrzennego (optymalizacja), zastąpienia rzeczywistych obiektów ich cyfrowymi odpowiednikami, wskazywania rozwiązań alternatywnych, czy teŜ dynamicznego analizowania i obrazowania wyników. Do najistotniejszych kategorii modeli wykorzystywanych w ramach systemów GIS zaliczamy [2]: − modele statyczne i wskaźnikowe (np. model erozji gleby, ochrony krasowych wód podziemnych), − modele zagregowane i autonomiczne (np. modelowanie przepływu strumienia wód, modelowanie zachowań ludzi w zatłoczonych miejscach), − automaty komórkowe (np. symulacja rozwoju urbanizacji). Przedstawione tutaj typy modeli (inne równieŜ) stanowią rozszerzenie funkcjonalności systemów GIS i zazwyczaj nie są częścią ogólnie dostępnych pakietów na rynku. W zdecydowanej większości przypadków modele przestrzenne są realizowane w oparciu o integrację zewnętrznych POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 125 pakietów z systemami GIS (ang. coupling). Modele takie są określane modelami słabo związanymi z GIS, gdyŜ dane z systemów geoinformacyjnych są przekazywane i odbierane w postaci plików (często w ustandaryzowanych formatach). MoŜna teŜ wyróŜnić modele silnie związane z GIS, tzw. osadzone (ang. embedded), w których nie występują pośrednie pliki wymiany danych (odczyt i zapis danych przestrzennych przez róŜne systemy w jednym miejscu) [2,6]. Konstruując modele przestrzenne (wskaźnikowe, ale takŜe bardziej złoŜone) zazwyczaj w róŜny sposób moŜna oceniać wagę poszczególnych czynników (parametrów wejściowych modelu), a takŜe w róŜny sposób dokonywać szacowania czy agregacji zmiennych. Proces ten jest bardzo istotny ze względu na konieczność uzyskania rozwiązań najlepszych, uwzględniających preferencje decydentów. Problematyka rozwiązywania takich zagadnień jest znana w literaturze pod nazwą wielokryterialnej analizy decyzyjnej - MCDA (ang. Multi-Criteria Decision Analysis) lub wielokryterialnego podejmowania decyzji - MCDM (ang. Multi-Criteria Decision-Making). 3. Metody wielokryterialne MCDA/MCDM jest zbiorem metod i narzędzi matematycznych umoŜliwiających porównywanie wariantów decyzyjnych z uwzględnieniem róŜnych, często sprzecznych ze sobą kryteriów. Z systemami GIS analiza wielokryterialna jest wiązana od lat 90-tych XX w. W roku 2006 J. Malczewski [9] przedstawił pracę zawierającą przegląd aktualnego dorobku światowego z zakresu systemów GIS-MCDA. Analiza tej pracy oraz innych pozycji literatury, które się od tego czasu pojawiły pozwala stwierdzić, iŜ ten obszar informatyki jest waŜny i coraz bardziej doceniany w kontekście wspomagania decyzji z wykorzystaniem systemów geoinformacyjnych. Dzięki integracji metod MCDA z systemami GIS jest moŜliwe uzyskanie funkcjonalności łączącej zalety metod wielokryterialnych z moŜliwościami przetwarzania, analiz i wizualizacji danych przestrzennych. Metody wielokryterialne moŜna sklasyfikować na dwie grupy: metody ukierunkowane na rozwiązywanie problemów dyskretnych oraz ciągłych. Zadania dyskretne (poruszane w niniejszym opracowaniu) to takie, w których istnieje skończony zbiór wariantów decyzyjnych oraz skończony zbiór kryteriów i w oparciu o nie naleŜy podjąć decyzję. Dyskretne metody wielokryterialne są przez róŜnych autorów róŜnie grupowane [12,13]. Kodikara [11] mówi o pięciu kategoriach, ale najczęściej w literaturze jest mowa o dwóch: grupie metod opartych o relację przewyŜszania oraz metod opartych o funkcję uŜyteczności (rys.1). Metody wielokryterialne to metody, które mogą być rozpatrywane w kontekście czterech problematyk wielokryterialnego wspomagania decyzji [10]: − wyboru P.α (wyznaczenie najlepszego wariantu decyzyjnego), − klasyfikacji, sortowania P.β (przydział wariantów do określonych kategorii), − porządkowania, rankingu P.γ (uporządkowanie wariantów, podział na klasy wariantów równie dobrych), − opisu P.δ (opis potencjalnych wariantów). Wykorzystanie metody wielokryterialnej do rozwiązania konkretnego problemu decyzyjnego wymaga dokładnej analizy dziedziny problemu oraz znajomości metod. 126 Mateusz Piwowarski Wielokryterialna analiza decyzyjna w systemach GIS Rys. 1. Klasyfikacja kategorii metod rozwiązywania problemów decyzyjnych [11]. Metody MCDA oparte o relację przewyŜszania charakteryzują się występowaniem, tzw. relacji przewyŜszania, która dotyczy zaleŜności między wariantami decyzyjnymi i która reprezentuje określone preferencje decydenta. Relacja ta moŜe przyjmować jedną z czterech sytuacji preferencyjnych: równowaŜności wariantów a i b (a I b), mocnej preferencji jednego z wariantów względem drugiego, np. a nad b (a P b), słabej preferencji jednego z wariantów nad drugim, np. a nie jest zdecydowanie lepszy od b (a Q b) oraz nieporównywalności wariantów (a R b) [10]. Do najbardziej znanych metod opartych o relację przewyŜszania moŜna zaliczyć: grupę metod ELECTRE (ELECTRE I [14], ELECTRE II [15], ELECTRE III [16], ELECTRE IV [17], ELECTRE IS [18] oraz ELECTRE TRI [19]), metody PROMETHEE (np. PROMETHEE I, II, III, IV, V, VI [20]), metodę TOPSIS [24], ORESTE [21], TACTIC [22], czy np. REGIME [23]. Ponadto, moŜna tutaj przywołać znacznie więcej metod, które w mniejszym lub większym stopniu opierają się na zasadach wyznaczonych przez metody wiodące. U podstaw metod ELECTRE I, ELECTRE Iv oraz ELECTRE IS znajduje się problematyka wyboru P.α . W metodzie ELECTRE I nie występują progi preferencji oraz progi równowaŜności, zakłada się zatem, iŜ wszystkie przyjęte kryteria są kryteriami prawdziwymi [14]. Następnie pojawiła się nowa, nieoficjalna wersja ELECTRE Iv [29], w której uwzględniono próg weta (dla kaŜdego kryterium oddzielnie). Podobnie jak w wersji poprzedniej po określeniu preferencji decydenta i wyznaczeniu współczynników zgodności dla poszczególnych par wariantów następuje sprawdzanie warunków zgodności oraz braku zgodności, wyznaczenie zbiorów zgodności i niezgodności, a takŜe określenie relacji przewyŜszania. Ostatnim etapem procedury obliczeniowej jest wyznaczenie grafu zaleŜności. W metodzie ELECTRE IS wprowadzono dodatkowo pseudo-kryteria. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 127 Pojawiły się progi równowaŜności oraz preferencji. Poza tym procedura przebiega podobnie jak w przypadku ELECTRE I [18]. Problematyka porządkowania, rankingu P.γ jest uwzględniana w metodach ELECTRE II, III i IV. Podobnie jak w ELECTRE I, w ELECTRE II występują kryteria prawdziwe, czyli nie definiuje się progów preferencji i równowaŜności. RozróŜnia się jednak słabą i silną preferencję, w oparciu o pięć progów podawanych dla testów zgodności (próg silny, wystarczający, słaby) oraz braku niezgodności (próg silny, wystarczający) [15]. W metodzie ELECTRE III określane są progi równowaŜności i preferencji, wykorzystywane są pseudo-kryteria, progi weta oraz wagi kryteriów. Po wyznaczeniu zbioru kryteriów niezgodności oraz określeniu współczynników wiarygodności, wyznaczanie kolejności wariantów następuje w procedurach destylacji zstępującej oraz wstępującej. Koniec procedury polega na uzyskaniu końcowego rankingu wariantów [16]. Procedura metody ELECTRE IV jest po części podobna do ELECTRE III. Nie definiuje się jednak wag kryteriów (wszystkie kryteria są równe), wobec czego mają one jednakowe znaczenie przy wyznaczaniu relacji globalnych. Wyznaczane są dwa porządki: wstępujący oraz zstępujący w oparciu, o które generowany jest ranking końcowy wariantów [17]. Do grupy tej metod zaliczane są równieŜ metody PROMETHEE. Poszczególne wersje tych metod operują bądź na kryteriach prawdziwych, bądź na pseudo-kryteriach. Po części zbliŜona procedura obliczeniowa do większości metod ELECTRE róŜni się znacząco przy wyznaczaniu współczynnika zgodności, gdzie moŜna wybierać spośród kilku modeli jego wyznaczania. Wyznaczenie rankingu wariantów decyzyjnych stanowi rozróŜnienie metod z tej grupy. W przypadku PROMETHEE I decydent moŜe utworzyć ranking częściowy, PROMETHEE II – całkowity, PROMETHEE III – odstępów. Metoda PROMETHEE IV uwzględnia przypadki ciągłe oraz analizę wraŜliwości, PROMETHEE V problemy z dodatkowymi ograniczeniami segmentacji, a PROMETHEE VI reprezentację umysłu ludzkiego [20]. Metoda ELECTRE TRI jest ukierunkowana na problematykę sortowania P.β . Procedura obliczeniowa jest zbliŜona do ELECTRE III. Wyznaczane są tutaj współczynniki zgodności, wiarygodności oraz wskaźniki niezgodności. Pewne róŜnice występują w kontekście przynaleŜności progów równowaŜności, preferencji oraz weta do poszczególnych przedziałów. Metoda ta jest stosowana często tam, gdzie naleŜy rozpatrzyć duŜą liczbę wariantów decyzyjnych [19]. Poza dwoma wiodącymi grupami metod ELECTRE oraz PROMETHEE, praktyczne zastosowania w wielu obszarach Ŝycia znajdują równieŜ inne. Na przykład metoda TOPSIS jest stosowana tam, gdzie istnieje konieczność sortowania wariantów pod względem ich podobieństwa do wariantu najbardziej poŜądanego. Realizowane jest to przez minimalizację odległości do wzorca (wariantu najbardziej preferowanego) oraz maksymalizacji tego dystansu do wariantu najmniej poŜądanego [24]. W zaleŜności od uwzględnianych typów danych metoda TOPSIS przyjmuje róŜne formy: klasyczna (dane wejściowe są znanymi wartościami rzeczywistymi cech dla rozpatrywanych obiektów) [30], interwałowa (wartości cech obiektów są liczbami przedziałowymi - początek przedziału definiuje minimalną, a koniec – maksymalną wartość cechy) [31], rozmyta (wartości cech nie są precyzyjnie wyraŜone lub są określone za pomocą poziomów zmiennej lingwistycznej, którym odpowiadają trójkątne liczby rozmyte, reprezentowane przez trzy oceny: pesymistyczną, najbardziej prawdopodobną i optymistyczną) [32]. Metoda ORESTE umoŜliwia stosowanie niezaleŜnych rankingów dla poszczególnych kryteriów oceny oraz niezaleŜnych rankingów dla alternatyw w stosunku do kaŜdego z przyjętych kryteriów [21]. W metodzie TACTIC jest moŜliwość posługiwania się kryteriami rzeczywistymi oraz pseudo-kryteriami z wymaganiem w stosunku do poziomu zgodności [22]. Z kolei metoda REGI- 128 Mateusz Piwowarski Wielokryterialna analiza decyzyjna w systemach GIS ME w procedurze obliczeniowej wykorzystuję macierz dominacji oraz mechanizmy przewyŜszania [23]. Druga grupa metod – opartych o funkcję uŜyteczności wykorzystuje klasyczną teorię uŜyteczności. Do opisu zachowań decydenta definiowana jest tutaj funkcja zwana funkcją uŜyteczności, która przypisuje wszystkim rozpatrywanym elementom wartość liczbową, tak aby była moŜliwość uporządkowania zbioru dopuszczalnych wariantów ze względu na preferencje decydenta. W wieloatrybutowej teorii uŜyteczności (ang. Miltiattribute Utility Theory) – znanej równieŜ, jako MAUT [26], procedura rozwiązania problemu wielokryterialnego obejmuje dwa podstawowe etapy: określenie uŜyteczności częściowej poszczególnych wariantów decyzyjnych względem kaŜdego z kryteriów oraz wyznaczenie uŜyteczności globalnej w oparciu o wieloatrybutową funkcję uŜyteczności, agregującą uŜyteczności częściowe [26, 33]. Z podstaw teoretycznych nakreślonych przez MAUT korzysta wiele innych metod opartych na modelu funkcjonalnym (funkcji uŜyteczności). Najczęściej stosowane metody z tej grupy, to metoda, AHP [25], SMART [27], UTA [28]. Metoda AHP stanowi klasyczny przykład metody opartej o funkcję uŜyteczności. UmoŜliwia ona uzyskanie wektora skali poprzez porównywanie parami wariantów decyzyjnych na podstawie poszczególnych kryteriów, a takŜe porównywania kryteriów pomiędzy sobą. W procesie porównywania parami wykorzystuje się dziewięciostopniową skalę ocen lub odpowiadający jej opis słowny. Metoda ta nie wymaga bezpośredniego przypisywania wag dla rozpatrywanych kryteriów oraz wariantów decyzyjnych, a operuje jedynie na ocenach względnych porównywanych obiektów. Procedura obliczeniowa AHP determinuje cztery główne etapy: stworzenie hierarchii celów, budowa macierzy porównań istotności kryteriów, budowa macierzy porównań wariantów decyzyjnych dla kaŜdego z kryteriów oraz synteza waŜności kryteriów i preferencji alternatyw względem kaŜdego kryterium [25]. Prostota i zrozumiałość algorytmu obliczeniowego, a takŜe dostępność oprogramowania z zaimplementowaną metodą powoduje, iŜ jest ona powszechnie wykorzystywana do wspomagania decyzji w róŜnych aspektach Ŝycia. W metodzie SMART, bazującej na procedurze MAUT i zbliŜonej do AHP, ocena alternatywy jest uniezaleŜniona od wartości innych alternatyw. Wagi kryteriów są wyznaczane przez zdefiniowanie im jawnych wartości, a nie wartości w odniesieniu do innego kryterium. Zmiana liczby rozpatrywanych alternatyw zazwyczaj nie wpływa na ocenę alternatyw rozpatrywanych wcześniej, z wyjątkiem sytuacji, w której nieuwzględniane wcześniej alternatywy przyjmują wartości ekstremalne (minimum lub maksimum) w stosunku do któregoś z kryteriów. W takich przypadkach skala ocen dla danego kryterium powinna być ponownie obliczona [27]. Metoda UTA wykorzystuje cząstkowe funkcje uŜyteczności na podstawie, których wyznaczana jest globalna funkcja uŜyteczności. Preferencje decydenta są pozyskiwane ze zbioru referencyjnego wariantów decyzyjnych, uszeregowanego w rankingu od najlepszego do najgorszego (moŜliwość uŜycia relacji preferencji lub nierozróŜnialności). W oparciu o zbiór referencyjny uzyskiwane są cząstkowe funkcje uŜyteczności dla kaŜdego kryterium, do czego są wykorzystywane metody programowania liniowego [28]. UTA, to zbiór róŜniących się metod, jak np. UTADIS, UTADIS I, II, III, UTASTAR [34]. Szczegółowy opis przedstawionych tutaj metod oraz wielu innych moŜna uzyskać chociaŜby w pozycjach [35,36]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 129 4. Obszary zastosowań metod MCDA w systemach GIS Wielokryterialna analiza decyzyjna jest łączona z systemami GIS celem wielokryterialnego wspomagania decyzji przestrzennych. Problematykę integracji metod MCDA z systemami geoinformacyjnymi poruszają w swoich pracach naukowych m.in. J. Malczewski [9,37], Chakhar [38] oraz Chakhar i Mousseau [39]. Zagadnienia związane z podejmowaniem decyzji o charakterze przestrzennym mogą zostać zdefiniowane jako te problemy, w których decyzję naleŜy podjąć wybierając pomiędzy kilkoma potencjalnymi alternatywami, związanymi z jakimiś określonymi miejscami w przestrzeni. Do przykładowych problemów przestrzennych moŜna zaliczyć, np.: lokalizację róŜnych obiektów (zakładów, szkół), planowanie opieki zdrowotnej, planowanie tras przejazdów pojazdów, administrację jednostkami terytorialnymi, itp. W przykładach tych potencjalne alternatywy są scharakteryzowane co najmniej przez ich geograficzne lokalizacje, a ich wybory będą zaleŜeć od spełnienia oczekiwań decydenta nakreślonych przez jego preferencje. Rozpatrując zbiór alternatyw decyzji związanych z uwarunkowaniami przestrzennymi naleŜy uwzględnić charakter tego zbioru: dyskretny lub ciągły. W pierwszym przypadku istnieje skończona liczba alternatyw, które mogą być reprezentowane przez punkt, linię lub wielobok (płaszczyznę), ewentualnie ich kombinacje. Drugi przypadek jest związany z nieskończoną liczbą alternatyw decyzji, ale ze względów praktycznych często są one reprezentowane w formie zbioru skończonego [40]. W przeglądzie literatury światowej w kontekście łączenia MCDA z GIS Malczewski [9] dokonał klasyfikacji zastosowań metod wielokryterialnych w systemach geoinformacyjnych z kilku istotnych punktów widzenia. Rozpatrywał stosowalność MCDA dla róŜnych kategorii tych metod (metody oparte o relację przewyŜszania, funkcję uŜyteczności, sumy waŜonej, punktu idealnego i innych), wykorzystywanego modelu danych (raster, wektor), czy dokładności precyzowania kryteriów oraz alternatyw przestrzennych. Przeanalizowana liczba pozycji literatury - 319, pokazuje róŜnorodności doboru i wykorzystania metod wielokryterialnych do wspomagania analiz przestrzennych. Pewnym wyznacznikiem stosowania metod w systemach GIS jest problematyka wielokryterialnego wspomagania decyzji [10], innym natomiast znajomość oraz łatwość implementacji poszczególnych metod. Znaczna część proponowanych rozwiązań MCDA-GIS wykorzystujących funkcję uŜyteczności bazuje na najbardziej popularnych metodach, typu AHP, SMART [41,42], natomiast w przypadku metod opartych o relację przewyŜszania, wykorzystywane są najczęściej: ELECTRE oraz PROMETHEE [43-44]. Ta druga grupa metod jest zazwyczaj stosowana, gdy istnieje potrzeba rozwaŜenia kryteriów oceny z heterogenicznymi skalami, czy teŜ np. decydent dysponuje ograniczoną informacją. Metody te mogą znaleźć zastosowania, np. w problemach zarządzania terenami, w których alternatywy są często nieporównywalne [44]. Generalnie moŜna wskazać dwa obszary integracji metod MCDA z systemami GIS. Pierwszy dotyczy konstrukcji mapy decyzji, drugi natomiast oceny wygenerowanych alternatyw decyzji [3840]. Etap związany z konstrukcją mapy decyzji obejmuje kilka działań, takich jak: budowa mapy kryteriów, budowa mapy pośredniej, wygenerowanie mapy decyzji oraz grupowanie jednostek przestrzennych na mapie decyzji (opcjonalnie). Generowanie mapy decyzji realizowane jest w oparciu o wielokryterialną analizę decyzyjną (MCDA), gdzie np. dokonuje się klasyfikacji obiektów (jakimi są jednostki przestrzenne mapy pośredniej) do określonych kategorii o podobnych cechach (np. metoda ELECTRE TRI). Schemat procedury uzyskiwania mapy decyzji jest przedstawiony na rys. 2. Szczegóły konstrukcji mapy decyzji moŜna uzyskać w [40]. Przedstawio- 130 Mateusz Piwowarski Wielokryterialna analiza decyzyjna w systemach GIS na struktura obejmuje tylko pojedynczego decydenta lub grupę osób posiadających ten sam system wartości. Rozszerzenie procedury na grupę decydentów jest tutaj związane z uzyskaniem złoŜonej mapy decyzyjnej, uwzględniającej preferencje wszystkich współuczestników procesu podejmowania decyzji. Mapa taka moŜe być skonstruowana w wyniku nakładania poszczególnych map kryteriów na poziomie ich definicji (wejściowym) i uzyskaniu złoŜonej mapy pośredniej [45]. MoŜna ją równieŜ uzyskać przez kumulowanie na poziomie wyjściowym - kaŜda grupa generuje indywidualną mapę decyzyjna. Następnie otrzymane indywidualne mapy decyzyjne są kumulowane do stworzenia złoŜonej mapy decyzyjnej. Mapy kryteriów (c1, c2, c3) Mapa pośrednia (I) Metody MCDA Mapa decyzji M’ (przed grupowaniem) Rys. 2. Procedura konstrukcji mapy decyzji w oparciu o metody MCDA, szczegóły w [40]. Proces generowania alternatyw decyzji obejmuje dwa podstawowe kroki. Pierwszy dotyczy konstrukcji alternatyw decyzji (alternatywy bazujące na punkcie, linii, kształcie lub złoŜone), drugi natomiast oceny opartej na wielu kryteriach. Ocena ta wymaga zdefiniowania i uŜycia metod wie- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 131 lokryterialnej analizy decyzyjnej. Kryteria oceny uŜyte w tym kroku mogą się róŜnić od tych uŜywanych przy budowaniu mapy decyzyjnej. Takie podejście ma dwie główne zalety [38]: − po pierwsze daje moŜliwość zajęcia się w pierwszej fazie (przy budowie mapy decyzyjnej) tylko kryteriami technicznej oceny ukierunkowanymi na wymiary przestrzenne i pozostawienie kryteriów ekonomicznych, socjalnych (i innych) do opracowania w drugiej fazie, − po drugie daje moŜliwość zastosowania kryterium wykluczającego podczas oceny wielokryterialnej, ułatwiając w ten sposób analizę wraŜliwości i wyznaczenie końcowej rekomendacji. Ostateczna rekomendacja w analizie wielokryterialnej przyjmuje róŜne formy, w zaleŜności od sposobu postawienia problemu. Generalnie definiujemy trzy główne typy rekomendacji, a mianowicie: wybór (wybranie określonego zbioru alternatyw), ranking (klasyfikacja alternatyw od najlepszej do najgorszej), sortowanie (przypisywanie alternatyw do róŜnych wcześniej zdefiniowanych kategorii). 5. Wnioski W artykule zaprezentowane zostały rozwaŜania teoretyczne związane z potrzebami, moŜliwościami i kierunkami łączenia metod MCDA z systemami GIS. Analiza metod wielokryterialnych pozwoliła dokonać klasyfikacji tych metod oraz wskazać konkretne obszary ich zastosowań, uwzględniające problematyki wielokryterialnego podejmowania decyzji. Zostały zaprezentowane dwa kierunki integracji MCDA-GIS. Pierwszy dotyczy konstrukcji mapy decyzyjnej, drugi natomiast końcowej oceny alternatyw decyzji. Niniejsza analiza wskazuje potrzeby rozwoju tego kierunku prac badawczych (MCDA-GIS), ale jednocześnie uświadamia o duŜej złoŜoności tej problematyki. 6. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Foresman T.W., GIS Early Years and the Threads of Evolution, The History of Geographic Information Systems: Perspectives from the Pioneers, Foresman T.W., Ed. Upper Saddle River, NJ: Prentice Hall, 1998, pp. 3-17. Longley P.A., Goodchild M.F., Maguire D.J., Rhing D.W., GIS. Teoria i praktyka, PWN, Warszawa, 2008. O'Looney J.A., Beyond Maps: GIS Decision Making in Local Government, ESRI Press, 2000. O'Sullivan D., Unwin D.J., Geographic Information Analysis, NJ Wiley, 2002. Haining R., Spatial Data Analysis: Theory and Practice, Cambridge University Press, 2003. Maguire D., Batty M., Frank M., GIS, Spatial Analysis and Modeling, ESRI Press, 2005. Shi W.J., Lia Z., Bedard Y., Theme issue: advanced techniques for analysis of geo-spatial data, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 59, Issue: 1-2, August, 2004, pp. 1-5. Litwin L., Myrda G., Systemy Informacji Geograficznej. Zarządzanie danymi przestrzennymi w GIS, SIP, SIT, LIS, Helion, 2005. Malczewski J., GIS-based multicriteria decision analysis: a survey of the literature, International Journal of Geographical Information Science, Vol. 20, No. 7, August 2006, pp. 703-726. 132 Mateusz Piwowarski Wielokryterialna analiza decyzyjna w systemach GIS 10. Roy B., Wielokryterialne wspomaganie decyzji, WNT, Warszawa, 1990. 11. Kodikara P.N., Multi-Objective Optimal Operation of Urban Water Supply Systems, Engineering and Science Victoria University, Australia, 2008. 12. Vincke P., Multicriteria Decision-Aid., J. Wiley, New York, 1992. 13. Pomerol J.C., Barba-Romero S., Multi-criterion decisions in management: Principles and practice, Kluwer, Massachusetts, 2000. 14. Roy B., Classement et choix en présence de point de vue multiples: Le méthode ELECTRE, Revue Francaise d'Informatique et de Recherche Opérationnelle (8), 1968, pp. 57-75. 15. Roy B., Bertier P., La methode ELECTRE II, Une application au mediaplanning, Operations Research '72, M. Ross, ed., North-Holland, 1973, pp. 291-302. 16. Roy B., ELECTRE III: Un algorithme de rangement fonde sur une representation floue des preferences en presence de criteres multiples, Cahiers du Centre d'etudes de recherche operationnelle, 20, 1978, pp. 3-24. 17. Roy B., Hugonnard J.C., Ranking of suburban line extension projects on the Paris metro system by multicriteria methods, Transportation Research, 16A(4), 1982, pp. 301-312. 18. Roy B., ELECTRE IS, Aspects methodologiques et guide d'utilisation, Universite de Paris-Dauphine, Paris, 1985. 19. Mousseau V., Figueira J., Naux J.P., Using assignment examples to infer weights for ELECTRE TRI method : Some experimental results, Cahier du Lamsade, University of Paris-Duphine, 30(150) ,1997. 20. Brans J.P., Mareschal B., PROMETHEE methods, in Figueira J., Greco S., Ehrgott M. (Eds), Multiple Criteria Decision Analysis: State of the Art Surveys, Springer, New York, NY, Ch. 5, 2005, pp.163-98. 21. Roubens M., Preference relation in actions and criteria in multicriteria decision making, European Journal of Operational Research, 10, 1982, pp. 51-55. 22. Vansnick, J.C., On the problem of weights in multiple critera decision making, the noncompensatory approach, European Journal of Operational Research, 24, 1986, pp.288294. 23. Hinloopen E., Nijkamp P., Rietveld P., The REGIME method: a new multicriteria technique, Essays and surveys on multiple criteria decision making, P. Hansen, ed., Springer, 1983, pp.146-155. 24. Chen S.J., Hwang C.L., Fuzzy Multiple Attribute Decision Making: Methods and Applications, Springer-Verlag, Berlin, 1992. 25. Saaty T.L., The analytic hierarchy process, McGraw-Hill, New York, 1985. 26. Keeney R.L., Raiffa H., Decisions with multiple objectives-preferences and value tradeoffs, Cambridge University Press, Cambridge & New York, 1993. 27. Von Winterfeldt D., Edwards W., Decision analysis and behavioral research, Cambridge University Press, Cambridge, 1986. 28. Jacquet-Lagréze E., Siskos J., Assessing a set of additive utility functions for multicriteria decision making; the UTA method, European Journal of Operational Research, 10(2), 1982, pp.151-164. 29. Maystre L., Pictet J., Simos J., Les Methodes Muliticriteres ELECTRE, Presses Polytechniques et Universitaires Romandes, Lausanne, 1994. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 133 30. Hwang C.L., Yoon K., Multiple Attribute Decision Making: Methods and Applications, Springer-Verlag, New York, 1981. 31. Jahanshahloo G.R., Lotfi F.H., Izadikhah M., An algorithmic method to extend TOPSIS for decision-making problems with interval data, Applied Mathematics and Computation 175 (2), 2006, pp. 1375-1384. 32. Jahanshahloo G.R., Lotfi F.H., Izadikhah M., Extension of the TOPSIS method for decision-making problems with fuzzy data. Applied Mathematics and Computation Volume. 181 (2), 2006, pp. 1544-1551. 33. Trzaskalik T., Metody wielokryterialne na polskim rynku finansowym, PWE, Warszawa, 2006. 34. Siskos Y., Grigoroudis E., Matsatsinis N.F., UTA Methods, in Figueira J., Greco S., Ehrgott M., Multiple Criteria Decision Analysis: State of the Art Surveys, Springer Verlag, Boston, Dordrecht, London, 2005, pp. 297-344. 35. Figueira J., Greco S., Ehrgott M., Multiple Criteria Decision Analysis: State of the Art Surveys, Springer, London, 2005. 36. Triantaphyllou E., Multi-Criteria Decision Making Methods: A comparative Study, Kluwer Academic Publishers, 2000. 37. Malczewski J., GIS and Multicriteria Decision Analysis, Wiley, New York, 1999. 38. Chakhar S., Multicriteria decisional cartography: Formalization and implementation. PhD thesis, University of Paris Dauphine, Paris, France, 2006. 39. Chakhar S., Mousseau V., Spatial multicriteria decision making. In Shehkar and H. Xiong, editors, Encyclopedia of Geographic Information Science, Springer-Verlag, New York, 2007. 40. Chakhar S., Mousseau V., GIS-based multicriteria spatial modeling generic framework, International Journal of Geographical Information Science, Vol. 22 , Issue 1112, 2008, pp. 1159-1196. 41. Araujo C., Mecedo A., Multicriteria geologic data analysis for mineral favourability mapping: Application to a metal sulphide mineralized area, Ribeira Valley Metalogenic Province, Brazil. Natural Ressources Research, 11, pp.29-43, 2002. 42. Ho W., Integrated analytic hierarchy process and its applications. A literature review. Eur. J. Operat. Res., 186, 2008, pp. 211-228. 43. Marinoni O., A discussion on the computational limitations of outranking methods for land-use suitability assessment. International Journal of Geographical Information Science, 20(1), pp.69-87, 2006. 44. Joerin F., Theriault M., Musy A., Using GIS and outranking multicriteria analysis for land-use suitability assessment. International Journal of Geographical Information Science, 15, pp.153-174, 2001. 45. Procaccini C., Chakhar S., Pusceddu C., Extending decision map concept to support participtive spatial multicriteria decision making. In The XXI Association of European Schools of Planning Conference, Naples, Italy, 2007. 134 Mateusz Piwowarski Wielokryterialna analiza decyzyjna w systemach GIS MULTI-CRITERIA DECISION ANALYSIS IN GIS SYSTEMS Summary Enlargement of the functionality of systems GIS in the context of the aid of making the decision is possible by the adaptation multicriteria methods. These methods can serve to the building of the decision map and final evaluation of the decision alternatives. Keywords: MCDA, Multi-criteria decision analysis, GIS, geoinformation Mateusz Piwowarski Wydział Informatyki Politechnika Szczecińska 71-210 Szczecin, ul. śołnierska 49 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 135 MATEUSZ PIWOWARSKI, PAWEŁ ZIEMBA Politechnika Szczecińska METODA PROMETHEE II W WIELOKRYTERIALNEJ OCENIE PRODUKTÓW Streszczenie Artykuł porusza problematykę związaną ze wspomaganiem oceny produktów w internetowych systemach porównawczych. Obecnie stosowane algorytmy porównywania obejmują przede wszystkim cenę towaru, nie uwzględniają natomiast innych preferencji uŜytkownika. W związku z powyŜszym proponuje się poszerzenie liczby kryteriów tej oceny i zastosowanie odpowiedniej metody wielokryterialnego wspomagania decyzji. Słowa kluczowe: internetowe serwisy porównawcze, porównywarki, wielokryterialna analiza decyzyjna, MCDA, Promethee. 1. Wprowadzenie Zainteresowanie Internetem i zakupami za jego pośrednictwem w Polsce stale rośnie, o czym moŜe świadczyć znaczne zwiększenie obrotów sklepów internetowych. Wraz z rozwojem rynku handlu elektronicznego i mnoŜeniem się ofert kierowanych do konsumentów za pośrednictwem tego medium, zwiększa się równieŜ dezorientacja tychŜe konsumentów w zakresie wyboru najbardziej odpowiedniego dla nich produktu. Rozwiązaniem tej problematyki mają być serwisy zajmujące się wspomaganiem klientów w kwestii wyboru. Oferują one uŜytkownikowi moŜliwość porównania cech towarów na jednej stronie WWW, eliminując przy tym trudności związane z ich wyszukaniem. JednakŜe tworzą one tylko zestawienia parametrów produktów, a uŜytkownik musi posiadać wiedzę na temat kaŜdego z tych parametrów oraz jego ogólnego wpływu na wydajność i funkcjonalność produktu. Istniejące serwisy porównywania potrafią podpowiedzieć uŜytkownikowi optymalny wybór tylko na podstawowej wielkości charakteryzującej produkt, tj. na jego cenie. Brak jest wśród tego typu serwisów chociaŜby jednego opierającego swój algorytm wspomagania wyboru produktu na ocenie wielokryterialnej. Celem niniejszego artykułu jest zaprezentowanie propozycji wspomagania decyzji w wyborze produktów dla serwisów porównawczych. Proponowane rozwiązanie obejmuje zwiększenie liczby kryteriów porównywania produktów oraz zaadoptowanie metod wielokryterialnej analizy decyzyjnej do uzyskiwania najlepszych wariantów decyzyjnych z punktu widzenia uŜytkownika serwisu. 2. UŜyteczność internetowych serwisów porównawczych Polski rynek internetowych serwisów porównywania cen produktów osiągnął pewien punkt nasycenia. Nowe witryny tego typu mają, co raz większe problemy z zajęciem dogodnej pozycji wśród pozostałych porównywarek. Sam fakt istnienia około 25 polskich serwisów tego typu daje wyobraŜenie jak cięŜko nowemu systemowi porównawczemu byłoby zainteresować potencjalnego uŜytkownika. Ponadto istnieje wiele serwisów zagranicznych, z których korzystają takŜe polscy 136 Mateusz Piwowarski, Paweł Ziemba Metoda Promethee II w wielokryterialnej ocenie produktów konsumenci. Wobec tego jedyną szansą zwiększenia przez dany serwis swojego udziału w tym rynku jest wprowadzanie nowych funkcjonalności niespotykanych u konkurencji. Dobrym przykładem takiej walki o pozycję wśród konkurencji jest serwis „Nokaut”, który głównie dzięki nowatorskiemu podejściu do tematu porównywania i wyszukiwania produktów wypracował sobie miejsce w czołówce porównywarek. Za jego przykładem podąŜyli inni liderzy, którzy zostali w zasadzie zmuszeni do zwiększania funkcjonalności swoich systemów porównawczych. To dzięki konkurencji pomiędzy liderującymi serwisami pojawiły się interesujące moŜliwości serwisów porównawczych takie jak geolokalizacja, prognozowanie cen, mobilna wersja serwisów, wirtualny asystent w serwisach porównawczych, itp. JednakŜe poza przyrostowym zwiększaniem ilości takich elementów naleŜy się takŜe spodziewać wprowadzania nowych funkcjonalności do serwisów. Funkcjonalnością, która została wprowadzona juŜ długi czas temu (przez serwis „9sekund.pl”), a jednak do tej pory brak jej w czołowych serwisach porównawczych, jest integracja z systemami aukcyjnymi. Obecnie uŜytkownik poszukujący określonego produktu jest zmuszony do przeglądania kolejno serwisu porównawczego oraz witryny aukcyjnej. Zintegrowanie aukcji internetowych w porównywarce zdecydowanie wpłynęłoby na liczbę odsłonięć serwisu porównawczego. Brak takiej funkcjonalności wydaje się dziwny szczególnie w przypadku „Ceneo.pl”, który naleŜy do tego samego właściciela, któremu podlega największy polski serwis aukcyjny „Allegro.pl”. Patrząc jednak na omawiane zagadnienie ze strony serwisu porównawczego, wprowadzenie takiej funkcjonalności wiązałoby się takŜe z pewnymi problemami. Główną kwestią jest w tej sytuacji sposób pobierania opłat od sklepów, które prowadzą aukcje w serwisie „Allegro”. Przy wprowadzeniu integracji z systemem aukcyjnym w zasadzie niemoŜliwe stałoby się pobieranie opłat związanych z przejściem uŜytkownika ze strony porównywarki na stronę sklepu. Utrzymanie modelu biznesowego opartego na tej opłacie wymuszałoby zmianę zasad funkcjonowania serwisów aukcyjnych. Ponadto niewiele sklepów wybierałoby nadal promocję swojej marki poprzez serwisy porównawcze. Zdecydowanie tańsze dla handlowców byłoby funkcjonowanie w systemie aukcyjnym, co równieŜ wiązałoby się z obecnością, za jego pośrednictwem, w porównywarce. Inną nowoczesną właściwością serwisów mogą stać się wirtualni asystenci. Obecnie takiego asystenta, odpowiedzialnego za ułatwienie wyboru kryteriów wyszukiwania, posiada serwis „Nokaut.pl”. Wirtualnych asystentów moŜna wykorzystać zasadniczo w kaŜdym elemencie funkcjonowania serwisu porównawczego. Mógłby on prowadzić uŜytkownika przez cały proces poszukiwań i wyboru odpowiedniego towaru. Kolejnym elementem, którego obecnie brak w serwisach porównawczych jest dowolny prosty system eliminacji błędnych-fałszywych ofert. Często zdarza się, Ŝe uŜytkownik podczas poszukiwania najtańszego sklepu oferującego dany produkt natrafia na ofertę znacznie zaniŜoną cenowo. Najczęściej po przejściu na stronę sklepu zawierającą taką ofertę okazuje się, Ŝe na stronie tej zawarty jest zupełnie inny produkt, np. instrukcja obsługi do danego sprzętu zamiast tegoŜ. Błędy takie moŜna wyeliminować stosunkowo łatwo poprzez zastosowanie chociaŜby systemu rozmytego. Chodzi tutaj o określanie średniej ceny danego towaru a następnie stopień odchylenia danej oferty cenowej od średniej. W ten sposób system taki mógłby lingwistycznie oceniać wiarygodność danej oferty. Dzięki temu otrzymano by jednocześnie nowe, ogólne kryterium porównawcze dla ofert towarów. Do błędów w funkcjonowaniu serwisów porównawczych zaliczyć moŜna takŜe sytuację, kiedy uŜytkownik przechodzi do strony sklepu, a na niej dowiaduje się, Ŝe towaru obecnie brak lub jest POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 137 on oferowany za wyŜszą cenę. Odpowiedzialnością za tego typu sytuacje naleŜy obarczać sposób aktualizacji bazy danych serwisów. Porównywarki powinny same decydować o terminie aktualizacji ofert, czyli powinny same rozstrzygać o datach generowania kolejnych plików XML, zawierających oferty sklepów. Pozwoliłoby to uniknąć sytuacji, kiedy oferta zawarta w serwisie porównawczym datuje się aktualnością sprzed kilku dni wstecz. Ostatnią propozycją dotyczącą moŜliwości rozwoju serwisów porównawczych jest wprowadzenie w nich wielokryterialnego wspomagania podejmowania decyzji. Chodzi tutaj o moŜliwość wyboru przez uŜytkownika, np.: kryteriów technicznych i funkcjonalnych produktów, kryteriów wiarygodności sprzedawcy, czy elementów związanych z kosztami tak produktu jak i jego dostawy. Efektem tego jest wygenerowanie przez system propozycji kolejnych towarów, najlepiej spełniających potrzeby uŜytkownika. Funkcjonalność taka stanowiłaby pewnego rodzaju system ekspertowy, sugerujący uŜytkownikowi optymalny wybór towaru, który spełniałby jego potrzeby cenowe, uŜytkowe i jakościowe. 3. Dobór metody wielokryterialnej do oceny produktów w Internecie Wybór wielokryterialnej metody wspomagania decyzji dla serwisu porównywania produktów jest zagadnieniem trudnym. Obok optymalności metody, tak, aby dawała ona wyniki najbardziej zbliŜone do rzeczywistości naleŜy uwzględnić tutaj równieŜ aspekt ludzki. Typowy uŜytkownik serwisu porównawczego nie jest ekspertem w dziedzinie, w której poszukuje najlepszego produktu spełniającego jego wymagania. Wobec tego wybrana metoda nie moŜe wymagać od uŜytkownika ogromu wiedzy z danej dziedziny. Ponadto powinna ona być przyjazna w uŜyciu. Rozpatrywane będą dwie kategorie metod: metody, które wykorzystują model funkcjonalny (MAUT, AHP, SMART, UTA) oraz metody oparte na relacji przewyŜszania (grupa metod ELECTRE, Promethee, Bipolar). Na wstępie moŜna rozwaŜyć przydatność metod wymagających podania od uŜytkownika wzorców, według których wybierany będzie najlepszy wariant. Do metod takich naleŜą metody UTA [1], Electre Tri [2] i Bipolar [3]. UTA wyłuskuje preferencje uŜytkownika ze zbioru referencyjnego, tworzonego przez decydenta. Electre Tri wymaga podania przez uŜytkownika profili wariantów opisujących granice klas, do których następnie sortuje warianty decyzyjne. Bipolar oczekuje podania przez osobę podejmującą decyzję wzorców wariantów dobrych i złych. Wszystkie te metody naleŜy odrzucić ze względu na to, Ŝe wymagają od uŜytkownika wiedzy eksperckiej. Nie naleŜy oczekiwać, Ŝe osoba szukająca produktu w serwisie porównawczym posiada taką wiedzę, która pozwoli jej zdefiniować parametry produktu dobrego i złego. Wobec tego, metody te uznaje się za niewarte dalszego rozwaŜania. Kolejną metodą, którą moŜna odrzucić jest MAUT [4]. Nieprzydatność tej metody wypływa z faktu, Ŝe jest to ogólna teoria wielokryterialnej analizy decyzyjnej. Kłopotliwe jest w niej wykonanie dekompozycji zbioru kryteriów i skonstruowanie funkcji uŜyteczności ze względu na poszczególne kryteria. Wobec tego zastosowanie tej ogólnej metodyki mogłoby przysporzyć duŜą ilość problemów implementacyjnych. Nieprzydatne są takŜe metody Electre II, Electre IV i Electre I [2]. Electre II wymaga od uŜytkownika podania znacznej ilości progów. Progi te, w przeciwieństwie do progów równowaŜności i preferencji nie są wyczuwalne intuicyjnie. Co więcej cięŜko zdefiniować i wyjaśnić ich znaczenie. Tak, więc hipotezę o zastosowaniu metody Electre II w problemie wspomagania decyzji uŜyt- 138 Mateusz Piwowarski, Paweł Ziemba Metoda Promethee II w wielokryterialnej ocenie produktów kownika serwisu porównawczego naleŜy odrzucić. RównieŜ, Electre IV, w której uŜytkownik nie posiada Ŝadnej moŜliwości zdefiniowania wag kryteriów ma wątpliwą przydatność w ocenie produktów. W tego typu zastosowaniu największe znaczenie mają właśnie wagi poszczególnych kryteriów. Metodyka proponowana w Electre IV, polegająca na zliczaniu ilości wzajemnie przewaŜających się kryteriów dla danej pary wariantów nie spełnia, więc podstawowej funkcjonalności. Natomiast w metodzie Electre I najmniejsze nawet róŜnice wartości pod względem danego kryterium powodują, Ŝe jeden z wariantów jest uznawany za całkowicie lepszy pod względem tego kryterium. Wobec tego brak jest w tej metodzie uwzględnienia faktu, Ŝe róŜnica w cenie produktów rzędu kilku złotych jest w zasadzie bez znaczenia. Porównując moŜliwość zastosowania w serwisach porównawczych metod Electre Is i Electre III naleŜy zauwaŜyć, Ŝe jest między nimi pewna róŜnica metodyczna. W metodzie Electre Is granica pomiędzy porównywalnością a nieporównywalnością wariantów jest wielkością dyskretną. Przy osiągnięciu przez wariant uznany ogólnie za gorszy przewagi – pod względem jednego z kryteriów rzędu progu weta - nad wariantem lepszym, alternatywy te stają się nieporównywalne. Wcześniej jednak, w miarę zbliŜania się do tego progu nic nie sygnalizuje takiej moŜliwości. W Electre III natomiast ogólna przewaga wariantu lepszego nad wariantem gorszym zmniejsza się w miarę zwiększania się przewagi wariantu gorszego nad wariantem lepszym pod względem danego kryterium. Pod względem zastosowania w serwisach porównawczych metoda Electre III wydaje się, więc bardziej przydatna od metody Electre Is. Problem wynikający z ewentualnego zastosowania metod Electre Is, Electre III i Promethee I [5] wynika z moŜliwości wystąpienia przy ich uŜyciu nieporównywalności między produktami. W załoŜeniu w serwisach porównawczych uŜytkownicy potrzebują pomocy przy wyborze produktów. Wobec tego sytuacja nieporównywalności pomiędzy towarami z jednej kategorii nie powinna być dopuszczalna. NaleŜy, więc odrzucić metodę Promethee I, w której sytuacji nieporównywalności nie da się zapobiec. Teoretycznie nieporównywalności w metodach Electre Is i Electre III da się uniknąć poprzez ustawienie odpowiednio wysokich progów weta. NaleŜy jednak pamiętać, Ŝe według metodyki Electre Is i III to uŜytkownik – decydent podaje progi weta, równowaŜności i preferencji. MoŜliwe jest oczywiście zmodyfikowanie metody w ten sposób, aby próg weta był automatycznie ustawiany na wielkość większą od największej róŜnicy pomiędzy wariantami dla danego kryterium. Wydaje się to jednak zbędną komplikacją problemu, w sytuacji, kiedy istnieje moŜliwość uŜycia metod, w których nie występuje moŜliwość sytuacji nieporównywalności pomiędzy produktami. Do rozwaŜenia pozostały metody rankingowe, w których nie jest moŜliwe wystąpienie sytuacji nieporównywalności. Są to procedury amerykańskiej szkoły podejmowania decyzji: AHP [6] oraz SMART [7] i metoda wywodząca się ze szkoły europejskiej – Promethee II. Wszystkie pozostałe do rozpatrzenia metody oferują w pewnym stopniu rozmycie ocen wariantów (rozmycie ocen występowało równieŜ w odrzuconych juŜ metodach Electre Is, Electre III oraz Promethee I). Rozmycie to jest realizowane przez wykorzystanie progów równowaŜności i preferencji w metodzie Promethee II oraz przez zastosowanie funkcji wartości w metodzie SMART. Natomiast w metodyce AHP, rozmycie jest tylko częściowe, gdyŜ jest moŜliwe tutaj tylko przyporządkowanie wartości danego kryterium do jednej z dziewięciu kategorii oceny. Analogicznie, tylko na dziewięć kategorii da się podzielić wagi poszczególnych kryteriów. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 139 Ponadto w metodzie AHP dla zwiększenia dokładności obliczeń wymagane jest powtarzanie pewnych etapów procedury obliczeniowej (wyznaczanie kwadratów macierzy). WaŜnym czynnikiem przemawiającym za odrzuceniem metody AHP jest moŜliwe wystąpienie niespójności ocen. Nie bez znaczenia pozostaje teŜ sugerowane podawanie przez uŜytkownika względnych wag kryteriów i ocen wariantów. Wobec powyŜszych argumentów właściwe wydaje się odrzucenie moŜliwości zastosowania metody AHP dla wspomagania podejmowania decyzji uŜytkowników internetowych serwisów porównawczych. Spośród pozostałych dwóch metod, tj. Promethee II i SMART kaŜdy wybór wydaje się właściwy. Obydwie metody spełniają wymagania pod kątem uŜyteczności w internetowym serwisie porównawczym: • operują na wielu kryteriach, • nie wymagają od uŜytkownika podawania wielu skomplikowanych parametrów, • uwzględniają wagi kryteriów, • oferują rozmycie przedziałów preferencji, • nie dopuszczają sytuacji nieporównywalności. Wydaje się, Ŝe obie metody mają podobną funkcjonalność. Jeśli chodzi o złoŜoność obliczeniową, znacznie szybciej obliczenia powinny być wykonywane w metodzie SMART, gdyŜ w metodyce tej zachodzi znacznie mniej operacji matematycznych w porównaniu do Promethee. Natomiast od strony elastyczności bardziej uŜyteczna jest Promethee, w której decydent posiada moŜliwość wyboru jednej spośród sześciu funkcji preferencji. Z drugiej strony w metodzie SMART uŜytkownik moŜe dowolnie definiować funkcję wartości. Metoda Promethee wydaje się jednak być bardziej zaawansowana pod względem metodologii rozwiązywania problemu decyzyjnego. Generuje ona ranking obiektów na podstawie porównań ze sobą parami wszystkich wariantów, natomiast w metodzie SMART oceny wariantów są generalnie od siebie niezaleŜne. Zasadne wydaje się, więc uŜycie metody Promethee II jako rozwiązania problemu wielokryterialnego wspomagania podejmowania decyzji w internetowych serwisach porównawczych. 4. Zastosowanie metody Promethee II w doborze produktów Zbiór kryteriów pod względem, których moŜna porównywać produkty moŜe zawierać m.in. część z obecnie prezentowanych przez serwisy porównawcze informacji o produktach i sklepach. Ponadto jako atrybuty porównawcze moŜna wykorzystać specyficzne dla poszczególnych grup produktów cechy, jak np. częstotliwość pracy w GHz dla procesora, czy teŜ pojemność w GB dla dysku twardego. Niemniej jednak taki wybór kryteriów mógłby nieść za sobą problemy, gdyŜ np. nie zawsze procesor o wyŜszej częstotliwości zegara jest szybszy od innego o „niŜszym zegarze”. Ogólnie rzecz ujmując nie zawsze obiektywnie wyŜsza wartość miernika danej cechy wariantu powoduje, Ŝe wariant ten jest lepszy od innego pod względem tej cechy. NaleŜy teŜ zauwaŜyć, Ŝe specyfikowanie odrębnych kryteriów dla róŜnych grup towarów byłoby kłopotliwe i znacznie zwiększałoby stopień komplikacji systemu porównawczego. Co więcej, podanie oczekiwanych wartości progów i wag dla szczegółowych kryteriów wymagałoby od uŜytkowników pewnego zasobu wiedzy w danej dziedzinie. Tymczasem system porównawczy ma za zadanie w pewnym stopniu odciąŜyć uŜytkowników od konieczności posiadania takiej wiedzy. Wobec tego zdecydowano się przyjąć kryteria bardziej ogólne, najczęściej nie mierzalne w jednostkach fizycznych. 140 Mateusz Piwowarski, Paweł Ziemba Metoda Promethee II w wielokryterialnej ocenie produktów W zamian za to, kryteria takie są intuicyjnie łatwe do interpretacji i oceny ich wag dla osób chcących skorzystać z serwisu porównawczego. Wartości takich mierników dla poszczególnych towarów będą przyjmowane subiektywnie przez osoby za to odpowiedzialne. Pomimo tego, przy odpowiedniej ilości „ekspertów” i uśrednianiu ich opinii rozwiązanie takie moŜe być skuteczne. W roli ekspertów mogą występować tutaj uŜytkownicy serwisu porównawczego, podobnie jak ma to miejsce w istniejących serwisach. Dla proponowanego systemu porównawczego zdecydowano się wyspecyfikować dwie grupy kryteriów. Łączne zestawienie kryteriów z dwóch zbiorów pozwoli porównywać produkty z uwzględnieniem ich dostawców, natomiast osobne ich wykorzystanie umoŜliwi porównanie tylko sklepów lub produktów. Zbiorami tymi są: • grupa kryteriów opisujących produkt, • grupa czynników charakteryzujących dostawców towaru. Zbiór kryteriów opisujących produkt ma za zadanie opisywać produkt pod względem funkcjonalnym, uŜytkowym i (w duŜym uogólnieniu) technicznym. Natomiast grupa czynników charakteryzujących dostawców towaru składa się z atrybutów charakteryzujących sklep dostarczający produkty. Zbiorcze przedstawienie kryteriów, wraz z ich jednostkami miary i przyjętym kierunkiem preferencji, przedstawiono w tabeli 1. Tabela 1. Kryteria oceny wariantów dla proponowanego systemu porównawczego Grupa kryteriów Nazwa kryterium Produkt Jakość wykonania Wydajność Wygląd Ergonomia Cena Jakość obsługi klienta Jakość serwisu Czas dostawy Koszt wysyłki Kryteria dodatkowe Sprzedawca UŜytkownika Jednostka miary [%] [%] [%] [%] [zł] [%] [%] [dni] [zł] [%] Kierunek preferencji Max Max Max Max Min Max Max Min Min Max Źródło: opracowanie własne Wybrana dla systemu porównawczego metoda Promethee II udostępnia sześć modeli wyznaczania wskaźników zgodności. Najlepszym modelem wyznaczania wskaźników zgodności dla problemu wyboru produktu w serwisie porównawczym wydaje się model „kryterium z liniową preferencją i obszarem obojętności”. Model ten jest stosunkowo przejrzysty i łatwy do zrozumienia przez uŜytkownika. W przeciwieństwie do modeli „zwykłego kryterium”, „quasi kryterium” i „kryterium poziomu”, model „kryterium z liniową preferencją i obszarem obojętności” zapewnia liniowy wzrost miar ocen pomiędzy progami równowaŜności i preferencji. Ponadto w przeciwieństwie do „kryterium z liniową funkcją preferencji”, występuje tutaj moŜliwość ustawienia progu równowaŜności. Ma to znaczenie np. przy róŜnicy pomiędzy cenami towarów rzędu 1zł, gdyŜ róŜnica taka często nie ma znaczenia dla kupującego. W odniesieniu do „kryterium Gaussa”, omawiany model jest łatwiejszy do interpretacji i wydaje się, Ŝe funkcja liniowa powinna dla danego problemu decyzyjnego sprawować się lepiej od funkcji Gaussowskiej. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 141 UŜytkownik serwisu w pierwszym etapie pracy z systemem porównawczym powinien określić swoje preferencje. Przede wszystkim musi on wybrać warianty decyzyjne do porównania. Odbywałoby się to w sposób analogiczny do tego, który obecnie występuje w serwisach porównawczych. Mianowicie z listy produktów w danej kategorii poprzez zaznaczenie towaru, byłby on wybierany do porównania. Następnie dokonywany jest wybór kryteriów uŜywanych do jednego konkretnego porównania. UŜytkownik ma tutaj moŜliwość uwzględnienia kryteriów dotyczących zarówno handlowców jak i towarów. MoŜe teŜ wprowadzić dodatkowo własne kryteria porównawcze. W kolejnym kroku ma miejsce etap przypisywania przez uŜytkownika wag poszczególnym kryteriom. Wagi mogą mieć dowolną wartość, gdyŜ w trakcie przebiegu procedury porównawczej Promethee II wagi zostaną przeskalowane w taki sposób, aby łącznie ich suma wynosiła 1. Na ostatnim etapie określania preferencji uŜytkownika podaje on progi równowaŜności i preferencji dla poszczególnych kryteriów. Progi te zostają ustalone w formie dialogu z uŜytkownikiem. W celu ustalenia progu równowaŜności udziela on odpowiedzi na pytanie, „w jakim zakresie róŜnic pomiędzy miernikami dla danego kryterium, róŜnice te nie mają dla uŜytkownika znaczenia”. Próg preferencji ustalany jest poprzez odpowiedź na pytanie sformułowane analogicznie, przy czym „róŜnice pomiędzy miernikami dla danego kryterium zaczynają mieć bardzo duŜe znaczenie”. Po określeniu przez uŜytkownika jego preferencji, z bazy danych pobierane są wartości mierników poszczególnych kryteriów dla wariantów wybranych wcześniej do porównania. Następnie uruchamiana jest procedura Promethee II i wyznaczany jest ranking wariantów decyzyjnych. W celu oceny uŜyteczności rozwiązania przeprowadzono badania efektów działania przedstawionego modelu wielokryterialnego serwisu porównawczego. Badania zostały przeprowadzone na losowych grupach wariantów decyzyjnych i zostały przeprowadzone dla produktów naleŜących do kategorii Notebook – bez uwzględnienia kryteriów dotyczących sklepów. Dla porównania produktów naleŜących do kategorii Notebook oceny kryteriów zostały zapoŜyczone ze strony specjalistycznego serwisu zajmującego się sprzętem komputerowym. Następnie wartości mierników kryteriów nieznacznie zmodyfikowano, gdyŜ występowały one pierwotnie w pięciostopniowej skali. Ceny produktów zostały pobrane z serwisu „Skapiec.pl”. Oczywiście w gotowym serwisie porównawczym, ceny jak i wartości mierników kryteriów dla produktów zostałyby zaczerpnięte z bazy danych systemu porównawczego. Jeśli chodzi o same kryteria, zostały wykorzystane wszystkie predefiniowane kryteria opisujące produkt oraz zostało wprowadzone jedno dodatkowe kryterium uŜytkownika. Kryterium tym jest mobilność, charakteryzująca jak bardzo dany notebook jest uŜyteczny do transportu. Wpływ na ten atrybut mają zazwyczaj rozmiary i waga sprzętu. Rozpatrywane w przypadku tego porównania warianty decyzyjne, kryteria oraz wartości mierników atrybutów przedstawia tabela 2. 142 Mateusz Piwowarski, Paweł Ziemba Metoda Promethee II w wielokryterialnej ocenie produktów Tabela 2. Warianty i wartości kryteriów dla porównania produktów w kategorii Notebook Wariant decyzyjny Wartości mierników kryteriów porównawczych Jakość [%] 83 97 78 79 ThinkPad R61 Asus G70 Samsung R60+ LG E300 Wydajność [%] 67 99 62 81 Mobilność [%] 80 37 61 90 Ergonomia [%] 79 79 78 80 Wygląd [%] 64 98 62 85 Cena [zł] 3179 10000 2435 2820 Źródło: opracowanie własne Wagi przypisane poszczególnym kryteriom oraz wartości progów równowaŜności i preferencji przyjęte do badania charakteryzuje tabela 3. Tabela 3. Wagi i progi dla kryteriów oceny produktów typu Notebook Kryterium Waga Próg równowaŜności Próg preferencji Jakość 15 10 30 Wydajność 30 10 25 Mobilność 10 20 40 Ergonomia 10 15 40 Wygląd 5 10 40 Cena 30 50 300 Źródło: opracowanie własne Przy przyjęciu powyŜszych preferencji uŜytkownika otrzymano ranking wariantów zaprezentowany w tabeli 4. Podane są w niej takŜe przepływy dominacji netto, oraz przepływy dominacji wejścia i wyjścia dla kaŜdego z wariantów. Z rankingu wynika, Ŝe dla przyjętych kryteriów, wag i progów najlepszym wyborem jest Notebook LG E300 a kolejnym dobrym wyborem jest Samsung R60+. Gorszym wyborem byłyby dwa kolejne notebooki, tj. Asus G70 oraz ThinkPad R61. Tabela 4. Ranking badanych wariantów produktów typu Notebook Wariant decyzyjny Przepływ dominacji netto (Ф) Przepływ dominacji wejścia (Ф+) Przepływ dominacji wyjścia (Ф-) LG E300 0.1733 0.3483 0.1750 Samsung R60+ 0.0875 0.3067 0.2192 Asus G70 -0.0381 0.3353 0.3733 ThinkPad R61 -0.2228 0.1333 0.3561 Źródło: opracowanie własne Odnosząc się do przedstawionej metody wielokryterialnego wspomagania podejmowania decyzji moŜna powiedzieć, Ŝe mogłaby ona znaleźć zastosowanie w serwisach porównawczych. Przede wszystkim ogranicza ona konieczny zasób wiedzy, jaką powinien posiadać uŜytkownik POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 143 w celu dokonania dobrego wyboru produktu. Poprzez wprowadzenie ogólnych a nie specjalistycznych kryteriów udało się zdjąć z uŜytkownika konieczność Ŝmudnego zdobywania informacji na temat kategorii, w której chce wybrać produkt. Wystarczy, aby ustalił on swoje preferencje – czynniki decyzyjne, które są dla niego najwaŜniejsze. UŜytkownik powinien potrafić, posługując się intuicją, ustalić wagi dla poszczególnych atrybutów towarów i progi równowaŜności i preferencji. W sytuacji, kiedy uŜytkownik potrafi to dokonać przedstawiona metoda jest duŜo skuteczniejsza i szybsza od czasochłonnego zbierania informacji na temat towarów i rozwaŜania, który z nich mógłby okazać się lepszy. Ponadto zalecane podczas realizacji systemu porównawczego byłoby zawarcie domyślnych wartości kryteriów i progów preferencji oraz stworzenie profili uŜytkownika, np. opcja budŜetowa i wydajnościowa. Pozwoliłoby to jeszcze ograniczyć wymagania stawiane uŜytkownikowi systemu odnośnie posiadanej przez niego wiedzy. Niemniej jednak mogłoby to prowadzić do częściowego rozmijania się wyników analizy z oczekiwaniami uŜytkownika. Rozpatrując przedstawioną wielokryterialną metodę porównawczą na tle metody stosowanej obecnie w porównywarkach cięŜko byłoby wskazać jakiekolwiek elementy pod względem, których przedstawiona metoda byłaby gorsza od obecnie stosowanej. W istniejących serwisach porównawczych porównania towarów wykonywane są tylko jednokryterialnie pod względem ceny. Obecne serwisy dają uŜytkownikowi równieŜ moŜliwość samodzielnego porównania wariantów poprzez przedstawienie mu podstawowych parametrów produktów. Wymaga to jednak od uŜytkownika wiedzy, której ten często nie posiada. Scharakteryzowany w niniejszym artykule model serwisu porównawczego rozwiązuje ten problem, oferując osobom korzystającym z serwisów porównawczych niezbędną pomoc przy analizie i wyborze najlepszego produktu. 5. Wnioski Przedstawiona w artykule koncepcja adaptacji algorytmu Promethee II dla internetowych serwisów porównawczych wydaje się być doskonałą moŜliwością zwiększenia ich funkcjonalności. Zaproponowany system porównawczy znacznie poprawia funkcjonalność porównywarek oferując moŜliwość wsparcia uŜytkownika w skomplikowanym problemie wyboru towaru. Ponadto w modelu systemu udało się ograniczyć jego poziom komplikacji przy zachowaniu stosunkowo wysokiej jego uŜyteczności. Dano uŜytkownikowi opcje umoŜliwiające szeroką personalizację działania algorytmu porównawczego, przy czym nawet osoba niezaznajomiona z metodyką porównań wielokryterialnych powinna intuicyjnie poradzić sobie z obsługą systemu. Zastanawiające jest, Ŝe dotychczas w serwisach, w załoŜeniu przeznaczonych do porównań produktów, nie pojawiła się taka funkcja porównań wielokryterialnych. 144 Mateusz Piwowarski, Paweł Ziemba Metoda Promethee II w wielokryterialnej ocenie produktów 6. Literatura 1. 2. 3. 4. 5. 6. 7. Beuthe M., Scannella G.: Comparative analysis of UTA multicriteria methods, European Journal of Operational Research Volume: 130, Issue: 2, April 16, 2001, s. 246-262. Roy B.: The outranking approach and the foundations of Electre methods, Theory and decision 31, 1991. Guitouni A., Martel J.M.: Tentative guideline to help choosing an appropriate MCDA method, European Journal of Operational Research 109, 1998. Dyer J.S., Fishburn P.C., Steuer R.E., Wallenius J., Zionts S.: Multiple Criteria Decision Making, Multiattribute Utility Theory: The Next Ten Years, Management Science, Vol. 38, No. 5, 1992, s. 645-654. Brans, J.P., Vincke, P.: A preference-ranking organization method: The PROMETHEE method, Management Science 31, 1985, s. 647–656. Saaty T.L.: The analytic hierarchy process, Pittsburgh: RWS Publications, 1996. Edwards W., Barron F.H.: SMARTS and SMARTER: Improved simple methods for multiattribute utility measurement, Organizational Behavior and Human Decision Processes 60, 1994, s. 306–325. THE PROMETHE II METHOD IN MULTICRITERIA EVALUATION PRODUCTS Summary The article describes problems connected with the support of the rating products in price comparison sites. One proposes therefore extension the numbers of the criteria of this opinion and the use of suitable multicriteria method. Keywords: price comparison sites, Multi-Criteria Decision Analysis, MCDA, Promethee. Mateusz Piwowarski Wydział Informatyki Politechnika Szczecińska 71-210 Szczecin, śołnierska 49 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 145 OREST POPOV, ANNA BARCZ, PIOTR PIELA Zachodniopomorski Uniwersytet Technologiczny ZAGADNIENIA ADAPTACJI W OPRACOWYWANIU MODELI W BAZIE WIEDZY DYNAMICZNEGO SYSTEMU NAUCZANIA Streszczenie Czas trwania procesu identyfikacji zazwyczaj ustalany jest z góry na podstawie wiedzy i doświadczenia modelującego. Zakłada się, Ŝe im dłuŜszy czas trwania procesu identyfikacyjnego tym dokładniejszy (w sensie odwzorowania zachowania) model. Dlatego przyjmuje się dłuŜszy czas identyfikacji niŜ jest to konieczne. W artykule pokazano, Ŝe zastosowanie rozkładu SVD w procesie identyfikacji modeli dynamicznych obiektów rzeczywistych pozwala na skrócenie czasu trwania tego procesu. Modele uzyskane w skróconym czasie odwzorowują zachowanie obiektu rzeczywistego nie gorzej niŜ modele otrzymane w wyniku identyfikacji w duŜo dłuŜszym czasie. W artykule opisano organizację procesu identyfikacji obiektów o skokowych zmianach parametrów. Zaproponowano sposób wykrywania skokowych zmian parametrów obiektu. Liczba wykrytych zmian parametrów determinuje liczbę modeli stacjonarnych opisujących obiekt. W procesie identyfikacji takich obiektów równieŜ zastosowano rozkład SVD w równaniu identyfikacji w celu skrócenia czasu tego procesu. Słowa kluczowe: model matematyczny, baza wiedzy, system nauczania, identyfikacja, rozkład względem wartości szczególnych 1. Dynamiczne komputerowe systemy nauczania Wśród systemów nauczania moŜna wyróŜnić klasę systemów zawierających w swojej strukturze system symulacyjny. Takie systemy nauczania przeznaczone są do przekazywania wiedzy deklaratywnej o obiekcie, niezbędnej w procesie kształcenia operatora danego obiektu, jak równieŜ wiedzy proceduralnej dotyczącej działalności praktycznej pozwalającej na kształtowanie odpowiednich nawyków i umiejętności. Autorzy w [9] określili takie systemy mianem dynamicznych inteligentnych systemów nauczania (DISN) i wskazali zasadnicze właściwości odróŜniające DISN od innych komputerowych systemów nauczania. Dynamiczne inteligentne systemy nauczania zawierają: • model dynamiki sterowanego obiektu, • model informacyjny, który umoŜliwia współdziałanie ucznia z modelem obiektu dynamicznego, • model nauczania, obejmujący reguły, metody, strukturę niezbędnych ćwiczeń skierowanych na nabycie określonych nawyków oraz pozostałe atrybuty nauczania. 146 Orest Popov, Anna Barcz, Piotr Piela Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania Bez względu na dziedzinę przedmiotową w strukturze inteligentnego systemu nauczania wyróŜniamy: bazy danych i wiedzy, mechanizm wnioskowania, interfejs uŜytkownika oraz pewne dodatkowe elementy. W przypadku dynamicznego inteligentnego systemu nauczania strukturę naleŜy uzupełnić o system symulacyjny, który stanowi bazę wiedzy o obiekcie rzeczywistym. Podstawą systemu symulacyjnego jest matematyczny model dynamiki obiektu nauczania. W przypadku rzeczywistych obiektów dynamicznych ich zachowanie opisuje się przy pomocy układów nieliniowych równań róŜniczkowych bądź róŜnicowych. Opis ten jest moŜliwy w sytuacji, gdy dysponujemy duŜą wiedzą o obiekcie rzeczywistym: znamy jego budowę, powiązania pomiędzy jego elementami, parametry techniczne oraz parametry środowiska pracy. Oznacza to, Ŝe struktura i parametry modelu są znane. W sytuacji, gdy nie dysponujemy tak duŜą wiedzą o obiekcie rzeczywistym konieczne jest wybranie struktury modelu, a następnie określenie parametrów w ramach tej struktury z wykorzystaniem zadań identyfikacji. W obu przypadkach ze względu na zastosowanie tworzonego modelu w dynamicznym inteligentnym systemie nauczania konieczne jest zapewnienie wysokiej jakości odwzorowania dynamiki obiektu rzeczywistego. Błędne odwzorowanie dynamiki moŜe spowodować wyrobienie u ucznia nieprawidłowych nawyków, co jest sytuacją niepoŜądaną w procesie nauczania. Z tego punktu widzenia, problem opracowania ścisłych (w sensie odwzorowania zachowania) modeli matematycznych obiektów nauczania jest waŜnym zagadnieniem w procesie tworzenia dynamicznych inteligentnych systemów nauczania. 2. Zadanie identyfikacji Ogólnie zadanie identyfikacji rzeczywistych obiektów dynamicznych polega na określeniu struktury i parametrów modeli matematycznych tych obiektów. W zaleŜności od informacji, jaką dysponujemy o badanym obiekcie, moŜemy mówić o róŜnych zadaniach identyfikacji [3]. Nie da się zapewnić dobrego jakościowo odwzorowania zachowania obiektów rzeczywistych, a co za tym idzie przeprowadzania wiarygodnych symulacji komputerowych i komputerowego sterowania, jeśli model matematyczny nie jest znany z dostateczną dokładnością. Identyfikacja modeli obiektów dynamicznych moŜe być przeprowadzona na dwa sposoby. Pierwszy z nich polega na zgromadzeniu odpowiedniej ilości danych, a następnie przeprowadzeniu procedury identyfikacji (identyfikacja off-line). Taka organizacja procesu identyfikacji jest mało efektywna ze względu na szybkość działania algorytmu i powoduje, Ŝe model dostępny jest dopiero po zakończeniu całego procesu identyfikacji. Natomiast w wielu przypadkach konieczne jest posiadanie modelu obiektu dostępnego bezpośrednio w czasie kiedy ten system działa (identyfikacja on-line). Taką moŜliwość zapewniają rekurencyjne metody identyfikacji, według których ocena parametrów modelu w danym momencie pomiarów kształtuje się jako ocena parametrów w poprzednim momencie pomiarów plus pewna poprawka. Jedną z metod tego typu jest rekurencyjna metoda najmniejszych kwadratów. Przykładowo przyjmijmy, Ŝe identyfikowany obiekt dynamiczny moŜna opisać liniowym modelem matematycznym ze stałymi parametrami w postaci: X& = AX + BU , X ∈ Rn, U ∈ Rm (1) gdzie: X – wektor zmiennych stanu, U – wektor sygnałów sterujących, A i B – niewiadome macierze o stałych współczynnikach odpowiedniej wymiarowości. ZałóŜmy takŜe, Ŝe X (t ) i U (t ) 147 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 dają się zmierzyć i moŜliwe jest obliczenie X& (t ) w kaŜdym momencie czasu. Wtedy równanie identyfikacji parametrów macierzy A i B zapisane zgodnie z metodą najmniejszych kwadratów moŜna przedstawić w znanej formie [4]: C s Ps = Rs (2) ( gdzie: C s = Aˆ s Bˆ s ∑ (X& Z ) , s Rs = X j , Z j = , s – liczba punktów pomiarowych. Podkreślmy, U j j =1 wyznaczanych macierzy wynosi odpowiednio: dim C = n × (n + m ) , s j j =1 Ŝe - macierz średniokwadratowych ocen elementów macierzy A i B, Ps = T j ) wymiarowość ∑Z Z j T j dim Ps = (n + m ) × (n + m ) , dim Rs = n × (n + m ) . Jeśli warunek rankPs = (n + m ) jest spełniony to rozwiązanie równania identyfikacji (2) jest jednoznaczne i ma postać: C s = Rs Ps−1 To samo rozwiązanie w formie rekurencyjnej moŜna przedstawić w postaci [3, 4]: ( )( C s = Rs Ps−1 = Rs−1 + X& s Z sT ⋅ Ps−−11 − K s Ps−−11Z s Z sT Ps−−11 gdzie: K s = 1 1+ Z sT Ps−−11Z s ) (3) . Poprawne działanie tego algorytmu wymaga podania wartości początkowych parametrów R0 i P0−1 . Najczęściej przyjmuje się R0 jako macierz zerową o wymiarowości dim R0 = n × (n + m) natomiast dim P0−1 = (n + m) × (n + m ) (100 ÷ 10 )[1]. P0−1 przyjmując jako wartości macierz diagonalną elementów na o diagonali wymiarowości z przedziału 6 3. Rozkład względem wartości szczególnych (SVD) w zadaniach identyfikacji Wiadomo, Ŝe dowolna rzeczywista macierz prostokątna W o wymiarach (n × p ) , moŜe być przedstawiona za pomocą rozkładu względem wartości szczególnych według zaleŜności [2]: W = Q ⋅ M ⋅ RT (4) gdzie Q i R – macierze ortogonalne, macierz Q ma rozmiar (n × n ) , natomiast macierz R rozmiar ( p × p ) . Jeśli n < p to prostokątna macierz M posiada następującą formę: 148 Orest Popov, Anna Barcz, Piotr Piela Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania µ1 0 0 M = 0 L 0 0 0 µ n 0 0 0 L 0 0 0 (5) Rozmiar macierzy M wynosi (n × p ) . Niezerowe elementy tej macierzy {µ1 , µ 2 ,K, µ n } stanowią wartości szczególne macierzy W. Są one uszeregowane w kolejności malejącej, czyli: µ1 ≥ µ 2 ≥ L ≥ µ n > 0 . (6) Wprowadźmy wielkość będącą odwrotnością wskaźnika uwarunkowania macierzy M [5, 7]: ∆ ξ= µ 1 = n Cond 2(M ) µ1 (7) Wartość ξ moŜe zmieniać się w granicach 0 ≤ ξ ≤ 1 . Dla ξ = 0 macierz M jest osobliwa, natomiast dla ξ = 1 macierz M jest idealnie uwarunkowana. W związku z powyŜszym współczynnik ξ stanowi miarę bliskości od granicy przekształcenia nieosobliwej macierzy M do macierzy osobliwej. Wielkość ξ jest wygodną miarą gęstości informacyjnej procesu identyfikacji [8]. Za jej pomocą moŜna dokonywać wyboru najlepszej struktury modelu z dostępnego zbioru modeli w przypadku identyfikacji obiektów o nieznanej nieliniowości [6]. Rozkład SVD moŜna równieŜ wykorzystać dla rzeczywistej macierzy Ps−1 w równaniu identyfikacji (3): Ps−1 = Gs ⋅ Τs ⋅ H sT (8) gdzie: Gs i H s – macierze ortogonalne odpowiedniej wymiarowości, macierz Ts zbudowana jest analogicznie jak macierz M. Analogicznie jak w (7) moŜna wyznaczyć wielkość będącą odwrotnością wskaźnika uwarunkowania macierzy Ts ∆ ξ= τ 1 = n . Cond 2(Ts ) τ 1 (9) W trakcie trwania algorytmu identyfikacyjnego po kaŜdym przeprowadzonym pomiarze wyznaczana jest macierz Ps−1 oraz w oparciu o równania (8) i (9) wyznaczany jest współczynnik ξ . Na rysunku 1 przedstawiono przykładowy przebieg współczynnika ξ oraz szybkość jego zmian. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 149 Rysunek 1. Przykładowy przebieg współczynnika ξ oraz szybkość jego zmian . Przeprowadzone badania wskazują, Ŝe najbardziej efektywną częścią procesu identyfikacji jest ten odcinek czasu na którym wskaźnik gęstości informacyjnej procesu ξ ulega zmianom. Dlatego moment osiągnięcia stanu ustalonego szybkości zmian współczynnika ξ moŜna określić jako moment zakończenia procesu identyfikacji (dla przedstawionego przykładu moment ten wynosi 10s). Kontynuowanie procesu identyfikacji nie będzie powodowało znaczących zmian wartości parametrów modelu. 4. Zagadnienie adaptacji Parametry obiektu rzeczywistego nie zawsze są stałe lecz mogą zmieniać się w czasie. W przypadku gdy występują skokowe zmiany parametrów moŜliwe jest przedstawienie ogólnego modelu matematycznego dynamicznego obiektu rzeczywistego w postaci zbioru modeli stacjonarnych. Wszystkie modele z wyznaczonego zbioru mają jednakowy wymiar i róŜne parametry. W szczególnej sytuacji model matematyczny obiektu rzeczywistego moŜe być przedstawiony jako zbiór modeli liniowych: X& j = A j X j + B jU j , X j ∈ Rn , U j ∈ Rm ∀j (1, p) . Takie przedstawienie nie przeszkadza w zastosowaniu rekurencyjnego algorytmu identyfikacji opisanego w rozdziale 2. Kluczowym zadaniem w organizacji procesu identyfikacji jest wykrywanie momentów skokowych zmian parametrów badanego obiektu. W tym celu bada się przebieg pochodnych zmiennych stanu w poszukiwaniu gwałtownych zmian ich wartości. Liczba wykrytych skokowych zmian parametrów determinuje liczbę modeli stacjonarnych opisujących obiekt. Parametry kaŜdego z modeli określane są w następujących po sobie odrębnych zadaniach identyfikacji. W kaŜdym zadaniu identyfikacji od nowa ustala się początkowe wartości macierzy R0 i P0−1 . 150 Orest Popov, Anna Barcz, Piotr Piela Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania 5. Przykład 5.1. Badany obiekt Obiektem badań będzie układ dwóch zbiorników z cieczą o odpływie swobodnym pokazany na rysunku 2. Wszelkie opory i parametry charakteryzujące ciecz zostały pominięte (na podstawie [10]). 2 h1 1.8 h2 1.6 zmienne stanu 1.4 Qwe 1.2 1 0.8 0.6 S1 S2 h1 ϕ1 0.4 h2 Q1 ϕ2 0.2 Q2 0 0 Swy1 Swy2 10 20 30 40 50 czas t 60 70 80 90 100 Rysunek 2. Badany obiekt - układ dwóch zbiorników z cieczą oraz przebieg zmiennych stanu obiektu. Po uwzględnieniu przyjętych załoŜeń, obiekt moŜna opisać za pomocą układu równań róŜniczkowych w postaci: dh S wy1 ⋅ ϕ1 ⋅ 2 g (h1 − h2 ) Q 1 = we − dt S1 S1 dh2 S wy1 ⋅ ϕ1 ⋅ 2 g (h1 − h2 ) S wy 2 ⋅ ϕ 2 ⋅ 2 gh2 − dt = S2 S2 (10) gdzie: h1 – poziom cieczy w zbiorniku 1, h2 – poziom cieczy w zbiorniku 2, S1 – powierzchnia zbiornika 1, S 2 – powierzchnia zbiornika 2, S wy1 – przekrój poprzeczny odpływu ze zbiornika 1, S wy 2 – przekrój poprzeczny odpływu ze zbiornika 2, ϕ1 i ϕ 2 – połoŜenie zaworu, Qwe – dopływ cieczy, g – przyspieszenie ziemskie. Na rysunku 2 pokazano przebieg zmiennych stanu h1 i h2 dla określonych warunków początkowych h1 (0) = 2 , h2 (0) = 1 , S1 = 1 , S 2 = 1 , S wy1 = S wy 2 = 0.3 , ϕ1 = ϕ 2 = 0.5 , Qwe = 0.5 . POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 151 5.2. Identyfikacja modelu W pracy [6] przedstawiono algorytm wyboru najlepszej struktury modelu z dostępnego zbioru modeli. W oparciu o ten algorytm dla dalszych eksperymentów identyfikacyjnych przyjęto następującą strukturę modelu: h1 & h1 c11 c12 c13 c14 h2 = ⋅ H& = C ⋅ Z (11) 2 , h& c 2 21 c22 c23 c24 h2 h3 2 gdzie: Z – wektor zmiennych stanu, C – macierz nieznanych parametrów. Zadanie identyfikacji parametrów modelu przedstawione w rozdziale 2 moŜna w prosty sposób dostosować dla modelu (11). Dane pomiarowe potrzebne do identyfikacji otrzymano w wyniku symulacji modelu nieliniowego (10) dla ustalonych danych początkowych. Eksperyment identyfikacyjny trwał 100s. Pomiary wykonywano co 0.01s. Wynikiem identyfikacji rekurencyjną metodą najmniejszych kwadratów są wartości elementów macierzy C: - 0.4219 1.4634 - 1.4939 0.7050 C = 0.3315 - 0.5838 - 0.2194 0.1405 (12) Na rysunku 3 przedstawiono przebiegi zmiennych stanu obiektu oraz modelu uzyskanego w wyniku identyfikacji. Z analizy wykresów wynika, Ŝe wybrany model (11) z parametrami (12) dobrze odwzorowuje zachowanie badanego obiektu. 2 h1 zmienne stanu 1.8 h2 1.6 h1i 1.4 h2i 1.2 1 0.8 0.6 0.4 0.2 0 0 10 20 30 40 50 czas t 60 70 80 90 100 Rysunek 3. Przebieg zmiennych stanu obiektu oraz modelu uzyskanego w wyniku identyfikacji. 152 Orest Popov, Anna Barcz, Piotr Piela Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania 5.3. Zastosowanie rozkładu SVD w równaniu identyfikacji Kolejny eksperyment identyfikacyjny został przeprowadzony dla obiektu (10) z takimi samymi warunkami początkowymi jak w punkcie 5.2 i strukturą modelu opisaną równaniem (11). Po kaŜdym pomiarze rozwiązywane jest równanie (3) oraz obliczana jest macierz Ps−1 . Dokonywany jest rozkład SVD tej macierzy i na podstawie (9) wyznaczany jest współczynnik ξ . Na rysunku 4 pokazano przebieg tego współczynnika. W oparciu o punkt 3, analizując wykres szybkości zmian współczynnika ξ (rysunek 5), moŜna określić czas zatrzymania algorytmu identyfikacyjnego, który w tym przypadku wyniósł 22.41s. -6 1.8 x 10 ξ 1.6 1.4 1.2 ξ 1 0.8 0.6 0.4 0.2 0 0 10 20 30 40 50 t [s] 60 70 80 90 100 Rysunek 4. Zmiana współczynnika ξ w trakcie trwania procesu identyfikacji. Rysunek 5. Szybkość zmian współczynnika ξ w trakcie trwania procesu identyfikacji. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 153 Algorytm identyfikacji w tym przypadku trwał od 0 do 22.41s. Jego wynikiem są wartości elementów macierzy C modelu (11) w postaci: - 0.3986 1.3601 - 1.3493 0.6183 C = 0.3356 - 0.6021 - 0.1938 0.1251 (13) Rysunek 6 przedstawia przebiegi zmiennych stanu obiektu oraz modelu (11) uzyskanego w wyniku procesu identyfikacji z parametrami (13). Z analizy wykresów wynika, Ŝe model (11) z parametrami (13) równieŜ dobrze odwzorowuje zachowanie badanego obiektu. Oznacza to, Ŝe moŜna skrócić czas algorytmu identyfikacji bez pogorszenia jego efektów. W dwóch opisanych eksperymentach skrócono czas z 100s do 22.41s. 2 h1 zmienne stanu 1.8 h2 1.6 h1i 1.4 h2i 1.2 1 0.8 0.6 0.4 0.2 0 0 10 20 30 40 50 czas t 60 70 80 90 100 Rysunek 6. Przebieg zmiennych stanu obiektu oraz modelu uzyskanego w wyniku identyfikacji. 5.4. Zagadnienie adaptacji Rozkład SVD w równaniu identyfikacji moŜna równieŜ zastosować w procesie identyfikacji systemów o skokowych zmianach parametrów. W trakcie trwania kolejnego eksperymentu identyfikacyjnego parametry systemu (10) uległy skokowym zmianom. Po czasie 30s przekrój poprzeczny odpływu ze zbiornika 1 z wartości S wy1 = 0.2 uległ zmianie i przyjął wartość S wy1 = 0.3 . Po czasie 50s połoŜenie zaworu zbiornika 1 uległo zmianie z wartości ϕ1 = 0.5 na wartość ϕ1 = 0.8 . Organizacja algorytmu identyfikacji polegała na wykryciu skokowych zmian pochodnych zmiennych stanu, które spowodowane były skokowymi zmianami parametrów obiektu (rysunek 7). 154 Orest Popov, Anna Barcz, Piotr Piela Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania Rysunek 7. Przebieg pochodnych zmiennych stanu obiektu (10). W opisywanym przypadku przeprowadzono trzy kolejne procesy identyfikacji za kaŜdym razem od nowa ustalając początkowe wartości macierzy R0 i P0−1 . Pierwszy algorytm identyfikacyjny działał w przedziale 0, 30s ) , drugi w przedziale 30s, 50s ) , a ostatni w przedziale 50s, 100s . Wykorzystując rozkład SVD w równaniu identyfikacji, jak opisano w punkcie 3, skrócono czasy działania poszczególnych algorytmów identyfikacyjnych. Pierwszy algorytm działał w przedziale 0, 22.41s ) , drugi w przedziale 30s, 36.12s ) , a ostatni w przedziale 50s, 59.12s . Przebieg zmiennych stanu obiektu oraz modeli uzyskanych w wyniku zastosowania algorytmu identyfikacyjnego przedstawia rysunek 8. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 155 2 h1 zmienne stanu 1.8 h2 1.6 h1i 1.4 h2i 1.2 1 0.8 0.6 0.4 0.2 0 0 10 20 30 40 50 czas t 60 70 80 90 100 Rysunek 8. Przebieg zmiennych stanu obiektu ze skokowymi zmianami parametrów oraz modeli uzyskanych w wyniku identyfikacji. 6. Podsumowanie Czas trwania procesu identyfikacji zazwyczaj ustalany jest z góry na podstawie wiedzy i doświadczenia modelującego. Zakłada się, Ŝe im dłuŜszy czas trwania procesu identyfikacyjnego tym dokładniejszy (w sensie odwzorowania zachowania) model. Dlatego przyjmuje się dłuŜszy czas identyfikacji niŜ jest to konieczne. Opisane w artykule eksperymenty pokazują, Ŝe zastosowanie rozkładu SVD w procesie identyfikacji modeli dynamicznych obiektów rzeczywistych pozwala na skrócenie czasu trwania tego procesu. Modele uzyskane w skróconym czasie odwzorowują zachowanie obiektu rzeczywistego nie gorzej niŜ modele otrzymane w wyniku identyfikacji w duŜo dłuŜszym czasie. Dalsza identyfikacja parametrów otrzymanych modeli nie powoduje znaczącej zmiany jakości tych modeli i dlatego nie jest konieczna. W artykule opisano organizację procesu identyfikacji obiektów o skokowych zmianach parametrów. W procesie identyfikacji takich obiektów równieŜ zastosowano rozkład SVD w równaniu identyfikacji. 156 Orest Popov, Anna Barcz, Piotr Piela Zagadnienia adaptacji w opracowywaniu modeli w bazie wiedzy dynamicznego systemu nauczania 7. Literatura 1. Bielińska E., Finger J., Kasprzyk J., Jegierski T., Ogonowski Z., Pawełczyk M., Identyfikacja procesów, Wydawnictwo Politechniki Śląskiej, Gliwice, 2002. 2. Kiełbasinski A., Schwetlick H., Numeryczna algebra liniowa. Wprowadzenie do obliczeń numerycznych. Wydanie drugie. Wydawnictwa Naukowo Techniczne, Warszawa, 1992 . 3. Ljung L., System Identification Theory for the User. Prentice Hall PTR, Upper Saddle River, New York, 1999. 4. Popov O. Elementy teorii systemów – systemy dynamiczne, Wydawnictwo Uczelniane Politechniki Szczecińskiej, Szczecin 2005. 5. Popov O., Investigation of structural qualities and informative density of dynamic processes. The method of quantitative estimations. International Conference on Control Problems, IPU, Moscow, 1999. 6. Popov O., Barcz A., Piela P., Dobór struktury modeli matematycznych Procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania, Studia i Materiały Polskiego Stowarzyszenia zarządzania wiedzą, tom 16, Polskie Stowarzyszenie Zarządzania Wiedzą, Bydgoszcz, 2008. 7. Popov O., Tretyakov A., Structural properties and informative density of dynamic processes: The method of quantitative estimation at the control, management and identification problems. Proceedings of the 5th International Conference Advanced Computer Systems, part II, p. 216 – 224, Szczecin, 1998. 8. Popov O., Tretyakov A., Quantitative measures of systems structural qualities in control, management and identification problems. Proceedings of Workshop on European Scientific and Industrial Collaboration WESIC’99, Newport, 1999. 9. Popov O., Tretyakova T., Barcz A., Piela P., Komputerowe systemy nauczania dla operatorów obiektów dynamicznych. Badania Operacyjne i Systemowe 2006. Akademicka Oficyna Wydawnicza EXIT, Warszawa, 2006. 10. Szacka K., Teoria układów dynamicznych. Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 1999. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 157 ADAPTATION PROBLEMS IN WORKING OUT THE MODELS IN THE KNOWLEDGE BASE OF THE DYNAMIC LEARNING SYSTEM Summary Time of identification process is usually fix a priori on the base of knowledge and experience of the modeler. It is supposed that the longer time of identification process the better (in sense of reproduction the behavior) the model. For this reason it is assumed the longer time of identification than it is necessary. In the article it is shown that using of singular value decomposition in identification process of the models of the dynamic real objects allows to cut down the time of this process. The model that have been obtained in the shortened time reproduces the behavior of real object not worse than the model that have been obtained during the identification in much longer time. In the article the organization of the identification process of object with the sudden changes of parameters is described. The manner of detection the sudden changes is proposed. The number of detected changes of parameters determines the number of stationary models of the object. In the identification process of such objects the singular value decomposition in the identification equation have been also used in order to cut down the time of this process. Keywords: mathematical model, knowledge base, learning system, identification, singular value decomposition Orest Popov Anna Barcz Piotr Piela Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny, 71 – 210 Szczecin, ul. śołnierska 49 [email protected] [email protected] [email protected] 158 Izabela Rojek Podejścia stosowane we wspomaganiu sterowania siecią wodociągową IZABELA ROJEK Uniwersytet Kazimierza Wielkiego w Bydgoszczy PODEJŚCIA STOSOWANE WE WSPOMAGANIU STEROWANIA SIECIĄ WODOCIĄGOWĄ Streszczenie W referacie przedstawiono podejścia stosowane we wspomaganiu sterowania siecią wodociągową. Omówiono klasyczne podejście do sterowania siecią wodociągową oraz autorskie podejście z uŜyciem metod sztucznej inteligencji. UŜycie metod sztucznej inteligencji jest szczególnie waŜne w sytuacji kryzysowej i wystąpieniu awarii w złoŜonych systemach technicznych, do których naleŜy sterowanie siecią wodociągową. Słowa kluczowe: wspomaganie, sterowanie, sieć wodociągowa 1. Wstęp Przedsiębiorstwo wodociągowe w zakresie sieci wodociągowej powinno zajmować się dystrybucją wody dobrej jakości w ilości gwarantującej zaspokojenie potrzeb odbiorców, poprawną eksploatacją sieci wodociągowej zapewniającą właściwe ciśnienie w węzłach odbiorczych, sprawnym usuwaniem awarii oraz planowaniem i wykonywaniem prac związanych z konserwacją, modernizacją i rozbudową sieci [1]. Sterowanie siecią wodociągową jest trudnym i kompleksowym procesem. Istnieją róŜne podejścia do wspomagania sterowania siecią wodociągową. Jednym z podejść modelowania w czasie rzeczywistym systemu wodociągowego jest podejście prezentowane w pracy [2]. Modelowanie numeryczne zostało zastosowane do sterowania siecią wodociągową, w tym analizą jakości wody, dystrybucją wody oraz redukcją przeciekania wody. Odpowiednie modele, zawierając wysoko rozwinięte technologie takie jak geograficzny system informacyjny i systemy telemetrii stały się niezbędnym narzędziem dla operatora sieci wodociągowej. Matematyczny model systemu dostarczania wody został skalibrowany i zweryfikowany dla rzeczywistej sieci wodociągowej. W innej pracy równieŜ zaprezentowano model matematyczny sterowania dla systemu wodociągowego [3]. Matematyczny model dotyczy określania norm poboru wody wg planu konsumpcji zasobów wody. Model jest opisany przez nieliniowe programowanie dla dystrybucji wody w sieci, symulując źródło zasobów wody z nieograniczoną pojemnością, umieszczone w wybranym węźle. Kolejna praca równieŜ zawiera badania dotyczące systemów wodociągowych, w których zostały wykorzystane matematyczne modele dotyczące wybranych problemów sterowania siecią wodociągową [4]. W pracy [5] przedstawiono inteligentny system monitorowania sieci wodociągowych sygnalizujący pojawienie się awarii sieci i wspomagający ich lokalizację. Podstawowym załoŜeniem omawianego systemu było przyjęcie metody wykrywania awarii stosowanej dotychczas w diagnostyce technicznej maszyn i procesów przemysłowych. Bazując na niewielkiej liczbie czujników przepływu zainstalowanych na sieci wodociągowej i wytrenowanej sieci neuronowej, pojawiające się awa- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 159 rie sieci są wykrywane i lokalizowane. Do znalezienia najlepszych lokalizacji czujników został uŜyty algorytm genetyczny. W Instytucie Badań Systemowych w zespole pod kierunkiem dr hab. inŜ. Jana Studzińskiego prowadzone są prace dotyczące opracowania zintegrowanego systemu komputerowego do zarządzania miejską gospodarką wodno-ściekową powstającego w ramach projektu badawczego finansowego przez Ministerstwo Nauki i Szkolnictwa WyŜszego1. Równolegle prowadzono prace dotyczące sieci wodociągowej, sieci kanalizacyjnej oraz oczyszczalni ścieków. Podejście prezentowane przez autorkę artykułu wiąŜe się z zastosowaniem metod sztucznej inteligencji do wspomagania sterowania siecią wodociągową. Podejście to w istotny sposób moŜe wzbogacić klasyczne podejścia wspomagania sterowania siecią wodociągową. To podejście równieŜ jest rozwijane w ramach tego samego projektu badawczego. UŜycie metod sztucznej inteligencji jest szczególnie waŜne w sytuacji kryzysowej i wystąpieniu awarii w złoŜonych systemach technicznych, do których naleŜy sterowanie siecią wodociągową. 2. Klasyczne podejście do sterowania siecią wodociągową Idea informatycznego systemu wspomagania do zarządzania, sterowania operacyjnego i planowania miejskiego systemu wodno-ściekowego powstała w wyniku obserwacji, Ŝe poszczególne obiekty zarządzane przez typowe przedsiębiorstwo wodociągowe nie funkcjonują niezaleŜnie, a są elementami jednego układu wzajemnie na siebie wpływającymi. Funkcję centralną pełni w tym układzie sieć wodociągowa a jej zmieniające się w czasie obciąŜenie wpływa na działanie zestawów pompowych w stacji ujęcia wody, na obciąŜenie hydrauliczne sieci kanalizacyjnej i w rezultacie na jakość pracy oczyszczalni ścieków. Poprawne przewidywanie obciąŜenia i sterowanie operacyjne siecią wodociągową pozwoli energooszczędnie sterować pompami na ujęciu wody oraz efektywnie sterować procesem technologicznym w oczyszczalni, przygotowując ją odpowiednio wcześnie do przyjęcia określonej ilości ścieków i ładunku zanieczyszczeń [1]. Dotychczasowy stan informatyzacji krajowych wodociągów jest zły. Na ogół sprowadza się do instalacji niepełnych systemów monitoringu na sieciach wodociągowych i w oczyszczalniach ścieków oraz na opracowywaniu map numerycznych dla sieci wodociągowych. Bardzo rzadko stosuje się modele matematyczne do obliczeń hydraulicznych sieci wodociągowych. Sterowanie pompowniami na ujęciach wody i w sieciach wodociągowych oraz sterowanie napełnianiem zbiorników wyrównawczych w wodociągach i sterowanie napowietrzaniem ścieków w oczyszczalniach realizują zwykle układy regulacji automatycznej, zapewniające utrzymanie zadanych nastaw regulatorów. Ponadto programy juŜ uŜywane są zwykle eksploatowane niezaleŜnie nie tworząc zintegrowanych systemów wspomagania decyzji [1]. Koncepcja komputerowego systemu wspomagania decyzji operatora sieci wodociągowej została przedstawiona na rys. 1. NajwaŜniejszymi elementami tego systemu jest branŜowa baza danych, mapa numeryczna sieci wodociągowej, system monitoringu oraz model hydrauliczny z algorytmami optymalizacji [6]. BranŜowa baza danych jest źródłem technicznych, technologicznych i eksploatacyjnych danych o sieci. Zdefiniowane zostały obiekty sieci wodociągowej. Mapa numeryczna pozwala na wizualizację sieci poprzez generowanie grafu sieci wodociągowej. Pierwszy graf geodezyjny powstaje na podstawie przyrostowej aktualizacji danych pobiera1 Praca wykonana w ramach projektu badawczego MNiSzW nr R11 001 01 160 Izabela Rojek Podejścia stosowane we wspomaganiu sterowania siecią wodociągową nych z geodezji miejskiej. Graf topologiczny poprawia topologię grafu geodezyjnego poprzez eliminację nieciągłości i przeciągnięć. Graf hydrauliczny umoŜliwia generowanie węzłów hydraulicznych sieci. System monitoringu sieci pokazuje rzeczywiste i bieŜące informacje o pracy i stanie sieci. Pomiary z monitoringu dalej słuŜą do kalibracji i weryfikacji modelu hydraulicznego sieci. NaleŜało dokonać wyboru punktów pomiarowych, wyboru rodzaju urządzeń pomiarowych (przepływomierze, ciśnieniomierze), instalacji urządzeń pomiarowych, wyboru rodzaju transmisji danych (telemetria, telefonia komórkowa, radio), ustalenia zasad transmisji danych oraz wyboru programu archiwizacji i wizualizacji danych. Poziom funkcji Wizualizacja grafu sieci Obliczenia hydrauliczne Kalibracja modelu Optymalizacja sieci Sterowanie siecią Poziom modułów Mapa numeryczna Model hydrauliczny System monitoringu Algorytm optymalizacji Algorytm sterowania Poziom danych BranŜowa Baza Danych Rys. 1. Koncepcja komputerowego systemu wspomagania decyzji operatora sieci wodociągowej [6] Model hydrauliczny pozwala na obliczanie przepływów wody w przewodach i ciśnień w węzłach sieci. Model ten został opisany liniowymi i nieliniowymi równaniami algebraicznymi (równania liniowe z I prawa Kirchhoffa (K), równania nieliniowe z II prawa Kirchhoffa (S), równania liniowe z równania Bernoulliego (K – 1)). Problemem obliczeniowym jest wybór kombinacji pierścieni do formułowania równań nieliniowych z II prawa Kirchhoffa oraz wybór algorytmu rozwiązywania tego równań nieliniowego. Zastosowano algorytm Crossa obliczania równań nieliniowych. Został opracowany program obliczeń hydraulicznych. Program ten posiada rozbudowany edytor graficzny, rozbiory węzłowe w postaci miesięcznych rozbiorów średnich, rozbiory węzłowe w postaci rozkładów godzinowych oraz wbudowany algorytm optymalizacji [7]. Zadaniem systemu komputerowego jest optymalizacja i sterowanie siecią wodociągową. WyróŜniono dwa zadania optymalizacji: projektowanie i sterowanie siecią oraz dwa zadania projektowania: rekonstrukcję i rozbudowę sieci. Projektowanie sieci polegało na doborze parametrów technicznych sieci spełniającym określone wymagania techniczne, technologiczne i ekonomiczne. Zastosowano dwie metody projektowania: symulację oraz optymalizację jednokryterialną i wielokryterialną. Symulacja i optymaliza- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 161 cja została wykorzystana do doboru zmienianych parametrów sieci, w obliczeniach symulacyjnych za pomocą modelu hydraulicznego, w ocenie wyników, do powtarzania obliczeń dla innych wariantów zmian parametrów oraz wyboru najlepszego rozwiązania. Podsumowując komputeryzacja sieci wodociągowej polegała na opracowaniu i wdroŜeniu systemu informatycznego zarządzania obiektem z uwzględnieniem funkcji technicznych i administracyjnych realizowanych w ramach zarządzania [8]. Funkcje techniczne to: monitoring przepływów i ciśnień w wybranych punktach sieci, obliczenia hydrauliczne wykonane dla wszystkich rur i węzłów sieci wodociągowej, wizualizacja sieci w postaci mapy numerycznej, lokalizacja awarii, optymalizacja i projektowanie oraz generowanie planów rewitalizacji sieci, sterowanie siecią wodociągową, wykonywanie róŜnorodnych analiz przestrzenno-tematycznych. Z kolei funkcje administracyjne to: rejestracja uŜytkowników sieci, rejestracja opracowanych projektów technicznych i śledzenie ich realizacji, rejestracja odbiorców technicznych stanów awaryjnych, ewidencja i śledzenie realizacji planowych przeglądów eksploatacyjnych. Nie wszystkie moduły są juŜ zakończone i równieŜ nie moŜna uznać, Ŝe struktura tego systemu jest juŜ zamknięta i Ŝadne nowe aplikacje nie zostaną do niego włączone, poniewaŜ system wykonywany w postaci autonomicznych i jednocześnie współpracujących ze sobą modułów jest otwarty i znajduje się ciągle jeszcze w fazie rozbudowy [8]. 3. Zastosowanie metod sztucznej inteligencji do sterowania siecią wodociągową System wspomagania sterowania siecią wodociągową z udziałem metod sztucznej inteligencji jest opracowywany etapami. System ten składa się z wielu elementów, a mianowicie: bazy danych, bazy wiedzy, bazy modeli i metod, systemów wspomagania w postaci systemów ekspertowych ukierunkowanych na określone podproblemy oraz systemów pozyskiwania wiedzy wykorzystujących wcześniej opracowane modele klasyfikujące, predykcyjne i preferencji oraz hybrydowy system klasyfikujący, który uwzględnia predykcję i preferencje. Z jednej strony korzysta on z danych pomiarowych zgromadzonych w bazie danych przesłanych przez system monitoringu sieci. Z drugiej strony wykorzystuje on modele prognostyczne do prognozowania obciąŜenia sieci wodociągowej, które powstały w systemie pozyskiwania wiedzy. System wspomagania na podstawie opracowanych modeli umoŜliwia opracowanie scenariuszy sterowania siecią wodociągową. Opracowanie odpowiednich modeli i algorytmów pozwoli w automatyczny sposób wspomagać kadrę inŜynieryjną przedsiębiorstwa wodociągowego, która obecnie te zadania wykonuje ręcznie. Opracowane modele i algorytmy to algorytmy optymalizacji i sterowania pompami (które pozwolą na zoptymalizowanie: zuŜycia energii elektrycznej, ciśnienia i przepływu wody), modele sterowania siecią wodociągową, modele prognozowania obciąŜenia i awaryjności sieci wodociągowej, algorytmy napełniania i opróŜniania zbiorników retencyjnych oraz modele jakości wody w węzłach sieci wodociągowej [9]. Inteligentny system wspomagania zawiera zarówno wspomaganie decyzji oraz sterowanie działaniem urządzeń pracujących w sieci wodociągowej. Wśród parametrów, którymi się steruje moŜna wyróŜnić poziom wody w zbiornikach, stałe ciśnienie i przepływ wody w sieci. Utrzymanie tych parametrów jest bardzo trudne ze względu na szybkie i duŜe zmiany warunków np. zmianę obciąŜenia sieci wodociągowej. ObciąŜenie sieci wodociągowej wpływa na pracę pomp oraz na napełnianie zbiorników retencyjnych. Stąd prognoza obciąŜenia sieci wodociągowej jest istotnym elementem sterowania siecią. Poprawne przewidywanie obciąŜenia i sterowanie operacyjne siecią wodociągową pozwoli, zatem energooszczędnie sterować pompami, które odpowiadają za utrzy- 162 Izabela Rojek Podejścia stosowane we wspomaganiu sterowania siecią wodociągową manie właściwego poziomu ciśnienia i przepływu wody w sieci wodociągowej oraz właściwego poziomu wody w zbiornikach. System wspomagania w czasie rzeczywistym sprawdza, czy bieŜące parametry ciśnienia i przepływu wody mieszczą się w granicy normy. W przypadku parametrów poniŜej normy, system wskazuje potrzebę uruchomienia pompy w celu wyrównania poziomu ciśnienia wody. W przypadku przekraczania górnej normy ciśnienia, system sygnalizuje potrzebę wyłączenia pompy. Wykorzystując wbudowane modele moŜna według nich przewidywać potencjalne obciąŜenie i sterować pompami, w zaleŜności od pory roku, miesiąca, dnia, czy nawet części dnia. W oparciu o zasady metodologii analizy systemowej model systemu moŜe być ogólnie scharakteryzowany zbiorem (1) [10]: S=< D, C, Og, Wi, Wo, Amod, Amet, K, Oc, Pref, Proc> (1) gdzie: D- dziedzina przedmiotowa systemu, w której system działa C- cele (funkcje) systemu związane z rozwiązaniem problemów/zadań Og- ograniczenia, przy których system działa Wi- wejście systemu Wo- wyjście systemu (rozwiązanie w postaci decyzji, działania) Amod- zbiór alternatywnych modeli Amet- zbiór alternatywnych metod K- zbiór kryteriów wyboru decyzji, działania, modelu Oc- zbiór ocen metod i modeli Pref- zbiór preferencji uŜytkownika systemu i odbiorcy Proc- zbiór procesów zachodzących w systemie, w postaci wejścia/wyjścia y(t)=f(x(t-1),…,x(t-n)), t- czas dyskretny, x()- wektor wejść, y()- wektor wyjść, f- funkcja bazująca na przykładach. Na rys. 2 pokazano architekturę systemu wspomagania sterowania siecią wodociągową [11]. Na wejściu systemu znajdują się uŜytkownik systemu, określona rzeczywistość, na którą powinien zareagować uŜytkownik systemu oraz odbiorca, który ma określone oczekiwania, co do systemu. W skład systemu wchodzą moduły zawierające: model sytuacji decyzyjnej, model preferencji uŜytkownika systemu z uwzględnieniem preferencji odbiorcy w postaci reguł decyzyjnych, które zawierają warianty, kryteria, ograniczenia, prognozy i preferencje, system pozyskiwania wiedzy, który dostarcza wiedzy niezbędnej zarówno do tworzenia preferencji i wspomagania decyzji oraz system wspomagania decyzji. Moduły systemu korzystają z baz danych, baz wiedzy, baz metod i baz modeli, zawierających niezbędne informacje do zarządzania procesami w systemie. Podstawą analizy i podjęcia decyzji w systemie jest właściwy model opisujący sytuację decyzyjną lub działanie. Model jest budowany, a następnie aktualizowany na podstawie informacji zewnętrznych, takich jak dane historyczne, oceny ekspertów. Model będzie inny dla kaŜdej rozpatrywanej sytuacji decyzyjnej. Zarówno informacje zewnętrzne oraz modele są pamiętane w odpowiednich bazach danych, wiedzy, metod i modeli. Model sytuacji decyzyjnej powiązany jest z modelem preferencji. Model preferencji zawiera opis preferencji uŜytkownika systemu w postaci reguł decyzyjnych. Preferencje są uwzględ- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 163 niane w trakcie analizy sytuacji decyzyjnej zarówno w modelach klasyfikacji jak i na etapie klasyfikacji. Zakłada się, Ŝe preferencje mogą się zmieniać w trakcie analizy decyzyjnej. ZauwaŜono równieŜ, Ŝe w trakcie analizy decyzyjnej następuje proces uczenia, polegający na tym, Ŝe uŜytkownik uzyskując kolejne informacje o moŜliwych efektach decyzji, często koryguje swoje preferencje. System pozyskiwania wiedzy na podstawie danych historycznych pozyskuje wiedzę, która jest niezbędna w systemie wspomagania decyzji do klasyfikacji według określonych kryteriów, prognozowania, tworzenia preferencji, wspomagania decyzji oraz optymalizacji podjętych decyzji. System wspomagania decyzji/działania generuje wielkości wyjściowe dla zadanych scenariuszy zmiennych decyzyjnych zgodnie z preferencjami uŜytkownika oraz wyznacza decyzje optymalne. Na wyjściu systemu znajduje się rozwiązanie kompromisowe. Opracowanie modelu systemu wspomagania naleŜało przeprowadzić etapami. Po pierwsze określono dziedzinę przedmiotową, dla której system ma działać. Kolejno określono ograniczenia, przy których system działa, wejścia systemu, wyjścia systemu, zbiór alternatywnych metod do rozwiązywania określonych problemów oraz zbiór alternatywnych modeli (klasyfikacji, predykcji), zbiór ocen metod i modeli, zbiór preferencji uŜytkownika systemu i odbiorcy oraz zbiór procesów zachodzących w systemie. Wszystkie dane, metody, modele i wiedza mieszczą się w odpowiednich bazach. Szczególnie interesujący okazał się etap budowy modeli klasyfikacji, predykcji i preferencji. Celem budowy modelu klasyfikacji było kontrolowanie, czy wartości wejściowe są w normie, czy teŜ nie. W celu uzyskania najlepszych efektów jako modele klasyfikacyjne opracowano i przebadano sieci neuronowe: jednokierunkowe wielowarstwowe ze wsteczną propagacją błędu, liniowe i RBF, klasyfikatory proste oraz wielokrotne w postaci drzew decyzyjnych. Opracowano klasyfikator złoŜony, w którym dodano preferencje i wyjątki. Celem budowy modeli predykcji było dokładniejsze przewidywanie wartości wejściowych oraz szybsze reagowanie na nieprawidłowości w systemie. Modele predykcji zbudowane zostały przy uŜyciu sieci neuronowej. Porównano róŜne ich typy: jednokierunkowe wielowarstwowe ze wsteczną propagacją błędu, liniowe i RBF. Na podstawie modelu klasyfikacji i predykcji utworzono reguły decyzyjne w systemie wspomagania. W regułach tych zawarto metody zarządzania i sterowania elementami systemu. W celu wzmocnienia inteligentnego wspomagania opracowano modele preferencji, które wprowadzono do modeli klasyfikacyjnych i predykcyjnych jako przykłady, w celu dokładniejszego opracowania reguł i procedur zawartych w systemie inteligentnego wspomagania. 4. Podsumowanie Zastosowanie metod sztucznej inteligencji we wspomaganiu sterowania siecią wodociągową wprowadziło nową jakość do sterowania siecią wodociągową oraz moŜe stać się podstawą algorytmizacji nowych systemów zwanych „inteligentnymi”. Wykorzystanie metod sztucznej inteligencji umoŜliwia utworzenie systemu wspomagania, który w sposób automatyczny pozyskuje wiedzę i ma właściwość adaptacji. Jest to szczególnie waŜne przy opracowywaniu systemu dla złoŜonych systemów rzeczywistych, w których następują ciągłe zmiany i jedne podprocesy zaleŜą od innych oraz wiele czynników zaleŜy jeden od drugiego i kaŜda zmiana powoduje zmiany kolejne. 164 Izabela Rojek Podejścia stosowane we wspomaganiu sterowania siecią wodociągową Korzyści ze stosowania metod sztucznej inteligencji wielokrotnie przekraczają pracochłonność ich tworzenia. W rzeczywistości najdłuŜszym etapem procesu ich tworzenia jest zgromadzenie i przygotowanie danych źródłowych, chociaŜ poprzez automatyczne gromadzenie danych równieŜ ten etap ulega skróceniu. Zastosowanie właściwych metod sztucznej inteligencji do tworzenia modeli oraz samo tworzenie modeli, oczywiście po opracowaniu odpowiednich procedur komputerowych, w najdłuŜszych przypadkach zajmuje kilka do kilkunastu minut. Inteligentny system wspomagania pozwala na pozyskanie danych, wiedzy i doświadczenia ludzi w sposób komplementarny. Wykorzystano zarówno do tego celu bazy danych istniejące w przedsiębiorstwie oraz metody sztucznej inteligencji. Kompleksowe podejście jest istotnym osiągnięciem w stosunku do tradycyjnych systemów opartych wyłącznie na wiedzy pozyskanej od ekspertów ludzi. Jest to szczególnie istotne w sytuacjach, gdy wiedza taka nie jest dostępna, bądź jest trudna do sformalizowania, niepełna i niepewna. Rys. 2. Architektura inteligentnego systemu wspomagania sterowania siecią wodociągową [11] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 165 5. Literatura 1. Studziński J., Bogdan L.: Informatyczny system wspomagania decyzji do zarządzania, sterowania operacyjnego i planowania miejskiego systemu wodno-ściekowego. W: Studziński J., Drelichowski L., Hryniewicz O. (Red.): Rozwój i zastosowania metod ilościowych i technik informatycznych wspomagających procesy decyzyjne, Instytut Badań Systemowych Polska Akademia Nauk, Badania Systemowe 49, Warszawa 2006. 2. Farmani R., Ingeduld P., Savic D., Walters G., Svitak Z., Berka J.: Real-time modeling of a major water supply system, International Conference on Computing and Control for the Water Industry No8, Exeter , ROYAUME-UNI, vol. 160, no 2, str. 103-108, 2007 3. Iskenderov A.A.: A Mathematical Model of Water Supply System Management, MAIK Nauka/Interperiodica, Water Resources, vol. 30, no 4, str. 458-466(9), 2003 4. Chung G., Kim J., Kim T-W: System dynamics modeling approach to water supply system, KSCE Journal of Civil Engineering, vol. 12, no. 4, str. 275-280, 2008 5. Wyczółkowski R., Wysogląd B.: An optimization of heuristic model of water supply network, Computer Assisted Mechanics and Engineering Science, CAMES, no 14, str. 767–776, 2007 6. Studziński J.: Optymalizacja i zarządzanie operacyjne miejskimi sieciami wodociągowymi, wykład habilitacyjny, IBS PAN, Warszawa, 2005 7. Studziński J.: Projektowanie zintegrowanego systemu informatycznego zarządzania miejską siecią wodociągową, w: Bojar W., Budziński R., Straszak A., Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, vol. 17, str. 185-197, Bydgoszcz 2008 8. Studziński J.: Wspomaganie zarządzania miejskim przedsiębiorstwem wodociągowym za pomocą informacji z systemu monitoringu i mapy numerycznej, w: Budziński R., Drelichowski L., Straszak A. (2008) Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, vol. 14, str. 100-115, Bydgoszcz 2008 9. Rojek I.: Inteligentny system wspomagania decyzji dla sterowania siecią wodociągową, materiały konferencyjne II Krajowej Konferencji Naukowej „Technologie przetwarzania danych”, wydawnictwo Politechniki Poznańskiej, str. 186-194, Poznań 2007 10. Rojek I.: Model of Intelligent Decision Support System Using Methods of Artificial Intelligence, Polish Journal of Environmental Studies, vol. 17, no. 3B, str. 375-379, 2008 11. Rojek I.: Inteligentne zarządzanie preferencjami poboru wody w sieci wodociągowej, red. Bojar W., Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, vol. 14, str. 67-74, Bydgoszcz 2008 166 Izabela Rojek Podejścia stosowane we wspomaganiu sterowania siecią wodociągową APPROACHES APPLIED TO SUPPORT OF CONTROL WATER SUPPLY SYSTEM Summary In the paper approaches applied to support of control of water-supply system were introduced. The classic approach to control of water-supply system and the author's approach with use of the methods of artificial intelligence were presented. The application of artificial intelligence methods is particularly important in critical situation and pronouncement of average in complex technical systems , to which control of water-supply system belonged. Keywords: support, control, water-supply system Izabela Rojek Instytut Mechaniki Środowiska i Informatyki Stosowanej Uniwersytet Kazimierza Wielkiego 85-064 Bydgoszcz, ul. Chodkiewicza 30 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 167 BOśENA ŚMIAŁKOWSKA Zachodniopomorski Uniwersytet Technologiczny TOMASZ DUDEK Akademia Morska w Szczecinie OCENA METOD WERSJOWANIA BAZ I HURTOWNI DANYCH Streszczenie Aby bazy i hurtownie danych mogły spełnić swoją rolę w zintegrowanych komputerowych systemach wspomagania zarządzanie muszą uwzględniać zmienne w czasie potrzeby uŜytkowników (decydentów, analityków). Ten zmienny charakter potrzeb moŜna osiągnąć poprzez tworzenie wielowersyjnych baz i hurtowni danych. W literaturze i praktyce stosowane są róŜne metody wersjowania danych. Od uŜytej w systemie bazy lub hurtowni danych metody wersjowania zaleŜy jakość i uŜyteczność danych oferowanych uŜytkownikom tych systemów. W artykule zaprezentowano wyniki oceny wybranych metod wersjowania baz i hurtowni danych. Ocenę tę zrealizowano za pomocą metody AHP (ang. Analytical Hierarchy Process [6]). Słowa kluczowe: wielowersyjne bazy i hurtownie danych, zarządzanie wersjami danych, metoda AHP, metoda wersjowania bitemporalnego baz i hurtowni danych 1. Wprowadzenie Bazy i hurtownie danych przechowują dane odwzorowujące stany wyodrębnionej części świata rzeczywistego (tzw. miniświat), do której się odnoszą. Z czasem zmiany w świecie rzeczywistym mogą wpływać na konieczność modyfikacji struktury (schematu) bazy lub hurtowni danych szczególnie wówczas, gdy na etapie ich projektowania nie przewidziano tej zmienności. Niewątpliwy wpływ na zmianę struktur kolekcji danych mają równieŜ: − Nowe potrzeby uŜytkowników, pojawiające się na etapie eksploatacji baz (hurtowni) danych, − Zmiany w środowisku biznesowym, związanym z kolekcją danych przechowywanych w bazie (hurtowni) danych, Np. zmiany przepisów prawnych, metod zarządzania i organizacji pracy, metod wspomagania decyzji, etc., − Rozwój infrastruktury systemów baz danych oraz technologii, technik, środków i metod przetwarzania danych. Zmiany w schemacie bazy danych moŜna osiągnąć poprzez modyfikację schematu (ang. schema modification) lub poprzez tzw. wersjowanie (ang. schema versioning). Modyfikacja schematu bazy danych moŜe być realizowana na poziomie fizycznym lub logicznym. Zmiana schematu fizycznego zwykle przeprowadzana jest przez administratora bazy danych ze względów eksploatacyjnych (przepełnienie pamięci, optymalne wykorzystanie zasobów, optymalizacja rozmieszczenia zasobów, etc). Zmiana schematu na poziomie logicznym polega na dodaniu lub usunięciu wyróŜnionego elementu (obiektu) bazy danych, Np., tabeli, kolumny, widoku, 168 BoŜena Śmiałkowska, Tomasz Dudek Ocena metod wersjowania baz i hurtowni danych indeksu, atrybutu, relacji, typu, etc. W relacyjnych bazach danych modyfikacja schematu logicznego jest stosowana w ograniczonym do moŜliwości języka SQL zakresie, między innymi dzięki takim komendom tego języka jak ALTER TABLE z opcją ADD COLUMN lub DROP COLUMN czy teŜ DROP TABLE. Wersjowanie schematu bazy czy hurtowni danych polega na utrzymywaniu wielu wersji tej samej kolekcji danych. Systemy baz lub hurtowni danych, w których nie jest moŜliwe utrzymywanie wielu wersji danych nazywa się jednowersyjnymi bazami lub hurtowniami danych. Wersje przechowywane w wielowersyjnej bazie lub hurtowni danych mogą być tworzone, przechowywane i udostępniane z róŜnych względów. Takimi względami mogą być Np. potrzeba utrzymywania historycznych zmian w bazie danych, konieczność przeprowadzenia badań wyprzedzających historię (symulacja przyszłych stanów), potrzeba opracowania przyszłych scenariuszy biznesowych, planowanie, badanie i porównanie alternatywnych rozwiązań, etc. Zazwyczaj wersje w wielowersyjnych bazach i hurtowniach danych dzieli się na wersje historyczne i wariantowe (alternatywne) [4][7][8]. Wersje wariantowe są interpretowane jako odpowiedniki modelowanych obiektów, które róŜnią się od obiektów tego samego typu strukturą i zachowaniem modelowanej rzeczywistości. Wersje historyczne wynikają z liniowego upływu czasu. JednakŜe moŜliwe jest równieŜ utrzymywanie wersji historycznych kolekcji danych z gałęziowym modelem upływu czasu na zasadzie podobnej jak w odniesieniu do temporalnych baz danych. Wielowersyjne bazy lub hurtownie danych pozwalają zachowywać (zapamiętać) stany i zachowanie obiektów bazodanowych w ujęciu historycznym lub alternatywnym, przy jednoczesnym zachowaniu powiązań z tym samym modelowanym obiektem rzeczywistości. 2. Rodzaje metod wersjowania baz i hurtowni danych. W literaturze [1][5] wyróŜnia się w bazach i hurtowniach danych wersjowanie częściowe (ang. partial schema versioning) lub pełne (ang. full schema versioning). Częściowe wersjowanie schematu ma miejsce wówczas, gdy system bazy lub hurtowni danych umoŜliwia pobranie wszystkich danych (danych historycznych, wariantowych i aktualnych – zwykle jest to ostatnia wersja historyczna kolekcji danych), ale aktualizacja danych musi się odbywać tylko na danych aktualnych. O pełnym wersjowaniu schematu bazy lub hurtowni danych mówi się wówczas, gdy system umoŜliwia odczyt i aktualizację wszystkich danych (historycznych, alternatywnych i aktualnych) przechowywanych w systemie. W wielowersyjnych bazach danych uŜytkownik moŜe mieć dostęp do danych pochodzących z tej samej lub innej wersji danych, przy jednoczesnym zachowaniu spójności kolekcji danych. Gdy w bazie danych obiekt bazy (hurtowni danych) jest złoŜony z wielu innych obiektów (Np., tabela z wielu atrybutów, baza danych z wielu tabel, obiekt złoŜony w obiektowej bazie danych) a kaŜdy z nich moŜe występować w wielu wersjach, to w systemie muszą istnieć mechanizmy jednoznacznej identyfikacji, utrzymania i operowania na wielu reprezentacjach tych samych obiektów rzeczywistych, zwanych „wersjami” obiektów. W wielowersyjnych bazach danych moŜliwe jest utrzymywanie kolejnych wersji obiektów lub całej bazy danych. Mamy wówczas do czynienia z kolekcją danych z wersjami obiektów lub z wersjami baz danych. W wielowersyjnej bazie (hurtowni) danych z wersjami obiektów występują obiekty wersjowane i niewersjowane. Obiekty podlegające wersjowaniu mogą być wersjami przejściowymi obiektu (ang. transient), roboczymi (ang. working) lub ostatecznymi (ang. released). Tym typom obiektów wersjowanych odpowiada etap procesu projektowania obiektu wielowersyjnego ostatecznego. Wersje przejściowe obiektów mogą być POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 169 wersjami niekompletnymi, niepoprawnymi i są dostępne wyłącznie dla jej twórców. W momencie osiągnięcia stanu stabilnego (Np., po wstępnym przetestowaniu), wersje przejściowe mogą stać się wersjami roboczymi. Zmiana typu wersji obiektu jest moŜliwa dzięki operacji promocji (ang. promotion). Wersje robocze obiektów mogą być współdzielone przez wyróŜniony krąg uŜytkowników (projektanci grupy) i nie mogą być modyfikowane. Stanowią one podstawę tworzenia innych wersji przejściowych tego samego obiektu. Wersja robocza moŜe być promowana do wersji ostatecznej i udostępniana szerszej rzeszy uŜytkowników bazy lub hurtowni danych. Z kaŜdym obiektem wielowersyjnym w bazie lub hurtowni danych związany jest tzw. obiekt generyczny (ang. generic object). Celem tego obiektu jest reprezentacja toŜsamości modelowanej rzeczywistości. Zwykle atrybutami obiektu generycznego są: − Liczba utworzonych wersji obiektu, − Numer kolejnej wersji obiektu, jeśli w przyszłości taka wersja zostanie utworzona), − Numer wersji domyślnej, aktualnie obowiązującej, − Drzewo wywodu wersji. Za literaturą [1][3], w zarządzaniu danymi wielowersyjnych baz danych często stosuje się metody oparte na zasadzie utrzymywania pojedynczej puli danych (ang. Single-Pool Solution) lub wielu pul danych (ang. Multi-Pool Solution). W rozwiązaniu z pojedynczą pulą danych, dane wszystkich wersji są zarządzane wspólnie, zaś w przypadku modelu z wieloma pulami danych, dane róŜnych wersji schematu są zarządzane przez oddzielną pulę danych. Dodatkowo w zarządzaniu danymi w wielowersyjnych bazach danych stosuje się metody synchroniczne (ang. synchronous management) i asynchroniczne (ang. asynchronous management)[1][2]. W zarządzaniu synchronicznym dane są przechowywane, wyszukiwane i aktualizowane za pomocą odpowiadających im wersji schematu zaś asynchroniczne zarządzanie polega na tym, Ŝe dane wielowersyjnej bazy danych mogą być zapamiętywane, wyszukiwane i aktualizowane za pomocą dowolnej wersji schematu danych. Częściej w wielowersyjnych bazach danych uŜywa się metod opartych na zarządzaniu asynchronicznym, choć istnieją równieŜ implementacje oparte na zmodyfikowanym zarządzaniu asynchronicznym. Zwykle te modyfikacje metody zarządzania asynchronicznego dotyczą wybranych metod obsługi danych (Np., zarządzanie asynchroniczne uŜywa się jedynie do aktualizacji wielowersyjnej bazy danych a wyszukiwanie realizuje się zwykle na jednym schemacie wielowersyjnej bazy danych). W zarządzaniu danymi wielowersyjnych baz i hurtowni danych wykorzystuje się równieŜ podejście oparte na przypisywaniu do wersji schematu danych tzw. czasu transakcyjnego (ang. Transaction Time Schema Versioning). Tu zmiana schematu wielowersyjnej bazy danych dotyczy zawsze aktualnej w danej chwili wersji schematu (ostateczna wersja schematu). Wówczas Ŝadna instrukcja w języku SQL w postaci SET SCHEMA nie moŜe być uŜyta przed zmianą schematu do wybranej wersji schematu, która będzie modyfikowana. Wersjowanie schematu danych z wykorzystaniem czasu transakcji wymaga najprostszego zarządzania wewnętrznymi danymi w odpowiedzi na zmianę schematu. Zmiana schematu moŜe wpłynąć jedynie na bieŜącą wersję schematu. Gdy zastosowane są mechanizmy z pojedynczą pulą danych, to stara wersja danych podlega archiwizacji a nowa wersja wymaga zastosowania zmian w bazie danych, zgodnie ze zmianą schematu. Często w tym przypadku naleŜy wykorzystać tzw. tymczasowe funkcje konwersji [2]. Jeśli w zarządzaniu wielowersyjną bazą danych zastosowano mechanizm wielu pul (pakietów) danych (ang. Multi-Pool Solution), to tworzenie nowej wersji schematu wymusza utworzenia nowej puli danych. W zarządzaniu wielowersyjnym bazami i hurtowniami danych wykorzystuje się równieŜ 170 BoŜena Śmiałkowska, Tomasz Dudek Ocena metod wersjowania baz i hurtowni danych znaczniki waŜności wersji (ang. Valid-Time Schema Versioning) [1]. Realizuje się to często za pomocą specjalnej klauzuli VALID będącej warunkiem czasu waŜności wersji schematu danych. Takiej klauzuli moŜe uŜyć uprawniony do zmiany wersji schematu bazy danych uŜytkownik. W tym przypadku poprzez klauzulę SET SCHEMA moŜna dokonać wyboru tej wersji schematu, na którym będzie realizowana modyfikacja. Nowej wersji schematu przypisywany jest znacznik czasu waŜności schematu. Poprzednie wersje schematu logicznego, całkowicie zakryte (ang. overlapped) przez zmianę znacznika czasu waŜności, są usuwane. Znacznik czasu waŜności zostaje zredukowany dla poprzedniej wersji schematu logicznego, gdy znacznik ten jest tylko częściowo zakryty (ang. partially overlapped) przez znacznik czasu waŜności nowej wersji schematu logicznego. W wersjowaniu baz danych z wykorzystaniem znacznika waŜności schematu mogą być przeprowadzane zarówno wsteczne (ang. retroactive) jak i przyszłe (ang. proactive) zmiany schematu danych. W tym przypadku stosuje się specjalną klauzulę języka SQL w formie VALID PERIOD, która określa waŜność czasową nowo utworzonej wersji schematu danych. Po wykonaniu zmian w schemacie zostanie utworzona nowa wersja, a pewne dane w wersjach starych mogą zostać usunięte lub moŜe im zostać ograniczony zakres znacznika czasu waŜności. Zadaniem tej ostatniej czynności jest uniknięcie nakładania się znaczników waŜności poprzednich wersji schematu ze znacznikiem czasowym waŜności nowej wersji danych. Metoda ze znacznikami waŜności wersji schematu moŜe być równieŜ realizowana z zastosowaniem pojedynczej lub wielu pul danych, na zasadach asynchronicznych i synchronicznych. W wersjowaniu wykorzystującym znaczniki czasu transakcji, logiczne usunięcie danych nie wiąŜe się z fizycznym usuwaniem danych, zaś w przypadku zarządzania wielowersyjną bazą lub hurtownią danych z wykorzystaniem znaczników waŜności wersji, operacja logicznego usuwania danych z kolejnej wersji schematu danych moŜe prowadzić do fizycznego usunięcia danych. W przypadku zastosowania znaczników waŜności wersji danych oraz wielu pul danych po zmianie schematu (wersji) bazy danych inicjowana jest nowa pula danych, przy czym jest ona wypełniona danymi pochodzącymi z pul danych, które odpowiadają zmodyfikowanej wersji schematu logicznego, po dokonaniu stosownych zmian. Pule danych powiązane z całkowicie przysłoniętymi (lub usuniętymi) wersjami schematu takŜe są usuwane. Pule danych powiązane z tylko częściowo zasłoniętymi wersjami schematu są pozostawione bez zmiany w przypadku asynchronicznego zarządzania danymi. W przypadku synchronicznego zarządzania ich znaczniki waŜności zostają ograniczone. Metodą na retro- i pro- aktywne przechowywanie zmian wersji schematu wielowersyjnej bazy lub hurtowni danych jest tzw. bitemporalne wersjowanie schematu logicznego kolekcji danych. Metoda ta polega na zapamiętywaniu dla kaŜdej wersji danych zarówno znacznika czasowego transakcji jak równieŜ znacznika czasu waŜności wersji. Z przeprowadzonej pokrótce charakterystyki metod wersjowania kolekcji danych wynika, Ŝe wybór metody wersjowania ma istotny wpływ na zakres dostępu do danych oraz wydajność systemu. Aby określić, która z metod wersjowania najlepiej nadawałaby się do implementacji w określonych warunkach naleŜy przeprowadzić ocenę tych metod. Utworzenie środowiska badawczego do przeprowadzenia eksperymentu opartego na pomiarze nie jest moŜliwe dlatego, Ŝe nie jest moŜliwe zaimplementowanie wszystkich metod wersjowania w jednym eksperymentalnym systemie przy jednoczesnym zachowaniu niezaleŜności metod wersjowania od siebie i konieczności przeprowadzenia eksperymentu dla róŜnych zastosowań wielowersyjnych baz danych. Dodatkowo naleŜy zauwaŜyć, Ŝe takie parametry eksploatacyjne jak wydaj- 171 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 ność, trudność implementacji, ryzyko utraty danych nie dają się wyrazić wielkościami mierzalnymi a inne Np. czas implementacji, silnie zaleŜą od zastosowania i oprogramowania systemu baz danych. 3. Ocena metod wersjowania danych. Do oceny metod wersjowania schematu logicznego baz lub hurtowni danych wykorzystano metodę wielokryterialną AHP (ang. Analytical Hierarchy Process). Metoda ta wydaje się najbardziej uŜyteczną ze względu na złoŜoność analizy wielokryterialnej, choćby ze względu na istnienie nieporównywalnych i wzajemnie zaleŜnych kryteriów oceny metod wersjowania. W ocenie rozwaŜono następujące kryteria porównawcze: − Wagę metody dla eksploatacji wielowersyjnej kolekcji danych, − Efekty etapu wdraŜania metody, − Bezpieczeństwo metody, − Elastyczność, − Koszty związane z utrzymaniem i eksploatacją metody. Dla wyróŜnionych kryteriów, zostały ocenione przez eksperta wagi waŜności par tych kryteriów. Są one zgodne w opinii ekspertów z tabelą 1. Tabela 1. Macierz głównych kryteriów w metodzie AHP K1 Eksploatacja 1 0,2 1 2 1 5,2 Kryterium K1-Eksploatacja K2-WdraŜanie K3-Bezpieczeństwo K4-Elastyczność K5-Koszty Suma K2 WdraŜanie 5 1 1 5 1 13 K3 Bezpieczeństwo 1 1 1 5 1 9 K4 Elastyczność 0,5 0,2 0,2 1 0,2 2,1 K5 Koszty 1 1 1 5 1 9 Źródło: opracowanie własne na podstawie[6] W oparciu o Tabelę 1 opracowano następnie Tabelę 2, w której wyliczono wagi i rangi kryteriów będących podstawą oceny metod wersjowania schematu danych metodą AHP. Tabela 2. Macierz wag (priorytetów) i ranking głównych kryteriów w ocenie metod wersjowania baz i hurtowni danych zgodnie z oznaczeniami z Tabeli 2 K1 K1 K2 K3 K4 K5 0,1923 0,0385 0,1923 0,3846 0,1923 K2 0,3846 0,0769 0,0769 0,3846 0,0769 K3 0,1111 0,1111 0,1111 0,5556 0,1111 K4 0,2381 0,0952 0,0952 0,4762 0,0952 K5 0,1111 0,1111 0,1111 0,5556 0,1111 Waga 0,2074 0,0866 0,1173 0,4713 0,1173 Ranking 2 4 3 1 3 Źródło: opracowanie własne na podstawie [6] Dla kaŜdego kryterium oceny wyróŜniono następnie podkryteria. Są one zgodne zgodnie z Tabelą 3. 172 BoŜena Śmiałkowska, Tomasz Dudek Ocena metod wersjowania baz i hurtowni danych Tabela 3. Podział kryteriów na podkryteria oceny metod wersjowania K1 Eksploatacja K2 WdraŜanie K3 Bezpieczeństwo K4 Elastyczność K5 Koszty S1-wydajność S2-wymagane zasoby S3-czasochłonność S4-trudność implementacji S5-łatwość odzyskania danych S6-Ryzyko utraty danych historycznych S7-przenaszalność S8-moŜliwość wprowadzania zmian S9-obszar zastosowań S10-moŜliwość odwołania się do wersji historycznej S11-moŜliwość tworzenia wersji przyszłych S12-koszt wdraŜania S13-koszt utrzymania S14-koszt przenoszenia S15-koszt odzysku danych po awarii Źródło: opracowanie własne Na podobnych zasadach jak dla kryteriów (patrz Tabela 1 i 2) opracowano tabelę lokalnych i globalnych wag dla rozwaŜanych podkryteriów. Wyznaczone wagi są zgodne z tabelą 4. Tabela 4. Macierz wag i ranking podkryteriów Kryterium K1 Eksploatacja K2 WdraŜanie K3 Bezpieczeństwo K4 Elastyczność K5 Koszty Podkryterium S1-wydajność S2-wymagane zasoby S3-czasochłonność S4-trudność implementacji S5-łatwość odzyskania danych S6-Ryzyko utraty danych historycznych S7-przenaszalność S8-moŜliwość wprowadzenia zmian S9-obszar zastosowań S10-moŜliwość odwołania się do wersji historycznej S11-moŜliwość tworzenia wersji przyszłych S12-koszt wdraŜania S13-koszt utrzymania S14-koszt przenoszenia S15-koszt odzysku danych Źródło opracowanie własne na podstawie[6] Lokalne wagi Si 0,6667 0,3333 0,7501 0,2499 0,1667 0,8333 0,0324 0,0761 0,0918 0,3998 Globalne wagi Ki 0,2074 0,0866 0,1173 0,4713 0,3998 0,2000 0,6609 0,0696 0,0696 0,1173 Globalne wagi Si Rangi Si 0,1383 0,0691 0,0650 0,0075 0,0196 3 6 7 14 11 0,0978 4 0,0153 0,0359 0,0433 12 9 8 0,1884 1 0,1884 2 0,0226 0,0747 0,0079 0,0079 10 5 13 13 173 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 Tabela 5. Lokalne wagi przypisane metodom wersjowania schematu logicznego baz i hurtowni danych Kryterium Wagi podkryteriów 0,138 3 0,069 1 0,065 0 0,007 5 M1 M2 M3 M4 M5 0,058 8 0,112 5 0,134 8 0,206 5 0,058 8 0,088 6 0,056 7 0,000 6 0,294 1 0,230 8 0,325 9 0,002 9 0,294 1 0,284 1 0,325 9 0,001 9 0,294 1 0,284 1 0,156 8 0,000 6 0,019 6 0,097 8 0,015 3 0,035 9 0,043 3 0,166 0 0,148 1 0,166 7 0,200 0 0,058 8 0,096 4 0,148 1 0,166 7 0,200 0 0,058 8 0,135 2 0,066 2 0,333 3 0,200 0 0,294 1 0,135 2 0,071 9 0,166 7 0,200 0 0,294 1 0,467 2 0,565 7 0,166 7 0,200 0 0,294 1 S10-moŜliwość odwołania się do wersji historycznej 0,188 4 0,083 1 0,392 1 0,058 8 0,073 8 0,392 1 S11-moŜliwość tworzenia wersji przyszłych 0,188 4 0,083 1 0,392 1 0,058 8 0,073 8 0,392 1 0,022 6 0,074 7 0,007 9 0,007 9 0,170 8 0,226 6 0,250 0 0,157 9 0,088 6 0,051 1 0,125 0 0,088 9 0,476 2 0,393 7 0,250 0 0,297 6 0,170 8 0,277 5 0,250 0 0,297 6 0,093 5 0,051 1 0,125 0 0,157 9 Podkryterium S1-wydajność K1 eksploatacja S2-wymagane zasoby S3-czasochłonność K2 wdraŜanie K3 bezpieczeństwo K4 elastyczność S4-trudność implementacji S5-łatwość odzyskania danych S6-Ryzyko utraty danych historycznych S7-przenaszalność S8-moŜliwość wprowadzania zmian S9-obszar zastosowań S12-koszt wdraŜania K5 koszty S13-koszt utrzymania S14-koszt przenoszenia S15-koszt odzysku danych po awarii Lokalne wagi metod wersjowania symbolami Mi dla i=1,2,..,5 oznaczono nazwy metod wersjowania (M1- metoda wersjowania obiektów, M2 - wersjowanie całej bazy danych, M3 - wersjowanie z uŜyciem znaczników czasu transakcji, M4 - wersjowanie z uŜyciem znaczników czasu waŜności wersji a M5 – wersjowanie bitemporalne) Źródło: opracowanie własne 174 BoŜena Śmiałkowska, Tomasz Dudek Ocena metod wersjowania baz i hurtowni danych Ostateczną ocenę globalną metod wersjowania zgodnie z algorytmem metody AHP zaprezentowano w Tabeli 6. Tabela 6. Globalne wagi i ranking metod wersjowania schematu logicznego baz i hurtowni danych Kryterium M1 M2 M3 M4 M5 0,008 1 0,007 8 0,008 8 0,001 5 0,003 3 0,014 5 0,002 6 0,007 2 0,002 5 0,008 1 0,006 1 0,003 7 0,000 6 0,001 9 0,014 5 0,002 6 0,007 2 0,002 5 0,040 7 0,015 9 0,021 2 0,002 9 0,002 7 0,006 5 0,005 1 0,007 2 0,012 7 0,040 7 0,019 6 0,021 2 0,001 9 0,002 7 0,007 0 0,002 6 0,007 2 0,012 7 0,040 7 0,019 6 0,010 2 0,000 6 0,009 2 0,055 3 0,002 6 0,007 2 0,012 7 0,188 4 0,015 7 0,073 9 0,011 1 0,013 9 0,073 9 0,188 4 0,015 7 0,073 9 0,011 1 0,013 9 0,073 9 0,022 6 0,074 7 0,007 9 0,007 9 0,003 9 0,016 9 0,002 0 0,001 2 0,002 0 0,003 8 0,001 0 0,000 7 0,010 8 0,029 4 0,002 0 0,002 4 0,003 9 0,020 7 0,002 0 0,002 4 0,002 1 0,003 8 0,001 0 0,001 2 Wagi 0,111 7 0,202 5 0,181 7 0,172 4 0,314 Rangi 5 2 3 4 1 Podkryterium S1-wydajność K1 eksploatacja S2-wymagane zasoby S3-czasochłonność K2 wdraŜanie K3 bezpieczeństwo K4 elastyczność S4-trudność Implementacji S5-łatwość odzyskania Danych S6-Ryzyko utraty danych Historycznych S7-przenaszalność S8-moŜliwość wprowadzania zmian S9-obszar zastosowań S10-moŜliwość odwołania się do wersji Historycznej S11-moŜliwość tworzenia wersji Przyszłych S12-koszt wdraŜania K5 koszty Globalne wagi metod wersjowania Wagi podkryteriów 0,138 3 0,069 1 0,065 0 0,007 5 0,019 6 0,097 8 0,015 3 0,035 9 0,043 3 S13-koszt utrzymania S14-koszt przenoszenia S15-koszt odzysku danych po awarii symbolami Mi dla i=1,2,..,5 oznaczono nazwy metod wersjowania (M1- metoda wersjowania obiektów, M2 - wersjowanie całej kolekcji danych, M3 - wersjowanie z uŜyciem znaczników czasu POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 175 transakcji, M4 - wersjowanie z uŜyciem znaczników czasu waŜności wersji a M5 - bitemporalne wersjowanie) Źródło: opracowanie własne Z przeprowadzonej analizy wynika, Ŝe najlepszą względem zaprezentowanych kryteriów i podkryteriów oceny metod wersjowania jest metoda bitemporalnego wersjowania. UmoŜliwia ona tworzenie wersji stanów przyszłych modelowanej rzeczywistości. 4. Podsumowanie Utrzymywanie w bazach lub hurtowniach danych wielu wersji schematu danych wynika z konieczności uwzględnienia ewolucyjnego charakteru struktur danych i systemów oprogramowania. Istnieje wiele róŜnych metod wersjowania baz danych, które charakteryzują się róŜnorodną wydajnością i uŜytecznością eksploatacyjną. Wybór jednej z nich nie jest prosty zwłaszcza, Ŝe uŜytkownicy tych systemów mają róŜne preferencje i potrzeby. W artykule zaprezentowano metodę oceny metod wersjowania baz i hurtowni danych dla szerokiej gamy wielu kryteriów. Rozpatrzono tu metodę wersjowania obiektów i całych baz (kolekcji) danych, metodę zarządzania wersjami w oparciu o znaczniki czasowe transakcji i waŜności wersji oraz metodę bitemoralną. PosłuŜono się takimi kryteriami jak wydajność, wymagane zasoby, elastyczność metody na zmiany, czasochłonność i trudność implementacji, łatwość odzysku danych (Np., podczas awarii systemu), ryzyko utraty danych historycznych, przenaszalność, obszar zastosowań, moŜliwość pracy z wersjami historycznymi i wersjami przyszłymi (alternatywnymi), koszty wdraŜania, przenoszenia, utrzymania i odzysku danych. Ocena oparta na tych wielu kryteriach metod wersjowania z uŜyciem metody AHP wykazała, Ŝe najlepszą metodą wersjowania jest wersjowanie bitemporalne. Metodę tę moŜna zastosować z powodzeniem do baz relacyjnych, które stanowią główny obszar zastosowań baz danych. Dodatkowo, metoda wersjowania bitemporalnego umoŜliwia nie tylko tworzenie wersji historycznych w bazie danych, ale równieŜ sprzyja trzymaniu wersji alternatywnych, odwzorowujących przyszłe stany modelowanej rzeczywistości. Ogólnie wielowersyjność w bazach danych zwiększa obszar stosowalności i Ŝywotności baz danych i pozwala uwzględnić naturalną ewolucję rzeczywistości a wybór najlepszej z nich jest istotnym problemem. Zaprezentowana metoda AHP w ocenie metod wersjowania oparta została o wiedzę eksperta ze względu na kategoryczny charakter kryteriów i podkryteriów oceny. Istotnym praktycznie zagadnieniem byłoby przeprowadzenie takiej oceny przez wielu ekspertów i zastosowanie oceny ekspertyzy w oparciu o pomiar odległości poglądów ekspertów. Będzie to etapem dalszych prac nad zaprezentowanym problemem. 5. Literatura 1. 2. 3. Castro C.D., Grandi F.: On schema versioning In temporal database. Workshop In Computing, Springer-Verlag, Berlin, 1995. Castro C.D., Grandi F., Scalas M.,R.: Schema versioning for multi-temporal relational databases. Information Systems, Vol. 22, 1997. Deucet A., Garncarski S., Jomier G., Monties S.: Integrity Constraints In Multiversion Databases. Springer-Verlag, Berlin, 1997. 176 BoŜena Śmiałkowska, Tomasz Dudek Ocena metod wersjowania baz i hurtowni danych 4. 5. 6. 7. 8. Morzy T., Wrembel R.: Managing and Querying Versions of Multi-version Data Warehouse. In Proceeding of International Conference on Extending Database Technology, EDBT, 2006 Roddick J.F.: A Survey of Schema Versioning In Temporal Database Systems. Information and Software Technology, 1995. Saaty T.,L.: The Analytical Hierarchy Process. RWS Publications, Pittsburg, 1990 Wrembel R.: Management of schema and data evaluation in multiversion data warehouse. Wydawnictwo Politechniki Poznańskiej, Seria: Rozprawy, nr 411, Poznań, 2007. Śmiałkowska B.: Metoda projektowania hurtowni danych dla potrzeb adaptacyjnego wspomagania zarządzania strategią firmy. Wydawnictwo Katedry Informatyki w Zarządzaniu, Akademii Rolniczo-Technicznej, Bydgoszcz,2003. VALUATION OF DATA SCHEMA VERSIONING METHODS FOR DATABASE AND WAREHOUSE SYSTEMS Summary The paper describes methods of schema versioning (transaction-time and validtime versioning for single-pool and multi-pool solution, synchronous and asynchronous data management, method with versions of database objects, method with versions of databases and bitemporal versioning). To goal of this paper is to analyze methods of database’s (warehouse’s) logical schema versioning and to choose the best method to fulfills specified set of criteria (usage, implementation, safety, flexibility and costs). The paper includes comparative analysis of schema versioning methods with the used Analytical Hierarchy Process and overall conclusions. Keywords: multi-version database and warehouse, database’s logical schema versioning, AHP method, bitemporal versioning BoŜena Śmiałkowska Zachodniopomorski Uniwersytet Technologiczny [email protected] http://www.kisi.wi.zut.edu.pl Tomasz Dudek Akademia Morska [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 177 KRZYSZTOF ŚMIATACZ Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy METODA REDUKCJI DANYCH UZYSKANYCH ZA POŚREDNICTWEM KWESTIONARIUSZA INTERNETOWEGO NA PRZYKŁADZIE BADAŃ RYNKU TELEFONII KOMÓRKOWEJ Streszczenie Obecnie coraz więcej firm ma moŜliwość prowadzenia badań swoich klientów za pośrednictwem sieci Internet. Wiele z nich czyni to wysiłkiem własnych pracowników, bez pomocy firm doradczych. W artykule zaprezentowano metodę redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego, wykorzystanej w badaniach satysfakcji klienta indywidualnego polskich sieci komórkowych. Słowa kluczowe: zbieranie danych przez Internet, proces badania marketingowego, czyszczenie danych 1. Wprowadzenie W dzisiejszych czasach, coraz więcej czynności wchodzących w skład badań marketingowych realizuje się za pośrednictwem sieci Internet. Proces badania marketingowego (badania rynku) składa się z dwóch głównych faz. Są to [1]: - faza przygotowania badania, w skład której wchodzą kolejno czynności takie jak: 1. Projektowanie badania. 2. Dobór próby. 3. Budowa instrumentu pomiarowego. - faza realizacji badania, w skład której wchodzą kolejno czynności takie jak: 4. Zbieranie danych. 5. Redukcja i wstępna prezentacja. 6. Analiza danych. 7. Prezentacja i ocena wyników badania. Podobne podejście, aczkolwiek z roŜnym naciskiem na opisywane wyŜej czynności, upowszechnia między innymi M. Rószkiewicz, dzieląc badanie marketingowe na fazę koncepcyjną i realizacji [2], natomiast K. Mazurek-Łopacińska [3] opisuje proces badania marketingowego dzieląc go na sześć etapów (takie jak: określenie problemu badawczego, formułowanie hipotez, opracowanie planu badań, wybór metod gromadzenia danych, analizowanie i interpretowanie danych, sporządzanie raportu z badań). W niniejszym artykule autor pragnie zwrócić uwagę na propozycje wytycznych w oparciu o które moŜna dokonać redukcji (czyszczenia) danych uzyskanych za pośrednictwem sieci Internet. Sposób postępowania opracowano dla weryfikacji danych zebranych podczas pomiaru poziomu satysfakcji klientów indywidualnych operatorów telefonii komórkowej w Polsce. 178 Krzysztof Śmiatacz Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego na przykładzie badań rynku telefonii komórkowej 2. Sposób zbierania danych Kwestionariusz internetowy wykorzystany do pomiaru satysfakcji klientów telefonii komórkowej umoŜliwiał ocenę satysfakcji respondentów z wymienionych elementów oferty przy wykorzystaniu pięciostopniowej skali Likerta. Odpowiedź kaŜdego respondenta zapisywana była jako kolejny wiersz w bazie danych MySQL. Tabela 1 zawiera charakterystykę zawartości kolumn fragmentu bazy danych ujętego w tabeli 2. Skrót „BO” oznacza brak odpowiedzi. Tabela 1. Charakterystyka danych w kolumnach od 1 do 27 z tabeli 2 Kolumna 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 Opis zawartości Dane nt. oprogramowania komputera uŜywanego przez respondenta (wersja przeglądarki internetowej, system operacyjny) Czas wypełnienia kwestionariusza Adres IP komputera uŜywanego przez respondenta e1 – symbol elementu oferty ocenianego w skali od 1 do 5 (gdzie „1” oznacza duŜe niezadowolenie z elementu oferty a „5” duŜe zadowolenie) e2 – symbol elementu oferty ocenianego w skali od 1 do 5 e29 – symbol elementu oferty ocenianego w skali od 1 do 5 e30 – symbol elementu oferty ocenianego w skali od 1 do 5 Oznaczona jako główna sieć prepaid, z której korzysta badany (OM – Orange Twoj Mix, PM – Mix Plus, S Simplus, OP – Orange POP, EM – Era Mix) Potwierdzenie, czy określona wcześniej sieć jest główną siecią z jakiej korzysta badany (T – tak, N – nie) e32 – symbol elementu oferty ocenianego w skali od 1 do 5 e36 – symbol elementu oferty ocenianego w skali od 1 do 5 Oznaczona jako główna sieć postpaid, z której korzysta badany (E – Era, P – Plus, O - Orange). Skrót „BIZ” oznacza telefon słuŜbowy (firmowy) Potwierdzenie, czy określona wcześniej sieć jest główną siecią z jakiej korzysta badany (T – tak, N – nie) e38 – symbol elementu oferty ocenianego w skali od 1 do 5 e44 – symbol elementu oferty ocenianego w skali od 1 do 5 Liczba sieci wykorzystywanych przez badanych Odpowiedź na pytanie, która to sieć respondenta (w przypadku korzystania z innych w przeszłości) Długość okresu korzystania z obecnej sieci (w latach), NP – nie pamiętam jak długo Wiek uŜywanego telefonu (w latach) Czas poświęcany na rozmowy (w godz./tydz.) Miesięczne wydatki na usługi telekomunikacyjne (w zł) Płeć (M – męŜczyzna, K – kobieta) Wiek (w latach) Wykształcenie (LIC - licencjat/inŜynier, SZ – średnie zawodowe, MGR - wyŜsze magisterskie mgr inŜ., SO średnie ogólnokształcące, PO – pomaturalne, policealne, G – gimnazjalne) Stan cywilny (Z – zamęŜna/Ŝonaty, P – panna/kawaler, W – wdowiec/wdowa) Dochody netto (w zł), BD – brak dochodów, OO – odmowa odpowiedzi nt. dochodów Ogólna ocena sieci („1” – pozytywna, „0” – neutralna, „-1” – negatywna) Źródło: opracowanie własne na podstawie badań ankietowych. Kwestionariusz składał się z czterech części. W skład pierwszej wchodziło 30 elementów ofer- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 179 ty (w kolumnie 4-7 tabeli 2 ujęto dwa pierwsze i dwa ostatnie), które mogli oceniać wszyscy zainteresowani klienci sieci komórkowych, tj. korzystający z usług postpaid i prepaid. W skład drugiej części wchodziło 5 elementów oferty (w kolumnie 10-11 tabeli 2 ujęto pierwszy i ostatni) dla klientów korzystających z usług prepaid, 7 elementów wchodzących w skład trzeciej części (w kolumnie 14-15 tabeli 2 ujęto pierwszy i ostatni) związanych było z ofertą dla klientów abonamentowych. Ostatnią część stanowiła metryczka respondentów, zawierająca dane charakteryzujące cechy badanych (wiersze 16-27 tabeli 1). Oprogramowanie „phpMyAdmin”, umoŜliwiające wgląd do bazy danych pozwala równieŜ na eksport bazy danych do formatów obsługiwanych, m.in. przez program Microsoft Excel. 3. Metoda redukcji danych Dane surowe obciąŜone są róŜnymi brakami i błędami [1]. Szczególnie naleŜy na nie zwrócić uwagę podczas zbierania danych za pośrednictwem sieci Internet. Powodem tej szczególnej ostroŜności jest m.in. brak interakcji z badanymi. Rozdając kwestionariusze, np. na sali, badacz ma moŜliwość poznania chociaŜby ogólnego nastawienia do problemu badawczego, moŜe w wyniku samej obserwacji wypełniających odrzucić dokumenty wypełnione przez niektórych badanych, którzy nie wykazują pozytywnego nastawienia do treści kwestionariusza. W przypadku danych pozyskiwanych za pośrednictwem Internetu badacz ma do dyspozycji tylko zapis w bazie danych, który musi zakwalifikować lub nie do danych czystych podlegających dalszej obróbce. W takiej sytuacji badacz musi wypracować sposób postępowania, który umoŜliwia usunięcie niepełnowartościowych wierszy z bazy danych. Bardzo waŜne jest, aby w razie organizacji losowania nagród za udział w badaniach, nie uzaleŜniać moŜliwości zapisania się do procedury losowania od czynności wypełnienia kwestionariusza. Uniknie się wtedy wielu opinii nie mających większej wartości dla firmy bo wypełnionych tylko po to aby moŜna było wziąć udział w losowaniu nagrody. W przypadku pomiaru poziomu satysfakcji, po zebraniu ocen klientów sieci komórkowych w bazie danych usuwano z niej wiersze, które: - nie miały wypełnionej ani jednej odpowiedzi w 1 części kwestionariusza (w kolumnie 4-7 tabeli 2) oraz w 4 części (charakteryzującej populację) – warunkiem eliminacji było zajście sytuacji braku odpowiedzi w obydwu częściach równocześnie (jak w lp. 1 tabeli 2), - nie miały wypełnionej ani jednej odpowiedzi w 1 części kwestionariusza, w 2 części (w kolumnie 10-11 tabeli 2), w 3 części (w kolumnie 14-15 tabeli 2) – warunkiem eliminacji było zajście sytuacji braku odpowiedzi w trzech częściach równocześnie (lp. 2 tabeli 2), - nie miały wypełnionej ani jednej odpowiedzi w 4 części kwestionariusza (w kolumnie 1627 tabeli 2), w 2 części, w 3 części – warunkiem eliminacji było zajście sytuacji braku odpowiedzi w trzech częściach równocześnie (lp. 3 tabeli 2), - nie miały wypełnionej ani jednej odpowiedzi w 4 części kwestionariusza (lp. 12 tabeli 2), - nie miały określonej głównej sieci, z jakiej respondent korzysta najczęściej, co wynikało z porównania kolumn 9 i 13 tabeli 2 (lp. 3 tabeli 2), - miały określone dwie główne sieci, z jakiej respondent korzysta najczęściej, co wynikało z porównania kolumn 9 i 13 tabeli 2 (lp. 16 tabeli 2), 180 Krzysztof Śmiatacz Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego na przykładzie badań rynku telefonii komórkowej - sugerowały, iŜ respondent ma słuŜbową komórkę (a wypełniał kwestionariusz, mimo zaleceń, Ŝe posiadacze takowego telefonu nie powinni brać udziału w badaniach). Przykładem jest lp. 6 z tabeli 2, Tabela 2. Fragment danych surowych uzyskanych podczas pomiaru satysfakcji (kolumny 1-11) Lp. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 1 MSIE 7.0; Windows NT 5.1 MSIE 6.0; Windows NT 5.1 MSIE 6.0; Windows NT 5.1 MSIE 6.0; Windows NT 5.1 MSIE 7.0; Windows NT 5.1 MSIE 6.0; Windows NT 5.1 MSIE 6.0; Windows NT 5.1 MSIE 6.0; Windows 98 MSIE 7.0; Windows NT 5.1 MSIE 5.0; Windows NT 5.1 MSIE 7.0; Windows NT 5.1 MSIE 5.0; Windows NT 5.1 MSIE 6.0; Windows NT 5.0 MSIE 5.0; Windows NT 5.0 MSIE 6.0; Windows NT 5.1 MSIE 5.0; Windows NT 5 2 3 4 5 6 7 8 9 10 11 10:27 83.19.214.XX BO BO BO BO BO BO BO BO 10:30 83.24.51.XXX BO BO BO BO BO BO BO BO 10:40 83.143.41.XXX 3 5 3 4 BO BO BO BO 10:43 83.4.231.XX 2 4 2 3 BO N 10:43 83.16.82.XX 4 4 4 3 PM N 10:45 81.211.112.XXX 4 5 2 5 BO N BO BO 10:46 87.115.176.XXX 2 2 2 4 BO N BO BO 10:52 89.76.236.XX 2 5 3 3 S T 3 3 10:57 83.12.249.XXX 2 1 2 4 PM N 1 1 10:58 85.237.176.XXX 1 5 3 5 BO N BO BO 11:01 83.13.47.XXX 3 4 5 1 OP T BO BO 11:03 83.31.44.XX 2 4 2 4 EM T 11:05 153.19.48.XXX 4 5 4 5 BO N 11:05 83.26.112.XX 4 4 4 BO PM T 4 5 11:08 83.3.112.XXX 5 5 5 5 S T 5 5 11:11 83.4.111.XXX 4 3 2 3 OP T 4 4 BO BO 4 1 4 2 BO BO Objaśnienia danych w kolumnach zawarto w tabeli 1. Źródło: opracowanie własne na podstawie wyników badań ankietowych. - wskazywały na moŜliwość wypełnienia dla Ŝartu, m.in. takie gdzie wpisywano niski wiek respondenta (np. 17 lat), wykształcenie magisterskie, status wdowca (lp. 14 tabeli 2), 181 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 - zawierały oceny skrajnie negatywne lub pozytywne co nie korelowało z oceną ogólną sieci w kolumnie 27 (lp. 15 tabeli 2), Tabela 2, cd. (kolumny 12-27) Lp. 12 13 14 15 16 17 1. E T 2 1 2. BO BO BO BO 18 19 20 21 22 23 24 25 26 27 BO BO BO BO BO BO BO BO BO BO BO BO P BD -1 BO BO BO BO 0 4 4 0,5-1 do 1 1-5 51-100 M 17 3. BO BO BO BO BO BO BO BO BO BO 4. E T 2 do-25 5. P T 4 4 6. BIZ T 4 7. O N 1 8. P N BO BO BO BO BO BO BO BO BO 1 7-8 1-2 BO 35 MGR Z 2 2 8-9 1-2 1-5 51-100 M 34 MGR Z 1 2 2 2-3 do 1 5-10 1 1 1 4-5 2-4 do 1 51-100 M 25 SO P 801 - 900 -1 2 2-3 2-4 do 1 25-50 PO P 701 - 800 0 4-5 1-2 do 1 M 55 MGR Z 2501 3000 -1 P OO -1 Z 5001 i więcej 1 BO BO BO W 1201 1400 BO 101200 101200 K K 34 MGR M 23 9. BO N BO BO 1 1 10. 1 2 0,5-1 1-2 do 1 25-50 K 18 2 1 K 30 MGR P T 1 2 11. BO N BO BO NP BO do 1 25-50 12. E N BO BO BO BO BO BO BO 13. E T 6-7 1-2 1-5 51-100 K 14. BO N BO BO 2 5 2-3 1-2 BO 25-50 M 17 MGR W BD 1 15. BO N BO BO 2 5 0-0,5 do 1 1-5 101200 K P OO -1 16. O 2 1 1-5 51-100 M 25 MGR P BD 0 2 5-6 1-2 54 18 SO 1 2 4 5 BO BO BO 1 1 T 4 BO G Z 3001 4000 1801 2000 SO Objaśnienia danych w kolumnach zawarto w tabeli 1. Źródło: opracowanie własne na podstawie wyników badań ankietowych. Kwestią dyskusyjną pozostaje czy w przypadku długich kwestionariuszy naleŜy pozostawiać dane od respondentów, którzy nie zaznaczyli pojedynczej (lub nawet kilku) komórek ich charakteryzujących (w kolumnach od 16 do 27 tabeli 2). Na przykład jedni nie zdecydowali się ujawnić swoje- 182 Krzysztof Śmiatacz Metoda redukcji danych uzyskanych za pośrednictwem kwestionariusza internetowego na przykładzie badań rynku telefonii komórkowej go stanu cywilnego, inni wieku lub zarobków. Istnieją narzędzia przy pomocy, których respondentów wypełniających kwestionariusze w Internecie moŜna zmusić do wypełniania wszystkich pól. JednakŜe pytani często nie umieją, nie chcą lub nie są zainteresowani ocenianiem lub wypełnianiem jakiejś rubryki i przymuszanie ich do tego moŜe spowodować ich rezygnację z uczestnictwa w procesie badawczym i utratę cennej opinii. Podczas badań zbierano takŜe informacje o respondencie bez jego udziału i wiedzy. Dzięki nim moŜna zebrać dane takie, jak: informacja jaki system operacyjny ma zainstalowany respondent, oraz jakiej uŜywa przeglądarki internetowej; dokładny czas wypełnienia kwestionariusza, podany przez serwer, na którym go zainstalowano. ZauwaŜono, Ŝe niektórzy respondenci nieświadomie po ukończeniu wypełniania naciskają guzik „wyślij dane” kilka razy i w takiej sytuacji powstaje niebezpieczeństwo otrzymania informacji, która powielona kilkukrotnie, zaśmieca bazę danych. W takim przypadku dokładny czas wypełnienia pozwala eliminować takie dane; informacja jaki numer IP w sieci Internet ma komputer respondenta. Dane w bazie pochodzące z komputera posiadającego ten sam numer IP i wysłane w tym samym czasie poddawano szczególnej kontroli. Istnieją informatyczne narzędzia sprawdzające, czy ktoś przez przypadek lub świadomie nie wysyła tych samych danych kilkakrotnie. Narzędzia takie oparte są w większości przypadków na kontroli numeru IP. JednakŜe, z uwagi na to, Ŝe niektóre sieci komputerowe nadają ten sam numer IP kaŜdemu z róŜnych wchodzących w ich skład komputerów (a zatem wielu potencjalnych respondentów), zatem taka blokada mogłaby pozbawić szansy wypełnienia kwestionariusza przez niektórych zainteresowanych. Przykładem moŜe być sieć domowa w której skład wchodzą dwa komputery, np. męŜa i Ŝony, przyłączone do routera lub niektóre sieci lokalne. Ich uŜytkownicy przewaŜnie mają taki sam numer IP. 6. Uwagi końcowe Sposób przedstawiony w artykule nie wyczerpuje wszystkich kombinacji w przypadku zajścia których moŜna podjąć decyzję o czyszczeniu danych. Wskazówki przedstawione w artykule mogą być wykorzystane przy innych badaniach opinii klientów. Warto wziąć pod uwagę takŜe to, Ŝe badania przez Internet powinny być prowadzone za pośrednictwem sieci, przy załoŜeniu, Ŝe klienci odpowiadający za pośrednictwem tego medium będą stanowić próbę reprezentatywną w stopniu zadowalającym badacza. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 183 7. Literatura 1. 2. 3. Kaczmarczyk S., Badania marketingowe. Metody i techniki, PWE, Warszawa 2003, s. 35. Rószkiewicz M., Metody ilościowe w badaniach marketingowych, PWN, Warszawa 2002, s. 20-22. Mazurek-Łopacińska K. (red.), Badania marketingowe. Podstawowe metody i obszary zastosowań, Wyd. Akademii Ekonomicznej we Wrocławiu, Wrocław 2002, s. 23-34. THE METHOD OF DATA REDUCTION OBTAINED THROUGH THE INTERNET QUESTIONNAIRE ON THE BASIS OF MOBILE TELEPHONY MARKET RESEARCH Summary These days more and more companies have the opportunity to conduct research among their customers by the medium of the Internet network. A number of them have their employees to do the research without any help of advisory firms. The elements of data reduction method obtained through the Internet questionnaire and used in the individual customer satisfaction research of Polish mobile telephony was presented in the article. Keywords: Internet data collecting, the process of marketing research, data cleaning Krzysztof Śmiatacz Uniwersytet Technologiczno-Przyrodniczy e-mail: [email protected] http://www.wz.utp.edu.pl 184 Tatiana Tretyakova Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji TATIANA TRETYAKOVA Politechnika Szczecińska WIEDZA I MODELE DLA LOKALNYCH INTELIGENTNYCH SKŁADNIKÓW SYSTEMU WSPOMAGANIA DECYZJI Streszczenie W artykule przedstawiono schemat blokowy Systemu Ostrzegawczo-Doradczego regionalnego Centrum Zarządzania w Sytuacjach Kryzysowych (SOD CZSK) oraz model formalny jego struktury. SOD CZSK zawiera w swoim składzie lokalne inteligentne składniki wspomagające decyzje w warunkach istniejącego zagroŜenia niebezpiecznym zjawiskiem natury. Takie zjawiska mogą doprowadzać do kryzysu finansowego gospodarki nie tylko odrębnych podmiotów gospodarczych, ale nawet całych regionów. W celu określenia obszaru pozyskiwania wiedzy dla lokalnych inteligentnych składników SOD CZSK zostały wybrane dziedziny oraz zagadnienia, których rozwiązywane wymaga uwzględnienia estymacji informacji hydrometeorologicznej. Jako przykład modeli, które mogą być włączone do kontentu (zawartości) baz wiedzy lokalnych inteligentnych składników SOD CZSK zaprezentowano modele i algorytm wyboru z alternatywnych wariantów projektów przedsięwzięć skierowanych na obniŜenie ryzyka związanego z niebezpiecznymi zjawiskami natury. Omówiono moŜliwości zastosowania technologii OLAP i GIS w celu pozyskiwania i analizy danych hydrometeorologicznych oraz danych o obiektach gospodarczych zagroŜonych terenów. Słowa kluczowe: lokalne inteligentne systemy, kontent bazy wiedzy, modele, ryzyko, system ostrzegawczo-doradczy, wspomaganie decyzji 1. Wprowadzenie Wiele róŜnych czynników moŜe wywoływać powstanie sytuacji kryzysowych w gospodarce, wśród których istotne są czynniki hydrometeorologiczne, szczególnie teraz - w warunkach ocieplenia klimatu. ZagroŜeniom hydrometeorologicznymi zjawiskami natury ulegają między innymi podmioty gospodarcze, które znajdują się na niebezpiecznych terenach. Aby zmniejszyć ryzyko strat w takich warunkach tworzone i wykorzystywane są Systemy Ostrzegawczo-Doradcze (SOD) dla regionalnych Centrów Zarządzania w Sytuacjach Kryzysowych (CZSK), których lokalne inteligentne składniki mogą być wykorzystywane zarówno w zarządzaniu odrębnymi podmiotami gospodarczymi po odpowiednich zmianach w kontencie baz wiedzy. Rozwiązanie problemu tworzenia baz wiedzy lokalnych inteligentnych składników dla SOD CZSK wymaga przede wszystkim modelowania procesów decyzyjnych przebiegających w ramach procesów funkcjonowania systemów, nazywanych takŜe, w stosunku do podmiotów gospodarczych, procesami biznesowymi (business process). Modele procesów decyzyjnych wykorzystuje się przy tworzeniu kontentu baz wiedzy inteligentnych systemów wspomagania decyzji poprzez określenie modeli, faktów i reguł rozwiązywania zagadnień w procesach funkcjonowania syste- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 185 mów. W pracach naukowych problem ten dyskutuje się od wielu lat [1-6]. Szczególnie waŜnym jest rozwiązanie problemu modelowania procesów decyzyjnych w sytuacjach nieokreśloności i ryzyka występujących między innym pod wpływem czynników hydrometeorologicznych i posiadających w związku z tym charakter unikatowy. W takich sytuacjach wymagane są krótki czas podejmowania decyzji i trafność decyzji, bo od tego często zaleŜy nie tylko wielkość strat finansowych, ale takŜe Ŝycie ludzi. Elementy modelu formalnego zadania podejmowania decyzji określające etapy i kierunki pozyskiwania wiedzy przy studiowaniu procesów decyzyjnych zostały przedstawione przez autorkę w pracy [7]. Etapy te są charakterystycznymi praktycznie dla dowolnej sytuacji problemowej pojawiającej się pod wpływem czynników hydrometeorologicznych. Zgodnie z tym modelem poprzez opis ontologiczny dziedziny problemowej strukturyzuje się wiedza o dziedzinie, dla której planuje się tworzenie lokalnego inteligentnego systemu wspomagania decyzji. W procesie strukturyzacji identyfikuje się problemy, powstające pod wpływem czynników hydrometeorologicznych, ocenia się ryzyko ponoszenia strat przy powstaniu problemu i oraz określa się sposoby, czyli modele i reguły, jego rozwiązywania. Jako lokalne inteligentne składniki SOD mogą występować specjalistyczne systemy agentowe i systemy ekspertowe (SE) wspomagające decyzje z estymacją informacji hydrometeorologicznej w róŜnych dziedzinach. Włączenie takich składników do struktury systemów informacyjnych podmiotów gospodarczych, rozlokowanych na zagroŜonych niebezpiecznymi zjawiskami natury, nadaje tym systemom właściwości systemów ostrzegawczo-doradczych. W bazach wiedzy lokalnych inteligentnych składników przechowuje się i rozwija się wiedza, która moŜe być wykorzystana przy podejmowaniu decyzji z estymacją informacji hydrometeorologicznej. Jest to waŜnym i korzystnym z powodu tego, Ŝe decydenci z czasem mogą zmieniać się, ale ich doświadczenie i wiedza zostaną zachowane. Dzięki temu przy powstaniu analogicznych sytuacji wiedza ta moŜe być wykorzystywana i uzupełniana poprzez nowych decydentów. ZauwaŜmy, Ŝe polepszenie jakości podejmowanych decyzji bazuje nie tylko na zastosowaniu wyników symulacji na modelach rozwiązania róŜnych zagadnień, moŜe ono odbywać się równieŜ poprzez wspomaganie decyzji w sytuacjach niestandardowych oraz poprzez trening kadry za pomocą odpowiednich inteligentnych systemów [ 8]. W bazach wiedzy inteligentnych składników SOD CZSK powinny być zawarte modele i wiedza ekspercka, które pozwoliły by na przeprowadzenie symulacji poprzez wykorzystanie danych wejściowych. Niektóre z tych danych mogą być zdobyte za pomocą takich inteligentnych składników jak OLAP (On Line Analitical Processing) i GIS (Geografic Information System), w tym LIS (Land Information System), uzupełniających strukturę SOD CZSK. WyposaŜenie SOD CZSK w specjalistyczne lokalne inteligentne systemy, takich jak systemy ekspertowe i agentowi, tworzy dodatkowe moŜliwości dla lepszego uzasadnienia podejmowanych decyzji z estymacją informacji hydrometeorologicznej przy rozwiązywaniu problemów słabo ustrukturyzowanych. Wybór modeli i określenie reguł podejmowania decyzji w procesie symulacji na owych modelach dla lokalnych inteligentnych składników SOD CZSK zaleŜy od dziedziny rozwiązywanych problemów [9]. Od dziedziny problemowej zaleŜy równieŜ struktura SOD CZSK. Dla przypadku, gdy procesy decyzyjne przebiegają z estymacją informacji hydrometeorologicznej moŜe być wykorzystany wariant struktury SOD CZSK rozpatrzony w następnym rozdziale. 186 Tatiana Tretyakova Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji Model formalny i schemat blokowy struktury SOD CZSK Struktura SOD CZSK zawiera róŜne lokalne inteligentne składniki. Uproszczony model formalny struktury systemu SOD CZSK moŜna przedstawić jako następujący zbiór: M = {Eq, Sfw,Iint } (1) gdzie: Eq- sprzęt; Sfw – oprogramowanie; Iint – informacja, wiedza. Bardziej szczegółowe modele formalne dwóch składników tego modelu: Sfw oraz Iint. Składnik Sfw przedstawimy jako następujący zbiór: Sfw = {Drep, Db , Sdb, Kb, Skb , Interf, Aint, ES, Bweb} (2) gdzie: Drep – repozytorium i witryny danych (data warehousing) w połączeniu z technologiami OLAP i GIS; Db - relacyjne bazy danych; Sdb – system zarządzania bazą danych; Kb - baza wiedzy; Skb - system zarządzania bazą wiedzy ; Interf – interfejsy; Aint – lokalne organizacje (inteligentne agenty); ES – lokalne systemy ekspertowe; Bweb- poszukiwarki. Składnik Iint przedstawimy jako zbiór: Iint = {d, m, r} (3) gdzie: d – dane; m – modele; r – reguły. Lokalny system ostrzegawczy Objekty gospodarcze, mieszkancy regionu C.Z.S.K. HMP Lokalny system agentow komputerowych - Agent rejestrujacy - Agent reakcyjny System pomiaru poziomu wody w jeziorze System komunikacji satelitarnej Baza danych System przekazu informacji o zagrozeniu Informacje o poziomie wody w jeziorze Mechanism wnioskowania Baza wiedzy Mechanism komunikacji z modulem symulacyjnym Modul symulacyiny BD OLAP BD Bazy danych sluzb hydrometeorologicznych Interfejs uzytkownika Decydent Rys.1. Schemat blokowy SOD CZSK GIS POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 187 W przedstawionym we wzorze (2) modelu formalnym struktury Sfw zostali ujęte lokalne inteligentne systemy, tworzone zgodnie z potrzebami uczestników procesów decyzyjnych. WyposaŜenie sytemu wspomagania decyzji w taki składniki i ich wspólne wykorzystanie w procesie decyzyjnym daje efekt synergetyczny w drodze podnoszenia jakości podejmowanych decyzji. Na rys. 1 przedstawiono schemat blokowy jednego z moŜliwych wariantów struktury regionalnego SOD CZSK. W strukturze na rys.1 zawarte są lokalne inteligentne składniki: system ostrzegawczy HMPoziom, który jest systemem lokalnych inteligentnych agentów i zawiera agentów rejestrującego i reakcyjnego/elastycznego (flexible). Agent rejestrujący prowadzi ewidencję pomiarów poziomu w jeziorze, tj. rejestruje dane o poziomie, natomiast drugi agent reakcyjny, reagując na alarmowy poziom wody, sygnalizuje o zagroŜeniu lawiną błotną przez system komunikacji z CZSK. Do SOD CZSK został takŜe włączony SE HMDEC, który moŜe funkcjonować jako lokalny system, spełnia on rolę systemu doradczego wspomagając decyzje podejmowane z uwzględnieniem estymacji informacji hydrometeorologicznej. Z przedstawionej we wzorze (2) i na rys.1 struktury widać, Ŝe pozyskiwanie i strukturyzacja wiedzy dla inteligentnych składników SOD CZSK jest jednym z waŜniejszych zadań przy jego tworzeniu, rozwiązanie którego wykonuje się zgodnie z metodą zaprezentowaną w pracy [10]. 2. O modelach i wiedzy dla lokalnych inteligentnych składników SOD CZSK wykorzystujących informację hydrometeorologiczną Podejmowanie decyzji z uwzględnieniem estymacji informacji hydrometeorologicznej w wielu dziedzinach: zarządzaniu regionalnym, transporcie, rolnictwie, gospodarce wodnej, budownictwie, energetyce itd., podnosi adaptacyjny potencjał podmiotów gospodarczych pozwalając wybierać najlepszą strategie i taktykę współdziałania z naturą [11]. Z uwzględnieniem estymacji tego typu informacji opracowuje się plany przedsięwzięć skierowanych na zapobieganie stratom spowodowanym przez groźne czynniki natury. Wysoki poziom nieokreśloności następstw, związanych z niebezpiecznymi zjawiskami hydrometeorologicznymi oraz konieczność szybkiego i poprawnego reagowania w przypadku zagroŜenia ze strony natury zmuszają do zastosowania w procesach decyzyjnych i procesach treningu personelu wsparcia komputerowego, czyli: inteligentnych systemów ostrzegawczych, doradczych i treningu. W niniejszym artykule autorka skupiła się na inteligentnych systemach doradczych wspomagających decyzje odnośnie wyboru wariantu projektu przedsięwzięcia zapobiegającego stratom w wyniku oddziaływania czynników hydrometeorologicznych. Dla systemów tej klasy naleŜy przygotować kontent baz wiedzy, który zawierał by całą wiedzę niezbędną przy podejmowaniu decyzji z uwzględnieniem estymacji informacji hydrometeorologicznej, zawierającą modele i reguły rozwiązania zagadnień, metody i modele zarządzania ryzykiem. Pod pojęciem ryzyka w danym artykule rozumie się miarę moŜliwości nastąpienia zdarzenia losowego i wielkości skutków wywołanych przez to zdarzenie, tj. Ilościowa ocena ryzyka ujmuje jednocześnie prawdopodobieństwo jego wystąpienia i ponoszone w wyniku nastąpienia zdarzenia straty. W warunkach istniejącego ryzyka występowania niebezpiecznych zjawisk natury i ponoszenych w wyniku tego strat dla podjęcia decyzji o wyborze z róŜnych wariantów projektów przedsięwzięć, zapobiegających stratom wykorzystuje się podejście probabilistyczne. Przy tym podejściu prognozuje się moŜliwe sytuacje ryzykowne powstające pod wpływem niebezpiecznego zja- 188 Tatiana Tretyakova Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji wiska natury: Ri , i= 1,2,...n z nadaniem im prawdopodobieństwa wystąpienia. Jako Ri moŜe występować ryzyko związane ze zniszczeniem obiektów gospodarczych (rolniczych, przemysłowych, socjalnych, kulturalnych), awariami, utratą zdrowia i Ŝycia, przerwami w funkcjonowaniu obiektów oraz innymi. Dla kaŜdej ryzykownej sytuacji oblicza się wielkość potencjalnie moŜliwych strat (CRi) oraz prawdopodobieństwo wystąpienia takiej sytuacji PRi pod warunkiem Ŝe: n ∑ PR i = 1 (4) i =1 Ilościową ocenę ryzyka obliczano według wzoru (5): Ri = PRi · CRi, (5) gdzie Ri – ilościowa ocena ryzyka, PRi – prawdopodobieństwo wystąpienia zdarzenia ryzykownego, CRi – wielkość moŜliwych strat przy jego wystąpieniu. Algorytm wyboru projektu przedsięwzięcia ochronnego przedstawiono na rysunku 2. Zgodnie z tym algorytmem na początku porównuje się ilościową ocenę ryzyka Ri z wielkością wydatków związanych z realizacją ochronnych przedsięwzięć CO. Na podstawie wyników analizy porównawczej podejmuje się decyzję odnośnie efektywności ekonomicznej rozpatrywanego projektu przedsięwzięcia. Efektywne projekty zapisuje się do listy projektów-kandydatów (Ki) na realizację, które przeszły ocenę ilościową. Ale przy podejmowaniu decyzji o wyborze projektu z listy projektówkandydatów Ki wykonuje się dodatkowo analizę jakościową. MoŜe ona być przeprowadzona ze strony prawnej, etycznej, ekologicznej itd. W związku z tym kaŜdy projekt z listy projektówkandydatów Ki ocenia się takŜe zgodnie z kryteriami oceny jakościowej. W wyniku takiej oceny dokonuje się wyboru najlepszych (z punktu widzenia ustalonych kryteriów oceny jakościwej) projektów przedsięwzięć ochronnych, które zapisuje się do listy projektów-kandydatów Kj. W końcu z listy Kj zostaje wybrany taki projekt ochronnego przedsięwzięcia, który prowadzi do minimalizacji strat M(Ri), związanych z wystąpieniem zdarzenia ryzykownego pod wpływem czynników hydrometeorologicznych oraz z realizacją ochronnego przedsięwzięcia: n M ( Ri ,C0i ) = ∑ ( Ri + C0i ) → min i =1 (6) 3. Zastosowanie lokalnych inteligentnych systemów w procesie decyzyjnym Informacja o zagroŜeniu niebezpiecznym zjawiskiem ze strony natury wpływa od słuŜb hydrometeorologicznych. W sytuacjach kryzysowych zarządzanie realizuje się zwykle przez CZSK. Przy zagroŜeniu niebezpiecznym zjawiskiem natury decydenci CZSK wysyłają odpowiednią informację i instrukcje do specjalnych komisji powiatowych lub miast, a te sygnalizują o zagroŜeniu kierownictwu obiektów gospodarczych, socjalnych, kulturalnych. W strukturze blokowej SOD CZSK przedstawionej na rys.1 został uwzględniony system ekspertowy HMDEC, który, słuŜy jako system doradczy w procesach decyzyjnych związanych z reagowaniem na zagroŜenia ze strony natury. Struktura SE HMDEC i jego baza wiedzy zostały przedstawione we wcześniejszych publikacjach [12,13]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 189 Start Ilosciowa ocena ryzyka Ri : PRi x CRi Ocena kosztow projektu COi Porownanie wielkosci Ri i COi Jesli R i ≥ C 0i Nie Tak Zapis do listy projektow-kandydatow Ki po ocenie ilosciowej Ocena jakosciowa projektu Czy ocena jakosciowa jest dobra ? Nie Tak Zapis do listy projektow-kandydatow Kj po ocenie jakosciowej n Wybor projektu: M ( R i , C 0 i ) = ∑ ( R i + C 0 i ) → min i =1 Koniec Rys.2. Algorytm wyboru projektu przedsięwzięcia ochronnego. Aby było moŜliwe korzystanie z wiedzy i modeli tego systemu potrzebne są określone dane, które powinny być umieszczone w jego bazie danych lub wprowadzane operacyjnie, jako dane wejściowe. ZauwaŜmy, Ŝe lokalne inteligentne systemy wspomagające procesy decyzyjne na róŜnych poziomach zarządzania regionalnego i w podmiotach gospodarczych mogą odbierać i analizować informacje o stanie środowiska z róŜnych zewnętrznych źródeł. Przy duŜej ilości analizowanych danych pozyskiwanych ze źródeł zewnętrznych moŜe być zastosowana technologia OLAP, która jest technologią operacyjnej analitycznej obróbki danych. W postaci danych zewnętrznych analizowanych przez OLAP mogą występować takŜe dane z baz danych słuŜb hydrometeorologicznych i instytutów naukowo-badawczych, zawierających, na przykład, informacje o wieloletnich zmia- 190 Tatiana Tretyakova Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji nach charakterystyk hydrologicznych róŜnych obiektów wodnych. Obecnie istnieje moŜliwość łączenia przez interfejs relacyjnej bazy danych z bazą faktów systemu ekspertowego lub całkowitej zamiany bazy faktów na relacyjną bazę danych systemu informacyjnego. Dane mogą być uzyskane takŜe za pomocą systemu informacji geograficznej (GIS). GIS moŜe być bardzo przydatnym w przypadku potrzeby przetwarzania danych o obiektach duŜego regionu zagroŜonego niebezpiecznym zjawiskiem natury. Technologia GIS moŜe być wykorzystywana razem ze zdalnymi urządzeniami pomiaru sterowanymi komputerowo. Dane uzyskane za pomocą systemu informacji geograficznej mogą być przedstawione w postaci tekstowej lub/i graficznej. Są to przede wszystkim dane o obiektach gospodarczych, socjalnych, kulturalnych regionu, które znajdują się na zagroŜonych terenach. Na przykład, przy rozwiązaniu zadania projektowania dróg w miejscowości zagroŜonej lawinami błotnymi są potrzebne dane o miejscach moŜliwego zejścia lawin, ich częstotliwości i wielkości, informacja hydrometeorologiczna, której analiza za szereg lat pozwala ustalić tendencje. Właśnie przy tej analizie moŜe być przydatną technologia OLAP. Wykorzystanie tych danych i informacji przy projektowaniu i dalszej eksploatacji dróg zapewnia bezpieczeństwo ruchu[10]. System ekspertowy doradczy HMDEC moŜe wspomagać podjęcie decyzji o znalezieniu najbezpieczniejszego i najkorzystniejszego wariantu projektu budowy drogi z uwzględnieniem ryzyka zejścia lawin błotnych na danym odcinku na podstawie danych wprowadzonych operacyjnie przez uŜytkownika (dane hydrometeorologiczne na dzień prowadzenia ekspertyzy, dane o kosztach budowy obiektu i inne) oraz na podstawie danych zawartych w bazie danych SE lub uzyskanych za pomocą GIS (dane kartograficzne, dane o komunikacjach terenu i obiektach gospodarczych) i za pomocą OLAP (jako wyniki analizy danych hydrometeorologicznych za ubiegłe lata), a takŜe przy uŜyciu reguł wyboru miejsca dyslokacji drogi i modeli wyboru z alternatywnych projektów. Na podstawie wyników projektu naukowo-badawczego[13] została stworzona baza danych o obiektach gospodarczych jednego z regionów Kazachstanu – DŜungarskiego Ałatau, dolina rzeki Tałgar zagroŜonego lawiną błotną [7]. Przy uŜyciu tych danych i wyników symulacji na modelach rozwiązywania zagadnień w sytuacjach uwzględnionych w scenariuszach w bazie wiedzy SE HMDEC uzyskuje się pewne wnioski. Wnioski te wspomagają decyzje o wyborze wariantów projektów w budownictwie, o rozmieszczeniu obiektów, o ewakuacji ludzi i wartości materialnych i kulturalnych, o realizacji przedsięwzięć, zapobiegających negatywnym skutkom powodowanym przez zejście lawin błotnych itd. Cała wiedza niezbędna do wyciągnięcia wniosków wspomagających procesy decyzyjne uzyskuje się w procesie pozyskiwania wiedzy z zastosowaniem podejścia ontologicznego do opisu odpowiedniej dziedziny problemowej. Podejście ontologiczne do budowy bazy wiedzy HMDEC zostało przedstawione w pracy autorki[15]. Dla systemu ekspertowego HMDEC jest to dziedzina problemowa nazywana „Podejmowanie decyzji w sytuacjach nie standardowych powstających pod wpływem niebezpiecznego zjawiska natury”. Umiejętności i nawyki szybkiego reagowania i podjęcia właściwych decyzji w takich sytuacjach mogą być ukształtowane przez zastosowanie systemu ekspertowego HMDEC-T w celu treningu personelu. Wtedy przez opis ontologiczny powinna być przedstawiona wiedza z dziedziny problemowej „Proces nauczania i treningu” [16]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 191 4. Zakończenie Coraz częściej na działalność podmiotów gospodarczych i całych regionów wpływają róŜne czynniki hydrometeorologiczne w wyniku ocieplenia klimatu. W takich warunkach procesy decyzyjne warto wspomagać przez systemy pozwalające zarządzać ryzykiem, związanym z niebezpiecznymi zjawiskami natury. W celu przyspieszenia procesu adaptacji do zagroŜeń ze strony natury tworzone są inteligentne systemy ostrzegawczo-doradcze posiadające narzędzia, informacje i wiedzę wspomagające rozwiązywanie problemów powstających pod wpływem czynników hydrometeorologicznych. WyposaŜenie SOD CZSK w lokalne inteligentne systemy pomoŜe przyspieszyć i ulepszyć uzasadnienie podejmowanych decyzji. Do takich lokalnych systemów naleŜą między innymi. SE HMDEC oraz SE HMDEC-T bazujące na wiedzy z dziedzin, w których uwzględnienie estymacji informacji hydrometeorologicznych ma waŜne znaczenie. W artykule zaprezentowano schemat blokowy i model formalny struktury SOD CZSK, a takŜe algorytm wyboru z alternatywnych wariantów projektów skierowanych na obniŜenie ryzyka. Zaprezentowano dziedziny wykorzystywania informacji hydrometeorologicznych oraz zagadnienia rozwiązywane w tych dziedzinach w celu określenia obszaru pozyskiwania wiedzy dla lokalnych inteligentnych składników SOD CZSK. 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Dowgiałło Z. (1995): System obsługi naczelnego kierownictwa w zarządzaniu. W: System obsługi naczelnego kierownictwa w zarządzaniu. IBS PAN Oddział w Szczecinie, Szczecin Red. R.Budziński (1997) System naczelnego kierownictwa w zarządzaniu (studia, algorytmy, modele). Informa, Szczecin. Popow O., Sołdek J., Tretyakova T.(1997) Systemy adaptacyjnego, informatycznie wspomaganego zarządzania przedsiębiorstwem. Zbiór artykułów: “Systemy Informatyczne w Zarządzaniu Strategicznym”, Informa, Szczecin. Więglarz J. (2001): Informatyka, wiedza, decyzje// InŜynier. Grudzień’01. Praca zbiorowa pod red. Z. Twardowskiego. (2007) Inteligentne systemy wspomagania decyzji w strategicznym zarządzaniu organizacją gospodarczą. Wyd. Uczelniane Akademii ekonomicznej im. Karola Adamieckiego, Katowice. Radosiński E. (2001). Systemy informatyczne w dynamicznej analizie decyzyjnej.- PWN, Warszawa-Wrocław. T.Tretyakova, A.Zair. (2008)The structure and knowledges of the intelligent system of warning and decision's support that includes local systems. Proceedings of the 15-th International Conference Advanced Computer Systems. ACS’2008, Szczecin, Poland. O.Popov, T.Tretyakova. (2007) Use of a technique of the structurally functional analysis In knowledge engineering for komputer-bazed training systems (on example of decisionmaking processes for operator’s training of dynamic objects). In book - red. F.Kubiak, A.Korowicki: Information Management, Gdansk University Press, Gdansk. Tretyakova T. (2005). Baza wiedzy systemu ekspertowego „HMDecision” w systemie informacyjnym klasy DSS – podejście obiektowe (w jęz. rosyjskim). Materiały 4-ej Konferencji Międzynarodowej “Analiza, prognozowanie i zarządzanie w systemach złoŜonych” pod patronatem Rosyjskiej Akademii Nauk, Szczecińskiej Akademii 192 Tatiana Tretyakova Wiedza i modele dla lokalnych inteligentnych składników systemu wspomagania decyzji 10. 11. 12. 13. 14. 15. 16. Morskiej, Szczecińskiej Akademii Rolniczej, Państwowego Uniwersytetu Komunikacji Wodnej w St.Petersburgie, St.Petersburg. Tretyakova T. (2007) Metodyka analizy funkcjonalno-strukturalnej procesów decyzyjnych i jej rola w inŜynierii wiedzy dla systemów informacyjnych. Studia i materiały PSZW nr 8, pod red. Dr hab.inŜ.W.Bojara, PSZW, Bydgoszcz. Vimberg G., Alszanskij J., Bragiskaja E, Tretyakova T. i inni(1991) Metodyka oceny kompleksowej efektu ekonomicznego przy podejmowaniu decyzji o realizacji przedsięwzięć gospodarczych i wyborze optymalnych wariantów zastosowania informacji hydrometeorologicznej róŜnych typów w gospodarce. Państwowy Komitet Związku Radzieckiego ds hydrometeorologii, Główny Geofizyczny Obserwatorium im. A.I. Vojejkova, Leningrad. Tretyakova T. (2003) Prototipe of expert system „Hydrologist”: concept of design. Proc. of the 10-th International Conference Advanced Computer System - ACS’2003, Szczecin. Tretyakova T. (2005) Baza wiedzy systemu ekspertowego „HMDescision” w systemie informacyjnym klasy DSS – podejście objektowe (w jęz. rosyjskim). Materiały 4-ej Konferencji Międzynarodowej “Analiza, prognozowanie i zarządzanie w systemach złoŜonych” pod patronatem Rosyjskiej Akademii Nauk, Szczecińskiej Akademii Morskiej, Szczecińskiej Akademii Rolniczej, Państwowego Uniwersytetu Komunikacji Wodnej w St.Petersburgie, ISBN 5-8114-0437-9, St.Petersburg. Tretyakova T.V. Radiugin D.V. Kolobov V.L. (1990) Sprawozdanie naukowe o wynikach projektu pod tytułem: Opracować metodykę oceny socjalno-ekonomicznej przedsięwzięć zapobiegających wpływom lawin błotnych. St Petersburski Państwowy Instytut Badań Hydrologicznych (PIBH), St Petersburg. Tretyakova T. (2006) Zarządzanie wiedzą przez zastosowanie ontologii dziedzin. Studia i materiały PSZW nr 5, pod red. J.Kacprzyk, L.Drelichowski, Bydgoszcz. Popov O., Tretyakova T. (2006) Ontologies as a Technique of a Knowledge Management In Open e-Learning Systems for Operators of Dynamic Processes. Studia and Proceedings Polish Association for Knowlwdge Management nr 6. Reviewrs: prof. J.Kacprzyk, Bydgoszcz POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 193 KNOWLEDGE AND MODELS OF LOCAL INTELLIGENT COMPONENTS IN DECISION SUPPORT SYSTEMS Summary In the article are submitted the block-schemes of warning’s and advising’s information systems for regional Control centre in Crisis Situations. The formal structure of software for Decision Support System (DSS), what contain local intellectual components is submitted also. These components are based on knowledge from areas in which the hydrometeorological information is used. The system serves for support of decisions in conditions of constantly existing threat of the dangerous natural phenomena. The models supporting acceptance of decisions at the choice of projects of protective actions are submitted. Areas in which it is necessary to take into account the hydrometeorological information at the decision of the submitted problems with use of expert’s knowledge from these areas are determined. Is shown the opportunity of use technologies OLAP and GIS with the purpose of search and the analysis of hydrometeorological data and the data on objects. Keywords: local intelligent system, content of knowledge base, model, risk, warning and decision support system Tatiana Tretyakova Wydział Informatyki Politechnika Szczecińska e-mail: [email protected] 194 Piotr Welenc Bernard Madoff – historia mitu uczciwości PIOTR WELENC CISA, CGEIT Zaoczne Studium Doktoranckie IBS PAN BERNARD MADOFF – HISTORIA MITU UCZCIWOŚCI Streszczenie W artykule zaprezentowano mechanizmy społeczne i ekonomiczne oszustw, przestępstw i naduzyć gospodarczych. Studium przypadku stanowi analiza nielegalnych operacji finansowych ujawniona w ostatnim kwartale ubiegłego roku. Kryzys finansowy łączy się bezpośrednio z kryzysem zachowań etycznych i niedocenieniem ładu korporacyjnego w rozwoju nowoczesnych przedsiebiorstw. Mechanizmy technologiczne pozostawione bez naleŜytej kontroli, audytu informatycznego oraz zasad „IT governance” mogą stanowić zagroŜenie dla wiarygodności systemu finansowego. Słowa kluczowe: Madoff, ład korporacyjny, audyt informatyczny, oszustwa, przestepstwa, naduŜycia gospodarcze. 1. Kryzys moralny sektora finansowego W 1960 r. Madoff załoŜył firmę Bernard L. Madoff Investment Securities LLC. W styczniu 2008 r., według danych zgłoszonych do SEC, czyli amerykańskiej komisji nadzoru giełdowego, firma doradztwa inwestycyjnego Mafdoffa obracała aktywami ocenianymi na 17,1 mld. dol. Kilka tygodni temu NASDAQ, do niedawna dzieło Ŝycia Bernarda Madoffa przeŜył trudną chwilę. Madoff – jego twórca został aresztowany pod zarzutem gigantycznego oszustwa – piramidy finansowej działającej na zasadzie schematu Ponziego. Polega on na spłacaniu wcześniejszych inwestorów pieniędzmi uzyskanymi od tych, którzy wpłacili je później, zwiedzeni obietnicą szybkiego zysku o wielkich rozmiarach. Funkcjonowanie piramidy uzaleŜnione jest od stałego dopływu duŜych ilości kapitału i wcześniej czy później jest ona skazana na załamanie się, poniewaŜ fundusz hedgingowy (a takim był fundusz B.Madoffa) wypłaca stale pieniądze tym którzy są „pierwsi” a pozostali ponoszą koszty spłaty, nawet o tym nie wiedząc. Przez lata nikt nie interesował się metodami działania biznesu Madoffa. Madoff został zwolniony z aresztu za kaucją w wysokości 10 mln dol. i umieszczony w areszcie domowym. Trudno mu było nawet wśród najbliŜszej rodziny liczyć na poręczenie. „Klienci” Madoffa znienawidzili go szczególnie, poniewaŜ to nie pieniądze ale poczucie zdrady dotknęło ich szczególnie. „Nie ma większej hańby niŜ kraść od przyjaciół, rodziny i tych, którzy mu zaufali” mówił nie kryjąc oburzenia Richard Ziman, członek zarządu fundacji śydowska Federacja Los Angeles. Świadomość „wystrychnięcia na dudka” i plama na honorze jest dla nich ciosem, którego nie wybaczą Madoffowi nigdy – ani w tym Ŝyciu, ani w przyszłym. Patos? Być moŜe. Niech jego uzasadnieniem będzie pewien być moŜe nieznaczący juŜ dzisiaj fakt. Nad grobem Kena Laya – prezesa ENRONu jeden z uczestników ceremonii zaŜądał otwarcia trumny, aby na własne oczy przekonać się czy ciało Laya rzeczywiście się tam znajduje. Amerykańskie tabloidy podchwyciły hasło reklamowe: "Zanim złoŜycie w grobie trumnę tego POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 195 oszusta, sprawdźcie, czy na pewno w niej jest!" Piramida finansowa pogrąŜyła świat finansowy w stratach. Banki, prywatni inwestorzy obecnie wstydzą się stanąć publicznie w roli ofiary lub naiwnego pośrednika (wiele klientów Madoffa to banki, które oczywiście przerzuciły natychmiast straty na swoich klientów – np. Santander). Madoff, który zaliczał się do najbardziej znanych i wpływowych postaci w kręgach nowojorskiej finansjery, obracał pieniędzmi czołowych amerykańskich biznesmenów i polityków, licznych instytucji, takich jak Ŝydowskie uniwersytety i fundacje charytatywne. Oficjalnie wiadomo, Ŝe ucierpiały finansowo znane banki – m.in. HSBC, Fortis, UniCredit, Santander, Aozora Bank i Nomura Holdigs (grupa finansowa) (Japonia), banki brytyjskie i włoskie – liczne amerykańskie organizacje charytatywne, zwłaszcza Ŝydowskie jak równieŜ inwestorzy arabscy. Wielu „klientów” nie przyznało się oficjalnie i dopiero serwisy ekonomiczne (Bloomberg) ujawniły wielkości strat. Świat dobroczynności Ŝydowskiej w USA jest niewielki i słuŜy przewaŜnie finansowaniu dzieł kulturalno-oświatowych. Z datków bogatych darczyńców utrzymywane były synagogi, przedszkola, szkoły, szpitale, muzea, uniwersytety, domy spokojnej starości, wyjazdy do Izraela dla amerykańskiej młodzieŜy Ŝydowskiego pochodzenia i wiele, wiele innych. Madoff był w tym świecie jednym z największych dobroczyńców. Wsparcie powyŜszych „activities” nie było by moŜliwe w tym stopniu, gdyby nie pieniądze otrzymane od Madoffa. Ucierpiały nie tylko liczne kluby Ŝydowskie oraz indywidualni inwestorzy hiszpańscy. Inwestycje dokonywane były poprzez fundusze, które lokowały środki w piramidzie Madoffa. Stąd tez utrudnione było dochodzenie prawdy nie tylko o pochodzeniu pieniędzy ale równieŜ o wysokości ewentualnych strat. W czasach prosperity inwestorzy wspierali B.Madoffa gotówką i reklamowali go jako „geniusza finansowego”. Po jego aresztowaniu karta się odwróciła. Prezes banku Santander stwierdził, Ŝe „nie będzie kompensował swoim klientom szkód związanych z piramidą Madoffa”. Klienci Santander stracili 3,3 mld dol. Mortimer Zuckermann przyznał w wywiadzie dla FOX Business, Ŝe 10% aktywów fundacji dobroczynnej zostało powierzone firmie Madoffa. Sam Zuckerman w wywiadzie dla FOX Business stwierdził: 'I've Never Heard of Madoff'. Znalazło więc w pełni zastosowanie stare przysłowie mówiące iŜ „sukces ma wielu ojców, tylko klęska jest sierotą”. Wśród poszkodowanych są nie tylko banki, ale i fundacje, uniwersytety i osoby prywatne. Liczba poszkodowanych, czyli tych, którzy uwierzyli, Ŝe bez względu na koniunkturę giełdową moŜna osiągać kilkunastoprocentowe roczne zyski z inwestycji, rośnie praktycznie co dnia. Czy zainwestowali by swoje pieniądze, gdyby wątpili w uczciwość Madoffa? Sam Madoff stwierdził 20 październik 2007 r. „I’m very close with the regulators”… As a master of fact my niece just married one”. Zapewniając, Ŝe jego działalność jest zgodna zarówno z regulacjami jak i praktykami biznesowymi sprowadził sprawę przejrzystości i zaufania do ….absurdu. Kto wątpi w moją uczciwość – zachowuje się absurdalnie. To zastanawiająca gra psychologiczna. MoŜna by wysnuć z niego następujący wniosek: wszyscy tak myślą więc nikt nie ośmieli się zaprzeczyć. B. Madoff uchodził za bankiera w starym stylu, który dbał o image swojej firmy rygorystycznie przestrzegając wysokich standardów etycznych. Taki obraz pozostawił po sobie wśród pracowników firmy „Bernard L. Madoff Investment Securities”. Upadek Madoffa moŜe spowodować trudne do przewidzenia konsekwencje dla biznesu i kół finansowych, ale takŜe dla oszczędności zwykłych Amerykanów. Zastanawiające jest to, iŜ aresztowanie Madoffa (zajęli się tym jak zwykle agenci FBI) nastąpiło dopiero wówczas, gdy on sam przyznał swoim współpracownikom, Ŝe jego operacje finansowe były „jednym wielkim kłamstwem”. Audytor badający firmę “Bernard L. Madoff Investment 196 Piotr Welenc Bernard Madoff – historia mitu uczciwości Securities LLC”(fundusz hedgingowy), ani jakakolwiek spółka nie zadała sobie trudu uwaŜnego zbadania legalności operacji finansowych prowadzonych przez Madoffa. Dlaczego? Niewątpliwym faktem jest to, iŜ operacje finansowe Madoffa podlegały 16 razy kontroli SEC, odpowiedzialnej za nadzór nad obrotem giełdowym i nie stwierdzono nieprawidłowości. To uśpiło czujność rynku i pozwoliło Madoffowi „machać przed nosem czystym raportem z kontroli SEC” potencjalnym ofiarom. Zastanawiające jest, Ŝe nikt nie zwrócił uwagę na wybór mało znanej firmy audytorskiej dla zbadania sprawozdania finansowego “Bernard L. Madoff Investment Securities LLC”. Kolejną zagadką jest iŜ nie zainteresowała się tym faktem PCAOB – z mocy prawa USA powołana do sprawowania nadzoru nad prawidłowością prowadzenia księgowości spółek publicznych. Ciśnie się więc po raz kolejny pytanie: dlaczego? Próba odpowiedzi postawione pytania oscyluje pomiędzy ignorancją a spiskowa teorią dziejów. W czasach swobodnego przepływu kapitału, gdy pieniądze nie znają granic, takŜe oszustwa przybierają wymiary globalne. Innowacja zawsze jest pozytywna, jeŜeli budzi intelekt do myślenia analityczno - systemowego i zmusza do wyciągania wniosków konstruktywnych, nawet w oparciu o bolesne poraŜki. Destrukcja jest równieŜ innowacyjna. 2. Zrozumienie konieczności governance Skandale i oszustwa finansowe nie są czymś nowym w gospodarce globalnej. Kiedy w 2001 roku runął Enron, a następnie Worldcom, Parmalat, banki azjatyckie – świat wiedział, ze musi rozprawić się z nieuczciwymi podmiotami stanowiącymi zagroŜenie dla ładu rynkowego. Wydawało się, Ŝe regulacja Sarbaness – Oxley Act, wprowadzona pod obrady Kongresu i przyjęta jednogłośnie w USA skutecznie połoŜy kres naduŜyciom, a ich sprawców pośle do więzienia na długie lata. Co takiego się stało, Ŝe ustawa która miała być istnym „młotem na czarownice” okazała się de facto nieskuteczna. Zdaniem autora o wiele łatwiej zgadzać się na karanie innych i wskazywanie ich nieuczciwości aniŜeli rozpocząć działania na rzecz ładu korporacyjnego, wiarygodności i przejrzystości operacji finansowych we własnym – moŜna powiedzieć – mikrozakresie. Drugim czynnikiem jest niewątpliwa pokusa – niewielu CEO i CFO stając w sytuacji pokusy umie się jej oprzeć. Przyczyną tego zjawiska jest zwykła chciwość i chęć wykazania się przed udziałowcami zyskiem, który przekłada się na ich premie i bonusy. Stąd obniŜona awersja do ryzyka. Ludzie, którzy dokonują oszustw są przewaŜnie „zewnątrzsterowni”. Pojęcie zewnatrzsterowności wprowadził do psychologii Bernard Rotter w teorii umiejscowienia poczucia kontroli (location of control). Umiejscowienie poczucia kontroli w człowieku wskazuje na kryteria podejmowanych decyzji. Osoby zewnatrzsterowne motywowane są do zachowań uczciwych poprzez groźbę kary, podczas gdy osoby wewnątrzsterowne interioryzują wartości i nie stronią od odpowiedzialności za własne zachowania, które mają wymiar etyczny i prospołeczny. Governance w znacznej mierze to etyka i wartości uniwersalne adoptowane do konkretnych warunków biznesowych. Podstawą relacji biznesowej jest zaufanie i komunikacja wartości. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 197 3. CzyŜby brakowało regulacji? Autor zwraca uwagę na pewien fakt: otóŜ ustawa SOX traktuje niezwykle surowo oszustwa finansowe. Afery wstrząsające co pewien czas światem finansowym (przede wszystkim giełdą) były rozliczane z całą surowością (patrz ENRON lub WORLDCOM). W SOX Act 2002 zapis mówiący, iŜ podmioty które pozyskały środki finansowe w sposób nielegalny mają obowiązek zwrócić wszystkie przychody (naleŜne lub nienaleŜne, zdobyte w sposób legalny lub nielegalny) z ostatnich 24 miesięcy. Proszę wyobrazić sobie spełnienie tego wymogu prawa przez właścicieli imperiów finansowych które finansowali nielegalne operacje Madoffa i byli ich beneficjentami. NajbliŜsze lata z pewnością dadzą odpowiedź na pytanie, czy zapisy ustawy SOX znajdą pełne zastosowanie wobec wszystkich podmiotów związanych ze sprawą czy pozostaną zatuszowane. Zarzuty nie postawione, odpowiedzialność nigdy nie wyegzekwowana a przestępcy korzystając z nielegalnie zdobytych fortun będą spokojnie dokonywać dalszych oszustw uboŜsi wyłącznie o kwoty poręczeń majątkowych. Zdaniem autora jest to jedno z zadań mediów, aby pilnie „patrzeć na ręce” podmiotom, które powinny (zgodnie z zapisami SOX) zwrócić nienaleŜne zyski za okres 2 poprzednich lat. Oszustwa finansowe wbrew surowym sankcjom „rozkwitają”. Ostatnią aferą, którą wstrząsnęła tym razem branŜą IT oraz outsourcingiem jest skandal Ramalinga Raju, indyjskiego potentata finansowego, który zbudował swoje imperium na kreatywnej księgowości. Straty wprawdzie są mniejsze (1,6 mln. USD), ale przecieŜ nie o fizyczne wielkości tu chodzi. Bernard Madoff – nazwisko załoŜyciela NASDAQ będzie zawsze juŜ mówiło nie o sukcesie ale o skandalu i oszustwie. Zdaniem autora świat pozwolił na niebezpieczny precedens. Pozwolił na wykorzystanie niekontrolowanych mechanizmów elektronicznej wymiany do prowadzenia operacji finansowych o międzynarodowej skali i znaczeniu, które mają wpływ na finanse zwykłych ludzi, a w środowisku amerykańskim przekładają się wprost na fundusze emerytalne prostych obywateli. Kryzys finansowy przestał być domeną drobnych amerykańskich ciułaczy, kupowali sobie domy za pół miliona i podczas kryzysu i niemoŜliwości spłaty kredytów (subprime) nie poradzili sobie finansowo. Klientem Madoffa była amerykańska elita, od Stevena Spielberga po noblistę Elie Wiesela. Okazało się, Ŝe na mechanizmy oszustwa, pazerność oraz nieodporni są równieŜ bogaci, „przewidujący” i „oświeceni”. Grono pechowców oszukanych przez Madoffa powiększyli: szef wytwórni Disney i załoŜyciel Dreamworks Jeffrey Katzenberg czy David Geffen, właściciel Geffen Records, Steven Spielberg (Wunderkind Foundation Stevena Spielberga, według zeznań podatkowych za 2006 r. w 70 proc. finansowała swoją działalność z inwestycji w fundusz Madoffa.), Mortimer Zuckerman, Blumenfeld, i Katzenberg – potentat rynku nieruchomości. Oszustwo globalne odbyło się to nie bez przyzwolenia światowych elit finansowych, banków, zintegrowanego nadzoru finansowego państw o dojrzałej i „przejrzystej” strukturze prawa. Cały splot sytuacji wskazuje na to, iŜ mechanizmy kontroli Państwa i rynku zostały zaprojektowane i wdroŜone w sposób nieskuteczny. Oczywiście ryzykownym jest postawienie tezy, iŜ zjawisko to miało charakter zaplanowany, „tajemny”, świadomy lub umyślny. Nie brak jednak obserwatorów, którzy są gotowi bronić nawet spiskowej teorii kryzysu i ferrować tezę, iŜ oszustwa finansowych krezusów nigdy nie ujrzały by światła dziennego, gdyby ofiarami nie okazały się tak znaczące firmy i nazwiska. Cechą oszustw o charakterze globalnym jest to, iŜ pieniądz inwestowany na rynkach wysokiego ryzyka (dozwolonych przez państwo) wirtualnie krąŜy po wszystkich rynkach finansowych świata i ostatecznie droga przez niego przebyta jest tak skomplikowana, Ŝe jest nie do wyśledzenia 198 Piotr Welenc Bernard Madoff – historia mitu uczciwości konwencjonalnymi metodami. Faktem jedynym jest to, ze nie dotarł do ostatecznego beneficjenta i nie przyniósł mu spodziewanego zysku. Niebezpiecznym precedensem jest fakt, iŜ ostatecznie wirtualizacja obrotu kończy się na funduszach emerytalnych, gdzie w grę wchodzą realne oszczędności obywateli i perspektywę utraty dorobku całego Ŝycia. Państwo próbuje jakoś łatać dziury finansowe z nielegalnych spekulacji, rekompensując część strat podatnikom, którzy jak by nie było są równieŜ wyborcami, a niepowodzeniami systemu finansowego obciąŜają lokalne władze. Politycy często podnoszą swoje notowania, obiecując obywatelom walkę z korupcja, zwalczanie naduŜyć i 100%owe rekompensaty utraconych aktywów. Oszuści często wykorzystują tzw. efekt ekskluzywności. Nie kaŜdy mógł zostać klientem Madoffa. Dostęp do Madoffa zapewniali przyjaciele finansisty, Robert Jaffe i jego teść, 95-letni Carl Shapiro. Minimalna kwota, jaką moŜna było u niego zainwestować, wynosiła milion dolarów. Znajomość z Madoffem i moŜliwość skorzystania z jego „geniuszu” był przywilejem zarezerwowanym dla członków ekskluzywnych klubów, do których prawo wstępu liczone jest w setkach tysięcy dolarów rocznie. Podobny mechanizm zastosowali właściciele firmy Interbrok Investment – głównego aktora jednego z najbardziej spektakularnych „wpadek” systemu bankowego, którzy wykorzystując forex utworzyli podobną piramidę finansową, a roszczenia klientów usiłowali zaspokajać sfałszowanymi gwarancjami bankowymi. OtóŜ dostęp do firmy Interbrok Investment mieli prominenci świata polityki, kultury, warszawska palestra, parlamentarzyści….słowem elita. „Wstęp” do interesu kosztował nie mniej niŜ 20 tys. PLN, a podwójna księgowość pozwoliła oszukać wszystkich. Skomplikowane wojny na przepisy i paragrafy spowodowały lawinę oskarŜeń, procesów i zainteresowanie prokuratury, która prowadzi śledztwo do dnia dzisiejszego. Afery mają jednak to do siebie, Ŝe przypominają wybuch wulkanu. Prasa z lubością obserwuje i komentuje bieŜące wydarzenia, z odwrotnie proporcjonalnym zainteresowaniem do upływu czasu. A oto przykłady z polskiego rynku: • Interbrok — firma zbankrutowała w maju 2007 r. po tym, jak trzech jej właścicieli zatrzymało CBŚ. Prokuratura przedstawiła im zarzuty oszustw na co najmniej 100 mln. zł i przywłaszczenie po 1 mln. zł. Siedmiuset klientów Interbroka zgłosiło wierzytelności na 600 mln. zł. Szacunki syndyka, oparte na prawdziwej księgowości, a nie przedstawianej klientom, sięgają 145 mln. zł. • Netforex — sąd ogłosił upadłość spółki dwa miesiące temu. W sierpniu 2007 r. jej dwaj właściciele znaleźli się w areszcie. Prokuratura zarzuca im oszukanie kilkudziesięciu klientów na co najmniej 14 mln. zł oraz prowadzenie działalności maklerskiej bez zezwolenia Komisji Nadzoru Finansowego. • WGI Dom Maklerski — firma zbankrutowała w czerwcu 2006 r. Dwa miesiące wcześniej KNF odebrała jej licencję. Kilkuset klientów utraciło — według róŜnych szacunków — 100-300 mln. zł. Szefowie WGI po przedstawieniu zarzutów przebywają na wolności za poręczeniem majątkowym. Historia nie okazała się nauczycielką Ŝycia – jak zwykle. Klienci oszustów byli zamoŜnymi ludźmi w sile wieku i nie potrzebowali ryzykownego, szybkiego dorobku ale bezpiecznych inwestycji o względnie stałej stopie zwrotu. Około roku 2005 biznes Madoffa i spółek forexowych zaczął dryfować w stronę piramidy finansowej. Madoff by zachować pozycję, zaczął wypłacać klientom dywidendy z pieniędzy, które pozyskiwał od nowych klientów. W 2006 r. SEC otrzymał doniesienie o prowadzeniu piramidy finansowej przez Madoffa. Kon- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 199 trolerzy SEC nie znaleźli w firmie nieprawidłowości. Wątpliwości inspektorów SEC nie wzbudził fakt, Ŝe audytem operacji Madoffa zajmuje się zatrudniające trzy osoby biuro księgowe Friehling & Horowitz. Jej kierownictwo utrzymywało, Ŝe od 15 lat nie zajmuje się audytami. Co na to PCAOB? Chyba nic. I jeszcze jeden kuriozalny fakt o niesamowitym znaczeniu. SEC poradziła Madoffowi, Ŝeby przeprofilował swoją firmę z funduszu inwestycyjnego, który podlega giełdowym regulacjom na firmę doradczą, której działalność nie podlega jurysdykcji SEC. „Dobre rady zawsze w cenie” i Madoff skwapliwie zastosował się do nich. Ponadto sprawa miała dalszy ciąg o zabarwieniu rodzinnym, gdyŜ bratanica Madoffa poślubiła jednego z inspektorów SEC, co zresztą sam Madoff oświadczył publicznie w wywiadzie udzielonym przed kamerami TV. 4. Uwagi końcowe Odzyskanie pieniędzy będzie trudne, zwłaszcza Ŝe lista aktywów naleŜących do Bernarda Madoffa nie zostanie podana do wiadomości publicznej - poinformowała Komisja Papierów Wartościowych i Giełd w USA. Sędzia federalny dał mu czas do końca grudnia ub. roku na dostarczenie Komisji Papierów Wartościowych i Giełd szczegółowej listy wszystkich jego inwestycji, kredytów, rachunków firm brokerskich i innych aktywów. Do 26 stycznia Madoff musi przedstawić szczegółową listę dotyczącą zagranicznych inwestycji. Lista musi zawierać źródło, sumy, dyspozycje i obecną lokalizację wszystkich wymienionych składników. Na rynku istnieją obawy, Ŝe większa część pieniędzy zainwestowana przez róŜne firmy i inwestorów u Madoffa moŜe być ulokowana w funduszach za granicą. W takiej sytuacji, gdyby lista została upubliczniona to zagraniczni regulatorzy i kredytorzy mogliby chcieć przejąć te pieniądze. Kwoty strat nie są więc pewne i jednoznaczne. Na podstawie róŜnych źródeł agencja Bloomberg ustaliła, Ŝe wszyscy zidentyfikowani inwestorzy stracili łącznie 35 miliardów dolarów. Madoff, aresztowany 11 grudnia 2008 roku za defraudację, przebywa obecnie w areszcie domowym i podlega dozorowi elektronicznemu. Grozi mu kara 10 lat więzienia i 5 mln. USD grzywny. Autor zwraca uwagę na fakt, iŜ to niewielka kara w porównaniu z obostrzeniami karnymi wynikającymi z ustawy SOX2002. Autor wyraŜa głębokie przekonanie, ze splot zdarzeń, osób, wpływów politycznych czy towarzyskich stworzył systemowe warunki do zaistnienia, funkcjonowania i ukrywania rzeczywistej działalności Madoff Investment Securities. WyraŜa równieŜ przekonanie, Ŝe moŜna by zapobiec całej sytuacji, gdyby obowiązkiem prawnym był audyt z wykorzystaniem narzędzi CAAT oraz audyt informatyczny systemów, które słuŜyły jako narzędzie dokonania oszustwa. Obecna sytuacja przypomina tykająca bombę zegarową. Środki pienięŜne, często publiczne lub emerytalne, przepływają przez międzynarodowy system finansowy przy wykorzystaniu systemów informatycznych, których audyt informatyczny być moŜe nie został nigdy przeprowadzony. Audytorzy, którzy rzetelnie wykonują swoją pracę wg. standardów międzynarodowych poddawani są naciskom, presji a czasem zwalniani z pracy. Państwa nie zapewniając im naleŜytej ochrony ich niezaleŜności, czym podświadomie godzą się na podobne incydenty w przyszłości. Ponad 10 letnia praktyka audytorska, konsultingowa oraz doświadczenia dydaktyczne na rzecz polskiego i międzynarodowego sektora bankowo-finansowego, nakazują autorowi daleko posuniętą ostroŜność w wydawaniu opinii o skutecznym zabezpieczaniu wiarygodności i bezpieczeństwie transakcji. Są równieŜ dalekie od chociaŜby umiarkowanego optymizmu co do zachowania przez nie tychŜe cech w przyszłości. 200 Piotr Welenc Bernard Madoff – historia mitu uczciwości 5. Literatura 1. 2. 3. 4. 5. 6. 7. J. Chmielewski: Wirtualne Organizacje Wiedzy, Sieci Neuronowe w Zastosowaniu do Wspomagania Tworzenia Konsorcjum, 2007, Analiza Systemowa w Finansach i Zarządzaniu, ISBN 978838947521, strony 22-31 J.Chmielewski: Transfer wiedzy i innowacji w zakresie zastosowań informatyki i cybernetyki jako sposób zwiększenia kapitału intelektualnego dla Polski i Regionów, Płock, 2009. A. Straszak: Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów. W: Artykuł na VI Kongres Polskiego Stowarzyszenia Zarządzania Wiedzą, 2009 BBC: Financial crisis at-a-glance. W: BBC.com, http://news.bbc.co.uk/2/hi/business/ 7656212.stm Oct.7 2008 Piotr Welenc, CISA, CGEIT: Transfer wiedzy i innowacji w zakresie zastosowań informatyki i zarządzania wiedzą jako sposób zwiększenia sprawności i efektywności sektora bankowego w Polsce, Płock 2009. Artykuły prasowe 2008 r.: Rzeczpospolita, Gazeta Prawna, Gazeta Bankowa, Puls Biznesu, Parkiet, BBC.com, i inne, http://www.rp.pl/artykul/19419,245205_Od_bohatera_do_zera.html, http://www.livemint.com/2009/01/07214335/Truth-about-Satyam-rise-and-f.html BERNARD MADOFF – MYTH OF HONESTY HISTORY Summary The article presents the social and economics mechanisms of fraud, crimes and economic abuses. Case study provides an analysis of illegal financial operations disclosed in the final quarter of last year. Financial crisis is directly linked to the crisis of ethical behavior and underestimated corporate governance in the development of modern enterprises. Technology mechanisms left without adequate controls, audit information and without the principles of "IT governance" may constitute a threat of the financial system credibility. Keywords: Madoff, corporate governance, audit information, fraud, crime, economic abuses. Piotr Welenc, CISA, CGEIT Zaoczne Studium Doktoranckie IBS PAN e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 201 JAROSŁAW WĄTRÓBSKI, AGNIESZKA GARNYSZ Zachodniopomorski Uniwersytet Technologiczny MODEL SYSTEMU WSPOMAGANIA DECYZJI O LOKALIZACJI ODNAWIALNYCH ŹRÓDEŁ ENERGII Streszczenie Celem artykułu jest analiza porównawcza wyników zastosowania metod wielokryterialnego wspomagania decyzji w procesie doboru lokalizacji elektrowni wiatrowych. W artykule przybliŜono problematykę związaną z warunkami posadowienia elektrowni wiatrowych, dokonano syntezy stosowanych rozwiązań, zrealizowano procedurę pozyskiwania rozwiązań decyzyjnych za pomocą metody AHP, TOPSIS oraz NAIADE. Całość kończą wnioski przeprowadzonych badań. Słowa kluczowe: odnawialne źródła energii, elektrownie wiatrowe, wielokryterialne wspomaganie decyzji, AHP, TOPSIS, NAIADE. 1. Wprowadzenie W ostatnich latach obserwuje się wzrost zainteresowania odnawialnymi źródłami energii (OŹE). Przyczyn takiej sytuacji moŜna doszukiwać się w m.in. w rozwoju technologii i uzaleŜnieniu się gospodarek narodowych wielu krajów od konwencjonalnych źródeł energii, co spowodowało spadek zasobów tych surowców, przy jednoczesnym wzroście cen na rynku światowym. Wykorzystywanie tych źródłem powoduje takŜe, Ŝe do środowiska wprowadzane są zanieczyszczenia, m.in. tlenki siarki, azotu i węgla oraz pyły, co z kolei powoduje nieodwracalne zmiany klimatyczne. W minionych latach miało miejsce wiele spotkań na arenie międzynarodowej, których tematem zainteresowania były sposoby zmniejszenia degradacji naszego środowiska naturalnego1. Wynikiem tych spotkań było opracowanie szeregu dokumentów, wśród których jedno z największych znaczeń ma tzw. Agenda 21 [33], przedstawiająca zestaw wytycznych i zaleceń, które naleŜy podejmować w celu zapewnienia zrównowaŜonego rozwoju2. Jednym w wielu priorytetów w niej wymienianych jest ograniczenie negatywnego oddziaływania sektora energetycznego na środowisko, co moŜe być zrealizowane poprzez ograniczenie wykorzystania konwencjonalnych źródeł energii na rzec wzrostu udziału OŹE. Związek z tym zagadnieniem ma równieŜ „Strategia zrównowaŜonego rozwoju Unii Europejskiej” [1], w której zapisano, iŜ celowe jest zwiększenie poparcia dla badań, rozwoju i rozpowszechniania technologii związanych z energetyką odnawialną. Innymi dokumentami, które wskazują, jak duŜy nacisk kładzie się w polityce energetycznej 1 m.in. w Sztokholmie (1972), Rio de Janeiro (1992), Berlinie (1995), Kioto (1997), Johannesburgu (2002) 2 w polskim ustawodawstwie definicja zrównowaŜonego rozwoju została zawarta w artykule 3 ustawy Prawo ochrony środowiska[ 29, wg którego przez zrównowaŜony rozwój rozumie się „rozwój społeczno-gospodarczy, w którym następuje proces integrowania działań politycznych, gospodarczych i społecznych, z zachowaniem równowagi przyrodniczej oraz trwałości podstawowych procesów przyrodniczych, w celu zagwarantowania moŜliwości zaspokajania podstawowych potrzeb poszczególnych społeczności lub obywateli zarówno współczesnego pokolenia, jak i przyszłych pokoleń” 202 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii Unii Europejskiej na wykorzystanie OŹE, są m.in. [7, 11]. Z odnawialnych źródeł energii moŜna korzystać niemal w kaŜdym miejscu na świecie. Istotnym problemem pozostaje jednak ekonomiczne, ekologiczne i społeczne uzasadnienie budowy instalacji wykorzystujących ten rodzaj zasobów. W ramach niniejszego opracowania skupiono się na wykorzystaniu elektrowni wiatrowych. Ze względu na złoŜony, wielokryterialny zbiór czynników warunkujących opłacalność inwestycji w energetykę wiatrową stwierdzono, Ŝe dla problematyki wyboru terenów pod lokalizację tego typu działalności zastosowanie znaleźć mogą metody wielokryterialnego wspomagania decyzji. Potwierdziła to takŜe analiza dotychczasowych badań z zakresu oceny instalacji odnawialnych źródeł energii. W związku z tym wykonano kolejne kroki procedury pozyskiwania rozwiązań decyzyjnych przy uŜyciu trzech metod: AHP, TOPSIS oraz NAIADE. 2. Odnawialne źródła energii Zgodnie z klasyfikacją Światowej Rady Energetycznej energia wiatru jest jednym z rodzajów odnawialnych źródeł energii [1]. Energia ta jest wykorzystywana do produkcji energii elektrycznej przy zastosowaniu elektrowni wiatrowych – urządzeń wykorzystujących turbiny wiatrowe do przekształcenia energii wiatru na energię mechaniczną, która następnie jest zamieniana na energię elektryczną [12]. Aby w pełni wykorzystać potencjał wiatru, naleŜy odpowiednio zlokalizować siłownie wiatrową. Z oczywistych względów, potencjalne tereny pod realizację tego typu inwestycji trzeba ocenić pod względem zasobów wiatru. Analizy te dokonywane są dwuetapowo [25]. Pierwszy etap zakłada ocenę w skali regionalnej (mezoskala), czyli analizę map potencjałów energetycznych na podstawie połoŜenia geograficznego. Natomiast etap drugi, to ocena w skali lokalnej (mikroskala), w ramach której wykonywana jest ocena ilościowa na podstawie prędkości i kierunku wiatru w oparciu o kilkuletnie pomiary, topografię terenu, szorstkość itp. [1, 12]. NaleŜy jednak podkreślić, iŜ umiejscowienie elektrowni wiatrowej jest nie tylko związane z problematyką wiatru w danym miejscu. Oprócz tego istnieje konieczność analizy czynników poza-wiatrowych. Trzeba wziąć pod uwagę m.in. fakt, iŜ elektrownie wiatrowe generują pewien poziom hałasu i wywierają wpływ na krajobraz, co z kolei wpływa na poziom akceptacji społeczeństw. Dlatego waŜne jest zachowanie odpowiedniej odległości od terenów zamieszkałych [31]. Szukając terenów pod lokalizacje elektrowni wiatrowych wskazane jest sprawdzenie, czy potencjalny obszar nie znajduje się w strefie, gdzie zabronione jest montowanie tego typu instalacji, np. tereny włączone w Naturę 2000, tereny parków narodowych, krajobrazowych, rezerwatów przyrody [31]. Kolejną kwestią, którą trzeba przeanalizować, są ekonomiczne i ekologiczne aspekty wykorzystania energii wiatru [25]. Są one w duŜym stopniu powiązane z zasobami energii wiatru. Ilość wytworzonej energii elektrycznej generuje z jednej strony zyski z instalacji, z drugiej zaś pewien poziom strat, czy teŜ czas zwrotu inwestycji oraz m.in. wielkość ograniczenia zuŜycia konwencjonalnych źródeł energii, co z kolei wpływa na obniŜenie ilości wydzielanych zanieczyszczeń [1, 16]. Przegląd literatury wskazuje na moŜliwość zastosowania metod wielokryterialnego wspomagana decyzji w problematyce wyboru lokalizacji róŜnego rodzaju działalności gospodarczych. Przykładowo Forte [8]: w procesie oceny opcji zagospodarowania terenu w okolicy jeziora Miseno we Włoszech wykorzystano metodę REGIME, NAIADE, AHP oraz FLAG. W pracy [19] przy pomocy metody AHP dokonano oceny regionu Waterloo w Kanadzie w kontekście uŜycia róŜnych instalacji OŹE, które mogłyby zostać potencjalnie zlokalizowane na tym terenie. Problematykę tę podjęli takŜe Burton i Hubacek [3], którzy stosując metodę MACBETH ocenili potencjał lokaliza- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 203 cji tych instalacji w północnej Anglii, w mieście Kirklees. Eleftheriadou [6] zastosował metodę PROMETHEE II do oceny moŜliwości posadowienia róŜnych wariantów elektrowni wiatrowych na greckiej wyspie Lesvos. Zagadnienie to, dla warunków włoskich, Cavallaro i Ciraolo [5] rozwiązali wykorzystując inną metodę klasyfikowania, tj. NAIADE. Metoda ta została zaproponowana równieŜ przez Gamboa i Munda[9] do oceny potencjalnych lokalizacji farm wiatrowych w Katalonii, w Hiszpanii. Natomiast praca [15] poświęcona została ocenie alternatyw zakładających róŜne moŜliwości rozmieszczenia farm wiatrowych w jednej z prowincji Chin przy pomocy metody AHP. Warto takŜe wspomnieć o pracy Georgopoulou [10], w której przedstawiono wyniki badań zakładających ocenę z wykorzystaniem metody ELECTRE III, projektów integrujących róŜne typy OŹE na Krecie, w Grecji. 3. Zastosowanie metod wielokryterialnego wspomagania decyzji w wyborze lokalizacji elektrowni wiatrowych Procedura pozyskiwania rozwiązań decyzyjnych przy wykorzystaniu metod wielokryterialnego wspomagania decyzji rozpoczyna się od określenia problemu decyzyjnego, zbioru wariantów decyzyjnych oraz zbioru kryteriów. W artykule podjęto problem wyboru lokalizacji elektrowni wiatrowych na terenie Polski. Potencjalne tereny do ich posadowienia ograniczono, w oparciu o analizę mapy energetycznej kraju (Rys. 1), do obszarów leŜących na terenach dwóch stref - wybitnie korzystnej oraz korzystnej ze względu na zasoby wiatru w makroskali. Rys. 1. Lokalizacja projektów na tle mapy zasobów energetycznych wiatru Źródło: opracowanie na podstawie [32] W kolejnych krokach wyłączono tereny, na których wyklucza się, bądź nie zaleca się prowadzenia inwestycji związanych z energetyką wiatrową, tj. włączone w Naturę 2000, tereny parków narodowych, krajobrazowych, rezerwatów przyrody. Obszary te określono na podstawie prac [22,27,23,26,30,20]. Dalsze analizy tych dokumentów pozwoliły następnie na określenie pięciu potencjalnych obszarów dla posadowienia elektrowni wiatrowych. Na tej podstawie wyodrębniono 5-elementowy zbiór wariantów decyzyjnych: A={A1,A2,A3,A4,A5}, gdzie: A1 - woj. zachodniopomorskie, powiat stargardzki, gmina Stargard Szczeciński, A2 - woj. pomorskie, powiat słupski, gmina Damnica, A3 - woj. warmińsko-mazurskie, 204 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii powiat lidzbarski, gmina Lubomino, A4 - woj. lubelskie, powiat włodawski, gmina Hanna, A5 - woj. śląskie, powiat Ŝywiecki, gmina Ślemień. W ramach wymienionych projektów wzięto pod uwagę moŜliwość instalacji róŜnych konfiguracji 3 rodzajów turbin wiatrowych: V52-850kW, V80-2MW oraz V82-1.65MW (Tabela 1). Analiza prac związanych z energetyką wiatrową, m.in. [9,12,15,25], pozwoliła na zbudowanie zbioru kryteriów: K={K1,K2,K3,K4}, gdzie: K1 - czynniki energetyczne (techniczne), K2 - czynniki ekonomiczne, K3 - czynniki socjologiczne, K4 - czynniki ekologiczne (środowiskowe). W ramach zbioru kryteriów wyodrębniono 4 podzbiory: K1={K11,K12}, K2={K21,K22,K23,K24}, K3={K31,K31}, K4={K41,K42,K43,K44,K45}, gdzie: K11 - ilość wyprodukowanej energii, K12 - uniknione zuŜycie węgla kamiennego; K21 - czas zwrotu inwestycji, K22 - koszty inwestycyjne, K23 koszt wytworzenia prądu, K24 - dochód dla gminy; K31 - liczba trwałych miejsc pracy, K32 - społeczna akceptacja; K41 - powierzchnia ziemi zajętej pod projekt, K42 - kompatybilność projektu z innymi działaniami, K43 - hałas, K44 - wpływ na estetykę otoczenia, K45 - uniknięcie emisji CO2. Zestawienie wartości, jakimi charakteryzuje się kaŜda z alternatyw ze względu na wybrane kryteria, przedstawia Tabela 1. Tabela 1. Charakterystyka wariantów decyzyjnych i kryteriów Kryteria Farma wiatrowa Warianty decyzyjne Liczba turbin A1 A2 A3 A4 A5 V52-850kW 0 0 1 0 0 V80-2MW 10 10 8 12 15 V82-1.65MW 2 0 2 0 0 23,3 20 20,15 24 30 16152 22608 21842 22608 18840 7524 10531 10175 10531 8776 8 6 7 7 8 93 80 81 96 120 13460 18840 18202 18840 15700 932 800 806 960 1200 4 3 4 4 5 4 8 8 7 3 2400 2000 2200 2400 3000 4 4 5 8 4 Moc zainstalowana [MW] Ilość wyprodukowanej energii elektrycznej [MWh/rok]; <max> Uniknione zuŜycie węgla kamiennego [ton/rok]; <max> Czas zwrotu inwestycji [lata]; <min> Koszt inwestycji [mln zł]; <min> Koszt wytworzenia prądu [zł/rok]; <min> Dochód dla gminy [tyś. zł/rok]; <max> Liczba trwałych miejsc pracy [osób]; <max> Stopień społecznej akceptacji3 <max> Powierzchnia ziemi zajętej pod projekt [km2]; <min> Kompatybilność projektu z innymi 3 poziom społecznej akceptacji został określony w 10-stopniowej skali jakościowej, przy czym 1 oznacza najmniejszą akceptacje, a 10 największą 205 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 Warianty decyzyjne A1 A2 A3 A4 A5 64000 10400 20000 16400 76000 Wpływ na estetykę otoczenia5; <max> średnio mniej więcej źle mniej więcej źle dobrze średnio Unikniona emisja CO2 [ton/rok]; <max> 11307 15826 15290 15826 13188 działaniami4; <max> Generowanie hałasu [dB x liczba ludzi]; <min> Źródło: opracowanie własne 3. 1. Metoda AHP AHP (ang. Analytic Hierarchy Process), to analityczny hierarchiczny proces decyzyjny. Metoda ta została opracowana przez Saaty'ego [24]. Procedura pozyskiwania rozwiązań decyzyjnych w metodzie AHP polega na: wyznaczeniu wektora preferencji globalnych i lokalnych, agregacji wektora ocen cząstkowych, obliczeniu wektora uporządkowania wariantów. Drzewo hierarchiczne, które powstało w wyniku przeprowadzenia strukturalizacji problemu, przedstawia Rys. 2. wybór lokalizacji elektrowni wiatrowych czynniki energetyczne K11 A1 K12 czynniki ekonomiczne K21 A2 K22 K23 poziom 1 czynniki socjologiczne K24 A3 K31 K32 czynniki ekologiczne poziom 2 K41 K42 K43 K44 K45 A4 poziom 3 A5 poziom 4 Rys. 2. Struktura hierarchiczna Źródło: opracowanie własne Na podstawie tak skonstruowanej struktury hierarchicznej, wykonano kolejne kroki w ramach procedury pozyskiwania rozwiązań decyzyjnych. Obliczenia rozpoczęto od poziomu drugiego, przechodząc kolejno po strukturze w dół, kończąc poziomem czwartym. Wyznaczenie wektorów hierarchii kryteriów głównych występujących na poziomie drugim, moŜliwe było dzięki stworzeniu 4 zastosowano 10-stopniową skalę jakościową (1 – brak kompatybilności, 10 – doskonała kompatybilność) 5 dla metody AHP i TOPSIS, w związku z tym, iŜ rozpatrywane były one w klasycznej odmianie, dane wejściowe wyraŜone zostały wartościami rzeczywistymi. Przyjęto 10-stopniową skalę jakościową , przy czym mniej więcej źle=4 średnio=5, dobrze=7, 206 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii jednej 4-wierszowej (4-kolumnowej) macierzy porównań parami. W przypadku kryteriów z poziomu trzeciego, konieczne było utworzenie 4 macierzy porównań parami, przy czym ich wymiary uzaleŜnione były od liczby kryteriów uszczegóławiających daną kategorię czynników. Natomiast w celu wyznaczenia poziomów preferencji wariantów względem poszczególnych kryteriów, zbudowano 13 macierzy, z czego kaŜda miała 5 wierszy i 5 kolumn. Podczas budowy macierzy wykorzystano lingwistyczną 9-stopniową skalę Saaty’ego [24], jako najpopularniejszą formę pozyskiwania ocen. Dla omówionych macierzy wyznaczono wektory preferencji lokalnych i globalnych. Spośród kilku wymienianych metod, które są do tego stosowane, m.in. maksymalnej wartości własnej, najmniejszych kwadratów i logarytmicznych najmniejszych kwadratów [14], wybrano metodę maksymalnej wartości własnej. Przeprowadzono takŜe kontrolę spójności ocen. Obliczone wartości indeksów zgodności CI oraz stosunków zgodności CR okazały się mniejsze od 0,1. Został zatem spełniony warunek podany przez Saaty’ego [24]. Dlatego oceny moŜna uznać za zgodne. Agregacji wektora ocen cząstkowych dokonano za pomocą kryterium addytywnego, które wykorzystuje sumę waŜoną. Otrzymane w ten sposób wartości funkcji uŜyteczności uszeregowano następnie w celu obliczenia wektora uporządkowania wariantów. Wagi uzyskane dla 4 kryteriów głównych (czynników) oraz kryteriów szczegółowych przedstawia Rys. 3. Rys. 3. Porównanie wag kryteriów głównych i szczegółowych Źródło: opracowanie własne Natomiast końcowy wektor uporządkowania wariantów przedstawia się następująco: Wu=(0,125w1;0,256w2;0,211w3; 0,264w4; 0,144w5) Analiza tego wektora wskazuje na zbliŜone wartości uŜyteczności cząstkowych dwóch alternatyw, tj. A2 i A4. W związku z tym przydatne stają się wartości uŜyteczności cząstkowych poszczególnych kryteriów głównych w kontekście kaŜdej z alternatyw (Rys. 4) lub dwóch porównywanych alternatyw (Rys. 5). Pozwolą one na stwierdzenie, ze względu na które czynniki (kryteria główne) dane alternatywy są bardziej preferowane. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 207 Rys. 4. Ranking wariantów wraz z wartościami uŜyteczności cząstkowych alternatyw Źródło: opracowanie własne Rys. 5. Porównanie dwóch najlepszych alternatyw Źródło: opracowanie własne 3. 2. Metoda TOPSIS W kolejnym etapie badań podjęto próbę określenia, w jakiej odległości oceniane alternatywy znajdują się od rozwiązania najbardziej preferowanego. PosłuŜono się przy tym metodą z grupy określanej metodami punktu idealnego. Najpopularniejszą wśród nich, a opracowaną przez Hwanga i Yoona [13], jest TOPSIS (Technique for Order Performance by Similarity to Ideal Solution). Opiera się ona na załoŜeniu, iŜ jako zwycięską (najlepszą) alternatywę naleŜy uznać tę, dla której odległość od wariantu idealnego (najbardziej zgodnego z preferencjami decydenta) jest najmniejsza, przy jednocześnie zachowanej najdłuŜszej odległości od rozwiązania anty-idealnego. W celu 208 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii obliczenia tych odległości naleŜy kolejno wyznaczyć znormalizowaną macierz decyzyjną, znormalizowaną macierz decyzyjną przy uwzględnieniu wag kryteriów oraz rozwiązanie idealne i antyidealne. Z kolei na podstawie wartości odległości oblicza się względne bliskości alternatyw do rozwiązania idealnego, słuŜące zbudowaniu rankingu alternatyw. W metodzie tej, obok znajomości macierzy decyzyjnej, konieczne jest posiadanie informacji o wagach przydzielonych kaŜdemu z kryteriów - w postaci wektora wag. Do jego wyznaczenia posłuŜyła metoda AHP. Do obliczeń, wykonanych w ramach kaŜdego z etapów, wykorzystano metodykę szczegółowo opisaną m.in. w pracach [21, 28]. Ostatecznie, dzięki zastosowaniu metody TOPSIS, otrzymano wartości względnych bliskości alternatyw do rozwiązania idealnego (Rys. 6). Rys. 6. Ranking wariantów wg metody TOPSIS Źródło: opracowanie własne 3. 2. Metoda NAIADE W klasycznych odmianach metody AHP i TOPSIS zmienne są reprezentowane za pomocą dokładnych liczb (ostrych). Tymczasem w wielu sytuacjach osoby podejmujące decyzję mogą być niechętne albo niezdolne do podania dokładnych numerycznych wartości ocen, w związku z czym często konieczne jest zastosowanie liczb rozmytych. UmoŜliwiają to rozwinięcia tychŜe metod – rozmyte AHP i rozmyte TOPSIS. Jednak nie eliminuje to nadal problemu mieszanych danych, gdy część informacji jest w skali jakościowej, a część ilościowej. Dodatkowo w przypadku obu metod konieczna jest znajomość wag kryteriów. PowyŜszych niedostatków pozbawiona jest metoda NAIADE (Novel Approach to Imprecise Assessment and Decision Environment), rozwinięta przez G. Munda [17]. W metodzie tej nie uŜywa się tradycyjnego oszacowania kryteriów przy pomocy wag [18], a wyrazy macierzy decyzyjnej6 mogą być liczbami ostrymi lub rozmytymi, zmiennymi stochastycznymi, bądź wyraŜeniami lingwistycznymi. 6 w przypadku oceny opierającej się na wartościach przydzielonych do kryteriów dla kaŜdej z alternatyw, wykonywanej przy uŜyciu macierzy „kryteria/alternatywy”; Dla metody NAIADE istnieje takŜe drugi typ oceny, który zakłada analizę konfliktu między róŜnymi grupami interesu, a w której stosowana jest macierz „grupy/alternatywy”, bazująca jedynie na skali lingwistycznej 18. 209 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 Dla rozpatrywanego problemu decyzyjnego badania ograniczono do oceny opartej na analizie macierzy kryteria/alternatywy (Rys. 7). Formułowanie alternatyw do oceny Macierz wejściowa: grupy vs. alternatywy Analiza udziału Faza oceny Wskazanie na moŜliwe konflikty między grupami interesu Porównanie alternatyw parami Macierz wejściowa: kryteria vs. alternatywy Agregacja kryteriów Jakościowe opinie społeczności o alternatywach Dendrogram przedstawiający odległości między grupami interesu Indeksy wyników dla kaŜdego kryterium Ranking alternatyw Sugestie dla podejmującego decyzje Rys. 7. Procedura pozyskiwania rozwiązań decyzyjnych wg metody NAIADE Źródło: opracowanie własne na podstawie [4] Wartościom wprowadzonym do tej macierzy nadano w większości typ ilościowy, ostry. Jedynie dla kryterium K44, czyli „wpływ na estetykę otoczenia”, wybrano reprezentacje lingwistyczną. Składa się na nią 9 lingwistycznych zmiennych, zdefiniowanych przy pomocy liczb rozmytych, w skali od 0 do 1 (Rys. 8). Umieszczone na tejŜe skali wartości liczbowe są punktami przecięć funkcji definiujących zbiór rozmyty [18]. c a d e f g b 0 i h 0,08 0,24 0,41 0,59 0,76 0,92 1 Rys. 8. Skala rozmyto-lingwistyczna: a - ekstremalnie źle, b - bardzo źle, c - źle, d - mniej więcej źle, e - umiarkowany, f – mniej więcej dobrze, g - dobrze, h - bardzo dobrze, i- perfekcyjnie Źródło: opracowanie własne na podstawie[18] Funkcje przynaleŜności dla trzech zastosowanych w ocenie zmiennych lingwistycznych, tj. dla: mniej więcej źle, średnio i dobrze, przedstawiają wzory (1-3) 210 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii 0 2 2 x − 0,6 0,6 ≤ x < 0,7 0,2 2 µ dobrze ( x) = x − 0,8 1 − 2 0,2 0,7 ≤ x ≤ 0,9 1− x 2 2 0,9 < x ≤ 1 0,2 (1) x − 0,3 2 0,3 ≤ x < 0,4 2 0,2 2 1 − 2 x − 0,5 0,4 ≤ x ≤ 0,6 0,2 µsrednio ( x) = 2 0,7 − x 0,6 < x ≤ 0,7 2 0,2 0 (2) µ mniej wiecej x − 0,1 2 0,2 2 1 − 2 x − 0,2 0,2 źle ( x) = 0,5 − x 2 0,2 0 0,1 ≤ x < 0,2 0,2 ≤ x ≤ 0,4 (3) 0,4 < x ≤ 0,5 Obliczenia, jakie wykonywane są w ramach kolejnych etapów procedury pozyskiwania rozwiązań decyzyjnych wg tej metody, zostały przeprowadzone za pomocą programu NAIADE. W wyniku jego działania wygenerowany został ranking Φ+ i Φ- oraz finalny ranking, powstały z ich przecięcia (Rys. 9). Φ+ Φ- Ranking finalny 0.87 A4 0.64 A2 0.83 A2 0.64 A4 0.78 A3 0.74 A3 0.67 A5 0.88 A1 0.65 A1 A1 A5 0.89 Rys. 9. Rankingi wg metody NAIADE Źródło: opracowanie własne A2 A4 A3 A5 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 211 3. 4. Zestawienie wyników Zestawienie rankingów, otrzymanych dla rozwaŜanego problemu decyzyjnego w wyniku zastosowania metody AHP, TOPSIS oraz NAIADE, przedstawia Tabela 2. Tabela 2. Porównanie rankingów otrzymanych wg trzech metod 1 2 3 4 5 AHP TOPSIS A4 A2 A3 A5 A1 A4 A2 A3 A1 A5 Φ+ A4 A2 A3 A5 A1 NAIADE ΦA2 A4 A3 A1 A5 finalny A4, A2 A3 A1, A5 Źródło: opracowanie własne Na tej podstawie moŜna stwierdzić, iŜ dwoma alternatywami, zajmującymi miejsce na szczycie rankingów, są dla wszystkich metod warianty A2 lub A4, przy czym jako bardziej preferowany projekt naleŜy wskazać A4 (ze względu na pierwsze miejsce w rankingu Φ+). Z kolei na końcu rankingów (4 i 5 miejsce) uplasowały się naprzemiennie alternatywa A1 oraz A5, na podstawie czego naleŜy stwierdzić, iŜ są one najmniej preferowanymi rozwiązaniami. Tymczasem alternatywa A3 kaŜdorazowo została zaszeregowana na miejscu trzecim. W świetle powyŜszych rozwaŜań naleŜy wnioskować, Ŝe pozyskane syntetyczne rankingi alternatyw są silnie umocowane. NiezaleŜnie od obranej metody badawczej uzyskano bardzo zbliŜone wyniki, co stanowi potwierdzenie prawidłowości zrealizowanych badań 4. Podsumowanie W artykule zaprezentowano praktyczne zastosowanie trzech metod wielokryterialnego wspomagania decyzji, tj. AHP, TOPSIS i NAIADE, do znalezienia lokalizacji elektrowni wiatrowych na terenie Polski. Wskazano ponadto na moŜliwość powiązania ze sobą opisanych metod. Metoda porównań parami, kojarzona przede wszystkim z AHP, posłuŜyła bowiem do wyznaczenia wektora wag kryteriów, który wykorzystywany został w toku obliczeniowym metody TOPSIS. Wymienić naleŜy ponadto pewne ograniczenia przeprowadzonych rozwaŜań, wskazując jednocześnie na moŜliwość realizacji dalszych badań. Reprezentacja danych została zawęŜona do dziedziny liczb ostrych, jakościowej oraz lingwistycznej skali opisu. Tymczasem kaŜda z zaprezentowanych metod umoŜliwia zastosowanie zasad logiki rozmytej. PoniewaŜ nie zrealizowano zagadnienia poszukiwania rozwiązań decyzyjnych z uwzględnieniem grup interesów, problem ten moŜna podjąć w ramach metody AHP poprzez dodanie dodatkowego poziomu w drzewie decyzyjnym, bądź teŜ zastosowanie oceny opartej o macierz udziału w przypadku metody NAIADE. 212 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. A Sustainable Europe for a Better World: A European Union Strategy for Sustainable Development, COM (2001) 264 final, 15.05.2001. Boczar T., Energetyka wiatrowa. Aktualne moŜliwości wykorzystania, Wyd. Pomiary Automatyka Kontrola, Warszawa 2007. Burton J., Hubacek K., Is small beautiful? A multicriteria assessment of small-scale energy technology applications in local governments, Energy Policy 35 (2007), 6402– 6412. Cabrera E., García-Serra J., Drought Management Planning in Water Supply Systems: Proceedings from the UIMP International Course Held in Valencia, Springer, 1998. Cavallaro F., Ciraolo L., A multicriteria approach to evaluate wind energy plants on an Italian Island, Energy Policy 33 (2005), 235–244. Eleftheriadou E., Haralambopoulos D., Polatidis H., A Multi-Criteria Approach to Siting Wind Farms in Lesvos, Greece. [online] http://www.srcosmos.gr [dostęp: październik 2008]. Energy for the Future: Renewable Energy Sources. White Paper for a Community Strategy and Action Plan, COM (97) 599 final, 26.11.1997. Forte F., Nijkamp P., Torrieri F., Shared Choices on Local Sustainability Projects: A Decision Support Framework, 2001. [online] ftp://zappa.ubvu.vu.nl/20010024.pdf [dostęp: październik 2008]. Gamboa G., Munda G., The problem of windfarm location: A social multi-criteria evaluation framework, Energy Policy 35 (2007), 1564–1583. Georgopoulou E., Lalas D., Papagiannakis L., A Multicriteria Decision Aid approach for energy planning problems: The case of renewable energy option, European Journal of Operational Research 103 (1997), 38-54. Green Paper. Towards a European Strategy for the Security Energy Supply, COM (2000) 769 final, 29.11.2000. Gumuła S., Knap T., Strzelczyk P., Szczerba Z., Energetyka wiatrowa, Uczelniane Wydawnictwa Naukowo-Dydaktyczne, Kraków 2006. Hwang C.L., Yoon K., Multiple Attribute Decision Making: Methods and Applications, Springer-Verlag, 1981. Kwiesielewicz M., Analityczny hierarchiczny proces decyzyjny. Nierozmyte i rozmyte porównania parami, Instytut Badań Systemowych PAN, Warszawa 2002. Lee A.H.I., Chen H.H., Kang H., Multi-criteria decision making on strategic selection of wind farms, Renewable Energy 34 (2009), 120–126. Lewandowski W.M., Proekologiczne odnawialne źródła energii, WNT, Warszawa 2007. Munda G., Multicriteria Evaluation in a Fuzzy Environment, Physica-Verlag, 1995. NAIADE. Manual & tutorial, Joint Research Centre - EC, ISPRA SITE, 1996. [online] http://www.aiaccproject.org. [dostęp: październik 2008]. Nigim K., Munier N., Green J., Pre-feasibility MCDM tools to aid communities in prioritizing local diable renewable energy sources, Renewable Energy 29 (2004), 1775– 1791. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 213 20. Opracowanie metody programowania i modelowania systemów wykorzystania odnawialnych źródeł energii na terenach nieprzemysłowych województwa śląskiego, wraz z programem wykonawczym dla wybranych obszarów województwa, Polska Akademia Nauk, Kraków-Katowice. [online] http://www.silesia-region.pl [dostęp: sierpień 2008]. 21. Pacholski P., Zastosowanie zmodyfikowanej metody TOPSIS w rozwiązywaniu problemów wielokryterialnej oceny przy wykorzystaniu nieprecyzyjnych danych pomiarowych, Metody Informatyki Stosowanej, nr 2/2007, Gdańsk 2007, 95-102. 22. Plan zagospodarowania przestrzennego województwa zachodniopomorskiego, Regionalne Biuro Gospodarki Przestrzennej Województwa Zachodniopomorskiego w Szczecinie, Szczecin 2002 [online] www.rbgp.pl [dostęp: sierpień 2008]. 23. Przyrodniczo-przestrzenne aspekty lokalizacji energetyki wiatrowej w województwie warmińsko-mazurskim, Warmińsko-mazurskie biuro planowania przestrzennego w Olsztynie, filia w Elblągu, Elbląg 2006. [online] http://www.wmbpp.olsztyn.pl [dostęp: sierpień 2008], 24. Saaty T.L., Vargas L.G., Models, Methods, Concepts & Applications of the Analytic Hierarchy Process, Springer, 2001. 25. Solińska M., Soliński I., Efektywność ekonomiczna proekologicznych inwestycji rozwojowych w energetyce odnawialnej, Uczelniane Wydawnictwa NaukowoDydaktyczne, Kraków 2003. 26. Strategia ekoenergetyczna powiatu lidzbarskiego, Starostwo Powiatowe w Lidzbarku Warmińskim, Lidzbark Warmiński 2002. [online] http://polandplan.energyprojects.net) [dostęp: sierpień 2008]. 27. Studium moŜliwości rozwoju energetyki wiatrowej w województwie pomorskim, Biuro planowania przestrzennego w Słupsku, Słupsk 2003. [online] http://www.wojpomorskie.pl [dostęp: sierpień 2008]. 28. Triantaphyllou E., Multi-Criteria Decision Making Methods: A Comparative Study, Springer, 2000. 29. Ustawa Prawo ochrony środowiska z dnia 27 kwietnia 2001, Dz. U. z 20 czerwca 2001 roku, Nr 62, poz. 627. 30. Wojewódzki Program Rozwoju Alternatywnych Źródeł Energii dla Województwa Lubelskiego, Biuro Planowania Przestrzennego, Lublin 2004. [online] http://www.oze.bpp.lublin.pl [dostęp: sierpień 2008]. 31. http://www.elektrownie-wiatrowe.org.pl/ [dostęp: październik 2008]. 32. http://www.ozee.kape.gov.pl [dostęp: listopad 2008]. 33. http://www.un.org/esa/sustdev/documents/agenda21/english/agenda21toc.htm [dostęp: listopad 2008]. 214 Jarosław Wątróbski, Agnieszka Garnysz Model systemu wspomagania decyzji o lokalizacji odnawialnych źródeł energii MCDA MODEL APPROACH FOR LOCALIZATION RENEWABLE ENERGY SOURCES Summary The aim of this article is comparative analysis results of use MCDA methods for selection of localization wind farm. The aspects of localization determining factors were stressed, synthesis applied solutions was executed, three MCDA methods – AHP, TOPSIS and NAIADE was implemented. Conclusions, which were obtained using implemented procedures, were placed in the final, summary part of article. Keywords: renewable energy sources, wind turbine, MCDA, AHP, TOPSIS, NAIADE Jarosław Wątróbski Agnieszka Garnysz Katedra InŜynierii Systemów Informatycznych Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny 71-210 Szczecin, śołnierska 49 e-mail: [email protected] e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 215 ANTONI WILIŃSKI Zachodniopomorski Uniwersytet Techniczny METODA GMDH DO PROGNOZOWANIA RYNKÓW W WARUNKACH KRYZYSU FINANSOWEGO Streszczenie W artykule rozwaŜany jest odwieczny problem dokładności predykcji na rynkach finansowych w celu osiągnięcia korzyści materialnych. Specyficzna gra inwestora z ciągle zmieniającym się rynkiem sprowadzająca się do uzyskania korzyści na poprawnie przewidzianych róŜnicach ceny wybranego instrumentu finansowego zwana jest spekulacją. W odczuciu społecznym tak określone zachowanie inwestora często kojarzy się pejoratywnie, tu rozpatrywane jest w aspekcie aksjologicznym – przyswojenia pewnej wyŜszej wartości, pokonania Ŝywiołu nieodgadnionego rynku poprzez ekstrakcję wiedzy z zapisów o jego historii. Czy w takim ujęciu obserwowany obecnie (grudzień 2008) tzw. kryzys globalny jest nieszczęściem czy wyzwaniem dla spekulanta ? To pytanie retoryczne, jest z pewnością wyzwaniem. Słowa kluczowe: predykcja, rynki finansowe, GMDH, sztuczna inteligencja, giełda, GPW, WIG 1. Wprowadzenie Odpowiedź na pytanie, czy moŜna sobie poradzić z gwałtownie opadającymi cenami wszystkich prawie walorów na rynkach finansowych, jest oczywiście pozytywna. Czy kaŜdy moŜe poradzić sobie z ekonomicznymi i społecznymi skutkami kryzysu - oczywiście – nie kaŜdy. Wracając do pytania o inwestycje na rynkach (walorach, akcjach, kursach) spadkowych - czy moŜna zarobić - odpowiedź jest tu pozytywna? Po pierwsze, uŜyto powyŜej sformułowania „prawie wszystkich”, po drugie, na spadkach, co zupełnie oczywiste, takŜe moŜna zarabiać. Te dwa oczywiste oświadczenia wynikają wprost z dość elementarnej wiedzy o instrumentach finansowych, nie dla wszystkich jednak dostępnej [12,16]. Tak więc po pierwsze, nie wszystkie instrumenty finansowe (ceny towarów, akcji, indeksy waluty, derywaty) spadają w czasie kryzysu. To po prostu niemoŜliwe z powodów formalnych. Np. para walutowa oznacza wzajemny stosunek dwóch walut – bazowej i kwotowanej. Gdy wartość jednej rośnie, to drugiej spada. Z tego oczywistego związku wynika, Ŝe przy spadających rynkach muszą istnieć naturalnie z nimi związane – rosnące. Po drugie, od tysięcy lat (prawdopodobnie od czasów Talesa [1]) zarobić moŜna na spadku ceny [8,17]. Kreatywny Tales odkrył opcje . Dziś oprócz gry spekulacyjnej na derywatach, powszechnie stosowany jest mechanizm krótszej sprzedaŜy. Powszechnie, jednak na GPW z trudem i od niedawna [6,19,22]. Istotą krótkiej sprzedaŜy jest poŜyczenie pewnego waloru (np. akcji, jednostek indeksowych, waluty bazowej) ze zobowiązaniem jego zwrotu w dobrowolnie wybranej przez poŜyczającego chwili, z pewnym jednak zastrzeŜeniem. OtóŜ, gdyby w trakcie trwania owego zadłuŜenia wzrosła wartość poŜyczonego waloru, czyli wzrosłoby ryzyko odzyskania przez wierzy- 216 Antoni Wiliński Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego ciela udostępnionych poŜyczkobiorcy walorów, to ma on prawo, w ściśle określonych warunkach, do zerwania umowy i pobrania pewnego zabezpieczenia, depozytu złoŜonego przez poŜyczkobiorcę. To sytuacja odwrotna do prostego schematu, którym polscy inwestorzy na GWP byli faszerowani w latach 90-tych ubiegłego wieku. Wówczas tzw. długa sprzedaŜ polegała na tym, by kupić taniej i sprzedać droŜej. Ten schemat, niczym dowcipny aforyzm, utrwalał przez kilkanaście lat swoiste opóźnienie polskich inwestorów, gdy równocześnie na wszystkich rozwiniętych giełdach całego świata funkcjonował z powodzeniem handel w obu kierunkach - wzrostu i spadku cen. W ciągu wspomnianych kilkunastu lat zmieniła się teŜ gwałtownie dostępność światowego rynku finansowego. Dzięki tysiącom internetowych platform brokerskich stał się on szansą dla spauperyzowanych społeczeństw dalekiej Azji, Chin, Rosji i Europy Wschodniej. Tzw. rynek OTC (Over the Control) stał się takŜe miejscem normalnego, codziennego inwestowania dla milionów dobrych inwestorów z rozwiniętych krajów Europy Zachodniej i Ameryki Północnej [12]. 2. Jak inwestować na spadkach Najprostszą odpowiedzią na tytułowe pytanie jest – dokładnie tak jak na wzrostach. Z matematycznego punktu widzenia zysk z zastosowania pewnej strategii inwestycyjnej sprowadza się do postawienia prognozy o zmianie obserwowanego waloru w wybranym horyzoncie predykcyjnym i zawarciu umowy odpowiedniej do tej prognozy. W najprostszym przypadku umowa ta oznacza otwarcie pozycji długiej (gdy prognozowany jest wzrost ceny obserwowanego waloru) lub krótkiej (gdy prognoza przewiduje spadek) – rys. 1. Rys.1. Przykład osiągnięcia zysku ∆Xli przy zmianie ceny Χi w przypadku otwarcia pozycji długiej, oraz zysku ∆Xsi w przypadku otwarcia pozycji krótkiej. Niestety nie ma dziś Ŝadnej skończonej metody prognostycznej, która pozwalałaby na jednoznaczne określanie momentów otwierania i zamykania pozycji, ani krótkich ani długich. Istnieje POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 217 wiele hipotez - o zmienności rynków, o powtarzalności pewnych wzorców [3,10,18], o samopodobieństwie krzywych przedstawiających zmiany cen w róŜnych przedziałach czasowych, o rozkładach statystycznych stóp zwrotu [4,7,19] – wszystkie te modele opisują rzeczywistość zawsze z pewnymi załoŜeniami, niekiedy istotnie ją zniekształcającymi [20]. Czasami, pomimo tych zniekształceń mogą stanowić waŜki krok na drodze poznania nieodgadnionej natury. Tak było np. z Mertonem i Scholesem, którzy pomimo błędnych załoŜeń o normalności rozkładów odchyleń od wartości bieŜącej rynku otrzymali nagrodę Nobla za model wyceny opcji [2,8]. Pomimo tych piętrzących się trudności w rozpoznaniu tego wielowymiarowego [19,21] Ŝywiołu pojawia się ciągle coraz więcej dowodów istnienia pewnej ‘pamięci’ o przeszłych wzorcach i korelacjach z innymi czynnikami. Z optymizmem piszą o tym m.in. tacy mistrzowie analizy technicznej jak Elder [4], Piper [16], Haugen [8] czy Murphy [15]. W szczególności Murphy [15] i Haugen [8] koncentrują się na klasycznej metodzie percepcji wzorców przez człowieka (poprzedzającego przyszłe infoboty- automaty internetowe), rozpoznającego obrazy w róŜnej rozdzielczości – w róŜnych horyzontach czasowych. Ideę tę, w nieco innym ujęciu, zdecydowanie bardziej przystosowaną do automatycznego traktowania podjęli takŜe Ivakhnenko, Madala i Mueller [10,13,14] nazywając ją „gromadzeniem podobieństw” (analog complexing). Najbardziej jednak optymistyczną z omawianych tu pozycji jest sprawozdanie Krutsingera z rozmów z wieloma mistrzami foreksowego i giełdowego tradingu [12]. Nawiązując do tytułowego przesłania – Ŝaden z tych mistrzów specjalnie nie przejmował się kierunkiem zmian danego rynku. Rozpatrując wybrany instrument finansowy jako symetryczny przedmiot spekulacji (w sensie prawnej moŜliwości prognozowania wzrostu i spadku ceny), zupełnie bez znaczenia staje się kierunek zmian. WaŜny jest znak pierwszej pochodnej tych zmian. 3. Przykład wykorzystywania wiedzy z przeszłości W charakterze przykładu moŜliwości ekstrakcji wiedzy z danych zgromadzonych w przeszłości w celach predykcyjnych przedstawione będą wyniki autorskich badań. Celem tej krótkiej pracy nie jest szczegółowe opisanie dość złoŜonego, opracowanego przez autora algorytmu predykcyjnego, a jedynie udowodnienie, Ŝe kierunek inwestowania (w sensie kierunku wzrostu obserwowanego waloru, czy jego spadku) nie ma zasadniczego znaczenia. JeŜeli tak się stanie będzie to oznaczało, Ŝe kryzys globalny wyraŜający się spadkiem większości cen, moŜe być potraktowany z pewnym umiarkowanym optymizmem. Umiejętność poradzenia sobie z tymi spadkami wyznaczać będzie jednak raczej wydzielone spekulacyjnie wyspy wiedzy i nie będzie upowaŜniała do generalizowania owego optymizmu. Rozpatrywany przykład autorskiego algorytmu opiera się na połączeniu kilku znanych podejść do problemu predykcji – analizy regresyjnej i przetwarzania zespołowego (komitetowego). Analiza regresyjna sprowadza się do zastosowania złoŜonej metody Ivakhnenki [10] zwanej GMDH (Group Method of Data Handling ) w ujęciu regresji wielorakiej – tzn. takiej, dla której zmienna obserwowana zaleŜy jednocześnie od wielu zmiennych obserwowanych. Dodatkowo zgodnie z ideą modelowania zmiennej obserwowanej za pomocą szeregu Gabora, zmienne te występować mogą jako wyrazy wielomianów róŜnego stopnia i w postaci szeregów czasowych przesuniętych w czasie (wstecz) w stosunku do zmiennej obserwowanej. Istotą metody GMDH jest przy tym jej zdolność do samoorganizacji pozwalająca na ograniczenie stopnia złoŜoności wielomianu (modelu) opisującego obserwowaną rzeczywistość. 218 Antoni Wiliński Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego Drugi waŜny aspekt zastosowanego algorytmu – przetwarzanie zespołowe, polega na programowym sceptycyzmie do wyników modelowania predykcji wg jednego wybranego kryterium i jednego zasobu danych. JeŜeli ta sama, w przybliŜeniu, metoda GMDH zastosowana będzie do obliczenia zachowania się zmiennej obserwowanej z róŜnymi zmiennymi objaśniającymi, to otrzymuje się zupełnie odmienne modele prognostyczne, wzajemnie od siebie niezaleŜne. Podobnie jak w analizie portfelowej uzyskuje się w ten sposób obniŜenie ryzyka popełnienia duŜego błędu predykcyjnego. Badania przeprowadzono dla indeksu WIG20 jako zmiennej obserwowanej. To najwaŜniejszy wskaźnik Giełdy Papierów Wartościowych uwaŜnie obserwowany przez tysiące inwestorów mających róŜne hipotezy na temat jego zachowań i uzaleŜnienia od własnej przeszłości i czynników zewnętrznych. Nie wdając się w szczegółowe uzasadnienia autor przyjął, Ŝe WIG20 być moŜe będzie antycypowany o 1-2 dni przez zmiany kilkunastu najwaŜniejszych światowych rynków, przy czym wykluczona jest tu zwykła korelacja, gdyby taka bowiem była, to inwestycje na giełdzie ze względu na swoją przewidywalność nie miałyby sensu. Do tych najwaŜniejszych wyników arbitralnie zostały zaliczone: ceny ropy, złota, srebra, pary walutowe EUR/USD, GBP/USD, USD/JPY, indeksy SP500, DJIA, CAC, DAX, Nikkei, Nasdaq. Dla wszystkich tych zmiennych objaśniających zostały zebrane dane w postaci świec jednodniowych dla okresu ostatnich dwóch lat. Dla uproszczenia modelu do badań wzięto tylko wartość Close. Dane te utworzyły macierz Xij dla i=1,2…..,N, j=1,2,…..,M, gdzie i-oznaczało numer wiersza (próby pomiaru dobowego) a j- numer kolumny, zmiennej oznaczającej wytypowany rynek. Zmienną obserwowaną - indeks WIG20 oznaczano jako Yi, i=1,2,….,N, oczywiście takŜe wybrano wartości zamknięć kolejnych sesji dobowych. Następnie, niech macierz danych wejściowych Xij będzie poprzez wielokrotną konkatenację poziomą rozszerzona do macierzy Xijr, gdzie j=1,2,….,K*M gdzie K- liczba kroków maksymalnego przesunięcia kolumn wstecz w dziedzinie czasu. Oznacza to, Ŝe tuŜ obok pierwotnej macierzy danych Xij powstanie macierz Xij-1 dla której kaŜdy wyraz Xij1-1= Xi-1,j dla j1=M+1, M+2,….2M. Podobnie Xijk-k=Xi-k,j dla jk= M(K-1)+1, M(K-1)+2,… K·M. W autorskich badaniach zastosowano K=2, co oznaczało konkatenację poziomą obok pierwotnej macierzy danych Xij dwóch takich samych macierzy Xij-1 oraz Xij-2 o kolumnach odpowiednio przesuniętych wstecz o 1 lub 2 kroki (doby). Kolejnym rozszerzeniem macierzy danych Xijr o wymiarach NxK·M jest umieszczenie obok (w sensie konkatenacji poziomej) kolejnej macierzy utworzonej z iloczynów (drugiego stopnia) kolumn macierzy Xijr. Liczba dodatkowych kolumn z iloczynów Xi1j· Xi2j , gdzie i1,i2 є { 1,2,….K·M} wynosi K·M (K·M-1)/2. Powstaje ostatecznie macierz rozszerzona XijR o wymiarach Nx(K·M +KM (KM-1)). Np. dla K=2 i M=12 ta rozszerzona macierz będzie miała wymiar NxMR, gdzie MR=576. To juŜ potęŜna baza, słabo w większości skorelowanych danych, pozwalająca na budowanie modeli nieliniowych (tu wielomianów drugiego stopnia). Idea regresji wielorakiej sprowadzona jest w tym przypadku do zbudowania modelu zmiennej obserwowanej X zaleŜnej od wielu zmiennych wejściowych wybieranych kolumnami z macierzy XijR. Zbudowanie pewnego modelu Ŷ= f(XijR), dla wszystkich j=1,2,….,MR jest oczywiście całkowicie nieracjonalne – po pierwsze z powodu nieuchronnego „przeuczenia” modelu (model miałby znikomą przydatność prognostyczną) i po drugie, z powodów technologicznych. Czas maszynowy konieczny do przetwarzania informacji byłby nieakceptowanie długi, przekraczałby z pew- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 219 nością bariery pozwalające na zastosowanie modelu w praktyce. W związku z tymi ograniczeniami Ivakhnenko [10] zastosował ideę poszukiwania lokalnie optymalnego wielomianu o chwilowo poprawnych właściwościach predykcyjnych. Koncepcja GMDH sprowadza się do wyboru pewnej podprzestrzeni XRij0=XRij, takiej, Ŝe stanowi ona bazę umoŜliwiającą zbudowanie wielomianowego modelu liniowego o postaci gdzie i0,j0 є {1,2,…MR}. Na potrzeby niniejszej pracy autor zbudował model bazy czterowymiarowej w postaci: ŷ=a0+a1xi1+a2xj1+a3xi2xj2+a4xi3xj3 To oczywiście niewielki fragment nieskończonego szeregu Gabora, z którego drugi i trzeci wyraz reprezentują liniową zaleŜność od wybranych zmiennych objaśniających i1,j1є{1,2,… MR}, a dwa kolejne, zdolność nieliniową drugiego stopnia. Oczywiście zmienne o indeksach i2,i3,j2,j3 wybierane są takŜe z tego samego uniwersum o liczności MR. Wyraz ao zwany wyrazem wolnym pozwala na wyodrębnienie w modelu wartości otwartej niezaleŜnej od zmiennych objaśniających. Dla uzyskania predykcyjnej własności modelu ŷ zastosowano specyficzny schemat przesunięć wektora y względem zmiennych objaśniających, wybieranych z macierzy XRij. Na rys. 2 przedstawiono przykład wzajemnego połoŜenia pięciu wektorów umoŜliwiający zbudowanie jednego z tysięcy modeli ŷ. to y X7 X18 X157 X356 hhpp Rys. 2. Przykład wzajemnego usytuowania wektorów o liczności 7, spośród których wektor zmiennej obserwowanej y jest wysunięty w przód o co najmniej horyzont predykcyjny hp. Na rysunku tym wybrano przykładowe zmienne x є XRij o indeksach sugerujących odpowiednie przesunięcie w czasie względem zmiennej obserwowanej y. Np. x7 naleŜy do pewnego, podstawowego zbioru danych objaśniających (pierwszych 12 zmiennych) a macierz (podmacierz) 7 kolejnych wektorów tych zmiennych jest przesunięty o hp = 1 wstecz względem zmiennej y. Wektor X18 zgodnie z wcześniejszym ustaleniem naleŜy więc do tej części macierzy XRij, która uzyskana została poprzez konkatenację poziomą pierwszego, podstawowego zbioru przesunięty o je- 220 Antoni Wiliński Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego den krok wstecz. Zmienne X157 i X356 to przykłady nieprzesuniętych zmiennych drugiego stopnia. Zilustrowany na rysunku horyzont predykcyjny wynosi hp = 2 kroki. Zakładając, Ŝe w chwili to wszystkie dane na rys. 2. są znane i znając zaleŜność Ŷ(t0) = f(x7,x18,x157,x356) na podstawie tego modelu moŜna obliczyć przyszłą (prognozowaną) wartość objaśnianą Ŷ (t0+2) po wprowadzeniu do modelu wartości wszystkich zmiennych objaśniających, które występują o hp później (czyli takie będą znane w chwili to). Problemem waŜnym w związku z tym staje się sposób obliczenia owego modelu Ŷ jako wyniku pewnej transformaty obserwowanych w przeszłości zaleŜności pomiędzy wektorem y i wybranymi wektorami x є XRij . Dla ustalenia owego związku stosuję się najczęściej, zgodnie z ideą regresji, zasadę minimalizacji odchyleń średniokwadratowych pomiędzy wektorem modelowanych zachowań zmiennej obserwowanej ŷ, a jej wartościami pomierzonymi y. W ogólnym przypadku uzyskuje się to poprzez rozwiązanie równania Ŷ=A·X gdzie macierz współczynników A jest wynikiem (w ogólnym przypadku) tzw. pseudoinwesji Moore’a-Penrose’a A=X\Y, gdzie operator „\”oznacza lewostronne dzielenie macierzy, związane właśnie z inwersją (pseudoinwesją) macierzy niekwadratowej. Jeśli w celu uwzględnienia „pamięci” o zachowaniu rynku, weźmie się pod uwagę pewną liczbę zanotowanych pomiarów (kroków) wstecz od chwili bieŜącej, to model Ŷ winien mieć wymiary [1 x nz ], gdzie nz – to liczba kroków wstecz uwzględniona w modelu. Dla obliczenia współczynników A naleŜy wziąć wówczas odpowiedni fragment macierzy XRij . Np. wybierając, tak jak na rys. 2 bazę z czterech kolumn tej macierzy, uzyskuje się macierz X o wymiarach [ 4 x nz] i wektor współczynników A [ 1 x 4 ] . Często macierz X wzbogaca się o dodatkową jednostkową kolumnę jedynek X = [ 1 x1 x2 x3 x4] po to, by w nowym wektorze współczynników A [ 1 x 5 ] wydzielić ten niezaleŜny od zmiennych wejściowych. W wektorze tym właśnie ten pierwszy jest wspomnianym wyrazem wolnym w liniowym równaniu opisywanym zmienną Ŷ. Jakość modelu Y moŜe być oceniana za pomocą róŜnych norm ║Y-Ŷ║. W przedstawionych poniŜej wynikach badań zastosowane było takie kryterium wyboru modelu Ŷopt spośród wielu rozpatrywanych, które dawało minimum rozbieŜności na odcinku predykcyjnym o długości hp – 2 kroki. Oczywiście mierzona była zgodność predykcji w „przeszłości” i wybierany model (wektor współczynników A) był uŜyty do wykonania bieŜącej predykcji. Spośród wielu rozpatrywanych modeli ( na danym kroku symulacji) ze zbioru { Ŷ1Ŷ2...Ŷk } poszukiwany był ten, dla którego kryterium K K s = nz ∑ i = nz − hp ∧ Yis − Yis → min Badana była więc tylko zbieŜność na odcinku predykcyjnym pomiędzy wartościami rzeczywistymi i modelu Ŷs, i ten model, który zapewniał najmniejsza sumę błędów był wykorzystany do prognozy zachowań zmiennej Y w kolejnym kroku. Zmienną tą był wybrany indeks WIG20. Jak wspomniano wcześniej w celu zbadania matematycznego modelu regresyjnego, w której zmienną objaśnioną był WIG20, a zmiennymi opisującymi pewne charakterystyczne zmienne otaczającego świata wybrano 12 szeregów czasowych. Nie był to wybór przypadkowy, wynikał bowiem z wiedzy i przekonania autora o potencjalnym, istotnym POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 221 wpływie tych czynników na badany indeks WIG20. Oczywiście autor mógł niewłaściwie ocenić rzeczywistość zarówno w aspekcie ilościowym wpływu tych rynków dla zachowania się WIG20, jak równieŜ w tak Ŝe w aspekcie związku przyczynowo-skutkowego. Czy na pewno zdarzenie w wytypowanych, najwaŜniejszych rynkach świata antycypują zachowanie warszawskiej giełdy. Wielokrotnie podejmowane próby ustanowienia prostej korelacji zawodziły. Być moŜe więc niekiedy zachowanie rynków wschodnich poprzedzają zmiany Wall Street. Być moŜe tak, być moŜe nie ? Jak zwykle, nie ma tu prostej odpowiedzi pozostaje myślenie indukcyjne. Jeśli coś daje się modelować wg pewnych załoŜeń, to naleŜy tę okoliczność wykorzystać. Dla zbadania dwóch niezaleŜnych źródeł sygnałów predykcyjnych podzielono wybrane zmienne objaśniające na dwa zbiory Xij1 i Xij2. Dla kaŜdego z tych zbiorów zbadany był identyczny algorytm predykcyjny, wg którego otwierana była pozycja długa lub krótka (na indeksie WIG20 moŜliwe jest wykonanie krótkiej sprzedaŜy na pochodnej tego instrumentu finansowego zwanej kontraktem - futures). W ten sposób dla poszczególnych chwil czasu ti , i = 1,2,...,k powstały dwa szeregi modelowanych zmian zmiennej obserwowanej {Ŷ11, Ŷ21..Ŷk1} oraz {Ŷ12, Ŷ22..Ŷk2} . Wyniki tych symulacji porównywane były z rzeczywistymi wartościami zmiennej obserwowanej {y1,y2,…yk}, jednak to porównanie moŜliwe było dopiero po upływie czasu wyznaczonego przez horyzont predykcyjny hp ( tu wynoszący 2 kroki, czyli dwie doby). Tak więc po kaŜdym kroku badane były bieŜące wykresy obu modeli w najbliŜszej historii i dla wykonania kolejnej predykcji wybierany był model aktualnie lepszy. Sukcesem danego modelu w chwili ti była zgodność znaku predykcji i rzeczywistych zaobserwowanych zmian: ∧ 1 Z i = sign ∧ 2 Z i = sign Z i = sign ∧ Y ∧ Y Y 1 Y i − Y i − Y 2 Jeśli występowało 2 i −1 i−1 ∧ 1 − i i −1 ∧ ∧ 1 Z i = ∧ 2 Z i lub Z i = Z i to w danym modelu otwierana była odpowied- nia pozycja (długa lub krótka, w zaleŜności od znaku). Udane otwarcie pozycji powodowało po wykonaniu jednego kroku przyrost kapitału ∆yi =yi - yi-1 , po wykonaniu nieudanej predykcji – taką samą stratę. Suma tych przyrostów nazywana jest zmienną narastania kapitału – jest jednym z najwaŜniejszych wskaźników jakości systemu transakcyjnego na rynku finansowym. k Wykresy funkcji przestawione są rys.3 dla obu SK = modeli jako pe’a SR = Sk1 1 K std Sk2. i K Z i = 1 (∆ ∑ i =1 ∆yi dla K = 1, 2 ... K Obie krzywe mają zróŜnicowany przebieg i róŜny jest ich wskaźnik Shar- ∆ yi yi ) gdzie std (∆yi) jest odchyleniem standardowym szeregu ∆yi dla i= 1,2,…k 222 Antoni Wiliński Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego W czasie realizacji transakcji inwestycyjnych nie jest oczywiście znana przyszłość – nie wiadomo więc, która z dwu rozpatrywanych strategii będzie lepsza ? MoŜna je jedynie obserwować i wybierać lepszą. Krzywe narastania kapitalu 2000 Przyrost WIG20 1500 1000 500 0 -500 0 50 100 150 200 250 300 Kolejne sesje 350 400 450 500 Rys.3 Krzywe narastania kapitału dla dwóch róŜnych modeli predykcyjnych i krzywa otrzymana w wyniku przetwarzania zespołowego (pogrubiona). Na wykresie widoczne są trzy krzywe narastaniu kapitału – dwie cienkie dla dwóch odrębnych niezaleŜnych modeli predykcyjnych, zbudowanych na rozdzielonych podzbiorach danych oraz krzywa pogrubiona będące rezultatem przetwarzania zespołowego. Przez narastanie kapitału naleŜy rozumieć przyrost punktów indeksowych WIG20 od otwieranych pozycji (kontraktów) długich i krótkich (zakupu i sprzedaŜy kontraktów). PoniewaŜ na GPW stosuje się obecnie dźwignię 1:10 to kaŜdy punkt indeksowy oznacza 10 PLN. Istota tego zespołowego przetwarzania jest specyficzna filtracja wyników uzyskiwanych przez dwa rozpatrywane modele. Filtracja ta polegała na badaniu zwrotu z ostatnich f transakcji – dla kaŜdego modelu oddzielnie. JeŜeli w danej chwili czasu przyrost punktów indeksowych dla strategii S1 w ostatnich f krokach był większy niŜ dla strategii S2 , to w kolejnym kroku wybierana była dla określenia prognozy strategia S1 . W przeciwnym przypadku wybierana była strategia S2 . Uzyskane wyniki wskazują na interesujące, graficznie wyraŜone zabezpieczenie inwestora przed niespodziewanymi duŜymi obsunięciami kapitału. PoniewaŜ podzbiory danych są od siebie względnie niezaleŜne to indywidualne, dla odrębnych strategii, krzywe narastania kapitału są, lub co najmniej powinny być, słabo skorelowane. Daje to podstawę do postawienia tezy o wzroście bezpieczeństwa inwestora, o zmniejszeniu wariancji w szeregu czasowym zwrotu z kapitału. W badaniach przedstawionych na rys. 3 zastosowano f=5. Badano takŜe szereg innych długości filtra f. W danej przestrzeni danych ten wymieniony okazał się najlepszy. Uzyskano wskaźniki Sharpe’a wynoszące odpowiednio [0,0728 0,0380 0,0800] dla strategii podstawowych i strategii POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 223 przetwarzania zespołowego. Uzyskane wyniki są interesujące z praktycznego punktu widzenia i potwierdzają tezę o moŜliwości zarabiania w warunkach kryzysu (w warunkach spadku cen większości notowanych instrumentów finansowych). 4. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. Brzeszczyński J., Kelm R. Ekonometryczne modele rynków finansowych. Modele kursów giełdowych i kursów walutowych. WIG-Press, Warszawa 2002. Crawford G., Sen B. Instrumenty pochodne, narzędzia podejmowania decyzji finansowych. Liber, Warszawa 1999. Duda R.O., Hart P.E. , Stork D.G., Pattern Classification, John Wiley, New York (2000). Elder A. Come Into My Trading Room. Wiley Trading, 2002 Elton E.J, Gruber M.J. Nowoczesna teoria portfelowa i analiza papierów wartościowych .WIG-PRESS, Warszawa 1998 Fiszeder P. Forecasting the Volatility of Polish Stock Index – WIG20, w: Forecasting Financial Markets. Theory and Applications, Wydawnictwo Uniwersytetu Łódzkiego, Łódź 2005. Greshilov A.A., Stakun V.A., Stakun A.A. Matematiceskije metody postroenija prognozov. Radio i sviaz. Moskva 1997. Haugen R. Teoria nowoczesnego inwestowania. WIG-Press, Warszawa 1996. Ivakhnenko A.G., Zaicenko J.P., Dimitrov V.D. Priniatije resenij na osnove samoorganizacji. Sovetskoe Radio, Moskwa 1976 Ivakhnenko A.G., Ivakhnenko G.A., Obzor zadac po algoritmam Metoda Gruppowogo Uceta Argumentov . Pattern Recognition and Image Analysis, 1995 vol. 5 no. 4 pp. 527535 Krawczak M., Jakubowski A., Konieczny P., Kulikowski R., Miklewski A., Szkatuła G. Aktywne zarządzanie inwestycjami finansowymi – wybrane zagadnienia, Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003. Krutsinger J. Systemy transakcyjne.Sekrety mistrzów. Wig-Press, Warszawa 1999. Lemke F., Mueller J.A. Self- Organizing Data Mining A Portfolio Trading System. Journal of Commputational Intelligence in Finance, 1997/05 pp 12-26 Madala H.R., Ivakhnenko A. G. Inductive Learning Algorithms for Complex Systems Modelling. CRC Press 1994 Murphy J. Analiza techniczna rynków finansowych. WIG-Press, Warszawa 1999. Piper J. The Way to Trade, Harriman Modern Classic, 2006. Rothchild J. Ksiega bessy. WIG-Press, Warszawa 2000 Schwager J.D. Analiza techniczna rynków terminowych. WIG-Press, Warszawa 2002. Tarczyński W, Łuniewska M. Metody wielowymiarowej analizy porównawczej na rynku kapitałowym. PWN, Warszawa 2006. Wierzbicki A. Badania operacyjne i systemowe w epoce cywilizacji wiedzy. Instytut Badań Systemowych PAN seria Badania systemowe tom 64, Warszawa 2008, s. 13-35. Wiliński A., Czapiewski P. GMDH-based Multiple Prediction of Financial Markets. Polish Journal of Environmental Studies vol.17 No 3b, 2008 p.73-78 Witkowska D., Matuszewska A., Kompa K. Wprowadzenie do ekonometrii dynamicznej i finansowej. Wydawnictwo SGGW, Warszawa 2008. 224 Antoni Wiliński Metoda GMDH do prognozowania rynków w warunkach kryzysu finansowego THE GMDH METHOD FOR MARKET FORECASTING IN THE CIRCUMSTANCES OF FINANCIAL CRISIS Summary The paper considers the long-familiar problem of the accuracy of financial markets prediction, performed for the purpose of gaining financial profits. Investor's specific game against a constantly evolving market, comprising in acquiring profits from the properly predicted differences of selected financial instrument's price, is called a speculation. The social attitude towards thus described investor's behavior is often pejorative. Here it is considered in the axiological sense - as acquiring a certain higher value, defeating the incomprehensible phenomenon of the market through the knowledge extraction from historical data. Having the above in mind, shell we regard the currently observed (December 2008) so called global crisis as a misfortune or as a challenge for the speculator? This is a rhetorical question, since it should definitely be considered a challenge. Keywords: prediction, financial markets, forex, artificial intelligence, GMDH, stock exchange Warsaw Stock Exchange, index WIG. Antoni Wiliński Zachodniopomorski Uniwersytet Technologiczny e-mail: [email protected] http://www.wi.ps.pl POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 225 DONIESIENIE NAUKOWE JOLANTA KONDRATOWICZ-POZORSKA Uniwersytet Szczeciński KOMUNIKACJA MARKETINGOWA W ZDOBYWANIU PRZEWAGI KONKURENCYJNEJ POLSKICH GOSPODARSTW EKOLOGICZNYCH Streszczenie śadne przedsiębiorstwo nie jest w stanie działać na rynku bez odpowiedniego systemu komunikacji z otoczeniem. Mimo, Ŝe gospodarstwa ekologiczne nastawione są na tradycję i naturę to chcąc zdobyć przewagę konkurencyjną muszą stosować najnowocześniejsze instrumenty komunikacji marketingowej. Jest to szczególnie waŜne w obliczu pogłębiającej się konkurencji, procesów globalizacji i rosnącej świadomości konsumentów. W pracy przeanalizowano wykorzystanie w praktyce instrumentów komunikacji marketingowej. Słowa kluczowe: gospodarstwa ekologiczne, komunikacja marketingowa, przewaga konkurencyjna 1. Istota komunikacji marketingowej Komunikacja rynkowa firm podlega wpływowi wielu procesów i tendencji rynkowych. Wśród nich moŜna wymienić przede wszystkim: rosnącą konkurencję na rynku powodującą podobieństwo oferty rynkowej róŜnych producentów, procesy globalizacji i integracji, rozwój nowych technik i technologii. W warunkach szybko zmieniającego się otoczenia i narastającej spirali konkurencji problem komunikacji firm z ich otoczeniem nabiera szczególnego znaczenia. Umiejętność skutecznego komunikowania się przedsiębiorstw z otoczeniem rozumiana jako dwukierunkowy przepływ informacji stała się istotną determinantą odniesienia przez ten podmiot szeroko rozumianego sukcesu rynkowego1. Dwukierunkowość przepływu informacji powinna polegać na zapewnieniu sprzęŜeń zwrotnych oraz bazować na informacjach płynących z badań marketingowych. W XXI wieku trudno juŜ konkurować uŜywając tylko takich instrumentów marketingowych jak: produkt, cena czy dystrybucja. Bez komunikacji firmy z rynkiem świadomie osłabia się oddziaływanie wcześniej wymienionych instrumentów, tworzy moŜliwość sztucznego odizolowania firmy od rynku i zachowań konsumentów, rezygnuje się z moŜliwości stworzenia (wykreowania) własnego niepowtarzalnego profilu rynkowego firmy. Na przełom XX i XXI wieku przypada szczyt rozwoju komunikacji marketingowej firmy. Do 1 Rola marketingu w tworzeniu przewagi konkurencyjnej pod red. K.Śliwińskiej. Wyd. Akad. Ekon., Katowice 2007, s.21. 226 najwaŜniejszych przyczyn tego rozwoju zaliczyć moŜna: 1. Nasilającą się konkurencję, która jest efektem internacjonalizacji i globalizacji, 2. Pojawienie się nowych technologii, 3. Problemy z dotarciem do uwag konsumenta/odbiorcy, 4. Zmiany społeczne (wzrost świadomości konsumentów). Komunikacja marketingowa moŜe być postrzegana jako: - część ogólnej komunikacji firmy, - koncepcja marketingowa stosowaną przez przedsiębiorstwo. Prowadząc komunikację marketingową przedsiębiorstwo kontaktuje się z otoczeniem. Kontakt ten pozwala na2: - marketingowe oddziaływanie na klientów i potencjalnych nabywców, - dostarczanie informacji, argumentacji i obietnic, - nakłanianie do kupowania, - zbieranie przychylnych opinii o firmie. Firma Firma przekaz Firma medium przekaz konsument konsument Rys.1 . Model komunikacji interaktywnej Źródło: D.L.Hoffman, T.P.Novak.1996. Marketing In Hypermedia Computer-Medicated Environments. Journal of Marketing. Vol.60, nr 3. W literaturze niemieckiej kontakt firmy z otoczeniem definiuje się szerzej, jako swoisty interaktywny dialog. W. Pepels3 uwaŜa, ze komunikacja taka powinna być tylko dwukierunkowa, tzn. oprócz przepływu informacji między nadawcą a odbiorcą, występuje równoległy przepływ informacji w kierunku odwrotnym (sprzęŜenie zwrotne). Podobnego zdania jest równieŜ Ph. Kotler4 (rys.1.). 2. Komunikacja marketingowa w polskich gospodarstwach ekologicznych 2 T.Sztucki, 1997. Promocja – sztuka pozyskiwania nabywców. Wyd. Placet, Warszawa,s. 16. 3 W. Pepels, 1997. Einfuehrung In die Kommunikationspolitick. Schaeffer Poeschel Verlag. Stuttgart, s.12. 4 Ph. Kotler 2000. Marketing. Analiza, planowanie, wdraŜanie i kontrola. Gebethner i Spółka. Warszawa, s.546. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 227 2.1. Cel i metoda badawcza Do końca 2008 roku w Polsce zarejestrowanych zostało około 11tys. gospodarstw ekologicznych. Z istoty swej są to gospodarstwa rolne oparte na tradycyjnym, naturalnym procesie produkcji, zgodnym z wymaganiami środowiska naturalnego. Produkcja odbywa się przy duŜym zaangaŜowaniu pracy czynnika ludzkiego, bez udziału środków chemicznych, i w tzw. obiegu zamkniętym. Produkty rolne z gospodarstw ekologicznych nie naleŜą więc do tanich. Czy wobec nadwyŜki produktów spoŜywczych w Europie i Ameryce Północnej istnieje szansa na utrzymanie się i umocnienie na rynku gospodarstw ekologicznych i ich produktów? Nie jest łatwo odpowiedzieć na to pytanie, ale jedno jest pewne, Ŝe gospodarstwa ekologiczne mogą być tradycyjne w sposobie produkcji, ale Ŝeby utrzymać pozycję na rynku muszą być nowoczesne w komunikacji z otoczeniem. Obecnie stoją one na bardzo trudnej pozycji wyjściowej, gdyŜ nie mogą walczyć ceną (wysokie koszty produkcji), mają utrudniony system dystrybucji produktów (krótszy okres trwałości, niemoŜliwość chemicznego przedłuŜania świeŜości, brak rozwiniętej sieci dystrybucji produktów ekologicznych, itp.), a mimo to podejmują walkę o segment rynku i klienta. Celem pracy jest analiza róŜnych form komunikacji marketingowej, która podejmowana jest przez gospodarstwa ekologiczne w celu zdobywania przewagi konkurencyjnej na rynku dóbr konsumenckich. W tym celu przeprowadzono badanie ankietowe za pomocą wywiadu prostego standaryzowanego z wykorzystaniem kwestionariusza w postaci ankiety elektronicznej. Ankietę wysłano do 10% firm ekologicznych w całej Polsce. Jednak współpracę podjęło tylko 873 gospodarstw ekologicznych. 2.2. Materiał badawczy W wyniku analizy zgromadzonego materiału moŜna stwierdzić, Ŝe właściciele gospodarstw ekologicznych w róŜnym stopniu znają i wykorzystują instrumenty komunikacji marketingowej. Zdecydowana większość respondentów precyzyjnie podała definicję reklamy, promocji sprzedaŜy, sprzedaŜy osobistej i marketingu szeptanego (buzz marketing) - 82% poprawnych odpowiedzi. Niewiele natomiast znało pojęcie wydarzenia marketingowego (event marketing), czy public relations (35%). Zastosowanie w praktyce róŜnych form komunikacji marketingowej przedstawione zostało w tabeli 1. 228 Tab.1 Formy komunikacji marketingowej stosowane przez gospodarstwa ekologiczne Instrumenty Reklama Marketing szeptany Promocja sprzedaŜy SprzedaŜ osobista Public relations Nowoczesne instrumenty Rodzaj instrumentu Prasowa Radiowa Telewizyjna Kinowa W Internecie Uliczna Specjalistyczna Skierowana do: - konsumentów, - pośredników handlowych, - personelu Zorganizowana, Bezpośrednia Troska o dobrą reputację, Rozpowszechnianie informacji; Utrzymywanie dobrych relacji z otoczeniem, itp. Internet: - strony WWW - poczta elektroniczna - grupy dyskusyjne - banery reklamowe. Telewizja i radio interaktywne Telefonia komórkowa Procent odpowiedzi potwierdzających stosowanie w praktyce [%] 35 <1 3 8 4 35 50 45 21 7 5 45 42 70 70 80 95 25 10 5 100 Źródło: obliczenia własne W przeciwieństwie do mediów klasycznych (prasa, radio, telewizja), nowoczesne media są znacznie częściej wykorzystywane przez gospodarstwa ekologiczne. Źródłem tego są dwa powody: - stwarzają one jakościowo odmienne moŜliwości w procesie komunikacji (interaktywność i multimedialność), - ale przede wszystkim są tańsze. Obecnie do najwaŜniejszych instrumentów komunikacji marketingowej gospodarstwa ekologiczne zaliczają reklamę prasową, w tym w czasopismach specjalistycznych (np. medycznych, rolnych, gospodarczych), jak i skierowanych do szerszej rzeszy społeczeństwa (np. czasopisma kobiece). Reklama ta ma uwypuklić właściwości zdrowotne Ŝywności ekologicznej, podkreślić szczególną rolę kobiety w kształtowaniu zdrowych nawyków Ŝywieniowych itp. Swoistą odmianą reklamy jest marketing szeptany, do którego stosowania przyznaje się co drugi właściciel gospodarstwa ekologicznego. Buzz marketing sprowadza się do przekazywania informacji o firmie i jej produktach wśród ludzi na zasadzie plotki. Firmy ekologiczne korzystają bardzo ostroŜnie z trzeciego instrumentu, tj. promocji sprzeda- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 18, 2009 229 Ŝy. Wynika to z dwóch przesłanek: 1. Gospodarstwom ekologicznym brakuje kapitału finansowego na szeroko zakrojoną akcję promocyjną, 2. Tradycji i doświadczenia w prowadzeniu handlu. W związku z tym widoczna jest dysproporcja w stosowaniu promocji sprzedaŜy do róŜnych grup adresatów. Gospodarstwa kierują ją przede wszystkim do konsumenta i robią to poprzez sprzedaŜ osobistą (45%). Nadal rzadkością jest tworzenie grup produkcyjno-handlowych (45%), które zajeły by się zawodowo promocją sprzedaŜy produktów ekologicznych w Polsce i za granicą. Mimo, Ŝe właściciele gospodarstw ekologicznych nie znali definicji public relations to z badania wynika, Ŝe chętnie układają oni dobre relacje z najbliŜszym otoczeniem, dbają o dobrą reputację i chętnie podejmują działania zmierzające do propagowania wiedzy o zdrowej Ŝywności, jej właściwościach, tradycyjnych metodach wytwarzania, ochronie środowiska itp.(około 70% odpowiedzi). Jednak na szczególną uwagę zasługuje wykorzystanie nowoczesnych form komunikacji marketingowych przez tradycyjne gospodarstwa ekologiczne. Procent odpowiedzi potwierdzających wykorzystanie Internetu jest prawie 100%. Niemal wszystkie podmioty gospodarcze mają własną stronę internetową lub adres e-mailowy oraz kontakt poprzez telefon komórkowy. 3. Wnioski Gospodarstwa ekologiczne są zmuszone wykorzystywać komunikację marketingową do zdobywania przewagi rynkowej. Nie moŜna jednoznacznie określić, jakie to instrumenty powinny być przede wszystkim stosowane by osiągnąć najlepszy rezultat rynkowy, ale moŜna powiedzieć, Ŝe kaŜde działanie mające na celu stworzenie dla własnych produktów tzw. unikalnej propozycji marketingowej jest godne uwagi. Działania gospodarstw ekologicznych muszą być dostosowane do głębokich zmian zachodzących w otoczeniu firmy, muszą nadąŜać, a nawet wyprzedzać preferencje klientów, dostosowywać się do zmian zachowań konsumentów, coraz silniejszych procesów globalizacji i liberalizacji. WaŜne jest teŜ szybkie wykorzystanie przez właścicieli gospodarstw wzrostu świadomości i zachowań proekologicznych konsumentów oraz upowszechnianie się nowoczesnych technologii. Przekazywanie informacji o gospodarstwach ekologicznych i ich produktach dzięki wykorzystaniu najnowocześniejszych instrumentów komunikacji marketingowej pozwala na edukowanie i tworzenie się nowej rzeszy konsumentów Ŝywności naturalnej. 230 4. Literatura: 1. 2. 3. 4. 5. Hoffman D.L, Novak T.P. Marketing In Hypermedia Computer-Medicated Environments. Journal of Marketing. Vol.60, nr 3,1996. Kotler P. Marketing. Analiza, planowanie, wdraŜanie i kontrola. Gebethner i Spółka. Warszawa 2000 Pepels W. Einfuehrung In die Kommunikationspolitick. Schaeffer Poeschel Verlag. Stuttgart 1997. Rola marketingu w tworzeniu przewagi konkurencyjnej pod red. K.Śliwińskiej. Wyd. Akad. Ekon., Katowice 2007. Sztucki T. Promocja – sztuka pozyskiwania nabywców. Wyd. Placet, Warszawa 1997. MARKETING COMMUNICATION OF POLISH ECOFARMS IN THE PROCESS OF ACHIEVING COMPETITIVE ADVANTAGE Summary śadne przedsiębiorstwo nie jest w stanie działać na rynku bez odpowiedniego systemu komunikacji z otoczeniem. Mimo, Ŝe gospodarstwa ekologiczne nastawione są na tradycję i naturę to chcąc zdobyć przewagę konkurencyjną muszą stosować najnowocześniejsze instrumenty komunikacji marketingowej. Jest to szczególnie waŜne w obliczu pogłębiającej się konkurencji, procesów globalizacji i rosnącej świadomości konsumentów. W pracy przeanalizowano wykorzystanie w praktyce instrumentów komunikacji marketingowej. Keywords: ecological farms, communications of marketing, competitive advantage Jolanta Kondratowicz-Pozorska Katedra Ekonomii Uniwersytet Szczeciński e-mail: [email protected]