studia i materiały polskiego stowarzyszenia zarządzania wiedzą
Transkrypt
studia i materiały polskiego stowarzyszenia zarządzania wiedzą
STUDIA I MATERIAŁY POLSKIEGO STOWARZYSZENIA ZARZĄDZANIA WIEDZĄ Redaktor tomu: dr Arkadiusz Januszewski Komitet Redakcyjny: dr hab. inŜ. Waldemar Bojar prof. UTP prof. dr hab. Ryszard Budziński prof. dr hab. Andrzej Straszak Polskie Stowarzyszenie Zarządzania Wiedzą Bydgoszcz 2008 2 Recenzenci: prof. dr hab. Witold Chmielarz prof. dr hab. inŜ. Ludosław Drelichowski dr hab. inŜ. Jan Studziński Opracowanie redakcyjne i korekta: inŜ. Waldemar Kępa ISSN 1732-324X Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc 3 Spis treści RYSZARD BUDZIŃSKI, MONIKA STOLARSKA Aspekty metodyczne oceny witryn internetowych ........................................................................ 5 WITOLD CHMIELARZ .................................................................................................................... Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych banków w Polsce......................................................................................................................... 15 MIROSŁAW DYCZKOWSKI ........................................................................................................... Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych.......................................................................................................................... 26 WALDEMAR KARWOWSKI, ARKADIUSZ ORŁOWSKI, MACIEJ GROCHOWSKI ................ Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań ............................ 37 ANNA LENART ................................................................................................................................ Systemy ERP a zarządzanie relacjami z klientami...................................................................... 47 TOMASZ ORDYSIŃSKI................................................................................................................... Metody szacowania wartości rynkowej serwisu internetowego .................................................. 57 MARIA JOLANTA ORŁOWSKA..................................................................................................... Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników..... 67 OLGA PILIPCZUK............................................................................................................................ Moduł monitorowania jakości procesów usługowych (PQM) jako komponent zintegrowanego systemu zarządznia ..................................................................................................................... 79 OREST POPOV, ANNA BARCZ, PIOTR PIELA ............................................................................ Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania ............................................................................................ 95 IZABELA ROJEK.............................................................................................................................. Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową ............................................................................................................................ 104 PIOTR SULIKOWSKI, RYSZARD BUDZIŃSKI ............................................................................ Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji 113 JAROSŁAW WĄTRÓBSKI, MONIKA STOLARSKA .................................................................... Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych.............. 124 4 RYSZARD BUDZIŃSKI, ZBIGNIEW PIOTROWSKI, JAROSŁAW WĄTRÓBSKI..................... A Decision Aiding Software Agent under Condition of Lack of Cooperation From Analyst ... 134 ROBERT BUDZYŃSKI, ARKADIUSZ ORŁOWSKI, WALDEMAR KARWOWSKI................... Module for Management of Student Payments ......................................................................... 142 ZBIGNIEW PIOTROWSKI, JAROSŁAW WĄTRÓBSKI ............................................................... Choosing a Multicriteria Approach Based on Analysis of a Context of a Decision Situation .. 151 JACEK UNOLD ................................................................................................................................. Generic Analysis of an E-Commerce Field............................................................................... 160 JACEK WINIARSKI.......................................................................................................................... Comparative Analysis of Application of Risk Assessment Methods in IT Projects.................. 166 MACIEJ ADAMSKI Source Quantity and Quality for Research Problem – Car in British Culture in the Context of Knowledge Creation ................................................................................................................. 175 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 5 RYSZARD BUDZIŃSKI, MONIKA STOLARSKA Politechnika Szczecińska ASPEKTY METODYCZNE OCENY WITRYN INTERNETOWYCH Streszczenie Celem niniejszego artykułu jest ocena jakości uŜytkowej serwisów internetowych na przykładzie branŜy komputerowej. Metodyczny wkład autorski stanowi próba opracowania konwertera z metody punktowej do hierarchicznej analizy problemu (AHP). Na początku przedstawiono podstawowe załoŜenia przyjętej metodyki, następnie zaproponowano własne rozwiązanie problemu. Całość kończą wnioski dotyczące proponowanej metodologii i przeprowadzonych badań. Słowa kluczowe: metoda punktowa, metoda AHP, ocena jakości oprogramowania, ocena witryn internetowych 1. Wprowadzenie Internetowe sklepy stanowią obecnie dla wielu firm szansę na dotarcie do duŜej grupy klientów oraz doskonałe uzupełnienie tradycyjnej sprzedaŜy. Transakcje dokonywane za pośrednictwem Internetu cieszą się ogromnym zainteresowaniem klientów z uwagi na niŜszy koszt produktów, zróŜnicowaną ofertę oraz często bezpłatną dostawę towaru. Problem, który podjęto w artykule stanowi próbę oceny jakości uŜytkowej serwisów internetowych z uwzględnieniem indywidualnych preferencji docelowej grupy odbiorców. Jest on takŜe przedmiotem dociekań w szeregu opracowań naukowych. MoŜna tu przytoczyć prace K. Króla i P. Goli [1,2], E. Dobrogowskiej – Schlebusch [3], J. Bańskiego [4] czy publikację W. Chmielarza. [5] W rozwaŜaniach autora podjęto próbę adaptacji metody punktowej do zadanej w pracy klasy problematyki. Konkluzje badawcze wskazują na moŜliwości ewolucji proponowanego rozwiązania – adaptacji aparatu metody AHP do budowy konwertera uzyskanych metodą punktową wyników. Tak zadany problem metodyczny stanowi przedmiot niniejszego opracowania. 2. Metody oceny jakości uŜytkowej oprogramowania W literaturze występuje wiele modeli jakości systemu informatycznego. Według A. Kobylińskiego ich budowa oparta jest o zbiór atrybutów jakości. KaŜdemu z atrybutów przyporządkowuje się atrybuty szczegółowe, a tym kolejno miary. Model taki moŜe być wykorzystywany w zaleŜności od potrzeb do identyfikacji wymagań oprogramowania lub kryteriów zapewniania jakości. Z uwagi na fakt wykształcenia się róŜnych modeli jakości produktów programowych zaistniała konieczność ich ustandaryzowania i opracowania norm. International Organisation for Standarisation (ISO) i International Electrotechnical Commission (IEC) określiły charakterystyki i podcharakterystyki jakości. [6] Ocena pakietów programowych, a w tym witryn internetowych, wymaga doboru zestawu kryteriów w pełni charakteryzujących najwaŜniejsze ich aspekty. Ustalenie ostatecznego zbioru kryte- 6 Ryszard Budziński, Monika Stolarska Aspekty metodyczne oceny witryn internetowych riów odbywa się w oparciu o wiedzę i doświadczenie decydentów, co ma zapewnić trafność oraz wiarygodność analiz i decyzji. Pomiar wartości kryteriów stanowi waŜny element budowy modelu oceny. Kryteria poddawane są analizie zgodności, mierzone pod względem waŜności według określonej skali, następnie normowane i porównywane. Określenie rodzaju stosowanej skali umoŜliwia jednoznaczną klasyfikację kryteriów. [7] Modele oceny jakości oprogramowania charakteryzują się określonymi cechami: hierarchiczną strukturą i oceną na róŜnych poziomach abstrakcji, mieszaniną róŜnych typów miar i preferencji (wymagających odpowiednich procedur agregacji). Mogą dotyczyć części oprogramowania albo całości, róŜnych wymiarów i mogą być wykonywane dla róŜnych celów. Z oceną jakości związane są równieŜ zagadnienia róŜnicy między miarą i oceną oraz braki agregacji. Definicja miar, kryteria i procedura agregacji nie mogą zostać określone dowolnie - muszą być zgodne z ogólnymi regułami, które zwykle określone są za pomocą międzynarodowych norm (ISO 9126 i IEEE 1061). Wg norm ISO jakość to komplet cech przedstawionych graficznie za pomocą struktury drzewiastej, w którym kaŜda cecha ma wagę. W rzeczywistości zastosowanie norm jest trudne, a skutki nie są zadowalające. Normy zwykle zaniedbują problem zaadaptowania odpowiedniej procedury agregacji. UŜycie metodologii wielokryterialnego wspomagania decyzji pozwala rozwiązać ten problem. Analizując dostępne metody oceny pakietów programowych za A. Gospodarowiczem (1997) moŜna wyróŜnić: - metody jednowymiarowe (rachunek porównawczy kosztów, kalkulacja rentowności, rachunek amortyzacji), - metody wielowymiarowe. Metody wielowymiarowe naleŜą do klasy metod wskaźnikowych o charakterze syntetyzującym. Wyniki otrzymywane są w drodze stopniowej agregacji zbiorów pojedynczych wskaźników aŜ do momentu uzyskania wartości zbiorczej stanowiącej syntetyczną ocenę badanego obiektu. Agregacja dokonywana jest z uŜyciem danych empirycznych i metod matematycznych (w tym statystycznych i ekonometrycznych), zaś wartość końcowa (zbiorcza ocena syntetyczna) wyznaczana jest jako liniowa kombinacja pojedynczych wartości: Y = ω1 X 1 + ω2 X 2 + ... + ω2 X 2 + ... + ωn X n gdzie: Y - ocena syntetyczna, Xi - wartość poszczególnego wskaźnika, wi - wagi przypisane poszczególnym wskaźnikom. A. Gospodarowicz (1997) podkreśla, Ŝe w zaleŜności od sposobu wyboru poszczególnych wskaźników i przypisanych im wag wyróŜnia się dwa rodzaje syntetycznych systemów wskaźnikowych: - niezwiązane z metodą (wybór najbardziej odpowiednich dla danej sytuacji wskaźników oraz ich wag odbywa się według subiektywnej wiedzy i preferencji badacza lub analityka), - związane z metodą (systemy projektuje się przy uŜyciu metod statystyczno-matematycznych i ekonometrycznych). Problem oceny i doboru składników infrastruktury informatycznej przedsiębiorstwa w metodach macierzowych przedstawiany jest w formie macierzy, której wiersze i kolumny stanowią kolejno zbiór obiektów podlegających ocenie oraz ich wartości ze względu na wszystkie rozpatrywane kryteria. (Tabela 1). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 7 Tabela 1. Przedstawienie problemu w metodach macierzowych Ki O1 O2 ... On K1 O11 O21 ... On1 K2 O21 O22 ... On2 ... ... ... ... ... Km Om1 Om2 ... Omn Źródło: opracowanie własne. gdzie: Ki - kryteria oceny (i=1,2,...,n), Oj - systemy informatyczne (j=1,2,...,m), Pij ocena przyporządkowana j-temu produktowi ze względu na i-te kryterium. Ocena łączna wyznaczana jest przez maksymalizację sumy wartości kryteriów obiektu: ∑p ij = max i bądź przez wyznaczenie minimalnego odchylenia od wartości poŜądanej: ∑p rj − pij = min i gdzie: prj - wartość stanu poŜądanego. Wprowadzenie pojęcia względnej waŜności kryteriów powoduje, Ŝe: pij = wj nij gdzie: pij - pojedyncza ocena produktu biorąc pod uwagę j-te kryterium, wj - waga określająca znaczenie j-tego kryterium, nij - liczba punktów przydzielonych dla i-tego produktu biorąc pod uwagę j-te kryterium. 3. Metoda hierarchicznej analizy problemu (AHP) Metodologia wielokryterialnego wspomagania decyzji ma wiele zalet, takich jak: moŜliwość obsługi niejednorodnych informacji w procesie agregacji czy uprawomocnienie jakościowego modelu na drodze porządkowej agregacji. [8] AHP to narzędzie, które słuŜy wspomaganiu decyzji, umoŜliwia połączenie jakościowych oraz ilościowych kryteriów w procesie decyzyjnym. Pozwala na hierarchiczne przedstawienie modelu, a dzięki temu moŜliwe jest wyraźne zaznaczenie w procesie decydowania relacji pomiędzy celem, kryteriami wyboru i alternatywami. Hierarchia słuŜy tworzeniu struktury pierwszeństwa związanego z określonym problemem decyzji. Hierarchiczna analiza problemu bazuje na trzech komponentach: problemie strukturalizacji (a w szczególności spójnej rodziny kryteriów zawierającej właściwą hierarchię zawierania), ustaleniu relatywnej waŜności kryteriów oraz syntezie. [9] 8 Ryszard Budziński, Monika Stolarska Aspekty metodyczne oceny witryn internetowych rozłoŜenie problemu decyzyjnego na elementy i określenie hierarchii kryteriów, które ułatwią ich rozwiązanie KROK 1 Budowa modelu porównania parami kryteriów oraz wariantów decyzyjnych, a następnie wystawienie oceny przy wykorzystaniu skali dominacji KROK 2 Porównania Określenie preferencji, priorytetów w odniesieniu do kryteriów i wariantów decyzyjnych. W tym celu wykonuje się przez obliczenia za pomocą oprogramowania AHP (Expert Choice) lub arkusza kalkulacyjnego (Excel) KROK 3 Określenie preferencji, priorytetów klasyfikacja wariantów decyzyjnych ze względu na udział w realizacji celu KROK 4 Klasyfikacja Rys.1. Realizacja metody AHP – kroki Źródło: opracowanie własne na podstawie: Downarowicz O., Krause J., Sikorski M., Stachowski W. “Zastosowanie metody AHP do oceny i sterowania poziomem bezpieczeństwa złoŜonego obiektu technicznego” Podstawowa procedura AHP składa się z porównania par czynników w komplecie wzajemnych macierzy kontrolowanych współczynnikiem niespójności. Wartości w macierzy ułoŜone są w taki sposób, aby jednoznacznie wskazywać, który element dominuje ze względu na dane kryterium nad innym. [10] Saaty uŜywa 9-stopniowej skali waŜności kryteriów. Nadanie kryteriom stopni waŜności umoŜliwia ich porównanie. Decydent subiektywnie ocenia dane kryteria za pomocą skali. Ocena kryteriów ma przede wszystkim charakter jakościowy. Dane stanowiące oceny cząstkowe poddaje się następnie agregacji zgodnie z hierarchiczną reprezentacją problemu. Wskaźniki syntetyczne stanowią wartości funkcji uŜyteczności kolejnych wariantów decyzyjnych i wyznaczane są przy uŜyciu formy addytywnej: n U ( A i ) = ∑ wij * eij j =1 gdzie: U(Ai) oznacza wartości funkcji uŜyteczności i-tego wariantu decyzyjnego, ei - wartość i-tej alternatywy ze względu na j-ty atrybut (kryterium), wj - waga j-tego kryterium. A. Gospodarowicz wskazuje, Ŝe wyniki liczbowe metody Saaty’ego zaleŜą w głównej mierze od niesprzeczności macierzy porównań waŜności kryteriów oraz ocen realizacji poszczególnych kryteriów przez porównywane produkty. Wynika to z faktu, iŜ decydent poddaje kryteria subiektywnej ocenie. Określa on liczbowo stopień istotności danego kryterium względem innego jedną z 9-ciu dostępnych ocen. Oceny te mogą być rozbieŜne i moŜe to prowadzić do konieczności ponownego zdefiniowania problemu oraz zmiany kryteriów oceny. W sytuacji gdy wskaźnik CR przekroczy wartość uznaną za potwierdzenie zgodności, wiarygodność decydenta poddana jest POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 9 w wątpliwość. [11] 4. Rozwiązanie własne - autokonwersja z metody punktowej do AHP W niniejszym opracowaniu podjęto próbę opracowania metodycznych mechanizmów konwersji not uzyskanych metodą punktową do postaci zgodnej z metodą AHP. Realizacja tego zadania wymaga w kolejności przeprowadzenia następujących etapów (rys. 2) Strukturalizacja problemu Pozyskanie ocen witryn internetowych – metoda punktowa Autokonwersja ocen do postaci znormalizowanych wektorów preferencji lokalnych Pozyskanie preferencji lokalnych i konstrukcja bazowej postaci wektora wag Agregacja i budowa rankingu uŜyteczności Badania modelowe odporności rankingu na zmiany w wektorze priorytetów Rys.2. Etapy autokonwersji z metody punktowej do AHP Źródło: opracowanie własne W pierwszym etapie naleŜy określić postać spójnej rodziny kryteriów oceny witryn internetowych jak równieŜ zbiór ocenianych witryn. Następstwem strukturalizacji problemu jest tabela (patrz przykład - Tabela 2), która w intuicyjny i prosty sposób moŜe zostać uzupełniona notami ekspertów (uŜytkowników serwisów). Tak zdefiniowany zbiór ocen cząstkowych stanowi podstawę do dalszej agregacji ocen. ZałoŜono, Ŝe w tym celu, w sposób zautomatyzowany, przebiegać będzie konwersja wyników do metody AHP. W pierwszym etapie odbywa się pozyskanie wartości względnych waŜności kryteriów oceny od decydenta. Na jej podstawie zaś odbywa się dalsza agregacja ocen i wyznaczenie końcowych wartości funkcji uŜyteczności witryn internetowych. W ostatnim etapie proponowanej procedury odbywa się analiza odporności tak wyznaczonego rankingu rozwiązań na zmiany w wektorze preferencji globalnych. 10 Ryszard Budziński, Monika Stolarska Aspekty metodyczne oceny witryn internetowych PoniŜej przedstawiono weryfikację empiryczną proponowanej procedury badawczej. Tabela 2 stanowi punkt wyjścia do budowy mechanizmu przejścia do zastosowania metodyki AHP w zakresie oceny jakości uŜytkowej witryn sklepów komputerowych. Do oceny witryn przyjęto 6 kryteriów: wizualizacja strony głównej, oferta asortymentowa, obsługa procesu usługowego, asortyment, ceny produktów, poprawność technologiczna. Tabela 2. Punktowe zasady oceny kryteriów do oceny serwisów internetowych Przejrzystość listy Obsługa procesu usługowego Asortyment – ilość produktów Ceny produktów (średnia) Poprawny html Poprawny css 0,75 1 1 1 1 0,25 0,75 0,5 0,75 1 0,75 1 0,75 1 0,75 0,5 0,5 0,75 1 0,75 0,5 0,5 0,25 0,75 0,5 1 1 1 1 0,75 1 0,5 1 0,25 0,5 0,5 0,25 1 1 0,25 0,5 0,75 0,5 0,25 1 0 0,25 1 0,75 0,2 5 0 0,5 1 0,7 5 Pozycja w wynikach google Jakość zdjęć produktów 1 Ilość informacji o produkcie Narzędzia marketingu 2It.pl 1Klik.pl Sklepkomputerowy24.pl Market.pl Poprawność technologiczna strony Przejrzystość menu Komputronik.pl Oferta asortymentowa Jakość grafiki Wizualizacja strony 0,75 0,5 1 0,75 0,75 Źródło: opracowanie własne na podst. A. Szewczyk, E. Krok (red). „Fenomen Internetu” tom II, hogben, Szczecin 2008, s.341-343 gdzie: 0 – brak cechy, 0,25 – niski poziom cechy, 0,5 – średni poziom cechy, 0,75 – wysoki poziom cechy, 1 – bardzo wysoki poziom cechy. Zgodnie z załoŜeniami metody AHP porównanie parami witryn komputerowych wymaga określenia w jakim stopniu dana witryna dominuje nad inną. Tabela 3. Macierz waŜności kryteriów K1 K2 K3 K4 K5 K6 K1 1,00 5,00 3,00 1,00 3,00 0,33 K2 0,20 1,00 1,00 1,00 1,00 0,33 K3 0,33 1,00 1,00 1,00 1,00 1,00 K4 1,00 1,00 1,00 1,00 1,00 0,20 K5 0,33 1,00 1,00 1,00 1,00 0,33 K6 3,00 3,00 1,00 5,00 3,00 1,00 SUMA 13,33 4,53 5,33 5,20 4,67 16,00 Źródło: opracowanie własne 11 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 Tabela 4. Wagi kryteriów K1 K2 K3 K4 K5 K6 K1 0,08 0,38 0,23 0,08 0,23 0,03 K2 0,04 0,22 0,22 0,22 0,22 0,07 K3 0,06 0,19 0,19 0,19 0,19 0,19 K4 0,19 0,19 0,19 0,19 0,19 0,04 K5 0,07 0,21 0,21 0,21 0,21 0,07 K6 0,19 0,19 0,06 0,31 0,19 0,06 WAGA 0,1055 0,2295 0,1837 0,2004 0,2045 0,0764 Źródło: opracowanie własne Wskaźnik zgodności dla powyŜej zamieszczonej macierzy wynosi 0,0982317 i jest mniejszy od wartości granicznej (0,1). Oznacza to, Ŝe zachowana została spójność ocen. Tabela 5. Wartości wektorów preferencji lokalnych i globalnych oraz funkcji uŜyteczności dla rankingu witryn internetowych WAGA komputronik.pl 2It.pl 1Klik.pl sklepkomputerowy24.pl eMarket.pl K1 0,1055 0,2682 0,2651 0,2089 0,1569 0,1009 K2 0,2295 0,3259 0,1376 0,1758 0,1654 0,1953 K3 0,1837 0,4651 0,1069 0,0761 0,2809 0,0709 K4 0,2004 0,1617 0,3597 0,3597 0,0400 0,0788 K5 0,2045 0,1053 0,2454 0,1053 0,0469 0,4971 K6 0,0764 0,1495 0,0435 0,2382 0,3779 0,1908 F.u. 0,2539 0,2048 0,1882 0,1526 0,2005 Źródło: opracowanie własne 1 0,50 0,40 0,30 6 2 0,20 0,10 0,00 5 3 4 komputronik.pl 2It.pl 1Klik.pl sklepkomputerowy24.pl Wykres 1. Rozkład uŜyteczności cząstkowej Źródło: opracowanie własne. NajwyŜszą wartość funkcji uŜyteczności uzyskała witryna komputronik.pl, najniŜszą sklepkomputerowy24.pl. 12 Ryszard Budziński, Monika Stolarska Aspekty metodyczne oceny witryn internetowych 5. Badania eksperymentalne – zmiany uŜyteczności cząstkowej kryteriów globalnych Zgodnie z przyjętą procedurą badawczą w kolejnym etapie badań zanalizowano wpływ zmiany wartości wektorów priorytetów dla podkryteriów II-go poziomu na postać końcową wynikowego rankingu witryn internetowych. Pierwszy etap modelowania obejmować będzie zmiany wartości uŜyteczności cząstkowej kryteriów lokalnych i ich wpływ na pierwotnie otrzymany ranking systemów. Dla kaŜdego z kryteriów globalnych (K1, K2, K6) obserwowane będą zmiany w przypadku, gdy jedno z podkryteriów drugiego poziomu będzie silnie dominować pozostałe. Wyniki przedstawione zostaną w formie wykresów zawartych w tabeli 6. Tabela 6. Etapy modelowania systemów ekonomicznych – zmiany wartości uŜyteczności cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu Podkryterium 1 K1 Podkryterium 2 Podkryterium 3 1 1 1 0,50 0,60 0,50 0,40 0,40 0,30 0,40 6 6 0,30 2 6 2 0,20 2 0,20 0,20 0,10 0,10 0,00 0,00 0,00 5 5 3 5 3 3 4 4 4 K2 1 1 1 0,50 6 0,50 0,50 0,40 0,40 0,40 0,30 0,30 6 0,30 2 6 0,20 2 2 0,20 0,20 0,10 0,10 0,10 0,00 0,00 0,00 5 5 3 5 3 3 4 4 K6 4 1 1 1 0,50 0,50 0,50 0,40 0,40 0,40 0,30 0,30 6 2 6 2 0,20 0,20 0,30 6 0,10 0,10 0,00 0,00 5 3 4 2 0,20 0,10 0,00 5 3 4 5 3 4 13 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 Jak moŜna zauwaŜyć w powyŜszej tabeli zmiany wartości uŜyteczności cząstkowej w drugim etapie modelowania nie spowodowały rewizji postaci końcowych rankingów witryn internetowych. Wskazuje to, Ŝe są odporne na zmiany waŜności kryteriów wskazanych przez decydenta. Tabela 7. Rankingi funkcji uŜyteczności witryn internetowych przy zmianie wag Komputronik.pl 2It.pl 1Klik.pl Sklepkomputerowy24.pl Market.pl F.u.(1) F.u.(2) F.u.(3) F.u.(4) F.u.(5) F.u.(6) F.u.(7) F.u.(8) F.u.(9) 0,2538 0,2488 0,2591 0,2801 0,2346 0,2470 0,254 7 0,2497 0,2547 0,2004 0,2187 0,1953 0,1998 0,2143 0,2002 0,205 8 0,2043 0,2058 0,1798 0,1872 0,1976 0,1685 0,1919 0,2042 0,198 6 0,1867 0,1986 0,1604 0,1467 0,1507 0,1648 0,1579 0,1351 0,141 8 0,1587 0,1418 0,2056 0,1986 0,1974 0,1868 0,2013 0,2136 0,199 2 0,2006 0,1992 Źródło: opracowanie własne 6. Uwagi końcowe Ocena witryn internetowych branŜy komputerowej przy wykorzystaniu metody AHP daje czytelną dla informację dla decydenta w jakim stopniu spełniają określone przez niego kryteria. Przedstawione w niniejszym artykule metodyczne podstawy konwersji z metody punktowej do AHP umoŜliwiły porównanie wyników uzyskanych w obu metodach. Zmiany uŜyteczności cząstkowej nie wpłynęły w znaczący sposób na wyniki, jakie osiągnęły podczas porównywania parami strony WWW. Zastosowanie metody AHP do oceny witryn dało zbliŜone wyniki do metody punktowej. W obu wypadkach najlepsze wyniki uzyskała witryna komputronik.pl. W metodzie punktowej najmniej punktów uzyskał 2It.pl, w metodzie AHP najniŜszą wartość funkcji uŜyteczności uzyskał sklepkomputerowy24.pl, co pozwala wysnuć wniosek o jedynie częściowej porównywalności obu metod. W konkluzjach badawczych warto zaznaczyć, Ŝe proponowana procedura posiada wysokie walory utylitarne. Prosty mechanizm pozyskiwania ocen eksperckich w połączeniu z moŜliwością modelowania preferencji i analizy wraŜliwości rozwiązań stanowią o tym, Ŝe wynikowe rankingi są dobrze umocowane, w przeciwieństwie do prostych średnich waŜonych 7. Literatura 1. 2. 3. Król K., Gola P.: Jakość witryn internetowych małopolskich gospodarstw agroturystycznych [dostęp: 2008]. Król K.: Techniczno merytoryczny stan internetowych witryn gospodarstw agroturystycznych [dostęp: 2008]. Dobrogowska – Schlebusch E.: Ocena jakości informacji medycznej dostępnej w Internecie – jako zadanie dla bibliotek w: Biuletyn EBIB [Dokument elektroniczny] nr 3/2007 (84) kwiecień. - Czasopismo elektroniczne. - [Warszawa]: Stowarzyszenie Bibliotekarzy Polskich KWE, 2007. 14 Ryszard Budziński, Monika Stolarska Aspekty metodyczne oceny witryn internetowych 4. Bański J.: Witryny internetowe jednostek samorządowych z siedzibą w małych miastach – analiza i ocena [dostęp: 2008]. 5. Szewczyk A., Krok E. (red).: Fenomen Internetu tom II, Wydawnictwo hogben, Szczecin 2008, s.341-345. 6. Kobyliński A.: ISO/IEC 9126 – Analiza modelu jakości produktów programowych w: Systemy Wspomagania Organizacji 2003, red. T. Porębska-Miąc, H. Sroka, Prace Naukowe AE w Katowicach, Katowice 2003. 7. Gospodarowicz A. (red.): Metody analizy i oceny pakietów programowych, Wydawnictwo Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, Wrocław 1997, s.49-55. 8. Blin M.-J., Tsoukias A.: Multicriteria Methodology Contribution to Software Quality Evaluations, Springer Netherlands, Software Quality Journal, volume 9, number 2, June 2001. 9. Mamaghani F.: Methodology to select security software, Information Management & Computer Security, volume: 10, issue: 1, 2002. 10. [4]. 11. [2] s.96. METHODICALASPECTS OF THE WEBSITES EVALUATION Summary The aim of this study is functional quality evaluation for selected websites. Methodical aspect of study is propose a new procedure of quality evaluation using utility function. MCDA (AHP) model as a theoretical fundament of the own procedure was presented. Keywords: AHP, evaluation for selected websites Ryszard Budziński Monika Stolarska Instytut Systemów Informatycznych Politechnika Szczecińska Szczecin, ul. śołnierska 49 e-mail: [email protected] http://www.wi.ps.pl e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 15 WITOLD CHMIELARZ Uniwersytet Warszawski PROBLEMY OCENY WITRYN BANKOWOŚCI ELEKTRONICZNEJ DLA KLIENTA INDYWIDUALNEGO WYBRANYCH BANKÓW W POLSCE Streszczenie Podstawowym celem artykułu jest przedstawienie problemów zastosowania róŜnych metod oceny witryn internetowych. Przykładem stały się tu serwisy bankowości elektronicznej dla klienteli indywidualnej. Po wprowadzeniu przedstawiającym aspekty oceny za pomocą metod tradycyjnych prezentowana jest nowa metodyka pomiaru oraz jej zastosowanie w analizowanym przypadku. W zakończeniu prezentowane są wnioski z pierwszych badań nad jej zastosowaniem. Słowa kluczowe: metody oceny przedsięwzięć innowacyjnych, bankowość elektroniczna, porównanie metod 1. Wprowadzenie Zasadniczym celem niniejszego artykułu jest analiza problemów oceny serwisów internetowych w zakresie bankowości elektronicznej w wybranych bankach działających na terenie Polski na początku 2008 r. Stanowi on kontynuację i jednocześnie rozszerzenie poprzednich badań związanych z porównaniem i oceną systemów informatycznych wprowadzanych do organizacji, a w szczególności do instytucji bankowych. Prezentowane rozwaŜania są następstwem drugiej serii – w stosunku do zeszłorocznych [6] - analiz dotyczących oceny bankowości internetowej, w których starano się wyeliminować występujące wcześniej niedogodności metodyczne oraz problemy związane z uzyskaniem racjonalnej oceny eksperckiej. W pewnym sensie jest to równieŜ przedłuŜenie badań dotyczących transformacji zastosowań systemów informatycznych bankowości, prowadzonych przez autora od 1999 r [3]. Drugą serię ostatnich badań [2] rozpoczęto od prezentacji zastosowań metod tradycyjnych punktowej, wraz z róŜnymi jej odmianami (z ekspercką skalą preferencji). Stosowane metody pozwoliły na wskazanie – najlepszych w danym momencie – serwisów bankowych dla klienta indywidualnego. Ostatnią, trzecią serię, do której zalicza się równieŜ obecna praca - zainicjowały badania mające usprawnić metodyki oceny witryn internetowych. Dlatego początkowo odniesiono je do ograniczonej ilości banków oferujących usługi dla klienta indywidualnego były brane pod uwagę tylko banki internetowe. Obecny etap tej serii polega na rozszerzeniu ich na większą ilość banków. Na podstawie danych uzyskanych ze Związku Banków Polskich, tworząc prostą prognozę uwzględniającą preferencji trendów najnowszych okresów moŜna szacować, Ŝe w Polsce na koniec 2008 roku liczba rachunków osobistych obsługiwanych przez Internet osiągnie ponad 12 mln, a w 2009 r. przekroczy 13 mln. (patrz: Rys.1). Nawet jeśli przyjąć, Ŝe liczba aktywnych uŜytkowników jest około 2 mln mniejsza [5], to i tak wynika z tego, Ŝe w Polsce ponad 45% właścicieli rachunków osobistych korzysta z kanału internetowego. 16 Witold Chmielarz Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych banków w Polsce 14 000 000 13 294 986 12 012 812 12 000 000 10 614 551 10 000 000 8 573 681 8 000 000 6 634 521 6 000 000 5 049 578 4 000 000 2 901 342 2 000 000 1 260 000 565 000 0 2001 г. 2002 г. 2003 г. 2004 г. 2005 г. 2006 г. 2007 г. 2008 г. 2009 г. Rys.1. Ilość uŜytkowników z internetowym dostępem do konta (2008, 2009 r. – prognoza z preferencjami ostatnich okresów) Publikowane są dane mówiące o tym, Ŝe ponad 90% klientów banków komercyjnych ma potencjalną moŜliwość korzystania z tych łączy. Szacuje się, Ŝe sześć banków o największej ilości dostępu do kont internetowych juŜ w chwili obecnej ma 6,5 mln aktywnych uŜytkowników kont internetowych (na 14,5, mln posiadanych przez nie kont osobistych). Gdyby nie obawy klientów przed włamaniem na konto (47%), przejęciem hasła i loginu (14%), fałszywymi stronami banku (6%), wirusami (3%), podglądaniem transakcji (3%) i innymi zagroŜeniami [4] oraz kłopotami z obsługą zabezpieczeń im przeciwdziałających - ilość klientów indywidualnych usług elektronicznych rosłaby w jeszcze większym tempie Bankowość elektroniczna, która jest nowoczesną, bezkontaktową formą realizacji usług bankowych umoŜliwiającą korzystanie z nich bez konieczności odwiedzania banku, staje się bardzo waŜną gałęzią w obsłudze klientów instytucjonalnych i indywidualnych Ze względu na formę organizacyjną teoretycznie moŜna ją podzielić na: • oddział elektroniczny - dostęp do konta elektronicznego - klient chcący skorzystać z dostępu do konta przez Internet zakłada nowy rachunek, nawet kiedy posiada juŜ w banku tradycyjne konto, • konto elektroniczne - klient nie musi otwierać nowego konta, a otrzymuje dodatkowy elektroniczny kanał dostępu do swojego konta tradycyjnego wraz z innymi oferowanymi usługami, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 • 17 bank wirtualny – oferujący tylko konta z dostępem przez sieć, nie posiadający własnych placówek - klient ma dostęp do swojego konta jedynie przez elektroniczne kanały dostępu, kontakt z bankiem moŜe być oprócz tego uzyskany przez telefon, e-mail lub pocztą. 2. ZałoŜenia stosowanej metody badawczej Podstawą powziętych badań był etap przygotowawczy polegający na zebraniu i ukonstytuowaniu oceniającego zespołu eksperckiego. Tym razem byli to specjaliści z zakresu bankowości elektronicznej z wiodących uczelni na terenie kraju, mający na koncie badania w tej dziedzinie. Następnie wyodrębniony zespół dokonywał wyboru kryteriów oceny bankowych usług elektronicznych. Na ogół w podobnych badaniach stosowano kryteria funkcjonalne, techniczne, ekonomiczne, organizacyjne oraz psychologiczne. Z wcześniejszych badań wynikało, Ŝe w chwili obecnej kryteria psychologiczne i w duŜej mierze organizacyjne dla elektronicznych bankowych usług przeznaczonych dla klientów indywidualnych kształtują się w bardzo podobny sposób. Podobnie – jak się wydaje – przedstawia się sprawa wizualizacji i poruszania się po wyróŜnionych dla tego badania witrynach bankowych. Dlatego pod uwagę wzięto głównie kryteria ekonomiczne i funkcjonalne, dołączając wzorem analiz serwisów internetowych podstawowe kryteria technologiczne, poza cechami charakterystycznymi serwisów. W badaniu wyróŜniono więc kryteria następujące: - ekonomiczne - oprocentowanie nominalne roczne, prowadzenie rachunku mies./zł, prowizja za dostęp do kanałów elektronicznych (w tym token, jak jest), opłata za przelew do banku macierzystego, opłata za przelew do innego banku, procent za depozyty - lokata 10 tys., opłata za wydanie karty, opłata za obsługę karty - mies./zł, - funkcjonalne – ze względu na duŜe podobieństwo usług podstawowych wyróŜniono jedynie ponadstandardowe usługi dodatkowe typu: ubezpieczenia, fundusze inwestycyjne, przelew za granicę, czy rachunek walutowy, - technologiczne - liczba bezprowizyjnych bankomatów, kanały dostępu do konta (placówki, Internet, Call Center, telefon komórkowy), zabezpieczenia (identyfikator i hasło, token, protokół SSL, lista haseł jednorazowych, lista kodów jednorazowych). W pierwszym kroku stosowano tradycyjną metodę punktową wraz z jej mutacjami i zakładaną skalą preferencji. W metodzie punktowej zbierano informacje o wyróŜnionych kryteriach; przypisywano im wartości wg załoŜonej skali wartości oraz analizowano wyniki w tabeli zbiorczej. Przyjęto następującą skalę wartości ocen: - 1,00 – bardzo dobra (pełne spełnienie kryterium, najniŜsze koszty); - 0,75 – dobra (prawie doskonałe spełnienie kryterium, nieco wyŜsze koszty); - 0,50 – średnia (połowiczne spełnienie kryterium, średnie koszty); - 0,25 – dostateczna - zadowalające spełnienie kryterium, wysokie koszty; - 0,00 – niedostateczna - brak cechy, najwyŜsze koszty. Metodę punktową wykorzystywano w dwóch odmianach: prostej – gdzie kryteria były traktowane równowaŜnie oraz ze skalą preferencji – gdzie grupom kryteriów przypisywano wartości współczynników róŜnicujące ich traktowanie przez klienta (suma współczynników = 1). 18 Witold Chmielarz Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych banków w Polsce W prostej metodzie punktowej mierzy się odległość od maksymalnie moŜliwej do uzyskania (wg zakładanej skali wartości). Dotyczy ona wartości miary kryterium i w sensie odległości jest taka sama, kiedy mierzymy odległości kryterium pierwszego od drugiego, jak i na odwrót. Nie określa się natomiast relacji pomiędzy poszczególnymi kryteriami. Za taką miarę moŜna uwaŜać przydanie poszczególnym kryteriom (lub ich grupom) skali preferencji. Liniowa skala preferencji w postaci znormalizowanej określa z kolei udział poszczególnych kryteriów w ostatecznym wyniku. Wyznacza więc jednorazową relację pomiędzy kryteriami w odniesieniu do całości oceny, jest równieŜ jakby „uśrednioną” miarą dla kryteriów w poszczególnych przypadkach, nie indywidualizując oceny dla kaŜdego z nich. Ale teŜ nie określa o ile kaŜde z kryteriów jest lepsze/gorsze od innego. Jest tylko pochodną od znormalizowanej odległości. Ta powszechnie dziś – w róŜnych odmianach - stosowana metodyka [9] posiada niestety pewne wady, takie jak: subiektywizm ocen eksperckich, nieadekwatność wyznaczonych kryteriów do oceny sytuacji występują teŜ problemy ze sprowadzeniem ocen róŜnych kryteriów do porównywalności. Systematyka taka rodzi teŜ problemy związane z wątpliwościami dotyczącymi potrzeby zbiorczych porównań róŜnych kategorii usług bankowych (np. karty, usługi internetowe, usługi okienkowe itp.) w róŜnych formach bankowości elektronicznej (elektroniczny dostęp do konta tradycyjnego, oddział elektroniczny, bank wirtualny); czy teŜ skali punktacji i jej przeliczania z wartości pienięŜnych na umowne (punktowe lub procentowe). Subiektywizm oceny moŜna ograniczyć poprzez zaangaŜowanie grupy ekspertów i wyciągnięcie średniej lub dominanty z ich szacunków. Uśrednienie nie likwiduje, co prawda subiektywizmu, ale moŜe go przynajmniej zmniejszyć. Grupa ekspertów moŜe teŜ wyznaczyć zbiór kryteriów oceny, eliminując lub przynajmniej ograniczając ich brak odpowiedniości do sytuacji, jak równieŜ wyznaczyć algorytm przeliczenia wskaźników wartościowych na ilościowe. Podstawową zaletą tej grupy metod jest moŜliwość przedstawienia zbiorczego wyniku oceny za pomocą jednego wskaźnika dla kaŜdego banku, który jest porównywalna z wynikiem opisującym inne banki i to porównanie umoŜliwia. W ten sposób niejako udziela jednoznacznej odpowiedzi na pytanie, który z danych banków jest dla określonej kategorii klienta najlepszy, nie wdając się w dywagacje dotyczące rankingowania poszczególnych rodzajów usług bankowych. Nie zmusza teŜ – dla porównań – do budowania złudnego w gruncie rzeczy i podwaŜanego przez klientów - przeciętnego koszyka usług bankowych wycenianego wartościowo. Do oceny kryteriów kosztowych, funkcjonalnych, technologicznych oraz pozostałych posłuŜyła tabela wyjściowa, w której przedstawiono oferty banków dotyczące usług bankowości elektronicznej i opłat związanych z korzystaniem z kont bankowych, którymi moŜemy zarządzać przez Internet, utworzona na podstawie danych uzyskanych ze stron internetowych poszczególnych banków. Na jej podstawie stworzono uproszoną i uśrednioną tabelę zbiorczą ocen kryteriów generowanych przez ekspertów. Dane do tabeli uzyskano analizując od lutego do marca 2008 r. serwisy internetowe wybranych, najpopularniejszych wśród klientów szesnastu banków z elektronicznych dostępem do konta (w tym cztery banki internetowe), w razie potrzeby wspomagając się informacją z infolinii lub innych źródeł internetowych. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 19 3. Wykorzystanie metody punktowej dla analiz usług bankowości elektronicznej dla klientów indywidualnych Podstawą dla zastosowanej metody konwersji były dane zgromadzone w metodzie punktowej. Proste zsumowanie punktów uzyskanych z tabeli wyjściowej przedstawia określony ranking usług bankowości elektronicznej dla poszczególnych banków. Na pierwszej pozycji znalazł się w tym rankingu mBank (73,96% poziomu usług maksymalnych, wobec 68,42% w roku 2007), następnie Lucas Bank (76,04% dzięki bardzo dobrze zorganizowanej obsłudze klienckiej), a na następnych pozycjach dwa banki internetowe Toyota Bank (73,96% maksymalnej moŜliwej ilości punktów wobec 77,63% w roku ubiegłym – niekwestionowany lider roku ubiegłego) oraz Volkswagen Bank z usługą e-direct (72,92%). Dopiero na następnej pozycji znalazło się Inteligo PKO BP, płacące cenę za nieelastyczną politykę (zwłaszcza cenową swojego właściciela). Rozpiętość w ocenach najlepszej trójki sprowadza się do blisko 9 punktów procentowych (wobec 2,25 punktu w roku ubiegłym), co świadczy o rosnącym zróŜnicowaniu ocen – tym razem do oceny uchwycono banki w momencie zmian wzajemnych relacji w stosunku do indywidualnych klientów. Tym niemniej, pomimo 24 punktów rozpiętości oceny najlepszej i najgorszej, widać, Ŝe banki nawzajem pilnie się obserwują i wyciągają szybko wnioski z niepowodzeń i sukcesów innych. W większości nie ma Ŝadnych obowiązkowych wpłat miesięcznych, albo są one celowo minimalizowane (co nie do końca oddaje skala punktowa), przelewy do banku są na ogół bezpłatne, a poziom zabezpieczeń moŜe być uznany za wystarczający dla klientów (2-4 rodzajów zabezpieczeń). Pozostałe elementy są podstawą niejako przetargu konkurencyjnego na rynku, ustalając cienką linię równowagi pomiędzy chęcią uzyskania przewagi konkurencyjnej, a zyskiem banku (w Polsce niestety nadal z przewagą tego ostatniego). W szczególności zaczyna to dotyczyć kwestii wizualizacyjnych (tradycja a nowe mody i trendy w tym zakresie) oraz funkcjonalnych usług dodatkowych (ubezpieczenia, fundusze inwestycyjne, przelewy za granicę, rachunek walutowy, karta wirtualna itp.). Najgorzej w tej klasyfikacji wypadły: ING - konto direct 57,29%, Millenium – konto osobiste – 58,33% oraz Nordea Bank – konto Nordea Spectrum – 59,38%. Oprócz Millenium, którego słaba pozycja zaskakuje (klienci podkreślają słabą nawigację na stronie), są to przewaŜnie nowi partnerzy na rynku, którzy swój brak doświadczenia w prowadzeniu indywidualnych usług elektronicznych nadrabiają dobrymi pociągnięciami w zakresie kryteriów ekonomicznych (np. oprocentowanie depozytów). 20 Witold Chmielarz Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych banków w Polsce Wyniki rankingu przedstawiono na Rys.2. mBank (ekonto) 81% Lukas (e-KONTO) 76% 74% Toyota Bank (konto osobiste) 73% VWBank (e-direct) pakiet standard PolBank EFG Rachunek Gotówkowy 71% PKO BP - iPKO 70% PKO BP Konto Inteligo 69% Dominet Bank Konto Komfort 69% BGś Plan Gotówkowy 67% BZ WBK Konto 24.pl 65% Getin Bank Konto Internetowe 61% 61% Citibank (Konto osobiste CityOne Direct) MultiBank (Multikonto Ja) 60% Nordea Bank Konto Nordea Spectrum 59% 58% Millenium (Konto osobiste) 57% ING (direct) 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% Rys.2. Ranking uŜyteczności elektronicznego dostępu do kont indywidualnych Z przedstawionego zestawienia wynika teŜ, Ŝe dwie usługi: opłata za wydanie karty i opłata za przelew do banku macierzystego osiągnęły poziom, który w chwili obecnej jest w stanie zadowolić klienta w ponad 90%. Bezapelacyjnie najgorszym wskaźnikiem jest oprocentowanie nominalne roczne (oceniane w większości przez uŜytkowników jako zbyt niskie – 31,8% maksymalnych moŜliwości). Niewiele ponad 50% ocen maksymalnych przekraczają teŜ wskaźniki opłat za przelew do innego banku i usług dodatkowych. Z czynników niewymienionych w kryteriach klienci zwracali uwagę na brak moŜliwości dokonania przelewu za granicę oraz brak moŜliwości całkowicie automatycznego – przez Internet - uzyskania kredytu Jak napisano wcześniej pierwszą metodą ograniczającą swoisty subiektywizm ocen grupy ekspertów jest zastosowanie jednostkowych preferencji co do poszczególnych kryteriów, bądź grup kryteriów. Przeprowadzono cztery eksperymenty przypisując preferencje do wariantów: - ekonomicznego (60%), pozostałe po 20%; - technologicznego (60%), pozostałe po 20%; - funkcjonalnego (60%), pozostałe po 20%; - pozaekonomiczne – po 45%, ekonomiczne 10%. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 21 mBank (ekonto) Lukas (e-KONTO) Toyota Bank (konto osobiste) VWBank (e-direct) pakiet standard PolBank EFG Rachunek Gotówkowy Inteligo - PKO BP PKO BP – iPKO Punktowa z preferencjami funkcjonalnymi Dominet Bank Konto Komfort BGś Plan Gotówkowy Punktowa z preferencjami technologicznymi Punktowa z preferencjami pozaekonomicznymi Punktowa z preferencjami ekonomicznymi BZ WBK Konto 24.pl Getin Bank Konto Internetowe Citibank (Konto CityOne Direct) MultiBank (Multikonto Ja) Nordea Bank Konto Nordea Spectrum Millenium (Konto osobiste) ING -direct 0,0000 0,0100 0,0200 0,0300 0,0400 0,0500 0,0600 0,0700 0,0800 0,0900 Rys.3. Ranking oceny punktowej wg róŜnych rodzajów preferencji dla wybranych banków W kaŜdym z przypadków niezagroŜoną, pierwszą pozycję ma mBank. W miarę zmniejszania się wpływu czynników ekonomicznych dobre pozycje Inteligo i Toyota Bank przechodzą na konta indywidualne BZ WBK oraz iKonto PKO BP. Dobrze zrównowaŜone czynniki oceny posiada Lukas Bank w dwóch na cztery przypadki przesuwający się w tych rankingach na drugie miejsce. Na pozycjach ostatnich kolejność specjalnie się nie zmienia – oprócz uprzednio wymienionych: Millenium i ING, jest to Getin Bank, przy dominacji czynników ekonomicznych zamieniający się z Dominet Bankiem. Przedstawione wyniki – otrzymane przy pomocy tradycyjnej metody punktowej i metody punktowej z róŜną skalą preferencji nie wyczerpują moŜliwości oceny witryn internetowych. Prowadzone od ubiegłego roku badania szczegółowe pokazują, Ŝe metody eliminujące wskaźniki subiektywne pokazują nieco inne rezultaty niŜ przedstawione w powyŜszym badaniu. 4. Wykorzystanie metody konwersji dla analiz usług bankowości elektronicznej dla klientów indywidualnych ZałoŜenia metody konwersji były następujące: po zbudowaniu przez ekspertów tabeli ocen poszczególnych kryteriów dla kaŜdego z banków - konwersję naleŜy rozpocząć od ustalenia wektora preferencji kryteriów poziomu nadrzędnego. Proponuje się następujące przekształcenie zbiorczej tabeli wynikowej na wektor preferencji (pierwszy konwerter): 22 - - Witold Chmielarz Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych banków w Polsce utworzenie macierzy odległości od wartości maksymalnej dla kaŜdego kryterium, w kaŜdym serwisie, obliczenie średniej odległości od wartości maksymalnej, dla kaŜdego kryterium, stworzenie macierzy róŜnic pomiędzy odległością od wartości maksymalnej, a odległością średnią wg kryteriów, dla kaŜdego serwisu banku budowa macierzy konwersji (4) – modułów odległości względnych poszczególnych kryteriów od pozostałych kryteriów (odległość od tego samego kryterium wynosi 0), poniŜej przekątnej uzyskane odległości są odwrotnością odległości powyŜej przekątnej, uśrednienie macierzy konwersji kryteriów – stworzenie jednej macierzy średnich modułów wartości dla wszystkich kryteriów, przekształcenie macierzy konwersji kryteriów w nadrzędną macierz preferencji (obliczenie kwadratu macierzy, sumowanie po wierszach, standaryzacja uzyskanego wektora preferencji; ponowne podniesienie do kwadratu, sumowanie po wierszach, standaryzacja wektora preferencji – powtarzanie tej iteracji dopóki róŜnice w kolejnych wektorach preferencji będą minimalne). Następnie dokonywano przekształcenia wyników podanych przez ekspertów na poziomie macierzy określających oceny eksperckie kolejnych serwisów dla poszczególnych kryteriów (drugi konwerter). Wyniki otrzymano w analogiczny sposób: - stworzenie macierzy odległości od wartości maksymalnej dla kaŜdego kryterium i kaŜdej witryny, - obliczenie średniej odległości od wartości maksymalnej, dla kaŜdego serwisu, - stworzenie macierzy róŜnic odchyleń od wartości maksymalnej i średniej odległości cech od maksymalnej, - dla kaŜdego kryterium skonstruowanie macierzy (12) przekształceń (konwersji) róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami, analogicznie jw. (odległość dla danej cechy w tym samym serwisie od tego samego serwisu wynosi 0), wartości poniŜej przekątnej są odwrotnościami tych, które są powyŜej przekątnej, - budowa macierzy modułów przekształceń róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami, dla kaŜdego kryterium, - dla kaŜdej macierzy modułów przekształceń róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami podniesienie jej do kwadratu, podsumowanie wierszy, standaryzacja uzyskanego wektora rankingu oraz powtarzanie tej czynności dopóki róŜnice uzyskane pomiędzy dwoma wektorami rankingowymi dla danego kryterium będą minimalne, - skonstruowanie z tak uzyskanych wektorów zbiorczej macierzy rankingowej – powrót do macierzy gdzie w boczku są nazwy kryteriów, w główce nazwy serwisów bankowych przez odpowiednie przeniesienie do niej uzyskanych wektorów preferencji dla kaŜdego kryterium, - przemnoŜenie tak uzyskanej macierzy przez obliczony uprzednio wektor preferencji, - analizowanie wyników ostatecznych i wyciągnięcie wniosków (uwaga: najniŜsze odległości są w tym przypadku najkorzystniejsze, sprowadzenie do porównywalności z pozostałymi metodami moŜemy uzyskać przez odjęcie tych wartości od 1 i ich ponowną standaryzacji). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 23 Metoda konwersji – jako oparta na uśrednionych odległościach od przeciętnych - spłaszczyła uzyskane wyniki. Tym niemniej występuje w niej większa zgodność z wynikami uzyskanymi metodą punktową niŜ w metodzie AHP. mBank (ekonto) Lukas (e-KONTO) Toyota Bank (konto osobiste) VWBank (e-direct) pakiet standard PolBank EFG Rachunek Gotówkowy Inteligo - PKO BP PKO BP – iPKO Dominet Bank Konto Komfort BGś Plan Gotówkowy Punktowa z preferencjami z metody konwersji Metoda konwersji BZ WBK Konto 24.pl Getin Bank Konto Internetowe Citibank (Konto CityOne Direct) MultiBank (Multikonto Ja) Nordea Bank Konto Nordea Spectrum Millenium (Konto osobiste) ING -direct 0,0000 0,0100 0,0200 0,0300 0,0400 0,0500 0,0600 0,0700 0,0800 0,0900 Rys. 4. Ranking oceny elektronicznego dostępu do kont indywidualnych w wybranych bankach Z trzech pierwszych pozycji – mBank (1) oraz Toyota Bank (3), zgadzają się z wynikami metody punktowej. Podobna zaleŜność występuje w obsłudze kont indywidualnych banków najgorszych. Zdecydowane zróŜnicowanie wyników w porównaniu z metodą punktową nastąpiło natomiast po przemnoŜeniu wyników metody punktowej przez wektor preferencji metody konwersji. Tu na pierwszej pozycji znalazły się Toyota Bank i Lukas Bank, a na najgorszych MultiBank i CityBank. Podobna zaleŜność wystąpiła w metodzie punktowej z preferencjami pozaekonomicznymi. Wyniki dla metody konwersji oraz metody punktowej przemnoŜonej przez wektor preferencji metody konwersji przedstawiono na Rys. 4. 6. Wnioski PowyŜej przedstawiono dwie z trzech zastosowanych metod oceny przedsięwzięć informatycznych: metodę punktową (zwaną czasem wielokryterialną metodą punktową) oraz własną metodę konwersji, opartą na pomiarze średnich odległości uzyskanych z metody punktowej. Ze względu na szczupłość miejsca nie ukazano wyników metodą AHP (Analytic Hierarchy Process – T.L. Saaty.). Zaś metoda konwersji powstała jako kompromis pomiędzy 24 Witold Chmielarz Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych banków w Polsce metodą AHP, a metodą punktową i zdaje się uwzględniać odpowiedzi na wszelkie postulaty zgłaszane dla udoskonalenia metody punktowej (przede wszystkim ogranicza subiektywizm ocen ekspertów). Jednocześnie w pracy przedstawiono wstępne metody przeciwdziałania subiektywizmowi ocen: - zgromadzenie zespołu ekspertów, którego średnie oceny brane są pod uwagę w szacowaniu pomiaru, - określenie przez ten zespół róŜnych (technicznej, funkcjonalnej, ekonomicznej i pozaekonomicznej) skal preferencji uŜytkownika oraz analiza skutków przyjęcia takich załoŜeń, - zastosowania skali preferencji innych metod (tu metody AHP oraz metody konwersji). Pomimo, Ŝe oceny wg róŜnych metod, tych samych witryn w tym samym okresie dokonywał ten sam zespół ekspertów, uzyskane rankingi – pomimo zachowani głównego trendu (przodujące w jednym rankingu na ogół przodowały równieŜ w innym), nieco się między sobą róŜniły. I przy tej ilości zastosowanych kryteriów trudno jest czasem określić prawdziwe przyczyny tych róŜnic. Generalnie rzecz biorąc: - metoda punktowa, chociaŜ subiektywna, przy duŜej ilości kryteriów, tradycyjnej metodzie liniowej skali punktowej, była przez ekspertów oceniana pozytywnie, jako racjonalna, łatwa do przyswojenia metoda oceny. Po uwzględnieniu skali preferencji eksperci twierdzili, Ŝe – ich zdaniem – wraŜenie subiektywizmu i równowaŜności definitywnie róŜnych kryteriów nie są aŜ tak znaczące, jak to wynika z ocen środowisk naukowych. - metoda AHP okazała się w opinii ekspertów bardzo uciąŜliwa w przypadku konieczności porównania wielu serwisów, za pomocą większej ilości kryteriów. Deklaratywny obiektywizm tej metody przegrywał tu ze zmęczeniem eksperta, dlatego często pierwsze przeglądane witryny uzyskiwały w stosunku do następnych lepsze oceny (zmiana kolejności oceny witryn dawała zupełnie inne rezultaty). Często przedstawiona ocena była uwaŜana przez ekspertów za niejednoznaczną, ze względu na jej relatywizm i rozciągnięcie skali. Pracochłonności tej metody rosła w porównaniu z metodą punktową wykładniczo w stosunku do ilości wykorzystywanych kryteriów oceny oraz ilość branych pod uwagę witryn bankowych. - metoda konwersji łącząc zalety metody punktowej (jednoznaczna, łatwa ocena kryterium) oraz metody Saaty’ego (określenie relacji kryterium do innych kryteriów), a polegająca na wyznaczeniu relacji kryterium w stosunku do innych kryteriów opartej o uśrednione odległości od potencjalnej wartości maksymalnej na podstawie wcześniejszej oceny punktowej, została uznana za rozsądny kompromis pomiędzy tymi metodami.. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 25 7. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Chmielarz W.: Metody oceny witryn banków internetowych w zakresie obsługi klienta indywidualnego, Rachunkowość bankowa, nr 3(40), 2008, str. 65-77. Chmielarz W.: Przełączniki metodyczne w ocenie witryn internetowych sklepów komputerowych, rozdz. 43 w: Zarządzanie Wiedzą i Technologiami Informatycznymi, red. C. Orłowski, Z. Kowalczuk, E. Szczerbicki, nr 4 seria: Automatyka i Informatyka, Pomorskie Wydawnictwo Naukowo-Techniczne PWNT, Gdański, 2008, str. 361-368. Chmielarz W.: Systemy elektronicznej bankowości, Difin, Warszawa, 2005. F-Secure Reveals Consumer Attitudes Toward Internet Security Across Europe and North America in: http://www.f-secure.com/f-secure/pressroom/news/fs_news_20080228_01_ eng.html, maj 2008. Macierzyński M.:: 40 procent rachunków obsługiwanych jest przez Internet, Warszawa, 2007 r., http://www.bankier.pl/wiadomosc/juz-40-procent-rachunkow-obslugiwanychjest-przez-internet-1588175.html. Modele efektywnych zastosowań elektronicznego biznesu w sektorach gospodarki polskiej, red. Chmielarz W., Wydawnictwo WSEI, Warszawa, 2007. Saaty T.L: Fundamentals of the Analytic network process, ISAHP, Kobe, nr 8, 1999 r. Saaty T.L.: How to Make a Decision: The Analytic Hierarchy Process, European Journal of Operational Research, No 48, 1990, str. 9-26. Surmacz W.: Sieć i płacz, w: Biznes Ranking banków „Newsweeka”, Newsweek z 30. 09. 2007 str.58-60. EVALUATION PROBLEMS OF E-BANKING WEBSITES FOR INDIVIDUAL CUSTOMER IN SELECTED BANK IN POLAND Summary The main goal of the article is evaluation method problems of websites presentation. As an example e-banking websites for individual customers are taken. After introduction about aspects of valuation by traditional methods, new procedure of measure is shown. In the final part there are comparing sets of results of investigation and conclusions were drawn. Keywords: evaluation methods of innovation, e-banking, method comparing Witold Chmielarz Wydział Zarządzania Uniwersytet Warszawski e-mail: [email protected]. 26 Mirosław Dyczkowski Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych MIROSŁAW DYCZKOWSKI Uniwersytet Ekonomiczny we Wrocławiu ANALIZA SCENARIUSZOWA JAKO CZĘŚĆ ROZSZERZONEJ OCENY EFEKTYWNOŚCI PRZEDSIĘWZIĘĆ INFORMATYCZNYCH Streszczenie Badając efektywność przedsięwzięć informatycznych, których źródłem finansowania (współfinansowania) są środki pochodzące z funduszy europejskich stosuje się podejście typu CBA (cost-benefits analysis). CBA i wyliczane podczas analizy wartości NPV i IRR są podstawą oceny opłacalności i określonych rekomendacji dla decyzji o uruchomieniu projektów. Uwzględnienie w takich ocenach czynników zmienności załoŜeń projektowych oraz związanego z nimi ryzyka wymaga ich rozszerzenia o dodatkowe badania, których przykładem jest analiza scenariuszowa. W artykule omówiono istotę analizy scenariuszowej oraz przedstawiono przykład jej uŜycia w ocenie efektywności projektu implementacji systemu klasy ERP w rozproszonym przestrzennie przedsiębiorstwie dystrybucyjnym. Słowa kluczowe: przedsięwzięcia informatyczne, efektywność inwestycji informatycznych, metody oceny efektywności, analiza scenariuszowa 1. Wprowadzenie Współcześnie informatyka jest jednym z waŜniejszych czynników rozwoju, dzięki któremu jest moŜliwe tworzenie nowych form i sposobów obsługi działalności wewnątrz firm oraz w ich otoczeniu gospodarczym i społecznym. Jednak takie rozwiązania i wspomagające je inwestycje informatyczne powinny, podobnie jak kaŜda aktywność przedsiębiorstw, sprzyjać osiąganiu zakładanych korzyści, a więc ich realizacja oraz wytworzone produkty musi cechować efektywność. Autor od kilku lat zajmuje się w swej działalności naukowo-badawczej problematyką organizacji i zarządzania przedsięwzięciami informatycznymi, ze szczególnym uwzględnieniem zagadnień ich efektywności ekonomicznej. Obserwując procesy informatyzacji i badając ich rezultaty zauwaŜył, Ŝe jednym z waŜnych zagadnień w planowaniu biznesowej strony przedsięwzięć informatycznych jest jak najbardziej precyzyjne oszacowanie ich efektywności. W literaturze przedmiotu (por. m.in. [1], [2], [5] i [7] oraz powoływane tam prace innych autorów) precyzyjnie sformułowano załoŜenia dotyczące procesu badania efektywności, które następnie przekładają się na jego strukturę oraz przebieg procedur pomiaru i oceny. Po pierwsze, takie badanie powinno mieć charakter pełnozakresowy, czyli dotyczyć obu stron rachunku efektywności, a więc nakładów (kosztów) i efektów (wyników, korzyści). Po drugie, pomiar musi opierać się na jednoznacznych kryteriach i adekwatnych, moŜliwych do zastosowania w środowisku danego projektu metodach i miarach. Po trzecie, aby zapewnić porównywalność ocen, naleŜy znormalizować obiekty pomiaru, co najlepiej osiągamy wyraŜając je w jednostkach pienięŜnych. Po czwarte, perspektywą badawczą powinno być ujęcie zintegrowane (systemowe), obejmujące efektywność procesową, związaną z przedsięwzięciem IT oraz efektywność POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 27 produktową, której istotę stanowią pełne koszty posiadania (TCO) i korzyści z uŜytkowania (TCB) jego produktów. Wymienione zasady spełniają szeroko opisane w literaturze ekonomicznej (por. [7, rozdz. 2] i powoływane tam prace), sprawdzone w praktyce rachunku inwestycyjnego i stosowane coraz częściej takŜe w obszarze IT (por. [2, rozdz. 4 i 5] i [3]) metody analityczne oparte na algorytmach typu CBA (cost-benefits analysis). W praktyce przedsięwzięć informatycznych najczęściej są one jednak ograniczane do prostych ocen bezwzględnej opłacalności, uzyskiwanych poprzez finansowe miary statyczne (okres zwrotu – PB i księgowa stopa zwrotu – ARR) oraz dynamiczne (zaktualizowana wartość netto – NPV, wewnętrzna stopa zwrotu – IRR, wskaźnik rentowności – PI, zdyskontowany okres zwrotu – DPP i zmodyfikowana wewnętrzna stopa zwrotu – MIRR). Znacznie rzadziej ocena efektywności jest rozszerzana o analizy uwzględniające zmienność przyjmowanych załoŜeń projektowych oraz czynnik ryzyka, które stanowią przecieŜ immanentne cechy przedsięwzięć innowacyjnych, do których zaliczamy znaczą część projektów informatycznych. Przykładowymi technikami, które z powodzeniem moŜna zastosować w takich rozszerzonych badaniach są analizy wraŜliwości, scenariuszowe oraz probabilistyczno-statystyczne i symulacyjne [7, s. 189-228]. PowyŜsze techniki analityczne są rekomendowane w projektach europejskich, w tym przedsięwzięciach z obszaru IT prowadzonych z wykorzystaniem środków pochodzących z europejskich funduszy wsparcia [6, s. 192-193]. Pierwszą z nich, tj. analizę wraŜliwości autor szerzej omówił wraz z pokazaniem przykładu jej uŜycia w projekcie utworzenia regionalnego centrum personalizacji elektronicznej legitymacji studenckiej w pracy [4]. Natomiast celem niniejszego opracowania jest prezentacja analizy scenariuszowej. 2. Istota analizy scenariuszowej Analiza scenariuszowa (scenariuszy, scenario analysis) to – obok analizy wraŜliwości oraz grupy metod probabilistyczno-statystycznych i symulacyjnych – najwaŜniejsza pośrednia metoda analizy ryzyka przedsięwzięć inwestycyjnych [7, rozdz. 3]. Jest ona stosunkowo prostą techniką analityczną, której istotę stanowi badanie wpływu moŜliwych zmian podstawowych parametrów przedsięwzięcia na poziom jego opłacalności. Zakłada się przy tym, Ŝe w fazie realizacji projektu (inwestycyjnej), a następnie w fazie uŜytkowania jego produktów (operacyjnej) wartości poszczególnych parametrów uŜytych do oszacowania jego efektywności ex ante mogą przyjąć inne wielkości niŜ pierwotnie załoŜono. Takie podejście wynika z charakterystycznego dla rozwoju metod bezwzględnego rachunku efektywności odejścia od załoŜeń deterministycznych w szacowaniu opłacalności projektów, utoŜsamianego z przyjmowaniem w czasie badania jednego, z góry przyjętego poziomu zmiennych, na rzecz probabilistycznego rozumienia efektywności, czyli badania najwaŜniejszych zmiennych na wielu moŜliwych poziomach. Zwiększa to zakres i wiarygodność dostarczanej informacji o ryzyku projektowym, gdyŜ udostępnia decydentom wiedzę o skutkach zmienności parametrów, istotnych z punktu widzenia opłacalności, a tym samym wraŜliwości załoŜonych efektów na te zmiany. W sposób pośredni wspomaga tym samym szacowanie wartości oczekiwanych i odchyleń, redukując tak charakterystyczną dla projektów IT niepewność. W analizie scenariuszowej, którą moŜna przeprowadzać według modelu zagregowanego i zdezagregowanego, uwzględnia się zarówno wraŜliwość zmiennych objaśnianych (najczęściej jest nią NPV, ale moŜna teŜ badać w ten sposób IRR czy MIRR) na zmiany niezaleŜnych zmiennych objaśniających, jak i zakres najbardziej prawdopodobnych wartości zmiennych objaśniających 28 Mirosław Dyczkowski Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych (por. przykładowe warianty analityczne zawarte w tab.1). Pozwala to wyeliminować istotne ograniczenie standardowej analizy wraŜliwości, w której po kolei bada się wpływ zmian wartości poszczególnych zmiennych objaśniających, stabilizując pozostałe składowe występujące w algorytmie danej metody (wskaźnika). Tabela 1. Warianty badania wraŜliwości parametrów przedsięwzięć informatycznych Przykładowe kryteria oceny Zmienne zagregowane NCFt NPV = ∑ t t = 0 (1 + k ) NPV1 * (k 2 − k1 ) NPV1 − NPV2 n MIRR = n ∑ CIF * (1 + k ) t t =0 n COFt ∑ t t = 0 (1 + k ) (1) zmiana (+/−) nakładów i/lub kosztów (2) zmiana (+/−) efektów (1) zmiana długości (+/−) faz projektowych i/lub realizacyjnych (2) zmiana długości (+/−) fazy uŜytkowania przepływy pienięŜne netto (NCF) n IRR* = k1 + Zmienne szczegółowe cykl Ŝycia przedsięwzięcia ( n −1) −1 (1) zmiana (+/−) kosztu kapitału (2) zmiana struktury finansowania stopa dyskontowa (k) Przykładowe nakłady i/lub koszty uŜytkowania inwestycyjne i obsługi sprzęt (zakup, instalacja, utrzymanie sprzętu (w uruchomienie...) tym koszty serwisu) oprogramowanie (licen- utrzymanie oprogramocje, modyfikacje, usługi wania (opieka autorska, towarzyszące...) upgrade’y) usługi doradcze, techusługi doradcze, techniczne, szkoleniowe itp. niczne, szkoleniowe itp. w ramach przygotowania w ramach wsparcia po i realizacji projektu wdroŜeniu inne koszty operacyjne inne nakłady i/lub koszty (materiały eksploatacyj(pomieszczenia, koszty ne, energia, koszty prabudŜetowane poza IT...) cy...) Przykładowe efekty automatyzacji informacyjne obniŜenie kosztów działalności poprzez niŜsze koszty wspomagania procesów biznesowych i/lub koszty IT... generowanie nowych, wcześniej niedostępnych informacji lub dostarczanie informacji, które wcześniej były dostępne, poprawa sprawności ale obecnie są dokładrealizacyjnej, wydajności niejsze, udostępniane w i produktywności procedogodniejszy sposób i w sów biznesowych i/lub postaci ułatwiającej ich informacyjnych poprzez uŜycie, w trybie on-line, ich całościową i/lub częnadąŜnie, mobilnie... ściową automatyzację Źródło: Opracowanie własne na podstawie [2] i [7]; por. [4] Istotą techniki jest więc określanie scenariuszy, które zakładają przyjmowanie przez niezaleŜne zmienne objaśniające występujące w algorytmie danej metody oceny opłacalności, będącej podstawą bezwzględnego kryterium decyzyjnego (w projektach europejskich NPV ≥ 0 oraz IRR ≥ kgr, gdzie kgr to graniczna stopa dyskonta), określonych wartości w przyszłości [7, s. 204]. Korzysta się przy tym z informacji uzyskanych z analizy wraŜliwości (macierze, wskaźniki i krzywe wraŜliwości oraz oszacowane względne i bezwzględne marginesy bezpieczeństwa, szerzej 29 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 na ten temat autor napisał w pracy [4]), sporządzając na ich podstawie moŜliwe warianty (scenariusze) przyszłego kształtowania się niezaleŜnych zmiennych objaśniających. Na rys. 1 przedstawiono miejsce analizy scenariuszowej w procesie pomiaru i oceny efektywności przedsięwzięć informatycznych. Widać na nim wyraźnie, Ŝe powinna ona być stosowana na etapie decyzyjnym, szczególnie podczas badania ex ante, gdy decydujemy o uruchomieniu projektu i/lub wybieramy jego warianty realizacyjne, próbując odpowiedzieć na pytania typu: − jakie rozwiązania z zakresu technologii i/lub systemów informatycznych będą najefektywniej wspierać bieŜącą i przyszłą strategię firmy? − czy a następnie kiedy naleŜy podjąć się realizacji konkretnego projektu i jakie są główne powody takiej decyzji? − które z przedsięwzięć IT naleŜy realizować i w jakiej kolejności, jeŜeli tworzą one program informatyzacji (portfel projektów informatycznych)? − z oferty którego z dostawców produktów i/lub usług IT, wybranego na bazie jakich kryteriów szczegółowych, skorzystać realizując dane przedsięwzięcie? etap przeddecyzyjny Określenie granic projektu Dekompozycja projektu Projekt/system Podprojekty Podsystemy Projekt/system Procesy etap decyzyjny Wybór modelu decyzyjnego i scenariusza badania badanie ex ante badanie w trakcie badanie ex post decyzje przedprojektowe decyzje operacyjne decyzje poprojektowe (uruchomienie projektu, wybór wariantu realizacyjnego, zdefiniowanie zasad oceny) (wprowadzenie zmian, zaniechanie realizacji) (wprowadzenie zmian, inicjacja nowego projektu) planowane nakłady i efekty ponoszone nakłady i bieŜące efekty poniesione nakłady i uzyskane efekty (prognozy, estymacje, symulacje) konieczność uwzględnienia czynników zmienności i ryzyka analizy wraŜliwości pomiar i ocena Repozytorium metod badania efektywności a) rachunek efektywności inwestycji b) analiza ekonomiczna i finansowa c) metody tradycyjne i dedykowane analizy scenariuszowe Narzędzia wspomagające a) pakiety biurowe (np. Excel, Calc) b) systemy zarządzania projektami (np. Project) Rys. 1. Miejsce analizy scenariuszowej w badania efektywności przedsięwzięć IT Źródło: Opracowanie własne; por. [2, s. 68] i [5, s. 41] 30 Mirosław Dyczkowski Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych Analiza scenariuszowa obejmuje dwa podstawowe etapy: konstruowania scenariuszy i obliczeniowo-oceniający. W pierwszym z nich określa się scenariusze opisujące strukturę zmiennych objaśniających (zagregowanych i/lub szczegółowych) oraz ich wartości w przyszłości. Jak wskazano wcześniej, pomocna jest przy tym przeprowadzona wyprzedzająco analiza wraŜliwości, która pozwala zidentyfikować dla kaŜdego projektu czynniki o decydującym wpływie na jego efektywność, a więc wyznaczyć tzw. zmienne krytyczne. Na przykład w projektach europejskich dalszej analizie powinno się poddać te parametry, których wzrost albo spadek o 1% przynosi zmiany rzędu 1% w obliczanej na ich podstawie wartości IRR lub 5% bazowej wartości NPV [6, s. 218]. W literaturze przedmiotu (por. m.in. [7, s. 204-205] i powoływane tam prace innych autorów) zaleca się najczęściej konstruowanie co najmniej trzech scenariuszy (tzw. analiza OBP): − optymistycznego (optimistic, O), w którym niezaleŜne zmienne objaśniające przyjmują wartości na poziomie najbardziej optymistycznym, − bazowego (best, baseline, B), w którym niezaleŜne zmienne objaśniające są przyjmowane w wartościach załoŜonych i/lub wymaganych dla analizowanego przedsięwzięcia, − pesymistycznego (pessimistic, P), który jest tworzony dla najbardziej pesymistycznych wartości niezaleŜnych zmiennych objaśniających. W związku z tym, Ŝe w „rzeczywistości projektowej” liczba scenariuszy jest nieograniczona, moŜna spotkać poglądy, iŜ nie powinna być ona a priori określana. Taką koncepcję przedstawili S.A. Ross, R.W. Westerfild i B.D. Jordan, ale jako minimum sugerują oni jednocześnie konstruowanie co najmniej 5 scenariuszy: bazowego, dwóch skrajnych (optymistycznego i pesymistycznego) oraz dwóch opartych na wartościach pośrednich między scenariuszem bazowym a skrajnymi (podano za pracą [7, s. 205]). W drugim etapie dla kaŜdego zdefiniowanego scenariusza wylicza się wartości zmiennej objaśnianej. Jak zaznaczono wcześniej najczęściej jest nią NPV, ale na przykład w projektach europejskich (w związku z przyjętym bezwzględnym kryterium decyzyjnym) dodatkowo powinno się uwzględniać róŜne formuły obliczeniowe NPV, tj. FNPV (finansowa NPV w ujęciu komercyjnym w wariantach dla projektu – tzw. FNPV/C i dla kapitału własnego – tzw. FNPV/K) i ENPV (ekonomiczna NPV w ujęciu społecznym), a takŜe róŜne formuły IRR, tj. FRR (finansowa IRR w ujęciu komercyjnym w wariantach zwrotu z projektu – tzw. FRR/C i zwrotu z kapitału własnego – tzw. FRR/K) oraz ERR (ekonomiczna IRR w ujęciu społecznym); por. [6, s. 192 i 202216]. Tabela 2. Modelowe warianty sytuacji decyzyjnych w analizie scenariuszowej OBP Warianty I II III IV Bezwzględne kryterium decyzyjne dla scenariusza optymistycznego bazowego pesymistycznego NPV ≥ 0 i IRR ≥ kgr NPV ≥ 0 i IRR ≥ kgr NPV ≥ 0 i IRR ≥ kgr NPV < 0 i IRR < kgr NPV ≥ 0 i IRR ≥ kgr NPV ≥ 0 i IRR ≥ kgr NPV ≥ 0 i IRR ≥ kgr NPV < 0 i IRR < kgr Rekomendacja realizować NPV < 0 i IRR < kgr NPV < 0 i IRR < kgr konieczna pogłębiona analiza NPV < 0 i IRR < kgr NPV < 0 i IRR < kgr odrzucić Źródło: Opracowanie własne na podstawie [7, s. 206] 31 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 Wyliczone wartości zmiennej objaśnianej są podstawą dla decyzji inwestycyjnych. Modelowe sytuacje decyzyjne oraz wynikające z nich rekomendacje, zgodne z podanym wcześniej kryterium opłacalności, przedstawiono w tab. 2. W przypadku wariantów II i III sugerowana jest pogłębiona analiza metodami probabilistyczno-statystycznymi i symulacyjnymi oraz określenie akceptowalnej przez inwestującego wysokości dopuszczalnej straty, czyli takiej, która nie zagrozi firmie powaŜnymi konsekwencjami finansowymi, w przypadku realizacji projektu według scenariusza pesymistycznego lub do niego zbliŜonego. Dla właściwie skonstruowanych scenariuszy maksymalna wartość potencjalnej straty jest równa ujemnej wartości NPV, obliczonej dla scenariusza pesymistycznego i ta właśnie wartość powinna stanowić punkt odniesienia przy jej wyznaczaniu. Na ogół, gdy potencjalna strata, wynikająca z realizacji danego przedsięwzięcia, moŜe być bez większych problemów zakumulowana przez firmę, podejmuje się decyzję o uruchomieniu projektu. 3. Przykład oceny efektywności rozszerzonej o analizę scenariuszową Przedmiotem przykładu jest analiza efektywności inwestycji związanych z implementacją systemu klasy ERP w rozproszonym przestrzennie przedsiębiorstwie dystrybucyjnym działającym przede wszystkim na rynku hurtowym oraz zaopatrzenia jednostek, w których procedury zakupowe prowadzone są drogą przetargów regulowanych prawem zamówień publicznych. W tab. 3 przedstawiono zakres projektu, prezentując podstawowe funkcje uŜytkowa systemu wraz z liczbą tzw. aktywnych uŜytkowników (licencji). Tabela 3. Zakres badanego projektu (podstawowe funkcje i liczba aktywnych uŜytkowników) Lokalizacja Podsystem Dystrybucja hurtowa Dystrybucja detaliczna (I etap) Finanse, księgowość i controlling Kadry i płace Środki majątkowe Zarządzanie sklepami CRM (rozszerzony funkcjonalnie o obsługę przetargów i zamówień publicznych) 72 0 13 3 2 3 Oddziały (4 rozproszone) 56 0 6 0 0 7 60 56 Centrala Sklepy Razem 0 3 0 0 0 0 128 3 19 3 2 10 1 117 Źródło: Opracowanie własne Przedsięwzięcie było prowadzone jako projekt zewnętrzny, drogą pozyskania od jednego dostawcy pełniącego rolę integratora, zgodnego ze specyfikacją systemu zintegrowanego klasy ERP, rozszerzonego o dodatkowe moduły dystrybucyjne zrealizowane w technologii bazującej na usługach sieciowych. W tab. 4 podano strukturę rodzajową nakładów i kosztów związanych z tą inwestycją. NaleŜy dodać, Ŝe wszyscy dostawcy uczestniczący w przetargu na realizację projektu musieli „wpisać się” w zaprezentowaną strukturę, co ułatwiało porównanie pełnych kosztów pozyskania, implementacji i posiadania aplikacji (tzw. TCO projektu). 32 Mirosław Dyczkowski Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych Tabela 4. Struktura rodzajowa nakładów i kosztów badanego projektu Lp. 1 2 3 4 5 6 7 8 9 10 11 Rodzaj nakładu i/lub kosztu Oprogramowanie aplikacyjne, stanowiące własność oferenta Motor bazy danych Licencje za oprogramowanie nie stanowiące własności oferenta i usługi towarzyszące Usługi doradcze w ramach opracowania koncepcji wdroŜenia Usługi doradcze w ramach przygotowania wdroŜenia Usługi informatyczne w ramach przygotowania wdroŜenia – modyfikacje systemu informatycznego Usługi doradcze w ramach wdroŜenia Usługi informatyczne, techniczne i szkoleniowe w ramach wdroŜenia – prace wdroŜeniowe (instalacja, konfiguracja, szkolenia, tworzenie baz danych, w tym migracja danych, testy systemu) Usługi informatyczne i techniczne w ramach wsparcia po wdroŜeniu (roczna opieka autorsko-upgrade’owa) Sprzęt komputerowy (serwery i urządzenia sieciowe) Łączna wartość wg oferty Wartość w PLN 585 600,00 94 634,00 214 688,00 24 400,00 24 400,00 109 800,00 24 400,00 604 144,00 91 500,00 416 920,00 2 190 486,00 Źródło: Opracowanie własne Szacując efekty przedsięwzięcia oraz przepływy pienięŜne oparto się na zasadach analizy przyrostowej (por. [2] i [7]), przy czym efekty dotyczyły usprawnienia, a tym samym obniŜenia kosztów procesów dystrybucyjnych, magazynowych oraz obsługi naleŜności i roszczeń, a takŜe wynikającego z tego zmniejszenia poziomu zapasów i udziału kredytów w finansowaniu działalności operacyjnej firmy. Poziom oczekiwanych efektów szacowano na podstawie projekcji zmian struktury kosztów procesów biznesowych, określonej na bazie danych historycznych sprowadzonych do cen stałych i zakładanych przez firmę korzyści z wdroŜenia rozwiązań informatycznych. Przyjęto przy tym, Ŝe krzywa oczekiwanych efektów ekonomicznych będzie miała przebieg charakterystyczny dla implementacji systemów klasy ERP, tj. w pierwszym roku ich skala wyniesie 2% w stosunku do średniej z lat poprzedzających projekt, w kolejnych dwóch latach będą one większe o 6% i o 5% w stosunku do roku poprzedniego, natomiast w czwartym, ostatnim roku badania nie będzie juŜ Ŝadnych przyrostów oszczędności. W związku z tym, Ŝe jednym ze źródeł sfinansowania projektu miały być środki z europejskich funduszy wsparcia, badanie efektywności przeprowadzono zgodnie z wymaganą w takich sytuacjach procedurą, uwzględniając obowiązujące kryterium decyzyjne. Przyjęto wartość stopy dyskontowej równą 8%, czteroletni cykl Ŝycia projektu oraz załoŜono, Ŝe wszystkie inwestycje (dla dystrybucji detalicznej I etap) zostaną wykonane w pierwszym roku realizacji przedsięwzięcia. W tab. 5 przedstawiono dane, procedurę oraz wyniki obliczeń, konieczne do określenia efektywności inwestycji w zakładanym wariancie bazowym, tj. takim, w którym wartości poszczególnych parametrów przedsięwzięcia są stałe i przyjmują oczekiwane wielkości. 33 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 Tabela 5. Przepływy pienięŜne badanego projektu (dane w PLN) Wyszczególnienie Nakłady inwestycyjne i koszty Szacowane efekty Przepływy pienięŜne netto (NCF) Współczynnik dyskontowy (CO) Zdyskontowane przepływy pienięŜne (NCF x CO) rok bazowy 2 190 486,00 215 395,26 −1 975 090,74 1,0000 rok bazowy + 1 91 500,00 861 581,04 770 081,04 0,9259 rok bazowy + 2 91 500,00 1 400 069,20 1 308 569,20 0,8573 rok bazowy + 3 91 500,00 1 400 069,20 1 308 569,20 0,7938 −1 975 090,74 713 038,00 1 121 887,17 1 038 784,42 Źródło: Opracowanie własne Obliczone w arkuszu Excel na danych pobranych z tab. 5 wskaźniki efektywności przedsięwzięcia wyniosły odpowiednio: NPV = 898 618,86 zł i IRR = 19,98%, a więc wariant bazowy projektu spełniał wymagania bezwzględnego kryterium opłacalności. Następnie na podstawie przeprowadzonej analizy wraŜliwości zbudowano dwa dodatkowe (oprócz bazowego) scenariusze: pesymistyczny i optymistyczny. W tab. 6 przedstawiono zasady ich konstrukcji. Tabela 6. Scenariusze realizacyjne badanego projektu Wyszczególnienie pesymistyczny 975 465 zł Łączna wartość licencji na oprogra- (konieczność rozszerzenia mowanie licencji – koszt wyŜszy o 9%) Usługi informatyczne i techniczne w 102 480 zł ramach wsparcia po wdroŜeniu (usługi powdroŜeniowe (roczna opieka autorskodroŜsze o 12%) upgrade’owa) 909 151 zł Łączne koszty wdroŜenia (wdroŜenie droŜsze o 15,5%) 437 766 zł Sprzęt informatyczny (sprzęt droŜszy o 5%) Razem nakłady i koszty 2 424 862 zł Względne efekty w II roku 4% Bezwzględne efekty w II roku 430 791 zł Scenariusze bazowy optymistyczny 894 922 zł 823 328 zł (licencja tańsza o 8%) 91 500 zł 86 925 zł (usługi powdroŜeniowe tańsze o 5%) 787 144 zł 692 687 zł (wdroŜenie tańsze o 12%) 416 920 zł 2 190 486 zł 6% 646 186 zł 379 397 zł (sprzęt tańszy o 9%) 1 982 337 zł 8% 861 581 zł Źródło: Opracowanie własne Dla obu dodatkowych scenariusz sporządzono następnie tabele przepływów pienięŜnych i na ich podstawie obliczono wskaźniki efektywności przedsięwzięcia, które zawarto w tab. 7. Tabelę tą uzupełniono następnie o dwa kolejne zestawy wskaźników, tzw. skorygowane, które są wyliczane dla „złagodzenia” nadmiernego optymizmu i pesymizmu scenariuszy skrajnych. Jest to związane z zauwaŜonymi w większości konstruowanych scenariuszy tendencjami do przeszacowywania za- 34 Mirosław Dyczkowski Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych gregowanych wielkości granicznych, poprzez najbardziej optymistyczne i/lub pesymistyczne szacowanie ich składowych. Podczas, gdy w rzeczywistości prawdopodobieństwo, Ŝe wszystkie niezaleŜne zmienne objaśniające osiągną jednocześnie najwyŜszą albo najniŜszą wartość jest bardzo małe. Tą wadę analizy scenariuszowej moŜna wyeliminować metodami probabilistycznostatystycznymi i symulacyjnymi [7, s. 207]. Tabela 7. Zestawienie porównawcze wartości NPV i IRR dla poszczególnych scenariuszy Scenariusz Miara NPV IRR pesymistyczny 80 851,55 zł 1,69% pesymistyczny skorygowany 88 936,71 zł 1,85% bazowy 898 618,86 zł 19,98% optymistyczny skorygowany 1 506 287,15 zł 35,95% optymistyczny 1 673 652,39 zł 39,94% Źródło: Opracowanie własne. Analizując przedstawione wyniki analizy scenariuszowej oraz wyliczone wartości NPV i IRR moŜna zauwaŜyć, Ŝe projekt w pełni spełnia bezwzględne kryterium opłacalności (NPV ≥ 0 oraz IRR ≥ kgr) dla scenariuszy bazowego i obu optymistycznych. Inaczej jest natomiast w przypadku obu scenariuszy pesymistycznych, gdzie wprawdzie NPV ≥ 0, ale IRR < kgr. Stopa ta na ogół jest przyjmowana w typowych projektach komercyjnych na poziomie równym lub przewyŜszającym WACC, tj. średni koszt pozyskania kapitału, natomiast w komercyjnych projektach współfinansowanych z europejskich funduszy wsparcia załoŜono na lata 2000-2006, Ŝe kgr = 6%, przy czym dopuszcza się sytuację, Ŝe moŜe być ona niŜsza [6, s. 2006]. MoŜna więc uznać badany projekt za efektywny w ujęciu ekonomicznym i udzielić rekomendacji dla rozpoczęcia wdroŜenia. Kończąc prezentację przykładu naleŜy dodać, Ŝe w rzeczywistości jego efektywność ekonomiczna okazała się wyŜsza, gdyŜ udało się go w znacznej mierze sfinansować ze środków pochodzących z europejskich funduszy wsparcia (EFS oraz SPO Wzrost Konkurencyjności Przedsiębiorstw). 4. Podsumowanie Przedstawione w opracowaniu metody analityczne, opierające się na przyjętej w projektach europejskich filozofii CBA z uŜyciem bezwzględnych kryteriów decyzyjnych opartych na estymowanych wartościach NPV i IRR oraz przykład ich zastosowania do zbadania opłacalności projektu wdroŜeniowego, pokazują przydatność zaproponowanego podejścia do oceny efektywności ekonomicznej tego typu inwestycji. Dowodzą teŜ, Ŝe badanie efektywności ekonomicznej jest dobrym sposobem na wstępne wyeliminowanie projektów nieopłacalnych i ułatwia podjęcie decyzji o rozpoczęciu realizacji przedsięwzięcia, które powinno przynieść oczekiwane korzyści. Potwierdzają takŜe, iŜ rozszerzenie takiego badania o intuicyjnie zrozumiałą i względnie mało pracochłonną analizę scenariuszową, pozwala uwzględnić w ocenie efektywności bardzo waŜną w przedsięwzięciach informatycznych zmienność załoŜeń projektowych oraz czynnik ryzyka, podnosząc tym samym istotnie wiarygodność uzyskanych wyników. Jest to szczególnie waŜne, gdyŜ w czasie realnego zapotrzebowania na gospodarcze systemy informatyczne, konieczna jest rzetelna ocena efektywności tego typu przedsięwzięć. Tylko ona bowiem zapewni alokację środków finansowych i rzeczowych wymaganą dla podtrzymania dynamicznego rozwoju zastosowań tej klasy aplikacji, w tym stałe jego zasilanie w ramach projektów europejskich. Aby nasze firmy mogły bowiem skutecznie korzystać z oferty europejskich funduszy POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 35 wsparcia muszą nauczyć się stosowania metod rachunku efektywności wymaganego przez instytucje zarządzające tymi funduszami. Autor ma nadzieję, Ŝe przedstawione w opracowaniu rozwaŜania i zaprezentowany przykład przyczynią się do upowszechnienia wiedzy na ten tak istotny temat. 5. Literatura 1. 2. 3. 4. 5. 6. 7. Cypryjański J.: Metodyczne podstawy ekonomicznej oceny inwestycji informatycznych przedsiębiorstw. Seria: Rozprawy i Studia, tom 669. Wydawnictwo Naukowe Uniwersytetu Szczecińskiego, Szczecin 2007. Dudycz H., Dyczkowski M.: Efektywność przedsięwzięć informatycznych. Podstawy metodyczne pomiaru i przykłady zastosowań. Wydawnictwo AE, Wrocław 2006. Dudycz H., Dyczkowski M.: Selected problems of the assessment of economic effectiveness of IT projects. In: Development of Methods and Technologies of Informatics for Process Modeling and Management. (Studziński J., Drelichowski L., Hryniewicz O., Eds.). PAS SRI, Series Systems Research, Vol. 50, Warsaw 2006, pp. 43-53. Dyczkowski M.: Analiza wraŜliwości jako element rozszerzonej oceny efektywności przedsięwzięć informatycznych. W: Systemy wspomagania organizacji SWO’2008. (Porębska-Miąc T, Sroka H., Red.). Prace Naukowe Akademii Ekonomicznej, Katowice 2008 (w druku). Informatyka – ocena efektywności. Red. Dudycz H., Dyczkowski M., Nowak J.S., Polskie Towarzystwo Informatyczne – Oddział Górnośląski, Katowice 2006. Rogowski W.: Rachunek efektywności projektów europejskich. W: Zarządzanie projektem europejskim. (Trocki M., Grucza B., Red.). PWE, Warszawa 2007, s. 191-222. Rogowski W.: Rachunek efektywności przedsięwzięć inwestycyjnych. Oficyna Ekonomiczna, Kraków 2004. 36 Mirosław Dyczkowski Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych SCENARIO ANALYSIS AS A PART OF THE EXTENDED EFFECTIVENESS ASSESSMENT IN IT PROJECTS Summary For a purpose of effectiveness assessment in IT projects, financed or cofinanced with the European funds, cost/benefit analysis (CBA) is applied. CBA and calculated within this analysis NPV and IRR values are used as a basis for viability assessment and recommendations for decisions related to project launch. If such assessments are to consider variability factors for projects’ assumptions and related risk, they should be extended by additional examinations, for example by scenario analysis. The paper discusses a concept of scenario analysis and presents an example of its application in effectiveness assessment for implementing ERP-class system in geographically dispersed distribution company. Keywords: IT projects, effectiveness of IT investments, methods of effectiveness assessment, scenario analysis Mirosław Dyczkowski Instytut Informatyki Ekonomicznej Uniwersytet Ekonomiczny we Wrocławiu Wrocław, ul. Komandorska 118/120 e-mail: [email protected] http://www.ue.wroc.pl/ POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 37 WALDEMAR KARWOWSKI, ARKADIUSZ ORŁOWSKI, MACIEJ GROCHOWSKI SGGW Warszawa BUDOWA PORTALU INTERNETOWEGO DLA ORGANIZACJI STUDENCKIEJ AIESEC POZNAŃ Streszczenie Coraz częściej organizacje wykorzystują portale internetowe, które integrują coraz więcej usług. Portale mogą bazować na gotowych rozwiązaniach lub mogą być tworzone na zamówienie. W artykule przedstawiono proces powstania portalu dla organizacji AIESEC Poznań. Omówiono podstawy wybranej technologii - Java Enterprise Edition - oraz sposób jej wykorzystania w tworzeniu aplikacji bazodanowej z dostępem internetowym. Bardziej szczegółowo przedstawiono architekturę aplikacji opartą na stworzonym szkielecie. Słowa kluczowe: portal, CRM, CMS, framework, Java 1. Wprowadzenie Praktycznie kaŜde przedsiębiorstwo stara się prowadzić korporacyjny portal internetowy. Podstawowym zadaniem takich portali jest z jednej strony prezentacja informacji na zewnątrz z drugiej zaś usprawnienie komunikacji między pracownikami przedsiębiorstwa. Przed laty prawie kaŜda strona internetowa była pisana od podstaw, bardzo często w zwykłym edytorze tekstu albo specjalnym edytorze HTML. Zadanie aktualizowania stron nie było łatwe i często wymagało pomocy informatyków. Dostęp do informacji zgromadzonych w bazach danych równieŜ był powaŜnym problemem, synchronizacja stron i bazy poprzez ręczne modyfikacje nie była moŜliwa. Z czasem pojawiły się technologie pozwalające na łatwiejsze i efektywniejsze tworzenie witryn takie jak ASP (ang. Active Server Pages) firmy Microsoft, serwlety Javy czy wreszcie język PHP. Powstały gotowe systemy do generowania stron internetowych, najpopularniejsze z nich to systemy zarządzania treścią - CMS (ang. Content Management System). CMS najprościej mówiąc jest to narzędzie ułatwiające zarządzanie stroną internetową, jej rozbudowę i aktualizację. Obecnie coraz więcej stron powstaje w oparciu o istniejące systemy zarządzania treścią. Współcześnie systemy takie są na tyle rozbudowane, Ŝe w wielu przypadkach wystarczają do stworzenia rozbudowanego portalu. Zapewniają moŜliwość logowania i róŜne poziomy dostępu dla uŜytkowników. Pozwalają na integrację z bazą danych. Projektant strony korzysta z gotowych komponentów i nie musi martwić się techniczną stroną systemu, swoją uwagę skupia na treściach merytorycznych. Zarządzanie treścią strony odbywa się przewaŜnie za pomocą wygodnych formularzy dostępnych z poziomu strony WWW. Dostępna jest duŜa liczba systemów CMS napisanych w róŜnych językach programowania, są to systemy zarówno komercyjne jak i typu open source. Do najbardziej popularnych zaliczyć moŜna: Joomla!, Mambo, Typo3, PHP-Nuke, ezPublish. Jednocześnie nadal powstają systemy budowane na zamówienie, bowiem nie kaŜdemu odpowiada funkcjonalność oferowana przez systemy gotowe [6,9]. 38 Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań W dalszej części pracy zostaną omówione zagadnienia związane budową portalu na konkretnym przykładzie portalu internetowego tworzonego dla organizacji studenckiej AIESEC Poznań [3]. Omówione będą kolejno załoŜenia dla tego portalu oraz powstanie jego architektury. Na zakończenie podane zostaną uwagi i wnioski związane z realizacją tego projektu. 2. Idea i załoŜenia systemu Zamiast tworzyć portal internetowy od podstaw, moŜna wykorzystać dostępny na rynku gotowy wzorzec wymagający tylko konfiguracji. Zaletą takiego rozwiązania jest fakt stosowania sprawdzonego produktu, którego twórcy mają najczęściej wieloletnie doświadczenie w rozwiązywaniu konkretnych problemów, na które napotkać moŜe przedsiębiorstwo czy organizacja. Aplikacje tego typu są tworzone i cały czas rozszerzane z wykorzystaniem najlepszych praktyk wypracowanych wspólnie przez twórców i klientów oprogramowania. Natomiast niewątpliwą wadą systemów powszechnie dostępnych na rynku jest to, Ŝe wykrywane w nich błędy są często publikowane na stronach internetowych i powszechnie znane włamywaczom. Administrator takiego systemu musi pilnie śledzić, czy w zainstalowanym na jego serwerze systemie nie zostały wykryte błędy, które moŜna wykorzystać do włamania się do serwisu. W przypadku dedykowanych systemów duŜo trudniej jest zdobyć informacje o lukach w jego zabezpieczeniach. Oczywiście w praktyce mamy często sytuacje pośrednią, gotowy system jest dostrajany do potrzeb uŜytkownika, wymaga to na ogół pracy programisty. Decyzja o wyborze rozwiązania w duŜym stopniu zaleŜy od moŜliwości finansowych firmy. Programy tworzone na zamówienie są drogie i czasami lepiej jest zrezygnować z pewnych wymagań i wdroŜyć system gotowy. Cele stawiane portalom mogą być formułowane bardzo szeroko, niezaleŜnie od wielkości, formy i rodzaju działalności firmy czy organizacji. Zastępując telefon czy faks, portale internetowe mogą nie tylko znacznie zredukować koszty komunikacji, ale przede wszystkim poprawić jej jakość. Komunikacja dotyczyć moŜe delegowania zadań pracownikom niŜszego szczebla, raportowania do zwierzchników oraz wymiany pozostałych informacji o charakterze operacyjnym i strategicznym pomiędzy pracownikami jednego lub róŜnych działów przedsiębiorstwa. Wymiana informacji za pomocą aplikacji internetowych moŜe być w bardzo łatwy sposób dokumentowana, umoŜliwiając stały wgląd we wcześniejsze ustalenia dla wszystkich stron w nich uczestniczących. Takie rozwiązanie minimalizuje moŜliwość powstania róŜnego rodzaju nieporozumień i niedomówień, które mogą być bardzo szkodliwe dla sprawnego funkcjonowania przedsiębiorstwa. Ponadto uŜytkownicy portalu korzystają ze wspólnej bazy danych, która moŜe być źródłem cennych informacji operacyjnych i strategicznych, niezbędnych do efektywnego działania przedsiębiorstwa. Dane zawarte w tej bazie mogą być aktualizowane na bieŜąco niemalŜe z kaŜdego miejsca na ziemi. Rozwiązaniem rozszerzającym moŜliwości zastosowania portalu korporacyjnego moŜe być stworzenia interfejsu dla uŜytkowników spoza firmy. Udostępnienie klientom lub partnerom odpowiednich danych moŜe w znacznym stopniu usprawnić wymianę informacji oraz zredukować koszty współpracy. Przykładowo stali klienci mogą mieć moŜliwość wprowadzania nowych zleceń oraz otrzymywania informacji o stopniu realizacji zadań powierzonych właścicielowi portalu. Obecnie obszarami działalności przedsiębiorstwa, które najczęściej obejmowane są przez portale korporacyjne, są: • zarządzanie relacjami z klientami (CRM), • zarządzanie produkcją i łańcuchem dostaw (SCM), • gospodarka magazynowa, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 39 • baza wiedzy, • zarządzanie konfiguracją (CMDB), • obsługa techniczna. Jak nadmieniono wcześniej portale znajdują zastosowanie nie tylko w przedsiębiorstwach komercyjnych ale maja równieŜ duŜe znaczenie w rozmaitych organizacjach. Jednym z podstawowych zadań międzynarodowej organizacji studenckiej AIESEC jest prowadzenie wymiany praktyk studenckich. W tym celu komitety lokalne – będące podstawowymi jednostkami organizacyjnymi AIESEC – poszukują firm gotowych przyjąć zagranicznych studentów na praktykę. Aby usprawnić proces wyszukiwania praktyk komitet lokalny AIESEC w Poznaniu postanowił stworzyć aplikację, która pozwoliłaby narzucić pewna strukturę i ujednolicić dane dotyczące firm partnerskich oraz umoŜliwiłaby dokumentację spotkań, rozmów telefonicznych oraz innego rodzaju kontaktów pomiędzy członkami organizacji AIESEC, a osobami kontaktowymi firm. Aplikacja w zamyśle powinna więc mieć cechy systemu CRM i jednocześnie wspierać komunikację wewnątrz organizacji poprzez system typu CMS. Zdecydowano się na budowę systemu we własnym zakresie wykorzystując moŜliwości realizacji zadania w ramach pracy magisterskiej. Nie bez znaczenia był fakt, Ŝe bezpośredni wykonawca dobrze znał szczegóły działania organizacji. 3. Wymagania systemu Pierwszym etapem była analiza dotychczasowych form działalności AIESEC. W rozmowach ze studentami zajmującymi się wyszukiwaniem firm partnerskich – przyszłymi uŜytkownikami aplikacji – stwierdzono, Ŝe najczęściej występującym problemem w ich pracy był brak lub niekompletne informacje dotyczące wcześniejszych kontaktów z firmami. Ponadto dane firm, ich osób kontaktowych i historii kontaktów bardzo często były niespójne, co w znacznym stopniu utrudniało efektywne wyszukiwanie praktyk. Przyczyn takiego stanu rzeczy naleŜy upatrywać w fakcie, iŜ dane zapisywane były w arkuszu kalkulacyjnym, znajdującym się na jednym z komputerów w biurze AIESEC Poznań. Takie rozwiązanie w znacznym stopniu utrudniało utrzymanie spójnych, kompletnych, a przede wszystkim aktualnych danych, w których nie występuje zjawisko redundancji. Przystępując do projektowania przyjęto przede wszystkim, Ŝe podstawą będzie centralna relacyjna baza danych, co rozwiąŜe problem braku spójności i redundancji. Koniecznym wymogiem był prosty interfejs uŜytkownika, aby praca z systemem nie wymagała znajomości szczegółów technicznych. Po analizie stwierdzono ponadto, Ŝe dopiero zapewnienie dostępu z sieci Internet pozwoli na utrzymanie aktualności danych, czyli, Ŝe wymogiem będzie portalowa forma aplikacji. Przed rozpoczęciem prac programistycznych bardzo istotnym elementem procesu projektowania było ustalenie polityki uprawnień. Jest to waŜne zadanie bowiem podczas projektowania portalu naleŜy pamiętać o zastosowaniu odpowiedniej polityki uprawnień umoŜliwiającej jego administratorom kontrolę nad dostępem do danych przez róŜne grupy uŜytkowników. Dostęp do określonych danych dzielony jest za zwyczaj na trzy podstawowe poziomy: • podgląd, • edycja, • usuwanie. 40 Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań Z polityką uprawnień związana jest równieŜ polityka haseł. MoŜe ona zawierać ustalenia i reguły dotyczące: • nadawania haseł i ich formy, • maksymalnego okresu waŜności haseł, • maksymalnej ilości prób logowania do systemu. Po dyskusjach z członkami AIESEC Poznań ustalono, Ŝe stworzone zostaną trzy poziomy uprawnień: • superuser (w skrócie SU), • administrator (w skrócie admin), • członek komitetu (member). UŜytkownik naleŜący do grupy superuser ma dostęp do wszystkich danych zapisanych w aplikacji. Uprawniony jest do tworzenia, przeglądania, edycji i usuwania komitetów lokalnych, firm, osób kontaktowych, kontaktów oraz uŜytkowników wszystkich dostępnych poziomów uprawnień. UŜytkownik będący administratorem ma prawo przeglądać i edytować dane podstawowe komitetu lokalnego, do którego jest przypisany. MoŜe ponadto tworzyć, przeglądać, edytować i usuwać firmy, osoby kontaktowe, kontakty i uŜytkowników powiązanych z jego komitetem lokalnym. Standardowy członek komitetu lokalnego (member) uprawniony jest do tworzenia, przeglądania, edytowania i usuwania własnych firm oraz osób kontaktowych i kontaktów związanych z jego komitetem lokalnym. Wszyscy uŜytkownicy mają prawo przeglądania danych podstawowych komitetów lokalnych, firm oraz innych uŜytkowników, niezaleŜnie od przynaleŜności do komitetu lokalnego. W tym miejscu trzeba sformułować kilka waŜnych uwag. Projektowanie logiki biznesowej portalu korporacyjnego związane jest z odwzorowaniem w aplikacji procesów, jakie mają miejsce w rzeczywistości. Często organizacje decydujące się na wprowadzenie aplikacji korporacyjnej nie posiadają ściśle zdefiniowanych procedur postępowania w określonych sytuacjach. Przez to moŜe w tych organizacjach dochodzić do nieporozumień wynikających z faktu, iŜ pracownicy nie mają określonego zakresu swoich kompetencji. Tak więc kolejną korzyścią, jaką moŜe przynieść zastosowanie korporacyjnego portalu internetowego jest moŜliwość strukturyzacji procesów biznesowych występujących w organizacji poprzez ich modelowanie w aplikacji. Jest to zadanie wymagające duŜego nakładu pracy i zaangaŜowania pracowników całej organizacji, lecz na pewno warto wykonać je sumiennie i z naleŜytą uwagą. Dobre wymodelowanie procesów biznesowych przełoŜy się nie tylko na sprawne funkcjonowanie aplikacji, lecz równieŜ poprawi efektywność całej organizacji. TakŜe podczas realizacji projektu dla AIESEC udało się uporządkować wiele procedur postępowania. 4. Podstawy systemu Pomysłodawca nie narzucał ani konkretnego języka programowania ani bazy danych. WaŜne jednak było, aby wykorzystane narzędzia były narzędziami dostępnymi bezpłatnie. Wybór padł na środowisko Java Enterprise Edition (JEE) [2,5,7]. Platforma ta łączy w sobie wiele technologii, interfejsów API oraz standardów tworzenia aplikacji typu enterprise w Javie. Jest to bardzo szeroko stosowane środowisko programistyczne, niezaleŜne od platformy systemowej, istnieje wiele darmowych i dobrze udokumentowanych bibliotek, z których moŜna korzystać niemalŜe bez Ŝadnych ograniczeń. Programista ma dostęp do bogatego zbioru usług w zakresie dystrybucji obiektów, bezpieczeństwa, zarządzania transakcjami, stanami i zasobami. JEE ustanawia standardy POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 41 w dziedzinach przetwarzania biznesowego dotyczące połączenia z bazą danych, komponentów biznesowych, warstwy zarządzającej przepływem komunikatów, protokołów komunikacyjnych i współpracy z systemami zewnętrznymi. Wśród narzędzi zawartych w platformie JEE znajdują się równieŜ standardy słuŜące do tworzenia aplikacji internetowych, najwaŜniejsze z nich to Java Servlets oraz Java Server Pages (JSP) [4]. Środowisko to jest uznawane za jedno z najbardziej wydajnych w przypadku tworzenia aplikacji WWW, ponadto moŜna je bardzo łatwo zintegrować z róŜnymi systemami zarządzania relacyjnymi bazami danych. Do realizacji projektu dla AIESEC wybrano serwer bazy danych MySQL Server 5.0, serwer aplikacji Apache Tomcat 5.0, a do implementacji kodu zintegrowane środowisko programistyczne Eclipse 3.2. W celu zapewnienia wielojęzyczności zarówno baza danych jak i strony JSP kodowane są za pomocą UTF-8. System zarządzania relacyjnymi bazami danych MySQL cieszy się opinią jednego z szybszych serwerów bazodanowych, dzięki czemu znakomicie nadaje się jako serwer dla często odwiedzanych aplikacji internetowych. Ponadto MySQL zawiera wsparcie dla replikacji bazy danych w trybie master-slave, co umoŜliwia zabezpieczenie systemu przed awariami. Bardzo waŜną właściwością wpływającą na wybór właśnie tego systemu jest doskonała obsługa wielojęzyczności. KaŜda tabela, a nawet kaŜde pole, moŜe mieć własne ustawienie kodowania znaków. Kolejnym argumentem przemawiającym za oparciem aplikacji o serwer bazy danych MySQL jest jego dostępność właściwie dla kaŜdej platformy systemowej. Apache Tomcat to jeden z najpopularniejszych kontenerów aplikacji webowych wykorzystywanych w aplikacjach opartych na JEE, stanowi on wzorcową implementację specyfikacji programistycznych Java Servlets i Java Server Pages. Zadaniem tego serwera jest integracja warstwy zaplecza biznesowego, czyli system zarządzania bazami danych, z warstwą interfejsu klienta realizowaną przez przeglądarkę internetową. Eclipse jest stale rozbudowywanym zintegrowanym środowiskiem programistycznym znacznie ułatwiającym prace programisty podczas tworzenia aplikacji. Projekt ten został stworzony przez firmę IBM, a następnie udostępniony programistom jako oprogramowanie klasy open source. W chwili obecnej jest on rozwijany przez Fundację Eclipse. Środowisko dostępne jest dla wszystkich platform, które posiadają własną implementację wirtualnej maszyny Java oraz dla których przygotowano implementację opracowanej przez Fundację biblioteki graficznej SWT, będącej alternatywą dla standardowych bibliotek graficznych Javy – AWT i Swing. Platforma Eclipse sama w sobie nie dostarcza Ŝadnych narzędzi słuŜących do tworzenia kodu i budowania aplikacji, lecz oferuje obsługę wtyczek rozszerzających jej funkcjonalność. Podczas tworzenia aplikacji dla AIESEC wykorzystano wtyczki umoŜliwiające rozwijanie aplikacji w języku Java, tworzenie stron JSP modelowanie aplikacji za pomocą UML, współpracę z serwerami aplikacji i z serwerami baz danych. Jako podstawę architektury przyjęto rozwiązanie trójwarstwowe oparte na wzorcu Model View Controller (MVC). Ideą takiej architektury jest oddzielenie warstwy logiki biznesowej oraz warstwy dostępu do danych od warstwy prezentacji. Platforma JEE, dzięki zastosowaniu serwletów i stron JSP, jest bardzo dobrym narzędziem do implementacji tego modelu. Generalnie serwlety słuŜą głownie do przetwarzania danych i zapewniania komunikacji z bazą danych, dzięki czemu umoŜliwiają implementację logiki biznesowej tworzonej aplikacji. Generujące kod HTML strony JSP najlepiej nadają się do tworzenia warstwy prezentacji, odpowiedzialnej za komunikowanie wyników obsługiwanych Ŝądań. W przypadku tworzenia bardziej skomplikowanej struktury aplikacji dobrym rozwiązaniem moŜe być wykorzystanie złoŜonego szkieletu (framework) takiego jak Struts czy Spring [1,8], jednakŜe w opisywanym projekcie stworzono własne rozwiązanie. 42 Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań 5. Architektura systemu Sam proces projektowania i implementacji wykorzystywał praktyki metodyki Extreme Programming, przede wszystkim poprzez stałą wspólną pracę z przyszłymi uŜytkownikami. Po ustaleniu ogólnych zasad przystąpiono do definicji niezbędnych obiektów, będących podstawą aplikacji. Obiekty te i powiązania między nimi występujące, reprezentowane są przez tabele w relacyjnej bazie danych MySQL. W fazie projektowania, wspólnie z członkami AIESEC ustalono, Ŝe w aplikacji niezbędne będą dane dotyczące firm i organizacji partnerskich, ich osób kontaktowych, komitetów lokalnych AIESEC i ich członków oraz spotkań pomiędzy osobami kontaktowymi, a członkami organizacji. Szczegółowy schemat bazy danych przedstawia rysunek 1. Integralność danych zapewniona jest poprzez zastosowanie kluczy obcych odwołujących się do kluczy głównych innych tabel. Przykładowo nie ma moŜliwości usunięcia komitetu lokalnego jeŜeli istnieją osoby kontaktowe przypisane do tego komitetu. Podobnie nie moŜna usunąć firmy jeśli ma ona przypisane osoby kontaktowe. Ponadto poprzez zastosowanie ograniczeń typu „not null” wymuszane jest wprowadzanie danych uznanych przez członków AIESEC jako niezbędne. Przykładowo ograniczenie tego typu istnieje w polu zawierającym nazwisko członka komitetu lokalnego oraz osoby kontaktowej firmy. Rys. 1. Schemat bazy danych w aplikacji (źródło: opracowanie własne) ZałoŜono, Ŝe struktura aplikacji powinna być wydajna, niezbyt skomplikowana, a jednocześnie powinna pozwalać na duŜą elastyczność w dodawaniu nowych i modyfikowaniu juŜ istniejących obiektów i funkcji. W tym celu stworzono własny szkielet, którego poszczególne komponenty są ze sobą powiązane w sposób ortogonalny. Prostopadłość komponentów przejawia się w tym, iŜ są one w miarę moŜliwości niezaleŜne od siebie, mają wysoki stopień autonomiczności i jasno zdefiniowany zakres odpowiedzialności. Dzięki takiemu rozwiązaniu, zmiany jednego komponentu danego systemu nie wymuszają zmian w innym komponencie. Ortogonalność zapewniona jest POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 43 dzięki strukturze warstwowej. NajwaŜniejszą cechą tej architektury jest fakt, iŜ kaŜda warstwa opiera się wyłącznie na usługach oferowanych przez warstwę znajdującą się o jeden poziom niŜej, co umoŜliwia zmianę implementacji poziomu niŜszego bez konieczności przebudowy poziomu wyŜszego . PoniewaŜ rolę klienta w naszej aplikacji pełni przeglądarka internetowa, podział pomiędzy warstwą prezentacji i aplikacji nie ma charakteru fizycznego, a jedynie charakter logiczny. Wynika to z faktu, iŜ obie te warstwy realizowane są przez serwer aplikacji Apache Tomcat pełniący rolę kontenera WWW. Oznacza to, Ŝe zarówno interfejs klienta jak i logika biznesowa aplikacji obsługiwane są przez jedną wirtualną maszynę Javy, a podział pomiędzy warstwą prezentacji i aplikacji reprezentowany jest przez odpowiednią strukturę klas i stron JSP. W aplikacji rolę kontrolera i modelu, zamiast serwletów, odgrywają strony JSP, zawierające jedynie skryplety Javy, oraz dodatkowo korzystające z komponentów JavaBean. Strony JSP zajmują się wyświetlaniem danych zawartych w utworzonych przez kontroler komponentach. Jest to rozwiązanie równie bezpieczne i efektywne, a ponadto znacznie bardziej elastyczne i łatwiejsze w implementacji niŜ rozwiązanie klasyczne. Szczegółowy schemat zastosowanej architektury przedstawia rysunek 2. Rys. 2. Schemat architektury aplikacji (źródło: opracowanie własne) Stworzony szkielet składa się z zespołu stron JSP, komponentów JavaBean i klas pomocniczych, umoŜliwiających reprezentację obiektów znajdujących się w bazie. KaŜdemu obiektowi reprezentowanemu w bazie danych w postaci tabeli, w warstwie modelu aplikacji odpowiada komponent o nazwie odpowiadającej temu obiektowi (np. PersonBean.java), dodatkowo działania bezpośrednio na bazie, wykorzystujące skrypty SQL, wyodrębnione są w komponentach ze słowem 44 Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań „Action” (np. PersonActionBean.java). Dostęp do zmiennych w komponentach JavaBean moŜliwy jest jedynie poprzez metody dostępowe o standardowych nazwach. Dzięki temu moŜliwe jest zapisywanie wartości zmiennych za pomocą znaczników setProperty umieszczonych na stronach JSP. KaŜdemu obiektowi w bazie odpowiada równieŜ strona JSP, której nazwa składa się z nazwy tego obiektu (czyli tabeli), po której następuje słowo „Action” i rozszerzenie „jsp” (np. PersonAction.jsp). Strona akcji jest nieco uproszczoną wersją standardowej strony JSP, gdyŜ zawiera ona wyłącznie instrukcje importu klas i korzystania z obiektów JavaBean oraz skryplet Javy. Pełni ona głównie funkcję kontrolera, w kodzie tej strony zapisana jest część logiki biznesowej aplikacji oraz instrukcje sterujące wywoływaniem odpowiednich stron widoku. W pierwszej kolejności skryplet pobiera z Ŝądania wartość parametru „action”, która determinuję późniejsze kroki. Jeśli wartość ta jest równa „list” definiowany jest komponent ListBean. Oprócz takich wartości jak nazwa tabeli w bazie danych, czy wyświetlana nazwa listy, w skryptlecie dodawane są kolumny listy. Komponent ListBean zawiera równieŜ składowe zapytania SQL, które zostanie wysłane do bazy danych w celu wygenerowania listy. Osobno przechowywana jest nazwa tabeli, podstawowy warunek klauzuli „where”, dodatkowe ograniczenia wynikające z zastosowanego filtru i uprawnień zalogowanego uŜytkownika oraz klauzula „order by”. Jeśli parametr „action” przyjmie wartość „detail” lub „newForm” definiowany jest komponent DetailBean przechowujący dane szczegółowe konkretnego obiektu lub słuŜący do tworzenia nowego obiektu w bazie danych. Zarówno tutaj jak i w przypadku listy, to jakie dane są wyświetlane i jakie funkcje są dostępne, moŜna uzaleŜnić od poziomu uprawnień uŜytkownika. W przypadku gdy parametr „action” przechowuje wartość „updateForm” wywoływana jest strona NewUpdate.jsp z parametrem „update”. W tym przypadku nie ma konieczności tworzenia nowego komponentu DetailBean, gdyŜ został on juŜ zdefiniowany podczas wyświetlania danych szczegółowych obiektu. Fakt przyjęcia przez parametr „action” wartości „new" lub „update” oznacza, iŜ Ŝądanie pochodzi ze wspomnianej wcześniej strony NewUpdate.jsp. Dane z formularza HTML, znajdującego się na tej stronie, są zapisywane w odpowiadającym edytowanemu obiektowi komponencie JavaBean. Obiekt ten przekazywany jest jako parametr do funkcji statycznej komponentu ActionBean danego obiektu, zawierającej odpowiednią instrukcję SQL. W następnym kroku następuje przekierowanie do listy bądź danych szczegółowych obiektu. W przypadku wystąpienia błędu podczas wywołania funkcji dodawania lub edycji obiektu, przekierowanie następuje z powrotem do formularza oraz wyświetlony zostaje odpowiedni komunikat. 6. Uwagi końcowe System powstał w oparciu o bezpłatne rozwiązania, rozwijane na zasadach open source, co jest dowodem na to, Ŝe przy małym nakładzie finansowym moŜna realizować powaŜne projekty informatyczne. Podstawowym zadaniem było stworzenie elastycznego szkieletu, który umoŜliwiałby prosty i szybki sposób dodawania nowych obiektów i funkcji. Dzięki takiemu rozwiązaniu moŜliwe jest dostosowywanie programu do potencjalnych przyszłych wymagań organizacji i stałe jego ulepszanie. System zbudowano nie korzystając z zewnętrznych modułów i rozwiązań, samodzielnie zaimplementowano potrzebne mechanizmy szablonów oraz warstwy pośredniej dostępu do bazy. Rozwijając system starano się na bieŜąco dostosowywać go do uwag uŜytkowników. Projektując system duŜą uwagę zwrócono na bezpieczeństwo. Dlatego starano się zabezpieczyć system przed atakami hakerów oraz stworzono mechanizm praw dostępu, który pozwala przydzielać uprawnienia do poszczególnych funkcji określonym uŜytkownikom. Dzięki modularności aplikacji POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 45 bardzo łatwo ją rozwijać dodając nowe funkcje oraz konserwować poszczególne moduły. Wynikiem pracy jest kompletna aplikacja uŜywana przez AIESEC Poznań, a w przyszłości najprawdopodobniej takŜe przez inne komitety lokalne tej międzynarodowej organizacji studenckiej. Powstał elastyczny szkielet pozwalający na łatwą rozbudowę systemu i jego dostosowanie do rosnących wymagań organizacji. Niewykluczone jest stworzenie modułów wspierających inne dziedziny działalności AIESEC. NiezaleŜnie od tego aplikacja stworzona dla AIESEC moŜe być bardzo dobrą podstawą do realizacji innego projektu. 7. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Apache Struts Framework <http://struts.apache.org/>. Eckel, B.: Thinking in Java. Edycja polska, Wyd. 4. Helion, Gliwice 2006. Grochowski, M.: Aplikacje bazodanowe z dostępem internetowym na przykładzie portalu internetowego tworzonego dla organizacji studenckiej AIESEC Poznań. Praca magisterska, SGGW, Warszawa 2006. Hall, M., Brown, L.: Java Serwlet i JavaSerwer Pages,Tom 1, Wyd. 2. Helion, Gliwice 2006. Java EE at a Glance <http://java.sun.com/javaee/>. Karwowski W., Mazur P., Orłowski A.: System „PAKD”, Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, Nr 13, str. 74-81, PSZW, Bydgoszcz 2008. Monnox, A: J2EE. Podstawy programowania aplikacji korporacyjnych, Helion, Gliwice 2006. Spring Framework <http://www.springframework.org/>. Sulkowski P., Rusek M., Karwowski W.: System Napis.pl, Monografia „Systemy Informatyczne w Zarządzaniu”, redakcja naukowa: W. Karwowski i A. Orłowski, Wydawnictwo SGGW, Warszawa 2007, str. 99-109. 46 Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań INTERNET PORTAL DEVELOPMENT FOR STUDENT ORGANIZATION AIESEC POZNAŃ Summary Organizations most frequently exploit Internet portals which integrate more rich functionality as before. Portals can be implemented with “on shelf” solutions or can be built for special demand. In the paper development process of portal for student organization AIESEC Poznań is presented. Background of chosen technology - Java Enterprise Edition – and a way of its utilizing in developing database application with the Internet access is described. Application architecture based on created framework is presented in more details. Keywords: portal, CMS, framework, Java Waldemar Karwowski Arkadiusz Orłowski Maciej Grochowski Katedra Informatyki Wydział Zastosowań Informatyki i Matematyki Szkoła Główna Gospodarstwa Wiejskiego 02-776 Warszawa ul. Nowoursynowska 159 e-mail: [email protected] e-mail: [email protected] http://wzim.sggw.pl POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 47 ANNA LENART Uniwersytet Gdański SYSTEMY ERP A ZARZĄDZANIE RELACJAMI Z KLIENTAMI Streszczenie Wzrost globalnej konkurencji spowodował konieczność zapewnienia wysokiej jakości obsługi klientów. W odpowiedzi na zmiany warunków funkcjonowania przedsiębiorstw powstała koncepcja zarządzania relacjami z klientem. Celem artykułu jest prezentacja obszarów funkcjonalnych i korzyści z zastosowania systemów planowania zasobów przedsiębiorstwa (ERP) oraz systemów zarządzania relacjami z klientem (CRM). W artykule dokonano równieŜ krótkiej charakterystyki systemu ERP oraz opisano rolę marketingu w zarządzaniu przedsiębiorstwem. Słowa kluczowe: systemy ERP, systemy CRM, zarządzanie relacjami z klientem, marketing, marketing relacji, zarządzanie przedsiębiorstwem 1. Krótka charakterystyka systemów ERP Systemy planowania zasobów przedsiębiorstwa (Enterprise Resource Planning – ERP) są niezbędnym zestawem narzędzi przeznaczonych do zarządzania współczesną organizacją. System ERP to zintegrowany system informatyczny, który umoŜliwia planowanie, zarządzanie i wykorzystanie wszystkich zasobów organizacji oraz kontrolę wszystkich procesów biznesowych w czasie rzeczywistym [24]. Systemy tej klasy cechuje otwartość i elastyczność. Otwartość oznacza moŜliwość integracji z innymi systemami, usługami internetowymi i urządzeniami mobilnymi. Elastyczność umoŜliwia zmianę konfiguracji systemu w celu dostosowania do zmieniających się wymagań i praktyk biznesowych. W systemach ERP moŜna wyróŜnić cztery obszary funkcjonalne: marketing i sprzedaŜ, zarządzanie łańcuchem dostaw, rachunkowość i finanse oraz zasoby ludzkie (tabela 1). System ERP stanowi niezbędny zestaw narzędzi słuŜący do zarządzania współczesnym przedsiębiorstwem we wszystkich obszarach funkcjonalnych. Podstawą systemu ERP jest podsystem zarządzania finansami (rachunkowość i finanse), który dostawcy oprogramowania rozszerzyli o metody zarządzania logistycznego oraz zarządzania zasobami ludzkimi. W celu lepszego dopasowania produktów do potrzeb klienta i odzwierciedlenia wzrostu znaczenia obsługi klientów w systemach ERP wyodrębniono podsystem marketingu i sprzedaŜy. W ramach tego podsystemu udostępniane są rozwiązania z zakresu zarządzania relacjami z klientem. NajwaŜniejsze korzyści z zastosowania systemów ERP to [8; 14]: • integracja informacji ze wszystkich działów przedsiębiorstwa, • obniŜka kosztów produkcji, • poprawa poziomu obsługi klientów, • synchronizacja procesów zaopatrzenia, produkcji i dystrybucji, • poprawa płynności finansowej, • zwiększenie kompetencji pracowników. 48 Anna Lenart Systemy ERP a zarządzanie relacjami z klientami Tabela.1. Obszary funkcjonalne systemu ERP Obszar funkcjonalny Marketing i sprzedaŜ Zarządzanie łańcuchem dostaw Rachunkowość i finanse Zarządzanie zasobami ludzkimi Funkcje biznesowe Marketing produktu Obsługa zleceń klientów Wsparcie klienta Zarządzanie relacjami z klientem Prognozowanie sprzedaŜy Zaopatrzenie Zarządzanie materiałami Transport Produkcja Utrzymanie zakładu Rachunkowość finansowa Alokacja i kontrola kosztów Planowanie i budŜetowanie Zarządzanie przepływami pienięŜnymi Rekrutacja Zarządzanie personelem Płace Szkolenia Źródło: Opracowanie własne na podstawie: [18] Model ERP zaproponowała amerykańska firma analityczno-doradcza Gartner Group w 1990 roku, ale nie został on opublikowany jako standard. Oznacza to, Ŝe rozwiązania pochodzące od róŜnych producentów mogą udostępniać uŜytkownikowi zróŜnicowany zakres funkcji i modułów. W drugiej połowie lat 90. XX wieku systemy ERP stały się niewystarczające do uzyskania przewagi konkurencyjnej, ale jednocześnie posiadanie takiego systemu stało się jednym z warunków przetrwania przedsiębiorstwa. Popularność zyskały inne rozwiązania informatyczne: • systemy zarządzania relacjami z klientem (Customer Relationship Management – CRM), • systemy zarządzania łańcuchem dostaw (Supply Chain Management – SCM). Większość systemów ERP udostępnia podstawowe rozwiązania z zakresu transakcyjnych CRM i wewnętrznych SCM. Istnieje równieŜ moŜliwość integracji zaawansowanych systemów klasy CRM i SCM z systemami ERP [14]. W 2000 roku firma Gartner Group zaproponowała nową koncepcję systemów planowania relacji przedsiębiorstwa z otoczeniem, stanowiących rozszerzenie systemów ERP o współpracę z klientami, dostawcami i partnerami handlowymi oraz rozwiązania z zakresu handlu elektronicznego. Jest to naturalne rozszerzenie systemów ERP o wykorzystanie technologii internetowych i rozwiązań mobilnych. Mimo powstawania wielu innych rozwiązań wspomagających zarządzanie systemy ERP nadal stanowią strategiczny element biznesu. Inne rozwiązania mogą być selektywnie dobierane przez klientów niezaleŜnie od rdzenia, czyli systemu ERP [10]. Szerzej na temat systemów ERP i kierunków ich rozwoju piszą m.in.: [2; 8; 11; 14; 18; 22]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 49 2. Rola marketingu w zarządzaniu przedsiębiorstwem W warunkach gospodarki rynkowej i nasilającej się konkurencji wzrosło znaczenie marketingu jako koncepcji zarządzania przedsiębiorstwem. Współczesny marketing to koncepcja zarządzania zorientowana za rozpoznawanie i zaspokajanie potrzeb wszystkich uczestników rynku, ale przede wszystkim klientów [17]. Marketing przyczynia się do kreowania wartości oczekiwanych przez klientów w zamian za zysk [7]. Strategie marketingowe powinny przyczyniać się do „zdobycia i utrzymania przewagi konkurencyjnej na rynku” [17]. Struktura marketingu obejmuje trzy elementy [7]: system wartości, system badań marketingowych i instrumenty marketingu (marketing-mix). „System wartości określa stosunek przedsiębiorstwa do klientów, pracowników i partnerów” [7]. Badania marketingowe to celowe i systematyczne gromadzenie informacji na potrzeby podejmowania decyzji marketingowych. Badania marketingowe dotyczą potrzeb klientów i stopnia ich zaspokojenia, efektywności stosowanych narzędzi marketingowych i oceny pozycji przedsiębiorstwa na tle konkurencji [7]. Instrumenty marketingumix (produkt, cena, promocja, dystrybucja) powinny być stosowane do kreowania wartości dla klientów i uzyskiwania przewagi konkurencyjnej. Zadaniem zarządzania marketingowego jest ukształtowanie poziomu i struktury popytu oraz rozłoŜenie go w czasie w sposób pomagający przedsiębiorstwu osiągnąć ustalone cele. Ponadto dział marketingu odpowiada za ukształtowanie warunków zakupu, relacji wewnątrz przedsiębiorstwa oraz relacji z otoczeniem [7]. Proces zarządzania marketingowego koordynuje wszystkie działania podejmowane i realizowane na rynku, np. definiowanie celów marketingu w zgodności z celami przedsiębiorstwa, rozwój strategii marketingowych zintegrowanych ze strategią globalną przedsiębiorstwa i stosowanie instrumentów marketingu-mix [17]. WyróŜnia się dwa podejścia do marketingu w przedsiębiorstwie: strategiczne zorientowane na analizę i operacyjne zorientowane na działania. Marketing strategiczny to systematyczna analiza potrzeb klientów oraz projektowanie we współpracy z działem badań i rozwoju produktu lub pakietu usług lepszego niŜ proponuje klientowi konkurencja. Ułatwia on sprostanie takim współczesnym wyzwaniom przedsiębiorstwa jak: globalizacja, nowe technologie, ekologia, interaktywna komunikacja przez rozwój systemów monitorowania otoczenia marketingowego i analizowanie konkurencji oraz rozwijanie zdolności przystosowania się do zmian w otoczeniu. Marketing operacyjny obejmuje działania krótko- i średnioterminowe na istniejących rynkach. Zadaniem marketingu operacyjnego jest generowanie wpływów ze sprzedaŜy poprzez wykorzystanie instrumentów marketingu-mix. Marketing strategiczny i operacyjny uzupełniają się wzajemnie dlatego naleŜy integrować działania w obu obszarach [7]. W latach 90. zaczęto stosować marketing relacji (relationship marketing). Jest to „koncepcja zarządzania przedsiębiorstwem polegająca na traktowaniu klienta jako wartości firmy i skupieniu wszystkich wysiłków firmy wokół klienta” [5], które integruje „działy marketingu, sprzedaŜy i logistyki w słuŜbie klientowi, w imię wartości dla klienta” [5]. Szerzej na temat marketingu relacji patrz: [3; 5]. W celu wspomagania zarządzania marketingowego stosuje się systemy informacji marketingowej, które dostarczają informacje dotyczące potencjalnego popytu na produkty oraz pozwalają oszacować rentowność i ryzyko związane z podjęciem określonych działań marketingowych. Informacje gromadzone i przetwarzane w calach marketingowych są pozyskiwane z róŜnych źródeł. Źródła informacji wewnętrznych dotyczą takich obszarów, jak: sprzedaŜ, dostawy, zapasy, koszty, 50 Anna Lenart Systemy ERP a zarządzanie relacjami z klientami zatrudnienie itp. [7]. Informacje te są przechowywane w systemach ERP. W tradycyjnym systemie informacji marketingowej wyróŜnia się cztery moduły: sprawozdania wewnętrzne, badania marketingowe, wywiady i system wspomagania decyzji. W systemie tradycyjnym wykorzystuje się technologie baz danych. Szerzej na temat systemu informacji marketingowej patrz: [7; 18; 22; 25]. Nowoczesne systemy informacyjne marketingu umoŜliwiają korzystanie z technik multimedialnych oraz Internetu. W ten sposób powstała koncepcja marketingu elektronicznego jako nowy model kontaktu z klientem. Marketing elektroniczny (e-marketing) polega na zastosowaniu Internetu do realizacji działań marketingowych w zakresie komunikowania się między firmami i pozyskiwania informacji przydatnych w tych działaniach. Zastosowanie Internetu w działaniach marketingowych umoŜliwia m.in.: pozyskiwanie informacji do badań marketingowych, dostosowanie produktów do indywidualnego zapotrzebowania klientów, zbieranie zamówień, prowadzenie promocji firmy i jej produktów. Porównania marketingu tradycyjnego i elektronicznego dokonano w: [5; 21; 25]. Marketing determinuje rozwój orientacji rynkowej w zarządzaniu przedsiębiorstwem i stanowi nowoczesną koncepcję zarządzania przedsiębiorstwem. 3. System CRM jako rozszerzenie funkcjonalne systemu ERP Jednym z rozwiązań informatycznych stosowanych w systemach informacji marketingowej są systemy zarządzania relacjami z klientem (Customer Relationship Management – CRM). CRM to metoda zarządzania, której celem jest indywidualizacja obsługi klientów oraz zapewnienie wzrostu sprzedaŜy. AngaŜuje ona szczególnie nieprodukcyjne komórki organizacyjne przedsiębiorstwa, które są odpowiedzialne za obsługę klienta: marketing, sprzedaŜ i serwis. CRM to „strategia firmy zorientowana na zwiększenie jej dochodów przez identyfikacje, przyciągnięcie i utrzymanie klientów” [16]. Zarządzanie relacjami z klientem określane jest teŜ jako: „Proces zarządzania relacjami z obecnymi klientami w celu ich utrzymania, maksymalizacji ich lojalności oraz zwiększenia uzyskiwanych z nich przychodów, a jednocześnie selektywnego przyciągania nowych klientów” [23]. Przeglądu definicji systemu CRM dokonano w: [3]. CRM jest podsystemem systemu zarządzania relacjami przedsiębiorstwa (Enterprise Relationship Planning – ERM). Inne podsystemy to: • system zarządzania relacjami z dostawcami (Supplier Relationship Management – SRM), • system zarządzania relacjami z partnerami handlowymi (Partner Relationship Management – PRM), • wewnętrzny system zarządzania relacjami z pracownikami (Employee Relationship Management – ERM). Zarządzanie relacjami z dostawcami słuŜy skróceniu cyklu produkcyjnego poprzez zapewnieniu terminowości dostaw i jakości dostarczanych materiałów. Systemy te pomagają firmom analizować kontrahentów i wybierać dostawców strategicznych. Dzięki ich zastosowaniu moŜna optymalizować metody przyjmowania ofert i ich selekcji. Zarządzanie relacjami z partnerami handlowymi dotyczy pośrednich kanałów sprzedaŜy (dystrybutorów, resellerów i detalistów), w przeciwieństwie do CRM, które obsługują bezpośrednio klientów końcowych. Celem tych systemów jest lepsza koordynacja relacji biznesowych z partnerami na poziomie komunikacji, wymiany informacji oraz współpracy. Pozwalają one równieŜ śledzić sukcesy partnerów handlowych. Wewnętrzny ERM to rozwiązanie umoŜliwiające szybką komunikację pomiędzy pracownika- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 51 mi oraz dostarczające im informacji i zasobów, w celu zwiększenia efektywności ich pracy, wykorzystując portal korporacyjny [9]. Obejmuje on zarządzanie komunikacją wewnętrzną, zarządzanie zasobami oraz zarządzanie wiedzą. Szerzej na temat róŜnych systemów zarządzania relacjami patrz [3]. W dalszej części artykułu skupiono uwagę na systemach CRM. Zadaniem systemów CRM jest zapewnienie przywiązania i lojalności klienta oraz tworzenie pozytywnego wizerunku firmy przyjaznej dla klienta [25]. Systemy CRM pomagają przedsiębiorstwom w walce konkurencyjnej o klienta. Koncentrują się na wszystkich procesach i działaniach skupionych na kliencie, a realizowanych wewnątrz firmy (back office) oraz komunikacji ze światem zewnętrznym (front office) [4]. W tabeli 2. zaprezentowano najwaŜniejsze funkcje systemów CRM. Tabela .2. Obszary funkcjonalne systemu CRM Obszar funkcjonalny Marketing SprzedaŜ Serwis Funkcje biznesowe Obsługa kampanii marketingowych Obsługa korespondencji Monitorowanie konkurencji Segmentacja rynku Encyklopedia marketingu Kontakty z klientami Planowanie i prognozowanie sprzedaŜy Wsparcie przedstawicieli handlowych Kontrola realizacji zamówień Obsługa przyjmowania zgłoszeń Monitorowanie umów serwisowych Obsługa reklamacji Bazy rozwiązań Źródło: Opracowanie własne na podstawie: [3; 4; 21; 24] W architekturze systemów CRM wyróŜnia się [1; 3; 5]: CRM transakcyjne (operacyjne), CRM analityczne oraz CRM interakcyjne (komunikacyjne). CRM transakcyjny oferuje rozwiązania umoŜliwiające rejestrowanie zamówień, prowadzenie baz klientów, konfigurowanie ofert i zarządzanie sprzedaŜą. Transakcyjne CRM nazywane są równieŜ front office, poniewaŜ odpowiadają za kontakt firmy z klientem. Źródłem danych dla transakcyjnego CRM są systemy ERP. Proces obsługi klienta przy uŜyciu systemu SAP ERP opisano w [12]. CRM analityczny udostępnia hurtownię danych i oferuje analizę danych pochodzących z działów marketingu, sprzedaŜy i serwisu. UmoŜliwia on wspomaganie podejmowania decyzji i nazywany jest teŜ strategicznym systemem CRM. Porównania operacyjnych i analitycznych CRM dokonano w [3]. Interakcyjne CRM ułatwiają komunikację i współpracę z klientami, wykorzystując połączenia głosowe i wideo, faks, email, kontakt osobisty, telekonferencje i Internet. Interakcyjne CRM są teŜ określane jako Contact Center, czyli wielokanałowe centrum obsługi klienta, które obejmuje: call center, serwer internetowy i bramki GSM [3]. Szerzej na temat architektury systemów CRM patrz: 52 Anna Lenart Systemy ERP a zarządzanie relacjami z klientami [3; 6; 9; 10; 21; 24]. Najczęściej występujące w praktyce korzyści z zastosowania systemów CRM to [3; 20]: • poprawa przepływu informacji w przedsiębiorstwie, • uzyskanie kompleksowych danych o kliencie, • automatyzacja i standaryzacja procesu obsługi klienta, • wzrost konkurencyjności przedsiębiorstwa, • segmentacja rynku odbiorców, • poprawa jakości obsługi klientów, • integracja kanałów komunikacji z klientem, • wzrost przychodów ze sprzedaŜy. Korzyści z wdroŜenia systemu CRM moŜna teŜ podzielić na mierzalne i niemierzalne. Korzyści mierzalne związane są z wartością sprzedaŜy, zyskiem ze sprzedaŜy i kosztami sprzedaŜy. Korzyści niemierzalne to parametry o charakterze jakościowym, np. wzrost lojalności klienta, pozyskiwanie nowych klientów [25]. W tabeli 3 zaprezentowano przykładowe korzyści wynikające z wdroŜenia systemu CRM, które wpływają na długofalowe cele organizacji (korzyści strategiczne) i powodują automatyzację procesów i wzrost wydajności pracy (korzyści operacyjne) [15]. Tabela .3. Korzyści strategiczne i operacyjne z wdroŜenia systemu CRM Rodzaj korzyści Korzyści strategiczne Korzyści operacyjne Przykładowe korzyści Utworzenie repozytorium informacji marketingowej Poprawa kultury organizacyjnej Wprowadzenie spójnego systemu obsługi klienta Zwiększenie satysfakcji klientów Zwiększenie lojalności klientów Zwiększenie sprzedaŜy Lepszy obieg dokumentów Szybki dostęp do informacji Zwiększenie efektywności kampanii marketingowych Kontrola budŜetu przeznaczonego na promocję Zmniejszenie ilości reklamacji MoŜliwość lepszej oceny handlowców Źródło: Opracowanie własne na podstawie: [15] Dostępne na rynku systemy CRM najczęściej oferują funkcje transakcyjne, analityczne lub komunikacyjne. Przykładem rozwiązania kompleksowego jest system SAP CRM. WyróŜnia się on na tle innych rozbudowanymi moŜliwościami analitycznymi. Wykorzystanie hurtowni danych pozwala uwzględniać w analizach dane pochodzące z systemu SAP ERP i innych systemów informatycznych. Szerzej na temat systemu SAP CRM: [1; 15; 20; 25]. W zakresie marketingu system SAP CRM oferuje: • segmentację i personalizację klienta, • planowanie marketingowe, • zarządzanie kampaniami marketingowymi, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 53 • analizę marketingową. W zakresie sprzedaŜy system SAP CRM udostępnia: • zarządzanie organizacją i terytorium, • zarządzanie aktywnością i szansami, • planowanie i prognozowanie sprzedaŜy, • analizę sprzedaŜy. Obszar serwisu w systemie SAP CRM jest wspomagany przez: • obsługę wielokanałową (serwisanci, call center, Internet), • planowanie i prognozowanie serwisu, • zarządzanie serwisem, • planowanie i organizację zasobów, • wsparcie i obsługę klienta. W systemach CRM stosuje się róŜne kanały komunikacji i sprzedaŜy (serwis internetowy, praca w terenie). W wyniku zastosowania technologii internetowych powstały elektroniczne CRM (electronic CRM – eCRM). Rozwój technologii bezprzewodowych przyczynił się do powstania mobilnych CRM (mobile CRM – mCRM). Systemy elektronicznego zarządzania relacjami z klientami umoŜliwiają współpracę z klientami w czasie rzeczywistym oraz dostarczanie spersonalizowanych usług. Realizują one marketing, handel, promocję oraz kontakt z e-klientami (klientami wirtualnymi) przez Internet [21]. System eCRM obejmuje [16; 19; 21; 24]: • wsparcie marketingu (zarządzanie kampaniami, sporządzanie katalogu produktów), • obsługę sprzedaŜy i e-handel, • serwis i wsparcie klienta po sprzedaŜy, • call center, • integrację z systemami ERP, • synchronizację danych (np. przepływ informacji między urządzeniami przenośnymi a główną bazą danych). Mobilny CRM umoŜliwia przekazywanie informacji klientom, dostawcom i partnerom handlowych za pośrednictwem technologii bezprzewodowych. MoŜna go stosować do zbierania zamówień i informacji od klientów i przekazywania ich za pomocą telefonu komórkowego lub palmtopa do systemu informatycznego przedsiębiorstwa (np. ERP). Mobilny CRM zapewnia dwustronną komunikację pracownika w terenie z przedsiębiorstwem. Takie rozwiązanie jest szczególnie przydatne dla przedstawicieli handlowych lub serwisantów, którzy obsługują duŜy obszar geograficzny. Pracownicy w terenie mają dostęp do aktualnych danych o produktach, kliencie, zamówieniach i fakturach. Dzięki temu mogą szybko reagować na potrzeby klientów. Mobilny CRM umoŜliwia zarządzanie pracownikami w terenie, aktualizację danych przez pracowników w terenie i konsultacje decyzji z przełoŜonymi [3; 4; 6]. W dobie gospodarki opartej na wiedzy stworzono strategię biznesową zarządzania relacjami z klientem na bazie wiedzy (Knowledge-Enabled Customer Relationship Management – KCRM). Strategii ta jest definiowana jako „Zarządzanie wiedzą o kliencie, którego celem jest dostarczenie mu nowej wartości wiąŜącej go z firmą oraz zarządzanie wiedzą o partnerach biznesowych dla wzmocnienia relacji i skuteczniejszej współpracy” [18]. Porównania strategii CRM i KCRM dokonano w: [23]. 54 Anna Lenart Systemy ERP a zarządzanie relacjami z klientami Z badań rynku CRM na świecie i w Polsce wynika, Ŝe systemy CRM są najczęściej stosowane przez instytucje finansowe, firmy telekomunikacyjne i informatyczne [3]. 4. Podsumowanie Pod koniec lat 90. XX wieku w celu uzyskania przewagi konkurencyjnej firmy korzystające z systemów ERP zaczęły interesować się rozszerzeniem funkcjonalności tych systemów w zakresie zarządzania relacjami z klientem. Zarządzanie relacjami z klientem to kombinacja funkcji biznesowych i technologii. Celem tej strategii jest zrozumienie klienta, pozyskanie i utrzymanie klienta oraz poprawienie poziomu satysfakcji klienta i jego lojalności. Podstawowe funkcje biznesowe transakcyjnych systemów CRM są dostępne w systemach ERP. Bardziej rozbudowane rozwiązania analityczne oraz rozwiązania komunikacyjne wymagają zastosowania oddzielnych systemów CRM, które często są zintegrowane z systemami ERP. 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. Adamczewski P.: Zintegrowane systemy informatyczne w praktyce, Mikom, Warszawa 2004. Adamczyk A., Chmielarz W.: Zintegrowane sytestemy informatycznego wspomagania zarządzania, Wydawnictwo WSE-I, Warszawa 2005. Buchnowska D.: CRM – strategia i technologia, Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk 2006. Bytniewski A. (red.): Architektura zintegrowanego systemu informatycznego zarządzania, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2005. Dembińska-Cyran I., Hołub-Iwan J., Perenc J.: Zarządzanie relacjami z klientem, Difin, Warszawa 2004. Dyché J.: CRM. Relacje z klientami, Helion, Gliwice 2002. Frąckiewicz E., Karwowski J., Karwowski M., Rudawska E.: Zarządzanie marketingowe, PWE, Warszawa 2004. Hamilton S.: Maximizing Your ERP System. A Practical Guide for Managers, McGrawHill, New York 2003. Kasprzak T. (red.): W kierunku rozszerzonego przedsiębiorstwa. Analiza sektorowa rozwoju ICT w Polsce, Difin, Warszawa 2006. Kolbusz E., Olejniczak W., Szyjewski Z. (red.): InŜynieria systemów informatycznych w e-gospodarce, PWE, Warszawa 2005. Lech P.: Zintegrowane systemy zarządzania ERP/ERP II. Wykorzystanie w biznesie, wdraŜanie, Difin, Warszawa 2003. Lenart A.: Process Approach in the ERP Systems. In: Kubiak B.F., Korowicki A. (eds.): Information Management, University of Gdansk, Faculty of Management, Gdansk University Press, Gdansk 2007, pp. 192-200. Lenart A.: Systemy ERP a zarządzanie wiedzą. W: Bojar W. (red.): Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą - nr 13, Polskie Stowarzyszenie Zarządzania Wiedzą, Bydgoszcz 2008, s. 138-146. Lenart A.: Zintegrowane systemy informatyczne klasy ERP. Teoria i praktyka na przykładzie systemu BAAN IV, Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk 2005. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 55 15. Lotko A.: Zarządzanie relacjami z klientem. Strategie i systemy, Wydawnictwo Politechniki Radomskiej, Radom 2006. 16. Małachowski A.: Środowisko wirtualnego klienta, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2005. 17. Matwiejczuk R.: Zarządzanie marketingowo-logistyczne. Wartość i efektywność, Wydawnictwo C.B. Beck, Warszawa 2006. 18. Monk E., Wagner B.: Concepts in Enterprise Resource Planning, Thompson Course Technology, Boston, Massachusetts 2006. 19. Norris G., Hurley J. R., Hartley K. M., Dunleavy J. R., Balls J. D.: E-Business and ERP. Transforming the Enterprise, John Wiley & Sons, New York 2000. 20. Nowicki A., Unold J. (red.): Zarys problematyki doskonalenia systemów informacyjnych marketingu, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2002. 21. Olszak C.M., Ziemba E. (red.): Strategie i modele gospodarki elektronicznej, PWN, Warszawa 2007. 22. Sumner M.: Enterprise Resource Planning, Pearson Prentice Hall, New Jersey 2005. 23. Tiwana A.: Przewodnik po zarządzaniu wiedzą. E-biznes i zastosowania CRM, Placet, Warszawa 2003. 24. Turban E., Leidner D., McLean E., Wetherbe J.: Information technology for Management. Transforming Organizations in the Digital Economy, John Wiley & Sons, New York 2007. 25. Unold J.: Systemy informacyjne marketingu, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2001. 56 Anna Lenart Systemy ERP a zarządzanie relacjami z klientami ERP SYSTEMS AND CUSTOMER RELATIONSHIPS MANAGEMENT Summary Globalization of the market and growing competition enlarge requirement in relation to speed and quality of consumer service. Because of changes in environment of contemporary enterprise the concept of customer relationship management gain popularity. The purpose of the paper is to present functional areas and advantages from the use of Enterprise Resource Planning Systems and Customer Relationship Management Systems. The paper contains the short characteristics of ERP system and the role of marketing in the enterprise management. Keywords: ERP systems, Enterprise Resource Planning, CRM systems, Customer Relationship Management, marketing, relationship marketing, enterprise management Anna Lenart Uniwerystet Gdański e-mail: [email protected] Tomasz Ordysiński Metody szacowania wartości rynkowej serwisu internetowego TOMASZ ORDYSIŃSKI Uniwersytet Szczeciński METODY SZACOWANIA WARTOŚCI RYNKOWEJ SERWISU INTERNETOWEGO Streszczenie W praktyce działalności internetowej coraz mocnej ujawnia się zjawisko handlu (odsprzedaŜy, przejęcia, wejścia na giełdę papierów wartościowych) serwisami internetowymi. Ich rola w gospodarce stale rośnie, co pokazują badania internetowego rynku reklamy oraz sprzedaŜy. Coraz więcej firm (małych i duŜych) zaczyna prowadzić działalność stricte sieciową, gdzie głównym zasobem jest informacja zamieszczana na stronach WWW. Zmiana właściciela czy teŜ odsprzedaŜ części udziałów wymaga określenia wartości takiego serwisu. W artykule zawarto próbę identyfikacji i analizy metod wyceny komercyjnych serwisów internetowych pod kątem ich stosowalności. Słowa kluczowe: szacowanie wartości serwisu internetowego, metody wyceny stron WWW, dochody serwisów internetowych 1. Wprowadzenie Rozwój wykorzystania usług internetowych wśród przedsiębiorstw w Polsce charakteryzuje się znaczną dynamiką. Liczba komercyjnych stron WWW pełniących funkcje od zwykłej ewizytówki przez handlową (sklepy internetowy) aŜ do zaawansowanych technologiczne portali przedsiębiorstw stale rośnie. KaŜdy z tych serwisów wymagał lub stale wymaga nakładów finansowych, ale jego utworzenie i utrzymanie ma słuŜyć konkretnemu celowi. Cel ten, definiowany przez właściciela strony (przedsiębiorstwo), w kaŜdym przypadku jest on związany pośrednio lub bezpośrednio ze stroną przychodów prowadzonego biznesu. Wycena takiego serwisu internetowego w przypadku związku bezpośredniego (handel elektroniczny) jest dość prosta. DuŜym problemem okazuje się jednak oszacowanie wartości stron w przypadku, gdy nie są one związane z sektorem e-commerce, ale pośrednim (a czasami zręcznie ukrytym) celem ich istnienia jest generowanie przychodów. Dość często napotyka się wypowiedzi na forach internetowych, gdzie osoba wnosząca do spółki serwis internetowy jako swój wkład ma go wycenić na potrzeby wpisu do Krajowego Rejestru Sądowego, a brak jest jakichkolwiek urzędowych wskazówek na ten temat. [1] Rzeczywistość działalności internetowej pokazuje takŜe nasilenie zjawiska handlu serwisami internetowymi w postaci odsprzedaŜy, czy róŜnego rodzaju przejęć, takŜe wśród firm sektora MŚP. Ciekawym problemem w tym procesie jest dokonywanie oszacowania wartości pewnego zbioru stron WWW zarówno przez sprzedającego jak i kupującego. Celem artykułu jest identyfikacja oraz analiza stosowanych metod wyceny komercyjnych serwisów internetowych. 58 Tomasz Ordysiński Metody szacowania wartości rynkowej serwisu internetowego 2. Komercyjne serwisy internetowe i źródła ich dochodów Gama rodzajów serwisów internetowych stale się powiększa. Podając obecną typologię moŜna wyróŜnić: − serwis informacyjny – jest to serwis poświęcony informacjom o organizacji, misji, charakterze organizacji, liście sukcesów, danych identyfikacyjnych i kontaktowych, zawierający katalog produktów lub usług, cen oraz aktualne informacje o organizacji oraz bieŜącą ofertę handlową. Charakteryzuje się duŜymi zasobami treści. − serwis reklamowy – jego celem jest prowadzenie działań promocyjnych organizacji i jej produktów. − serwis transakcyjny – ma na celu wspomaganie procesu sprzedaŜy oraz utrzymanie partnerskich kontaktów z klientami. − portal komercyjny – jest wielotematycznym serwisem internetowym, oferującym dostęp do wielu informacji. Udostępnia on bogate treści, bez szczegółowości informacji. − wortal (vortal) – portal wertykalny, dostarcza szczegółowej informacji z konkretnej dziedziny. MoŜe być dedykowany np. ekonomii, finansom, budownictwu itp. − blog - rodzaj stron, które generalnie są uŜywane jako internetowe dzienniki, chociaŜ część z nich (zwłaszcza prowadzonych przez specjalistów z róŜnych dziedzin posiada cechy stron komercyjnych np. w formie reklamy zewnętrznej lub autoreklamy prowadzącego) − portal korporacyjny – ma na celu prezentację organizacji, jej działalności i produktów. Są wykorzystywane w ekstranecie oraz Internecie dla róŜnych odbiorców przedstawiające róŜną treść. − serwis szkoleniowy – nastawiony jest na zdobywanie i poszerzanie wiedzy. − serwis społecznościowy - rodzaj stron, na których spotykają się internauci o podobnych zainteresowaniach. Fundamentem serwisów społecznościowych są fora dyskusyjne, lub czaty.[2] Jednak na tym podziale klasyfikacja na pewno się nie zamknie. Obecnie coraz bardziej popularne staje się hasło WEB 2.0. Początkowo (lata 2004-2005) traktowane jest pewne hasło reklamowe zaczyna się strukturalizować jako nowa koncepcja i sposób konstruowania serwisów internetowych. Serwisy budowane według "filozofii Web 2.0" będą w znacznie większym stopniu niŜ dzisiejsze pozostawiać uŜytkownikom pole do własnej aktywności. Będą pozwalać, aby to sami internauci współtworzyli dostępne w serwisie treści oraz decydowali, które z nich zasługują na wyeksponowanie. Często specyfikę Web2.0 tłumaczy się na przykładach serwisów "nowej epoki". Jeden z takich flagowych serwisów to Del.icio.us. Jego uŜytkownicy na swoich podstronach w serwisie gromadzą i kategoryzują według słów kluczowych linki do ulubionych stron WWW. Wszystkie osobiste kolekcje linków są dostępne publicznie.[3] Wszystkie wymienione powyŜej formy serwisów internetowych utworzone i utrzymywane są w określonym celu. Internetowa działalność komercyjna przyjąć moŜe rozmaite postaci, ale kaŜda z nich będzie ukierunkowana na generowanie przychodów. Sposobów zarabiania w Internecie jest duŜo – od bardzo powszechnych (np. reklama internetowa w postaci banerów) do bardzo zaawansowanych (jak np. giełdy internetowe czy portale branŜowe). Najszerzej stosowanym sposobem uzyskania przychodów ze strony internetowej jest reklama, którą na stronach serwisów podzielić moŜna na trzy podstawowe grupy: 59 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 − własna (róŜne formy reklamujące sam serwis lub całość strony traktowana jako tzw. ewizytówka czy katalog oferty/produktów), − obca (róŜne formy reklamujące obce serwisy, z którymi właściciel danej strony podpisał umowę bezpośrednio), − pochodząca z sieci reklamowych (reklamy rozsyłane przez np. Google Adsense). Przedstawienie dostępnych obecnie form reklamy internetowej wykracza poza ramy tego artykułu – dokładne informacje odnaleźć moŜna na stronach np. http://www.ittechnology.us/ (nota bene przykład blogu, o dość ciekawej formie komercyjnej). Z punktu widzenia dochodowości istotne są dane dotyczące rynku tej formy reklamy. Przedstawione poniŜej wykresy (rys.1, rys.2) wyraźnie pokazują, Ŝe rynek ten charakteryzuje się znaczną dynamiką rozwoju i ma bardzo optymistyczne prognozy, które z pewnością zachęcą posiadaczy serwisów internetowych do wykorzystania tej formy zarabiania w sieci. 14 7,4 8 5,4 6 3,7 4 2,3 1,6 wydantki (w mld USD) wydatki (w mld USD) 9,3 10 0,07 0,06 0,054 0,05 0,04 0,034 0,03 0,022 0,02 0,01 0 0,076 0,08 11,2 12 2 0,09 12,8 0,004 0,006 0,008 0,013 0,00 2002 2003 2004 2005 2006P 2007P 2008P 2009P lata 2000 2001 2002 2003 2004 2005 2006 2007P lata Rys.1 Wydatki na reklamę on-line Europie Zachodniej(w mld USD) Rys.2 Wydatki na reklamę on-line w Polsce(w mln PLN) Źródło: IAB Polska - Wydatki gotówkowe bez barterów Źródło: PricewaterhouseCoopers, 06.2006 Innym źródłem dochodu serwisu internetowego jest sprzedaŜ on-line tzw. e-commerce. Specyfika sieci umoŜliwia handel w formie 24x7, a asortyment towarów oferowanych przez sklepy internetowe zawiera zarówno towary w formie elektronicznej np. utwory muzyczne, treści opracowań itp. jak i tradycyjne np. ksiąŜki, płyty, sprzęt RTV/AGD. Dynamika rozwoju tego rynku jest równie optymistyczna jak reklamy internetowej. Blisko 70 proc. internetowego handlu w Europie koncentruje się na czterech rynkach: Wielkiej Brytanii (22 mld euro obrotów w 2007 r., bez usług), Niemiec, Francji i Belgii. Zarazem juŜ w kilku krajach środkowoeuropejskich, równieŜ w Polsce, zainteresowanie tą formą zakupów jest większe niŜ w Hiszpanii i Portugalii, a zbliŜone do Włoch – jak wynika z raportu Obserwator Cetelem. To samo źródło podaje, Ŝe za dwa lata obroty europejskiego e-handlu stanowić będą 15 proc. całej sprzedaŜy detalicznej. Jak z kolei szacuje amerykańska firma badawcza eMarketer, polski handel elektroniczny juŜ w 2009 r. powinien mieć 4-proc. udział w łącznych obrotach detalicznych (według szacunków „Manager Magazin” teraz wynosi około 1,6 procent).[4] Obroty polskich sklepów i aukcji internetowych sięgnęły w ubiegłym roku 8 miliardów złotych. Na polskim rynku działa juŜ blisko 3,3 tys. sklepów internetowych. Według wstępnych szacunków, rynek e-handlu w Polsce powiększył się w 2007 roku aŜ o 60 procent (rys.3).[5] Kolejnym sposobem na uzyskanie przychodów w Internecie jest pośrednictwo. Jest to forma działalności internetowej, w której właściciel serwisu oferuje dostęp do pewnych treści o usłu- 60 Tomasz Ordysiński Metody szacowania wartości rynkowej serwisu internetowego gach/produktach innych firm. Przykładami takich rozwiązań są wszelkiego rodzaju serwisy ogłoszeniowe (dot. obrotu nieruchomościami, motoryzacją czy usługami), aukcje internetowe lub coraz bardziej popularne programy partnerskie. Podstawowym „dobrem” takich stron internetowych jest informacja. WaŜny jest sposób jest przedstawienia – musi być podana Internaucie w sposób atrakcyjny, prosty i uŜyteczny. Liderzy tego typu działalności w Polsce to np. gratka.pl, Allegro.pl czy teŜ program partnerski „Złote myśli”. w artość rynku (w m ln PLN) 0 lata 2001 2000 152 180 2003 328 410 2004 980 2005 1300 2007 6000 8000 10000 48 60 2002 2006 4000 921 1800 2000 3000 3470 Sklepy internetow e 4600 Platformy aukcyjne Rys.3 Wartość polskiego runku e-commerce (w mln PLN) Źródło: Raport „E-commerce 2007” http://www.sklepy24.pl/ Podsumowując główne rodzaje serwisów oraz sposobów generowania przez nie przychodów naleŜy zauwaŜyć, Ŝe zmiany społeczno-technologiczne zaowocują z pewnością kolejnymi formami, czy organizacjami treści publikowanych w Internecie. W tle z kolei rozwijać się będą coraz to nowe technologie wspierające uzyskiwanie przychodów w sposób prostszy, czasami nieco bardziej „zakamuflowany” i na pewno kierowany do rzeszy kolejnych nowych uŜytkowników Internetu (trend taki jasno pokazuje dynamiczny rozwój m-biznesu). 3. Metody wyceny serwisów internetowych Problem wyceny serwisów internetowych moŜna rozpatrywać z wielu punktów widzenia uzaleŜniając to od ogólnego typu serwisu czy teŜ juŜ konkretnego przypadku. Inaczej spojrzymy na typowy sklep internetowy, który poza stroną WWW wymaga jeszcze zaplecza w postaci magazynu, kontrahentów itp. a inaczej na serwis ogłoszeniowy czy informacyjny. W kaŜdym jednak przypadku sam serwis stanowi pewną wartość niematerialną, do wyceny której przewidziano juŜ pewne metody i techniki. Opierając się na róŜnicach i podobieństwach tych metod moŜna wyróŜnić trzy podstawowe sposoby analizy i wyceny wartości niematerialnych: metodę kosztową, metodę rynkową (nazywaną równieŜ metodą porównania sprzedaŜy) oraz metodę dochodową. Podejście kosztowe opiera się na ekonomicznej zasadzie zastąpienia, według której inwestor nie zapłaci za inwestycję więcej niŜ wynosi koszt jej realizacji (na przykład kupno 61 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 lub utworzenie) o identycznym poziomie korzyści, który moŜe być mierzony np. poziomem funkcjonalności, uŜyteczności itp. Podejście rynkowe opiera się na ekonomicznej zasadzie, która stwierdza, Ŝe na wolnym i nierestrykcyjnym rynku, czynniki podaŜy i popytu doprowadzą cenę inwestycji do stanu równowagi. Podejście dochodowe opiera się na ekonomicznej zasadzie antycypacji (czasami określanej jako zasada oczekiwania), według której wartość przedmiotu inwestycji (np. wartość niematerialna) równa się obecnej wartości oczekiwanego dochodu, który będzie uzyskany z tytułu posiadania tegoŜ przedmiotu. Jak wskazuje sama nazwa, inwestor antycypuje uzyskanie określonego dochodu ekonomicznego.[6] Kontynuując ten tok myślenia, za G.V. Smith’em, działający serwis internetowy moŜemy potraktować jako produkt informatyczny i zgodnie z przedstawionym porządkiem najbardziej zalecaną metodą wyceny jego wartości będzie metoda dochodowa, w dalszej kolejności rynkowa, a dopiero na miejscu trzecim będzie to metoda kosztowa.[7] Wraz ze wzrostem aktywności biznesowej w Internecie zauwaŜono pewne ułomności wyŜej przedstawionych metod – pomimo swojej względnej prostoty w uŜyciu nie uwzględniały one specyfiki komercyjnej działalności internetowej. Jednym z pierwszych i dość szeroko zastosowanych sposobów określenia wartości serwisu było zastosowanie mnoŜnika dochodów netto ze strony internetowej w postaci – 10 x wartość rocznego dochodu netto. Wartość mnoŜnika równa 10 było oczywiście dyskutowana osiągając czasami wartość równą nawet 15, ale metoda początkowo się przyjęła i była stosowana do szybkiego określenia ceny orientacyjnej. Tabela 1. Statystyki wybranych serwisów pod względem uŜytkowników l.p. nazwa liczba uŜytkowników (mln) odsłony (mln) średnia liczba odsłon na uŜytkownika średni czas uŜytkownika (g:m:s) zasięg (proc.) 416,25 250,83 277,21 144,73 70,52 07:19:20 05:06:03 03:50:28 03:58:59 01:21:57 68,09 57,41 51,8 50,45 44,05 Portale ogólnotematyczne 1 2 3 4 5 Onet.pl Wirtualna Polska Interia.pl O2.pl Gazeta.pl 1 Money.pl 2 Bankier.pl 3 Gospodarka.pl Grupa Wolters 4 Kluwers 5 Infor.pl 9,75 4059 8,22 2062 7,43 2059 7,22 1046 6,3 444 Portale biznesowe 2,41 1,94 1,28 45,80 53,83 10,48 18,97 27,6 8,15 23:05 27:31 07:11 16,88 13,59 8,98 0,76 1,06 6,24 18,80 8,17 17,64 08:28 19:15 5,34 7,46 Źródło: opracowanie własne na podstawie 12. Satalecki P. Jak zainwestować w spółki internetowe? http://www.money.pl/ Drugą metodą wyceny spopularyzowaną w pierwszych latach XXI w. była metoda oparta na liczbie odwiedzających internautów i ocenie wartości pojedynczej "osobowizyty". Szacowano róŜnie: od kilkudziesięciu do kilku dolarów na kaŜdego regularnie odwiedzającego portal 62 Tomasz Ordysiński Metody szacowania wartości rynkowej serwisu internetowego internautę, od kilku do kilkudziesięciu centów za jedną odsłonę. W bardzo często cytowanym artykule z listopada 2005r. kwota ta ustalona została na 38$ [13]. Tego rodzaju mechanizmy, zastosowane przez analityków firmy Wood&Co do polskich portali w roku 2000 przyniosły dość optymistyczne wyniki: Onet - 2 mld zł, WP - 1,5 mld zł, Interia - 0,9 mld zł, Gazeta.pl - 0,9 mld zł. Rynek jednak zweryfikował słuszność tych wycen - portal był wart tyle, ile inwestorzy gotowi byli w niego "włoŜyć". Ponadto widać wyraźnie rozbieŜności w wycenie firm nawet przez same zarządy. Portal Hoga oceniał swój potencjał w roku 2001 na ok. 9 mln zł, zaś Arena na 100 - 150 mln - ani wyniki finansowe, ani róŜnice w liczbie odwiedzających nie usprawiedliwiały takich dysproporcji.[10] Z uwagi jednak na brak innych miar oceny, które mogą charakteryzować popularność serwisu, a co za tym idzie jego atrakcyjność dla inwestorów, statystyki gromadzone przez narzędzia typu Google Analytics czy Stat.pl leŜą u podstaw określania wartości danego serwisu internetowego (Tabela 1). Z czasem zaczęto brać pod uwagę kolejne czynniki w postaci „marki” czy teŜ pozycji serwisu w rankingach, liczby uŜytkowników (zarejestrowanych, unikatowych), tematyki strony, zasobności docelowego uŜytkownika, nazwy domeny, dywersyfikacji źródeł przychodów, dywersyfikacji ruchu, potencjału rozwoju serwisu oraz jego komplementarności czy konkurencyjności względem innych serwisów np. potencjalnego kupca.[8][9] To rozszerzenie grupy czynników zaowocowało wieloma „wyceniarkami” serwisów internetowych dostępnych takŜe on-line (http://www.websitevaluecalculator.com/, http://www.speedtest.pl/wycena.html). Tabela 2. Ranking najdroŜszych serwisów wg speedtest.pl (maj 2008) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Źródło: http://speedtest.pl 20 najdroŜszych stron google.com 11 969 431 063,00 PLN yahoo.com 9 114 857 647,00 PLN youtube.com 5 864 133 469,00 PLN wikipedia.org 2 292 539 820,00 PLN myspace.com 1 722 841 383,00 PLN microsoft.com 1 708 149 063,00 PLN amazon.com 658 804 733,00 PLN rapidshare.com 649 680 706,50 PLN ebay.com 627 760 110,00 PLN adobe.com 516 142 846,00 PLN google.pl 192 287 217,00 PLN digg.com 170 816 667,00 PLN mininova.org 161 693 064,00 PLN redtube.com 134 748 419,40 PLN veoh.com 128 397 367,00 PLN thepiratebay.org 123 231 217,00 PLN megaupload.com 107 519 499,00 PLN 4shared.com 79 188 619,50 PLN nasza-klasa.pl 60 656 881,50 PLN onet.pl 56 960 358,00 PLN POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 63 JednakŜe ich algorytmy są niedostępne do publicznego wglądu, co powoduje brak moŜliwości sprawdzenia np. jakie wagi zostały przyjęte dla poszczególnych czynników wyceny oraz czy róŜnicują one serwisy pod względem rodzaju, liczby uŜytkowników itp. Powoduje to zdecydowany brak realnej przydatności takich narzędzi – naleŜy traktować je jako ciekawostki (Tabela 2). Innym dość popularnym podejściem do wyceny serwisów internetowych jest tzw. wartość określonych zasobów niematerialnych. Metoda ta jest stosowana często w przypadku bardzo popularnych domen internetowych i bazuje na ocenie przez kupującego wartości zasobu (np. domeny, jej popularności i pozycji w rankingach) z kosztem odtworzenia podobnego zasobu o tych samych właściwościach. Z reguły zakup jest wariantem tańszym i znacznie mniej czasochłonnym. W przypadku popularnej domeny internetowej kupujący jest bardzo mało zainteresowany samą zawartością strony czy teŜ jej technologicznym zapleczem. Metoda ta bardzo często traktowana jest jako uzupełnienie tradycyjnych metod wyceny. Problem wyceny firm/serwisów internetowych jest obecnie rozwaŜany przez środowiska biznesowe i naukowe na całym świecie. Aktualność zagadnienia powoduje jednak, Ŝe brak jest literatury zawierającej nowatorskie i jednocześnie sprawdzone procedury wyceny. Niemniej podejmowanych jest wiele prób, których rezultaty publikowane są w artykułach (często o charakterze naukowym) zamieszczanym w serwisach internetowych dotyczących tematyki ebiznesu. DuŜy rozgłos i popularność uzyskały badania przeprowadzone przez Michael’a Arrington’a dotyczące wartości serwisów społecznych [14]. W swoim modelu wyceny dokonał on zróŜnicowania geograficznego uŜytkowników serwisów społecznościowych (np. Facebook.com, Bebo.com, LinkedIn, czy Nasza-klasa.pl) określając miejsce ich zamieszkania. Następnie dla kaŜdego z krajów dokonał oceny wartości uŜytkownika dzieląc kwoty na wydawane na reklamę on-line przez liczbę uŜytkowników Internetu w danym kraju. Uzyskał w ten sposób wskaźnik określający ile wart jest uŜytkownik danego serwisu społecznościowego z danego kraju. Ogólna wartość całego serwisu oszacowana została przez wymnoŜenie liczby uŜytkowników z danego kraju przez ich wartość „reklamową” i zsumowanie uzyskanych wartości dla wszystkich krajów. Kolejną interesującą propozycję wyceny duŜych serwisów internetowych (naleŜy podkreślić dokładne sprecyzowanie grupy serwisów) zaproponował Marcin Prys.[11] Zaprezentowana metoda opiera się podobnie jak wcześniejsze na filozofii "uŜytkocentrycznej", ale nowością jest zastosowanie autorskiego podejścia w postaci miernika „stopnia penetracji” grupy docelowej uŜytkowników serwisu. Stopień ten, wg Autora metody, determinuje dynamikę dalszego rozwoju danego serwisu w obecnej jego postaci (zakresie usług, ofercie itp.). Jak słusznie zauwaŜył Autor osiągnięcie poziomu 80 – 85% powoduje, Ŝe serwis nie będzie się rozrastał – uzyskał juŜ swój potencjalny poziom rozwoju i jego dalsze losy zaleŜą głównie od rozbudowania oferty i szukania nowej grupy docelowej. Oczywiście wiąŜą się z tym dodatkowe nakłady finansowe obarczone dość wysokim ryzykiem. Bardzo dobrym załoŜeniem wydaje się takŜe przyjęcie 3-letniego horyzontu czasowego takiej wyceny. Internet jest środowiskiem biznesowym rozwijającym się bardzo dynamicznie – konkurencja pojawić się moŜe w kaŜdej chwili i w bardzo krótkim okresie przejąć duŜą grupę uŜytkowników serwisu. Do tego naleŜy jeszcze dołączyć zmiany technologiczne, społeczne, co powoduje, Ŝe komercyjna działalność internetowa jest bardzo wymagająca i obarczona znacznym ryzykiem. Te uwarunkowania powodują, Ŝe określenie ile wart jest dany działający serwis internetowy jest zadaniem bardzo trudnym. 64 Tomasz Ordysiński Metody szacowania wartości rynkowej serwisu internetowego 4. Wnioski końcowe Wycena wartości niematerialnych jest swoistą sztuką, bowiem w zaleŜności od celu i szczegółowych uwarunkowań wyceny istnieje mniejsze lub większe pole swobody i poszukiwań analityka dokonującego wyceny. Rzeczoznawca zajmuje się wyceną rzeczy, które są postrzegane zmysłami, tymczasem analityk wyceniający wartości niematerialne - z racji niematerialnego przedmiotu wyceny - jest zmuszony do stosowania róŜnorodnych metod analitycznych.[6] Problem wyceny serwisów internetowych wymaga znajomości specyfiki tego środowiska prowadzenia działalności komercyjnej, typów e-biznesu oraz trendów i prognoz dotyczących rynku reklamy czy sprzedaŜy internetowej. Jest to środowisko bardzo dynamiczne pod względem gospodarczym – liczba serwisów stale rośnie, chociaŜ wiele z nich upada. Ograniczenia gospodarcze czy geograficzne tracą na znaczeniu – liczy się pomysł, znalezienie luki na rynku, a potem konsekwencja w działaniu. O istotności zagadnienia wyceny mówią liczby podawane w transakcjach dotyczących portali internetowych: • Microsoft kupuje 1 proc. Facebook za 240 mln dolarów • Microsoft chciał kupić Yahoo za 45 mld dolarów • European Funders kupuje 20 proc. Naszej-Klasy za 3 mln złotych • Spekulacje na temat kupna Bankiera.pl przez Agorę - 130 mln złotych [12] Wydaje się, Ŝe w działalności internetowej zastosowanie znajduje pewne proste załoŜenie rynkowe – serwis internetowy jest wart tyle, ile ktoś jest skłonny za niego zapłacić. Jednak kwota zakupu takŜe wymaga dokonania oszacowania opłacalności inwestycji. Podsumowując przedstawione powyŜej metody wyceny serwisów internetowych nie sposób wskazać jest jedną uniwersalną (Tabela 3). Metody wywodzące się z tradycyjnej rachunkowości charakteryzują się prostotą i przejrzystością. Jednak ich algorytmy nie potrafią wziąć pod uwagę specyfiki działalności w Internecie. Grupy metod oparte na liczbie unikatowych uŜytkowników serwisu uwzględniające takŜe inne czynniki powodujące wzrost wartości danego zbioru stron WWW takŜe nie mogą być bez wahania uŜyte do wyceny dowolnego serwisu. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 65 Tabela 3. Stosowalność wybranych metod wyceny serwisów internetowych Metoda szacowania wartości Zastosowanie Metoda kosztowa wycena serwisów nowych, o małej liczbie unikatowych uŜytkowników, serwisów społecznościowych Metoda rynkowa wycena serwisów o wysokiej dynamice rozwoju dowolnego typu, duŜych serwisów handlu elektronicznego oraz portali informacyjnych Metoda dochodowa wycena serwisów handlu elektronicznego, portali informacyjnych o średniej liczbie unikatowych uŜytkowników Metoda mnoŜnika zysków netto wycena serwisów dowolnego typu obarczona znacznym subiektywizmem wynikającym z przyjęcia wartości mnoŜnika Metoda oparta na liczbie unikatowych uŜytkowników wycena serwisów handlu elektronicznego, portali informacyjnych o średniej i duŜej liczbie unikatowych uŜytkowników Metody złoŜone (oparte na wielu czynnikach) wycena dowolnego typu serwisów internetowych stosująca róŜne wagi czynników w zaleŜności od rodzaju serwisu Metody kalkulatorów on-line brak wglądu w algorytm obliczeń, z czego wynika bardzo szacunkowa wycena dowolnego serwisu Źródło: opracowanie własne ZauwaŜyć moŜna pewną tendencję w rozwoju metod szacowania wartości serwisów opartą na coraz głębszym dociekaniu kim właściwie jest jego uŜytkownik. Z praktyki gospodarczej nasuwa się podobieństwo do załoŜeń podejścia CRM, bo przecieŜ tak jak firma nie moŜe istnieć bez klientów tak i serwis nie ma racji bytu bez osób go odwiedzających. 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. Wycena serwisu internetowego. http://grupy-dyskusyjne.money.pl/. Wikipedia, http://pl.wikipedia.org/. Domaszewicz Zbigniew, Web 2.0 to rewolucja w Internecie? http://gospodarka.gazeta.pl/. Krasoń M., Stefaniak P. E-kupujemy na potęgę. Miesięcznik Manager, maj 2008. Dochodowy handel elektroniczny, e-Gospodarka.pl. Zarzecki D. Metody wyceny wartości niematerialnych i prawnych. http://www.erachunkowosc.pl. G.V. Smith, R.L. Parr. Valuation of Intellectual Property and Intangible Assets. Second Edition, John Wiley & Sons, New York, 1994. Maravilla N. Thinking of Selling Your Web Site? How to Determine Your Web Site’s Value. PowerHomeBiz.com. 66 Tomasz Ordysiński Metody szacowania wartości rynkowej serwisu internetowego 9. Wycena stron internetowych. Speedtest.pl. 10. Grochowski T. Portal w potrzebie. PCkurier 11/2001. 11. Prys M. Wycena serwisów internetowych. http://serwis.magazynyinternetowe.pl/ marzec 2008. 12. Satalecki P. Jak zainwestować w spółki internetowe? http://www.money.pl/. 13. Malik O., The Return of Monetized Eyeballs. BUSINESS 2.0 Magazine, http://money.cnn.com/magazines/business2/ 2005. 14. Arrington M. Modeling The Real Market Value Of Social Networks. http://www.techcrunch.com/ 2008. METHODS OF WEB SITE PRICING Summary In practice of Internet based business we can notice a phenomenon of trading (selling, takeovers, accessing the stock market) in web sites. The role of Internet portals in national and international economy is constantly increasing. This is very clearly visible in the results of e-economy research, specially connected with e-commerce and advertisement. More and more (small and big) companies start to operate using only Internet network, where the main resource is information placed on their web sites. Changes in ownership or selling some shares of such a company requires calculation of value of its Internet web sites/portals. This article presents a set of methods, with its possible applications, which enable to price commercial web site. Keywords: methods of pricing website, value of Internet web site, web site types and income sources Tomasz Ordysinski Instytut Informatyki w Zarządzaniu Uniwersytet Szczeciński Szczecin,ul. Mickiewicza 64 e-mail: [email protected] http://tomaszordysinski.pl http://www.wneiz.pl POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 67 MARIA JOLANTA ORŁOWSKA Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy NARZĘDZIA UŁATWIAJĄCE PRZYGOTOWANIE PLANÓW ROZWOJU GOSPODARSTW W OPINII DORADCÓW KUJAWSKO-POMORSKIEGO OŚRODKA DORADZTWA ROLNICZEGO I WSPÓŁPRACUJĄCYCH Z NIMI ROLNIKÓW Streszczenie Celem opracowania było poznanie potrzeb doradców dotyczących narzędzi ułatwiających przygotowanie planów rozwoju gospodarstw oraz oczekiwań rolników związanych z opracowaniem planu rozwoju gospodarstwa. Wyniki przeprowadzonych badań potwierdzają, Ŝe doradcom są potrzebne narzędzia ułatwiające opracowanie planów rozwoju gospodarstw. Rolnicy oczekują od doradców wsparcia przy przygotowaniu planu przedsięwzięcia. Słowa kluczowe: baza wiedzy o gospodarstwach, standardowa nadwyŜka bezpośrednia, ośrodki doradztwa rolniczego, doradcy, gospodarstwa rolne 1. Wstęp W związku z Rozporządzeniem Rady (WE) nr 1782/2003 zobowiązującym kraje członkowskie Unii Europejskiej aby od 2007 r. kaŜde gospodarstwo towarowe miało opracowany plan rozwoju z uwzględnieniem dbałości o środowisko, dobrostan zwierząt i higienę produkcji przed doradztwem rolniczym postawione zostały nowe zadania. Opracowanie dobrego planu bowiem wymaga [Ziętara, Olko-Bagieńska 1986, Mańko 2007]: - zgromadzenia niezbędnych danych źródłowych (opis gospodarstwa), - dokonania krytycznej oceny stwierdzonych faktów i zaleŜności (analiza gospodarstwa), - opracowania róŜnych wariantów planu rozwoju gospodarstwa. Podstawą analizy i planowania są dane opisujące potencjał gospodarstwa. Zebranie danych nie będzie trudne w gospodarstwach prowadzących zapisy rachunkowe. Jednak w Polsce większość gospodarstw nie prowadzi rachunkowości. W gospodarstwach tych gromadzone do przygotowania planu dane są szacunkowe. Wymagają zatem weryfikacji. Aktualnie w Polsce nie ma wielkości referencyjnych, które byłyby podstawą do weryfikowania opisów i planów przedsięwzięć gospodarstw, nie prowadzących rachunkowości. Konieczne staje się więc określenie prostej metody oceny zasobów niezbędnej przy analizowaniu i planowaniu rozwoju gospodarstw rolniczych. Miarą w pełni opisującą potencjał gospodarstw rolniczych z punktu widzenia zdolności produkcyjnych i dochodowych wydaje się być wielkość ekonomiczna1. Na bieŜąco uaktualniana baza obejmująca dane dotyczące organizacji i wyników gospodarstw prowadzących rachunkowość (FADN2), pogrupowanych według wielkości ekonomicznej i typów rolniczych, mogłaby stać się 1 miara wielkości gospodarstw będąca podstawą ich klasyfikacji 2 FADN – (ang. Farm Accountancy Data Network) – System Zbierania i Wykorzystywania Danych Rachunkowych z Gospodarstw Rolnych. 68 Maria Jolanta Orłowska Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników bazą referencyjną do weryfikowania opisów i planów rozwoju gospodarstw nie prowadzących rachunkowości. Warto podkreślić, Ŝe FADN jest jedynym zunifikowanym, wiarygodnym, reprezentacyjnym źródłem informacji o wynikach produkcyjno-ekonomicznych gospodarstw rolnych w Unii Europejskiej. Na podstawie informacji od rolnika, który nie prowadzi rachunkowości, np. o liczbie zwierząt i powierzchni upraw, doradca wykorzystując bazę mógłby przeprowadzić symulacje skutków róŜnych wariantów planu a rolnik uzyskałby odpowiedź jak zmiana liczby zwierząt i powierzchni upraw moŜe zmienić wielkość produkcji i uzyskiwanych dochodów. Wskazanie, moŜliwej do masowego zastosowania, prostej a zarazem dostatecznie precyzyjnej, metody oceny potencjału gospodarstw rolniczych jest warunkiem rozwoju doradztwa ekonomiczno-rolniczego w Polsce. Podstawą prawną polskiego FADN jest Ustawa o zbieraniu i wykorzystywaniu danych rachunkowych gospodarstw rolnych z 29 listopada 2000 r. z późniejszymi zmianami , która weszła w Ŝycie z dniem uzyskania przez Polskę statusu członka UE – 1 maja 2004 r. Ustawa ta szczegółowo precyzuje zadania szczebla centralnego systemu, do którego naleŜą: komitet Krajowy i Agencja Łącznikowa, której funkcję pełni Instytut Ekonomiki Rolnictwa i Gospodarki śywnościowej – Państwowy Instytut Badawczy w Warszawie. Zbieraniem danych rachunkowych z reprezentatywnych gospodarstw rolnych zajmują się na szczeblu województwa Ośrodki Doradztwa Rolniczego (Biura Rachunkowe). W systemie Polski FADN mogą uczestniczyć gospodarstwa towarowe. Ustalona liczebność próby Polskiego FADN liczy 12100 gospodarstw, co oznacza, Ŝe jedno gospodarstwo uczestniczące w systemie Polski FADN reprezentuje średnio prawie 62 gospodarstwa znajdujące się w polu obserwacji [ Goraj i in. 2004]. Polski FADN mógłby stanowić więc bazę wiedzy wykorzystywaną do opracowania planów rozwoju gospodarstw. Warto podkreślić, Ŝe baza ta jest na bieŜąco uaktualniana, uŜyteczność jej więc będzie rosła. 2. Cel i metoda badań Celem opracowania było poznanie potrzeb doradców dotyczących narzędzi ułatwiających przygotowanie planów rozwoju gospodarstw oraz oczekiwań rolników związanych z opracowaniem planu rozwoju gospodarstwa. Właściwe badania, poprzedzone badaniami pilotaŜowymi, przeprowadzono wśród 811 respondentów: doradców Kujawsko-Pomorskiego Ośrodka Doradztwa Rolniczego (K-PODR) oraz współpracujących z nimi rolników. Były to wskazane przez doradców po trzy, cztery gospodarstwa z kaŜdej gminy województwa kujawsko-pomorskiego o orientacji rynkowej. W wykonanych badaniach wzięło udział 205 doradców: - 57 specjalistów zakładowych z Ośrodka centralnego (Minikowo) i oddziałów w Przysieku i Zarzeczewie, - 148 specjalistów terenowych zatrudnionych w 19 Powiatowych Zespołach Doradztwa Rolniczego. Badania rolników przeprowadzono za pośrednictwem doradców terenowych stosując technikę wywiadu kwestionariuszowego. Doradców objęto badaniami ankietowymi wykorzystując wcześniej przygotowany kwestionariusz ankiety. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 69 Zebrane materiały źródłowe zostały poddane selekcji, klasyfikacji i opracowaniu statystycznemu. Dane empiryczne poddano obliczeniom wykorzystując metody statystycznej weryfikacji hipotez. Metody statystyczne słuŜyły do ustalenia współzaleŜności pomiędzy udzielanymi przez respondentów odpowiedziami a wybranymi zmiennymi charakteryzującymi analizowaną społeczność, którymi były: ־wśród doradców: staŜ pracy, ־wśród rolników: wiek, liczba lat prowadzenia gospodarstwa, wykształcenie, wielkość obszarowa i ekonomiczna prowadzonego gospodarstwa. Weryfikacji hipotezy o istnieniu związku pomiędzy zmiennymi dokonano przy pomocy testu χ testując hipotezy statystyczne H0 oraz H1. Hipoteza statystyczna jest przypuszczeniem dotyczącym związku pomiędzy zmiennymi. Hipoteza zerowa (H0) – oznacza brak zaleŜności pomiędzy badanymi zmiennymi. Hipoteza alternatywna (H1) oznacza istnienie zaleŜności pomiędzy analizowanymi zmiennymi. Analizę przeprowadzano na poziomach istotności α = 0,05 i 0,013. 2 3. Wyniki badań Analiza i planowanie wymaga zgromadzenia informacji źródłowych opisujących potencjał gospodarstw. MoŜliwości produkcyjne i dochodowe zaleŜą bowiem od ukształtowanego potencjału gospodarstwa. Doradca pomaga rolnikowi w zgromadzeniu i zweryfikowaniu danych źródłowych będących podstawą oceny potencjału produkcyjnego gospodarstwa. Nie będzie to trudne w gospodarstwach prowadzących ewidencję. Najlepszym źródłem danych są zapisy rachunkowe [Leśniak 1997, Mańko 2007]. Dane księgowe ułatwiają trafne podejmowanie decyzji o strukturze produkcji gospodarstwa i jej efektywności. [Bernacki 2004, Goraj, Niewiadomski 2003]. Podobna była opinia badanych doradców. Zdaniem prawie 93% respondentów, prowadzenie rachunkowości ułatwia określenie zasobów gospodarstw pod względem produkcyjnym i dochodowym. Pomiar zasobów gospodarstw prowadzących rachunkowość jest zdaniem 68,8% doradców KPODR bardzo łatwy i łatwy. Jednak osoby badane najczęściej współpracowały z gospodarstwami nie prowadzącymi rachunkowości (74,6%). Zmierzenie potencjału gospodarstwa nie prowadzącego rachunkowości, w opinii większości badanych, jest trudne i bardzo trudne. Tak twierdziło 76,2% badanych doradców. Podstawą określenia potencjału gospodarstwa, zdaniem 91,2% osób badanych, powinny być wiarygodne, moŜliwe do sprawdzenia, proste do ustalenia dane. Tylko 8,8% respondentów twierdziło, Ŝe zmierzenie potencjału gospodarstwa moŜe odbywać się na podstawie wspólnej z rolnikiem rozmowy polegającej na odtwarzaniu sytuacji z przeszłości bazując na pamięci rolnika. Ocenę potencjału gospodarstwa poprzedza sporządzenie opisu analitycznego. Opis powinien zawierać dane dotyczące stanu, funkcjonowania i osiąganych wyników gospodarstwa. Doradca moŜe pomóc rolnikowi w zebraniu danych [Mańko 2007]. Gromadzone dane w gospodarstwach nie prowadzących rachunkowości są szacunkowe. RównieŜ wiele informacji z gospodarstw prowadzących rachunkowość, niezbędnych do oceny działalności, znajduje się poza ewidencją. Zebrane dane wymagają zatem weryfikacji [Leśniak 1997]. Aktualnie doradcy nie dysponują wielkościami referencyjnymi, które byłyby podstawą do weryfikowania opisów gospodarstw. Przydatność danych z gospodarstw prowadzących rachunkowość unijną (FADN) do 3 www.ip.univ.szczecin.pl 70 Maria Jolanta Orłowska Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników weryfikowania opisów gospodarstw widzi 32,2% badanych doradców. Dane powinny być przedstawione w takiej formie, Ŝeby moŜna weryfikować liczby podane przez rolników. W opinii 45,4% doradców K-PODR, spośród prezentowanych metod, sposobem pozwalającym na szybkie zdiagnozowanie sytuacji ekonomicznej w gospodarstwach nie prowadzących rachunkowości jest wielkość ekonomiczna, a tylko 14,1% twierdzi, Ŝe powierzchnia uŜytków rolnych (rys. 1). 45,4 50,0 40,0 30,0 20,0 10,0 19,0 14,1 3,4 2,9 5,9 0,0 0,0 2,4 1,5 5,4 0,0 powierzchnia uŜytków rolnych w ha wartość aktywów wartość środków trwałych ogółem wartość majątku obrotowego ogółem liczebność stałej załogi wielkość zastosowanych nakładów pracy typ produkcyjny według Manteuffla sposób oceny potencjału Rychlika wielkość ekonomiczna wyraŜona w ESU Ŝaden nie wiem Rys. 1. Sposób oceny potencjału gospodarstw nie prowadzących rachunkowości pozwalający na szybkie zdiagnozowanie sytuacji ekonomicznej w opinii doradców K-PODR Źródło: opracowanie własne na podstawie badań ankietowych W pracy doradczej przydatna byłaby, zdaniem 79,0% osób badanych, moŜliwość szybkiego ustalenia sytuacji ekonomicznej gospodarstwa na podstawie prostych informacji podstawowych. Przeszło 61% respondentów uznało, Ŝe do analizowania sytuacji gospodarstw, podobnie jak do weryfikowania opisów, przydatne byłyby doradcom na bieŜąco uaktualniane informacje z gospodarstw prowadzących rachunkowość. Baza taka ułatwiałaby dokonywanie analizy sytuacji gospodarstw poprzedzającej plan rozwoju. Zestawienie danych z gospodarstw prowadzących rachunkowość unijną, pokazujące związek między potencjałem, organizacją a wynikami produkcyjno-ekonomicznymi dla typów rolniczych gospodarstw, byłoby przydatne w pracy doradczej i zarządzaniu gospodarstwem. Doradca lub rolnik mógłby porównać swoją sytuację z rezultatami uzyskiwanymi przez gospodarstwa podobne. W opinii 77,1% badanych doradców szybkie ustalenie sytuacji ekonomicznej gospodarstwa ułatwiałoby przygotowanie planu rozwoju. 71 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 Podobnego zdania było 70,5% badanych rolników, głównie kierujących gospodarstwami o powierzchni uŜytków rolnych powyŜej 15 ha i wielkości ekonomicznej 8-16 ESU (rys. 2, 3). 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 23,2 20,6 13,0 2,9 13,2 13,0 10,1 6,0 11,5 10,5 3,3 10,5 7,0 5,0 11,0 30,4 35,5 38,0 26,5 20,3 30,4 36,8 41,9 40,1 39,0 do 10 ha 10,1-15 ha 15,1-30 ha 30,1-50 ha 50,1 i wiecej Odpowiedzi udzielone przez badanych rolników: tak raczej tak raczej nie nie nie potrafię odpowiedzieć Rys. 2. MoŜliwość oceny aktualnej sytuacji ekonomicznej prowadzonego gospodarstwa na tle innych podobnych w opinii badanych rolników z róŜnych grup wielkości obszarowej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 22,0 16,7 12,2 14,1 7,7 12,4 4,8 6,9 10,5 4,6 13,0 9,7 4,9 8,7 33,5 39,8 38,5 36,9 od 16 - < 40 ESU 40 ESU i > 27,6 22,0 26,9 19,5 48,3 24,4 34,6 do - < 4 ESU od 4 - < 8 ESU od 8 - < 16 ESU Odpowiedzi udzielone przez badanych rolników: tak raczej tak raczej nie nie nie potrafię odpowiedzieć Rys. 3. MoŜliwość oceny aktualnej sytuacji ekonomicznej prowadzonego gospodarstwa na tle innych podobnych w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych Zdaniem największej liczby badanych doradców sposobem oceny potencjału z punktu widzenia moŜliwości produkcyjnych i dochodowych pozwalającym na szybkie zdiagnozowanie 72 Maria Jolanta Orłowska Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników moŜliwości rozwojowych w gospodarstwach nie prowadzących rachunkowości jest wielkość ekonomiczna (36,6%). Tylko 15,6% badanych w tej roli widzi powierzchnię uŜytków rolnych (rys. 4). 36,6 40,0 24,9 30,0 20,0 10,0 15,6 6,3 3,4 5,9 0,5 0,0 1,0 1,0 4,9 0,0 powierzchnia uŜytków rolnych w ha wartość aktywów wartość środków trwałych ogółem wartość majątku obrotowego ogółem liczebność stałej załogi wielkość zastosowanych nakładów pracy typ produkcyjny według Manteuffla sposób oceny potencjału Rychlika wielkość ekonomiczna wyraŜona w ESU Ŝaden nie wiem Rys. 4. Sposób oceny potencjału gospodarstw nie prowadzących rachunkowości pozwalający na szybkie zdiagnozowanie moŜliwości rozwojowych w opinii doradców K-PODR Źródło: opracowanie własne na podstawie badań ankietowych Dobrze opracowany plan powinien ułatwić rolnikowi przeprowadzenie zmian w gospodarstwie. Dlatego opracowywanie planu powinno odbywać się wspólnie z rolnikiem. Rolnik podejmuje decyzje dotyczące kierunku rozwoju swojego gospodarstwa, bowiem on i jego rodzina ponosi wszelkie konsekwencje z nią związane. Doradca moŜe pomóc w podjęciu trafnej decyzji przedstawiając róŜne warianty planu rozwoju [Bieńkowski 1994, Leśniak 1997, Mańko 2007]. Przy przygotowaniu wariantów planu, znalazłaby równieŜ zastosowanie utworzona baza z gospodarstw prowadzących rachunkowość unijną. Pogrupowane w odpowiedni sposób gospodarstwa z bazy, byłyby podstawą przygotowania róŜnych wariantów planu. Według 81,0% doradców K-PODR opracowanie planu ułatwiłaby moŜliwość szybkiego zaprezentowania rolnikowi zmiany dochodów prowadzonego przez niego gospodarstwa w zaleŜności od zmiany liczby zwierząt oraz róŜnych wariantów zmian liczby zwierząt i osiąganych dochodów. Podobnie, 90,1% rolników chciałoby ocenić, jak zmiana liczby zwierząt moŜe zmienić dochody. Przedstawianie róŜnych wariantów planu ułatwia rolnikowi wybór odpowiadającej mu organizacji gospodarstwa. Dla badanych rolników szczególnie cenna byłaby moŜliwość zapoznania się z róŜnymi wariantami zmian liczby zwierząt i osiąganych dochodów. Taką sposobność chciałoby mieć 81,6% badanych rolników, prowadzących produkcję zwierzęcą i zainteresowanych POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 73 rozwojem produkcji zwierzęcej. Najbardziej zainteresowani, to rolnicy w wieku 40-49 lat i 20-29 lat i zarządzający gospodarstwami od 8-16 ESU (rys. 5, 6). 100% 90% 12,0 17,3 20,5 82,7 79,5 20-29 lat 30-39 lat 25,9 80% 70% 60% 50% 40% 88,0 74,1 30% 20% 10% 0% 40-49 lat tak 50 i > lat nie Rys. 5. MoŜliwość oceny róŜnych wariantów zmian liczby zwierząt i osiąganych dochodów w opinii badanych rolników z róŜnych grup wiekowych Źródło: opracowanie własne na podstawie badań ankietowych 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 13,6 15,5 17,9 86,4 84,5 82,1 od 8 - <16 od 16 - <40 40 ESU i > 31,3 50,0 68,8 50,0 do - < 4 od 4 - < 8 tak nie Rys. 6. MoŜliwość oceny róŜnych wariantów zmian liczby zwierząt i osiąganych dochodów w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych Około 80% doradców, w pracy z rolnikiem nad przygotowaniem planu, chętnie widziałoby równieŜ moŜliwość, szybkiego przedstawienia rolnikowi, jak zmiana powierzchni upraw moŜe wpłynąć na dochody gospodarstwa, oraz róŜnych wariantów powierzchni upraw i osiąganych 74 Maria Jolanta Orłowska Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników dochodów. Podobne były oczekiwania rolników. Blisko 80% było zainteresowanych taką moŜliwością. Szczególnie zainteresowani rolnicy pochodzili z gospodarstw o powierzchni uŜytków rolnych 15,1-30 ha i 30,1-50 ha oraz klas wielkości ekonomicznych: średnio małych (84,8%) i średnio duŜych (83,7%) ( (rys. 7, 8). 100% 90% 80% 70% 22,1 17,5 16,4 21,0 77,9 82,5 83,6 79,0 10,1-15 ha 15,1-30 ha 30,1-50 ha 50,1 i wiecej 36,2 60% 50% 40% 63,8 30% 20% 10% 0% do 10 ha tak nie Rys. 7. MoŜliwość oceny jak zmiana powierzchni upraw zmieni dochody w opinii badanych rolników z róŜnych grup wielkości obszarowej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych 100% 24,4 80% 15,2 16,3 84,8 83,7 24,3 46,3 60% 40% 75,6 75,7 53,7 20% 0% do - < 4 od 4 - < 8 od 8 - <16 od 16 - <40 40 ESU i > tak nie Rys. 8. MoŜliwość oceny jak zmiana powierzchni upraw zmieni dochody w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 75 AŜ 79,2% badanych rolników chciałoby mieć moŜliwość zapoznania się z róŜnymi wariantami zmian powierzchni upraw i osiąganych dochodów. Najbardziej zainteresowani kierowali gospodarstwami o powierzchni uŜytków rolnych 30,1-50 ha i 15,1-30 ha oraz wielkości ekonomicznej 8 - <16 ESU i 16 - <40 ESU (rys. 9, 10). 100% 80% 23,5 18,0 15,8 19,0 76,5 82,0 84,2 81,0 10,1-15 ha 15,1-30 ha 40,6 60% 40% 59,4 20% 0% do 10 ha tak 30,1-50 ha 50,1 i wiecej nie Rys. 9. MoŜliwość oceny róŜnych wariantów zmian powierzchni upraw i osiąganych dochodów w opinii badanych rolników z róŜnych grup wielkości obszarowej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych 100% 14,5 17,6 26,9 80% 43,9 23,3 60% 40% 73,1 85,5 82,4 76,7 od 8 - <16 od 16 - <40 40 ESU i > 56,1 20% 0% do - < 4 od 4 - < 8 tak nie Rys. 10. MoŜliwość oceny róŜnych wariantów zmian powierzchni upraw i osiąganych dochodów w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw Źródło: opracowanie własne na podstawie badań ankietowych 76 Maria Jolanta Orłowska Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników Zdaniem 41,0% badanych doradców, dane z gospodarstw prowadzących rachunkowość, na bieŜąco uaktualniane, po zastosowaniu indeksów cen, pogrupowane według potencjału gospodarstw i typów rolniczych, mogłyby być podstawą określania wielkości referencyjnych do weryfikowania planów rozwoju. 4. Wnioski Przeprowadzone badania pozwalają na sformułowanie następujących wniosków: 1. 2. 3. 4. 5. 6. 7. 8. Doradcom potrzebna jest baza referencyjna do weryfikowania opisów gospodarstw nie prowadzących rachunkowości, dokonywania oceny aktualnej sytuacji ekonomicznej gospodarstw poprzedzającej plan rozwoju, oraz przygotowywania i weryfikowania róŜnych wariantów planu. Rolnicy współpracując z doradcą chcieliby mieć moŜliwość oceny aktualnej i planowanej sytuacji swojego gospodarstwa na tle gospodarstw podobnych. Czynnikiem róŜnicującym wypowiedzi rolników była wielkość ekonomiczna i obszarowa kierowanych przez nich gospodarstw. Planowaniem rozwoju swoich gospodarstw bardziej zainteresowani byli rolnicy z gospodarstw średnio małych i średnio duŜych (według klas wielkości ekonomicznej) oraz z gospodarstw o wielkości obszarowej ponad 15 ha UR. Przeprowadzone badania potwierdziły, Ŝe w doradztwie rolniczym występuje zapotrzebowanie na wskazanie prostej, wystarczająco precyzyjnej miary potencjału. Podstawą bowiem określenia wielkości referencyjnych do weryfikowania opisów gospodarstw (zwłaszcza nie prowadzących rachunkowości), analizowania aktualnej sytuacji, przygotowywania róŜnych wariantów planu rozwoju oraz weryfikowania planów rozwoju moŜe być baza danych z gospodarstw prowadzących rachunkowość unijną i prosta, wystarczająco precyzyjna miara potencjału pozwalająca na grupowanie gospodarstw podobnych pod względem potencjału. Wykorzystując wyniki FADN moŜna by dać doradcom narzędzie wspomagające rolników w procesie podejmowania decyzji. Do ułatwienia analizy sytuacji i oceny planów przedsięwzięć mogą posłuŜyć informacje z odpowiednio pogrupowanych gospodarstw prowadzących rachunkowość unijną (FADN). Podstawą grupowania moŜe być wielkość ekonomiczna i typ rolniczy. Wielkość ekonomiczna określana jest na podstawie systematycznie aktualizowanych parametrów SGM. Obecnie są one obliczane dla potrzeb polskiego FADN. W związku z tym Ŝe trwają prace nad zmianą kryteriów klasyfikacji gospodarstw w ramach FADN, podstawą której ma stać się standardowa produkcja, warto byłoby kontynuować obliczanie parametrów SGM dla potrzeb doradztwa rolniczego. Instytucją, która mogłaby zajmować się przygotowywaniem takich zestawień jest Instytut Ekonomiki Rolnictwa i Gospodarki śywnościowej, w którego gestii leŜy gromadzenie i przetwarzanie danych gospodarstw prowadzących rachunkowość unijną. Instytut mógłby przygotowywać odpowiednie liczby referencyjne dla Ośrodków Doradztwa Rolniczego. Dane z gospodarstw prowadzących rachunkowość unijną zestawione w formie poradnika dla doradcy byłyby pomocne w opracowaniu i weryfikacji planów rozwoju. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 77 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. Bernacki A., 2004: Informatyka w gospodarstwie rolniczym. [w:] Nowoczesne techniki informacyjne w nauce, edukacji i doradztwie dla wsi i rolnictwa. Materiały konferencyjne, KCDRRiOW, Brwinów – Warszawa, 16-18 września, 13-21. Bieńkowski R., 1994: Oczekiwania doradztwa rolniczego wobec nauk ekonomicznych. Referat na I Kongres SERiA „Ekonomiści rolnictwa i agrobiznesu wobec wyzwań współczesnego rolnictwa”. Poznań s. 93-96. Goraj L., Niewiadomski J., 2003: Rachunkowość w gospodarstwie rolnym. [w:] Cichoń M., Goraj L., Hołdyński Cz., Janyszek S., Liro A., Metera D., Niewiadomski J.: Podstawy wdraŜania programu rolno środowiskowego i zalesieniowego. Warszawa, 113-136. Goraj L., Mańko S., Sass R., Wyszkowska Z., 2004: Rachunkowość rolnicza. Difin, Warszawa. Leśniak B., 1997: Analiza i planowanie rozwoju gospodarstw rolnych jako metoda rolniczego doradztwa socjalno-ekonomicznego stosowana w krajach Unii Europejskiej. Centrum Doradztwa i Edukacji w Rolnictwie, Poznań. Mańko S., 2007: Planowanie rozwoju gospodarstwa rolnego. [w]: Runowski H. (red.): Finanse gospodarstwa rolnego. Wyd. K-PODR. Przysiek, 46-51. Ziętara W. ,Olko-Bagieńska T., 1986:Zadania z analizy działalności gospodarczej i planowania w gospodarstwie rolniczym. PWRiL Warszawa. www.ip.univ.szczecin.pl. 78 Maria Jolanta Orłowska Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników TOOLS FACILITATING PREPARATIONS OF FARM DEVELOPMENT PROGRAMMES IN THE OPINION OF ADVISORY CENTRES OFFICERS AND FARMERS COOPERATING WITH THEM Summary The aim of the paper was to recognize the needs of advisory officers concerning tools facilitating preparations of farm development programmes and farmers expectations towards preparing plans of their farms development. The research results confirm that the advisory officers need tools facilitating their work concerning preparations of farm development programmes. The examined farmers expect from the advisory offices support with preparing their venture plans. Keywords: expertise base about farms, Standard Gross Margin, agricultural advisory centers, advisory officers, farms Maria Jolanta Orłowska Zakład Ekonomiki Produkcji Rolniczej Katedra Ekonomiki i Doradztwa w Agrobiznesie Uniwersytet Technologiczno-Przyrodniczy 85-789 Bydgoszcz, Al. Prof. Kaliskiego 7 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 79 OLGA PILIPCZUK Politechnika Szczecińska MODUŁ MONITOROWANIA JAKOŚCI PROCESÓW USŁUGOWYCH (PQM) JAKO KOMPONENT ZINTEGROWANEGO SYSTEMU ZARZĄDZNIA Streszczenie W pracy zaprezentowano model analitycznego systemu hybrydowego (hierarchiczno-rozłącznego) opracowany w celu wsparcia procesu identyfikacji procesów usługowych wymagających usprawnienia oparty na integracji modelowania symulacyjnego i technik sztucznej inteligencji. Pokazano rolę i miejsce tego systemu w strukturze informatycznej przedsiębiorstwa współczesnego. Słowa kluczowe: metoda M-A-M, system ERP, systemy hybrydowe, BPM, portal korporacyjny, sztuczna inteligencja, zbiory przybliŜone 1. Wstęp Problem oceny jakości procesów usługowych jest problemem bardzo trudnym do rozwiązania, poniewaŜ charakteryzuję się wysokim stopniem niepewności i zmienności. Według Bendella i Boultera wprowadzenie w sektorze usługowym koncepcji zarządzania jakością jest trudne z powodu słabej systematyzacji, niejednoznacznej definicji procesów biznesu oraz malej moŜliwości porównania procesów z procesami innych organizacji (benchmarkingu) (Bendell T., Boulter L., 2003). Istnieje kilka metod oceny jakości procesów gospodarczych. Metody te róŜnią się nie tylko róŜnostronnością spojrzenia na jakość, ale równieŜ kryteriami oceny jakości procesów. Za podstawę do opracowania nowej metody posłuŜyło zapotrzebowanie na kompleksową analizę jakości procesów usługowych. Taka kompleksowa analiza ma na celu diagnozę stanu jakości kaŜdego procesu oraz ciągłe jego doskonalenie. Procedura zaczyna się od pojawienia się potrzeby oceny jakości procesów (Rys.1). Najpierw naleŜy przeanalizować pierwszy czynnik, czyli przeprowadzić selekcję procesów ze względu na ich bliskość do klienta. Jakość procesów „bliskich” i procesów „średnich” oceniana jest z punktu widzenia klienta z wykorzystaniem teorii zbiorów przybliŜonych. Tutaj równieŜ mamy moŜliwość określenia siły wpływu kaŜdego procesu na klientów, czyli wartości tego procesu dla klienta. Jakość procesów dalekich, które nie mają wpływu na klientów (odbiorcami końcowymi takich procesów są pracownicy firmy), oceniana jest na podstawie stopy występowania błędów. Jednocześnie z ustaleniem bliskości procesu do klienta określamy poziom procesu. Gdy jakość z punktu widzenia klienta oraz poziom procesu są określone, naleŜy przeprowadzić symulacje przebiegów procesów i ustalić moŜliwość ich udoskonalenia za względu na czas, koszt, zasoby ludzkie itd. Analiza procesów według typowych wymagań ISO jest skuteczna, jeŜeli modeli procesów nie są tworzone i analizowane po raz pierwszy, poniewaŜ są to wymagania do procesów poddanych wcześniej przeprojektowaniu. Następnym krokiem jest analiza barier i zagroŜeń dla procesów. 80 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania Rezultatem opisanych powyŜej działań powinno zostać zaklasyfikowanie kaŜdego z tych czynników do kwantyfikatorów lingwistycznych poprzez generowanie rozkładów prawdopodobieństwa. Po dokonaniu oceny wszystkich czynników w celu porównania procesów wykorzystujemy metodę M-A-M. Wynikiem porównania są oceny liczbowe kaŜdego z procesów. W rezultacie moŜna powiedzieć, który z procesów działa najbardziej sprawnie, a który - najmniej. Jednak takie porównanie nie daje moŜliwości określenia stopnia doskonałości kaŜdego z procesów. Dlatego niezbędne jest utworzenie rozkładu prawdopodobieństwa zaklasyfikowania potrzeby usprawnienia działania procesu do kwantyfikatorów lingwistycznych. Opisana powyŜej procedura oceny jakości procesów usługowych przedstawiona na rysunku 1 w postaci diagramu EPC (łańcuchu zdarzeń i funkcji). Dokładny opis metody moŜna znaleźć w pracach [3], [4]. Zaproponowana w pracy metoda oceny jakości procesów usługowych moŜe być zautomatyzowana za pomocą narzędzia informatycznego: modułu monitorowania jakości. 81 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 PODJĘTO DECYZJĘ ROZPOCZĄĆ PROCES OCENY JAKOŚCI ^ SELEKCJA PROCESÓW WEDŁUG „BLISKOŚCI” OKREŚLENIE POZIOMU PROCESU × WYBRANE PROCESY „DALEKIE” WYBRANE PROCESY „BLISKIE” KLIENTA WYBRANE PROCESY „ŚREDNIE” OCENA JAKOŚCI WEDŁUG STOPY BŁĘDÓW OCENA JAKOŚCI WZGLĘDEM KLIENTA POZIOM JEST USTALONY ^ OCENA WPŁYWU PROCESÓW JAKOŚĆ ZOSTAŁA OCENIONA ^ JAKOŚĆ I WARTOŚĆ ZOSTAŁY OCENIONE × SYMULACJA PRZEBIEGU PROCESU ^ OCENA PROCESU WEDŁUG WYMAGAŃ ISO ^ MOśLIWOŚCI UDOSKONALENIA USTALONE ANALIZA BARIER I ZAGROśEŃ DOKONANO ANALIZY ^ PORÓWNANIE PROCESÓW Z WYKORZYSTANIEM METODY M-A-M PROCESY ZOSTALY OCENIONE Rys.1. Procedura oceny jakości procesów usługowych 82 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania 2. Miejsce systemu monitorowania jakości w strukturze informatycznej przedsiębiorstwa współczesnego. Dlatego, Ŝeby pokazać w jaki sposób ten system działa, najpierw naleŜy opisać jakie miejsce zajmuje ocena jakości procesów gospodarczych w koncepcji BPM. (ang. Business Process Management). Quality estimation Rys. 2. Ocena jakości procesów gospodarczych w BPM (Źródło: Scheer, 1999) Na rysunku 2 opisano podejście procesowe do zarządzania przedsiębiorstwem w ujęciu informatycznym oraz pokazano miejsce oceny jakości w zarządzaniu procesami biznesowymi. Proces zarządzania rozpoczyna się od planowania strategii biznesowych przedsiębiorstwa. Na tym etapie określa się struktura organizacyjna, zostają zidentyfikowane procesy główne oraz procesy dodające wartość, wybiera się strategia i narzędzia zarządzania procesami. Kolejnym krokiem jest modelowanie procesów, ich ocena oraz porównanie do najlepszych modeli (modeli referencyjnych oraz modeli innych organizacji). Niezbędne jest szacowanie kosztów, przeprowadzenie symulacji, mierzenie wskaźników krytycznych oraz ocena efektywności i jakości procesów. W wyniku tych działań zostają ocenione róŜne scenariusze w celu wybrania wariantu najlepszego. Po dokonaniu analizy i oceny modeli procesów następuje fizyczne przeprojektowanie procesów rzeczywistych, czyli implementacja – poziom najniŜszy. Udoskonalone procesy są ciągle monitorowane w celu POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 83 natychmiastowej reakcji na nadchodzące zmiany. Na rysunku 3 pokazane jest miejsce monitorowania procesów w cykle BPM. W przypadku ustalenia niezgodności z normami lub jeŜeli wyniki, które osiągają procesy są niezadowalające zostają oni znów przeprojektowane i zaimplementowane. Modelowanie procesów Monitorowanie procesów Konfiguracja i kontrola procesów ERP HR SCM Wykonywanie procesów Rys. 3. Koncepcja BPM w narzędziach informatycznych (Źródło: www.ids-scheer.com) Na rysunku 4 zostało pokazane miejsce modułu PQM (z ang. Process Quality Monitoring) we współczesnej organizacji „inteligentnej” zorientowanej na zwiększenie jakości działania oraz stosującej nowoczesne metody zarządzania. Dla takiej organizacji usługowej zarządzanie procesami biznesowymi wykracza poza granice doskonalenia procesów i jest bezpośrednio związane z zarządzaniem wiedzą poprzez zastosowanie technik i metod sztucznej inteligencji. Narzędziem głównym wspomagającym automatyzację procesów gospodarczych przedsiębiorstwa jest system klasy ERP drugiej generacji, który obejmuje cały zakres realizowanych funkcji od zarządzania finansami aŜ po elektroniczny obieg dokumentacji. Oprócz tego system ERP posiada narzędzie (moduł) do zarządzania procesami biznesowymi (ang. Business Process Management - BPM). System BPM ma modułową strukturę. Moduł „Modelowanie procesów” przeznaczony jest do tworzenia diagramów, które przedstawiają spojrzenie z perspektywy procesów, danych, struktury organizacyjnej itd. Moduł „Analiza kosztów” stwarza moŜliwość oceny danych dotyczących procesów z punktu widzenia rachunku kosztów, rozszerza moŜliwości systemu o zagadnienia związane z rachunkiem 84 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania kosztów ABC, kontrolingiem kosztów procesów wykonywanych w jednostce oraz zarządzanie kosztami tych procesów. Moduł „Symulacji” umoŜliwia wyobraŜenie zachowania się przedsiębiorstwa w dynamicznym działaniu. Symulacje przebiegu ułoŜonych i sparametryzowanych pod względem czasów i kosztów zadań pozwolą dowiedzieć się, jak zachowa się firma po wprowadzeniu zmian organizacyjnych lub zmianie warunków rynkowych. Moduł „Monitorowania efektywności procesów” słuŜy do mierzenia skuteczności wdraŜanych procesów biznesowych, analizy kosztów procesów w oparciu o wybrane wskaźniki, analizy wskazującej wąskie gardła w systemie, pokazującej gdzie kumulują się błędy przetwarzania, czy przepustowość procesów jest wystarczająca itd. Moduł „ZrównowaŜonej karty wyników” ułatwia projektowanie Strategicznej Karty Wyników, umoŜliwia integrację tej Ŝe z mapami procesów, umoŜliwia takŜe bieŜącą kontrolę wartości wskaźników ujętych w Karcie. Moduł „Publikowania modeli w Intranecie” wykorzystują firmy o rozproszonych jednostkach organizacyjnych, które muszą skutecznie przekazywać informacje o swoich procesach biznesowych. Informacje te powinny szybko docierać do pracowników, co oznacza w praktyce wymóg natychmiastowego dostępu do modeli procesów i innej dokumentacji. Oprócz tego przeniesienie modeli do portalu korporacyjnego daje moŜliwość analizy danych w nich zawartych za pomocą technik Sztucznej Inteligencji wspomagając transformację informacji w wiedzę. System ERP II, jak i portal korporacyjny, jest w pełni zintegrowany z pakietami biurowymi w celu wsparcia procesów pozyskiwania, analizy i przekazywania wiedzy pomiędzy tymi narzędziami. Portal korporacyjny w organizacji biznesowej jest miejscem szczególnie waŜnym, miejscem integrującym rozproszone aplikacje oraz zasoby informacji i wiedzy w celu lepszego podejmowania decyzji i usprawnienia działań organizacji. Portal wraz z jego uŜytkownikami jest odzwierciedleniem tzw. pamięci korporacyjnej – sieci wiedzy, która poza typowymi zasobami informacyjnymi zawiera umiejętności i doświadczenie ludzi oraz kapitał intelektualny. Pamięć korporacyjna pełni rolę źródła, z którego uŜytkownicy korzystają podczas podejmowania decyzji i rozwiązywania problemów. Struktura systemu zarządzania wiedzą podzielona jest na kilka poziomów: źródła wiedzy (bazy danych, poczta elektroniczna, strony WWW, ludzie), repozytorium wiedzy (zarządzanie informacją i procesami), mapa wiedzy organizacyjnej. Funkcjonalność ta moŜe być w pełni wykorzystana jedynie w połączeniu z inicjatywami organizacyjnymi z zakresu zarządzania wiedzą w takich obszarach jak procesy operacyjne i biznesowe, rozwiązania formalne (procedury, polityki), kultura organizacyjna, system motywacyjny itp. Moduł „Monitorowania jakości procesów” PQM jest przeznaczony dla analizy i oceny jakości procesów przedsiębiorstw usługowych z wykorzystaniem technik Sztucznej Inteligencji. Moduł wymienia informacje z kilkoma innymi modułami systemu BPM oraz dostarcza informacji o procesach do portalu korporacyjnego poprzez moduł wspomagający publikowanie modeli w celu przeprowadzenia dogłębnej analizy oraz tworzenia zaawansowanych raportów. Oprócz wymienionych powyŜej modułów są inne moduły wspomagające wszechstronną analizę procesów: moduł monitorowania wskaźników kluczowych, moduł monitorowania ryzyka, moduł dokumentacji procesów itd. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 85 Moduł monitorowania jakości procesów moŜe być równieŜ składowym elementem systemu BPM zintegrowanego lub nie zintegrowanego z systemem ERP. Ten układ zaprezentowano na rysunku 5. Zarządzanie wiedzą Business Intelligence Portal korporacyjny ERP II Finanse HR CRM Produkcja Logistyka Serwis SprzedaŜ Księgowość Rozwiązania branŜowe Monitorowanie ryzyka Monitorowanie jakości procesów KOSZTY PQM MODELE Monitorowanie efektywności procesów BPM Symulacja przebiegów procesów Analiza kosztów Modelowanie procesów Monitorowanie wskaźników kluczowych … WorkFlow … Analiza zrównowaŜonej karty wyników Publikacja modeli w Intranecie MODELE I INFORMACJE O PROCESACH Aplikacje biurowe Rys. 4. Miejsce modułu PQM w strukturze informatycznej współczesnego przedsiębiorstwa (komponent systemu ERP II) 86 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania Zarządzanie wiedzą Business Intelligence Portal korporacyjny ERP II Finanse HR CRM Produkcja Logistyka Serwis SprzedaŜ Księgowość Rozwiązania branŜowe … WorkFlow BPM Monitorowanie efektywności procesów PQM MODELE Monitorowanie wskaźników kluczowych Analiza kosztów Monitorowanie ryzyka Monitorowanie jakości procesów KOSZTY Modelowanie procesów … Symulacja przebiegów procesów Analiza zrównowaŜonej karty wyników Publikacja modeli w Intranecie MODELE I INFORMACJE O PROCESACH Aplikacje biurowe Rys. 5. Miejsce modułu PQM w strukturze informatycznej współczesnego przedsiębiorstwa (komponent systemu BPM) POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 87 3. Model inteligentnego systemu hybrydowego, wspomagającego identyfikację procesów usługowych wymagających usprawnienia - PQM. Proces identyfikacji procesów informacyjno-decyzyjnych wymagających usprawnienia jest procesem skomplikowanym, wymagającym nie tylko dynamicznej analizy kilku czynników, ale równieŜ wnioskowania przybliŜonego; specyficzne cechy procesów usługowych wymagają wprowadzenia pojęć leksykalnych. Automatyzacja takiego procesu jest moŜliwa za pomocą analitycznego systemu hybrydowego. W literaturze moŜna spotkać róŜne definicje systemów hybrydowych (Radosiński E., 1998), (Radosiński E., 2001), (Radosiński E., 1997), (Orłowski C., 2006). Nazywane są one „inteligentne systemy hybrydowe”, „analityczne systemy hybrydowe” albo po prostu „systemy hybrydowe”. Hybrydą nazywa się twór łączący w integralną całość róŜne występujące dotąd samodzielne gatunki, rodzaje, konstrukcje, metody itd. System hybrydowy jest definiowany jako złoŜony system informatyczny, integrujący formy sztucznej inteligencji, wspomagane technikami symulacyjnymi oraz logiką rozmytą (Orłowski C., 2006). System hybrydowy – system, który powstał w wyniku integracji technik inteligentnych oraz modelowania symulacyjnego w ramach jednolitego środowiska informatycznego (Radosiński E., 2001). Rdzeniem takiego systemu jest baza wiedzy, współpracująca z oprogramowaniem symulacyjnym, technikami logiki rozmytej, bazami danych oraz modułami wspomagającymi. Podstawowym celem systemu hybrydowego jest rozwiązywanie problemów, z którymi nie radzą sobie systemy ekspertowe (ES) i systemy wspomagania decyzji (DSS). Głównym ograniczeniem technik inteligentnych jest brak moŜliwości odwzorowania zjawisk dynamicznych, a więc przeprowadzania eksperymentów prognostycznych. Systemy DSS w przeciwieństwie do systemów ES nie mogą przetwarzać danych jakościowych. Struktury hybrydowe z powodzeniem są stosowane w róŜnych dziedzinach, a najczęściej dla odwzorowania działania przedsiębiorstwa z uwzględnieniem jak aspektów statycznych, tak równieŜ i dynamicznych. Domeną systemów ekspertowych jest przetwarzanie logiczno-symboliczne. Takie programy nie nadają się do przeprowadzenia złoŜonych obliczeń numerycznych. JeŜeli strukturę systemu ekspertowego uzupełnimy modelem symulacyjnym, to otrzymamy układ, który oprócz przetwarzania symbolicznego będzie wykonywać takŜe przetwarzanie ilościowe, w tym eksperymenty dynamiczne. Jednak systemy ekspertowe mają ograniczenia strukturalne. Dlatego naukowcy i specjaliści w dziedzinie projektowania systemów informatycznych proponują równieŜ wykorzystanie innych technik sztucznej inteligencji, takich jak: zbiory rozmyte (FS) , sieci neuronowe (NN), algorytmy genetyczne (AG) itd. (Rutkowska D., Piliński M., Rutkowski L., 1996). Poszczególne struktury SM ⇔ IT moŜna wykorzystać w róŜnych celach: SM ⇔ NN pozwala wyznaczyć funkcję dyskryminacyjną, SM ⇔ FS wspomaga przetwarzanie informacji leksykalnej, SM ⇔ AG pozwala znaleźć rozwiązania suboptymalne; SM ⇔ ES reprezentacja wiedzy proceduralnej i deklaratywnej. 88 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania Ze względu na sposób zarządzania strukturą hybrydową SM↔IT wyróŜniamy 3 typy hybryd (Radosiński E., 2001): IT→SM – hierarchiczna, SM→IT – hierarchiczna, SM←→IT – rozłączna. Istnieją równieŜ układy IT ⇔ IT hybrydy integrujące róŜne typy elementarnych technik inteligentnych (Radosiński E., 2001): IT→IT – hierarchiczna, IT↕IT – homomorficzna, IT←→IT – rozłączna. Układ IT→IT jest układem hybrydy hierarchicznej, w której technika główna IT odpowiada za realizacje podstawowej funkcji systemu, natomiast druga IT jest techniką uzupełniającą wspomagającą wykonanie wybranej czynności informatycznej. Systemy homograficzne IT↕IT pod względem funkcjonalnym wykazują cechy charakterystyczne dla składowych technik inteligentnych. Hybryda rozłączna IT←→IT składa się z co najmniej dwóch niezaleŜnych strukturalne technik inteligentnych połączonych kanałami przekazu danych. Transmisja informacji następuje za pośrednictwem operatora bądź nadrzędnego systemu sterującego. Układ taki sprawdza się w rozwiązywaniu zadań złoŜonych, które moŜna dekomponować na subproblemy o wyraźnie zróŜnicowanej specyfice. Opracowany model systemu PQM odpowiada typowi hybrydy hierarchiczno-rozłącznej IT→(IT←→SM), który zgodne z klasyfikacją hybryd hierarchicznych jest przykładem hybrydy, w której techniką główną jest metoda M-A-M, a moduł symulacyjny i zbiory przybliŜone są technikami uzupełniającymi (Rys.6). IT IT ←→ ↓ SM Rys. 6. Ilustracja ogólnej struktury hybrydowej systemu PQM System 2-hybrydowy – złoŜony system hybrydowy, składający się z modułu nadrzędnego (techniki sztucznej inteligencji lub techniki symulacyjnej) oraz hybrydy podrzędnej integrującej kilka róŜnych technik inteligentnych lub techniki inteligentne i technikę symulacyjną. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 H Y B R Y D A 89 IT ↓ HYBRYDA Rys. 7. Ilustracja struktury systemu 2-hybrydowego System podwójnej hybrydy moŜna efektywne wykorzystać dla analizy zjawisk złoŜonych, najczęściej opierających się na danych kombinowanych, pochodzących z róŜnorodnych źródeł w celu porównania i doboru wariantu optymalnego. M-A-M RS ←→ ↓ SM Rys. 8. Struktura hybrydowa systemu PQM Podstawowym zadaniem systemu jest podanie diagnozy lingwistycznej stanu sprawności działania procesów za pomocą metody M-A-M. Techniki RS (zbiory przybliŜone) i SM (model symulacyjny) są niezaleŜne strukturalnie i nie tylko rozwiązują róŜne problemy, a nawet przetwarzają róŜne typy danych: numeryczne i leksykalne. W wyniku tego przetwarzania powstają informacje, które przekazywane są do nadrzędnego modułu M-A-M. W modułu nadrzędnym system generuje rozkłady prawdopodobieństwa, a zatem poddaje ich analizie, wyniki której przedstawia w postaci raportu. Na rysunku 10 przedstawiono algorytm działania systemu. Dane i informacji o poszczególnych czynnikach procesów, niezbędne do uzyskania rozkładów prawdopodobieństwa, przechowywane są w bazie wiedzy, skąd pobierane są przez moduł technik inteligentnych oraz przez moduł symulacyjny w celu analizy. Moduł symulacyjny pobiera równieŜ dane z innych modułów systemu BPM: modułu „modelowania procesów” w postaci modeli oraz modułu „analizy kosztów” w postaci obliczonych kosztów. Rozkłady prawdopodobieństwa, uzyskane w wyniku analizy czynników zostają przeanalizowane za pomocą metody M-A-M. W rezultacie wykonania tych operacji otrzymujemy dane liczbowe, które później zostają przeinterpretowane w dane lingwistyczne. 90 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania Moduł technik kalkulacyjnych Baza wiedzy Model symulacyjny Moduł technik inteligentnych M-A-M Moduł technik inteligentnych RS Moduł współpracy z uŜytkownikiem Rys.9. Struktura modułowa analitycznego systemu hybrydowego PQM (Radosiński E., 2001) Rdzeniem systemu jest baza wiedzy, w której znajdują się: 1. Dane o przedsiębiorstwie, niezbędne do symulacji procesów oraz do określenia barier i zagroŜeń realizacji procesów, 2. dane o procesach, takie jak opinie pracowników o przebiegach procesów, koszt, czas realizacji, właściciel procesu, potrzebne do określenia stopy błędów i moŜliwości udoskonalenia procesu, 3. dane o otoczeniu przedsiębiorstwa, pokazują jakie czynniki zewnętrzne wpływają na realizacje procesów, powodując powstanie barier i zagroŜeń, 4. wyniki ankietowania – ocena ilościowa jakości, uzyskana na podstawie opinii klientów, 5. wyniki symulacji - wyniki dynamicznych eksperymentów symulacyjnych, 6. reguły IF…THEN, wspomagające wnioskowanie, 7. rozkłady prawdopodobieństwa, 8. diagnozy, 9. lista wymagań ISO do typowych procesów, 10. opis metody, 11. modele referencyjne procesów biznesowych i procedur oceny jakości. Moduł symulacji umoŜliwia analizę zachowania się przedsiębiorstwa w dynamicznym działaniu. Za pomocą symulacji modele procesów ze stanu obecnego (aktualnego) zostają przeprojektowane w stan docelowy (poŜądany). MoŜliwości doskonalenia procesu tkwią w skróceniu czasu i redukcji kosztów procesu. Dla oszacowania czasu procesu w pracy zostały wykorzystane wyniki badań naukowców i doświadczenie analityków procesów biznesowych, które dowiedli, Ŝe największe efekty daje redukcja czasu rzeczywistej realizacji czynności. Chodzi tutaj o mierzenie zdolności przepustowej procesu. Zdolność przepustowa = łączny czas rzeczywistej realizacji funkcji/czas przebiegu całego procesu. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 91 JeŜeli jednak nie ma moŜliwości zwiększenia zdolności przepustowej, ale jednocześnie łączny czas przebiegu procesu udaje się znaczne skrócić, wtedy porównujemy łączny czas przebiegu procesu do wprowadzenia zmian i po wprowadzeniu zmian. Rezultaty oszacowania kosztu procesów w postaci raportu są przekazywane z modułu „analizy kosztów” do systemu PQM, gdzie odbywa się ich symulacja. Rys.10. Algorytmizacja procesu identyfikacji procesów gospodarczych wymagających usprawnienia 92 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania Przebieg symulacji w systemie PQM zaprezentowano na rysunku 12. Rys. 11. Przebieg procesu symulacji w systemie PQM POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 93 Opracowany system jest przeznaczony dla kilku grup uŜytkowników: dla firm konsultingowych: analityków, specjalistów w dziedzinie modelowania i analizy procesów gospodarczych, analityków, specjalistów od wdroŜenia zintegrowanych systemów zarządzania, dla odbiorców końcowych (analityków i kierowników wyŜszego i średniego szczebla). 4. Zakończenie Zagadnienia poruszane w pracy związane są z analizą i oceną jakości procesów usługowych w warunkach szczególnej niepewności i niestabilności. W przypadku badania procesów przedsiębiorstw produkcyjnych szczególną uwagę zazwyczaj poświęca się analizie efektywności. Jednak procesy usługowe wymagają innego spojrzenia, spojrzenia od strony jakości. Postrzeganie jakości procesu obecnie jest rozmaite. Metoda autorska zawiera zintegrowane podejście do oceny jakości procesów usługowych. Istniejące systemy zarządzania procesami gospodarczymi działają na bazie informacji numerycznych. Z tego powodu duŜa ilość informacji lingwistycznych zostaje utracona. Opracowany hybrydowy system monitorowania jakości PQM pomaga rozwiązać ten problem. 5. Literatura 1. Bendell T., Boulter L., Benchmarking, wydawnictwo profesjonalnej szkoły biznesu, Krakow, 2003. 2. Orłowski C., Projektowanie hybrydowych systemów informatycznych do wspomagania zarządzania, Politechnika Gdańska, Gdańsk 2006. 3. Pilipczuk O., Zastosowanie teorii zbiorów rozmytych do identyfikacji nieefektywnych procesów gospodarczych, Ciechocinek 2007. 4. Pilipczuk O., Analiza i ocena jakości usług przedsiębiorstwa w celach reengineeringu, Badania operacyjne i systemowe IBS PAN, Warszawa 2006. 5. Radosiński E., Systemy informatyczne w dynamicznej analizie decyzyjnej, PWN S.A., Warsawa-Wrocław 2001. 6. Radosiński E., Techniki inteligentne w symulacyjnej analizie firmy, materiały konferencji „Szkoła Symulacji systemów gospodarczych”, Zakopane 1997. 7. www.ids-scheer.com. 8. Radosiński E., Inteligentne techniki hybrydowe w analizie ekonomicznej firmy, materiały konferencji „Szkoła Symulacji systemów gospodarczych”, Zakopane 1998. 9. Rutkowska D., Piliński M., Rutkowski L., Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, PWN, Warszawa 1996. 10. Scheer A.D. ARIS — Business Process Modeling , Springer-Verlag Berlin 1999. 94 Olga Pilipczuk Moduł monitorowania jakości procesów usługowych (PQM) jako komponent informatycznego systemu zarządzania THE MODULE OF PROCESS QUALITY MONITORING (PQM) AS A COMPONENT OF INTEGRATED MANAGEMENT SYSTEM IN SERVICE INDUSTRY Summary The article presents the model of intelligent hybrid system (hierarchicaldisconnected) worked out in purpose of supporting the process of identification of such business processes, which have to be rebuilt. This model is based on simulation modelling and intelligent techniques integration. The system role and place in information structure of contemporary enterprise is shown. Słowa kluczowe: the M-A-M method, ERP system, Intelligent Hybrid System, BPM, Enterprise Portal, Artificial Intelligence, Rough Sets Olga Pilipczuk Politechnika Szczecińska Szczecin, ul. śołnierska 49 e-mail: [email protected] http://www.wi.ps.pl/ POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 95 OREST POPOV, ANNA BARCZ, PIOTR PIELA Politechnika Szczecińska DOBÓR STRUKTURY MODELI MATEMATYCZNYCH PROCESÓW W BAZIE WIEDZY DYNAMICZNYCH INTELIGENTNYCH SYSTEMÓW NAUCZANIA Streszczenie W artykule przedstawiono metodę tworzenia modeli matematycznych dla nieliniowych obiektów dynamicznych w przypadku braku lub znikomej informacji o badanym obiekcie. W wyniku zastosowania metod identyfikacji moŜliwe jest uzyskanie zbioru róŜnych modeli aproksymujących badany obiekt. Z uzyskanego zbioru naleŜy dokonać wyboru modelu o najlepszej strukturze. Zaproponowana metoda wyboru struktury modelu opiera się na wykorzystaniu rozkładu względem wartości szczególnych (SVD) w równaniu identyfikacji. Słowa kluczowe: model matematyczny, system nauczania, identyfikacja, rozkład SVD 1. Wprowadzenie Wśród komputerowych systemów nauczania moŜna wyróŜnić klasę systemów zawierających w swojej strukturze system symulacyjny (rysunek 1). Rysunek 1. Podział komputerowych systemów nauczania Autorzy w [12] określili takie systemy mianem dynamicznych inteligentnych systemów nauczania (DISN). Systemy te przeznaczone są do przekazywania wiedzy deklaratywnej, niezbędnej w procesie kształcenia operatora danego obiektu, jak równieŜ przekazywania wiedzy proceduralnej dotyczącej działalności praktycznej pozwalającej na kształtowanie odpowiednich nawyków i umiejętności. Dynamiczne inteligentne systemy nauczania zawierają: • model dynamiki sterowanego obiektu, 96 O. Popov, A. Barcz, P. Piela Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania • model informacyjny, który umoŜliwia współdziałanie ucznia z modelem obiektu dynamicznego, • model nauczania, obejmujący reguły, metody, strukturę niezbędnych ćwiczeń skierowanych na nabycie określonych nawyków oraz pozostałe atrybuty nauczania. Bez względu na dziedzinę przedmiotową w strukturze inteligentnego systemu nauczania moŜemy wyróŜnić: bazy danych i wiedzy, mechanizm wnioskowania, interfejs uŜytkownika, pewne dodatkowe elementy (np. program zapewniający moŜliwość korekty i uzupełniania bazy wiedzy) oraz system symulacyjny, który odwzorowuje zachowanie i wygląd dynamicznego rzeczywistego obiektu nauczania. Podstawą systemu symulacyjnego jest matematyczny model dynamiki obiektu nauczania. W przypadku rzeczywistych obiektów dynamicznych ich zachowanie najczęściej opisuje się przy pomocy układów nieliniowych równań róŜniczkowych. W sytuacji, gdy nie dysponujemy wiedzą o obiekcie rzeczywistym konieczne jest wybranie struktury modelu, a następnie określenie parametrów tej struktury z wykorzystaniem zadań identyfikacji. Ze względu na zastosowanie tworzonego modelu w dynamicznym inteligentnym systemie nauczania konieczne jest zapewnienie wysokiej jakości odwzorowania dynamiki obiektu rzeczywistego. 2. Zadanie identyfikacji Ogólnie zadanie identyfikacji rzeczywistych obiektów dynamicznych polega na określeniu struktury i parametrów modeli matematycznych tych obiektów. W zaleŜności od informacji, jaką dysponujemy o badanym obiekcie, moŜemy mówić o róŜnych zadaniach identyfikacji [2, 4]. W przypadku gdy brakuje informacji o obiekcie lub jest ona nieznaczna identyfikacji podlegają zarówno struktura jaki i parametry modelu opisującego zachowanie badanego obiektu rzeczywistego. Problem określenia struktury i parametrów modeli obiektów rzeczywistych jest jednym z podstawowych problemów współczesnej teorii systemów. Nie da się zapewnić dobrego jakościowo odwzorowania zachowania obiektów rzeczywistych, a co za tym idzie przeprowadzania wiarygodnych symulacji komputerowych i komputerowego sterowania, jeśli model matematyczny nie jest znany z dostateczną dokładnością. Identyfikacja nieliniowych obiektów dynamicznych o nieznanej strukturze (1) X& = F ( X ,U ), X ∈ R n , U ∈R m (1) gdzie: X – wektor zmiennych stanu, U – wektor sygnałów sterujących, przebiega w dwóch krokach. W pierwszym kroku przeprowadza się zadanie aproksymacji nieznanych nieliniowych funkcji F(X,U) opisujących zachowanie obiektu, a w drugim – identyfikację nieznanych parametrów przyjętej funkcji aproksymującej [5]. W pracy [7] opisano oba etapy procesu identyfikacji nieliniowych obiektów dynamicznych o nieznanej strukturze, skupiając się na korekcie parametrów przyjętej struktury modelu w celu zwiększenia dokładności odwzorowania zachowania obiektu rzeczywistego. Natomiast w niniejszej pracy zaproponowano zwiększenie dokładności odwzorowania poprzez wybór najlepszej struktury z dostępnego zbioru bez konieczności przeprowadzania korekcji parametrów. ZałóŜmy, Ŝe nieliniową funkcję F(X), gdzie X ∈ R 2 aproksymowano ciągiem wielomianów w postaci: 97 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 X& = P( x1 ) + Q( x2 ) (2) p (x ) c x + c x 2 P( x1 ) = 1 1 = 11 1 12 1 2 , p2 ( x1 ) c21 x1 + c22 x1 (3) q (x ) c x Q( x2 ) = 1 2 = 13 2 , q2 ( x2 ) c23 x2 (4) Niech: Uwzględniając równania (3) i (4) w równaniu (2) otrzymamy nieliniowy model o strukturze: x1 x&1 c11 c12 c13 2 ⋅ x1 , = x& 2 c21 c22 c23 { 1442443 x2 123 C X& X& = C ⋅ Z (5) Z W wyniku aproksymacji otrzymaliśmy liniowe równanie róŜniczkowe (5) o niewiadomej macierzy C, którego rozwiązanie na podstawie metody najmniejszych kwadratów przedstawia się następująco: C = Rs ⋅ Ps −1 (6) gdzie: ∑ (X& s Rs = j =1 ), P = ∑ Z Z s jZ j T s j j =1 T j X j j (1, s ) , Z j = , j – numer pomiaru, s – liczba pomiarów. U j Wiadomo, Ŝe moŜliwe jest przyjęcie innych funkcji aproksymujących nieliniowe zaleŜności funkcyjne występujące w modelu dynamiki (1). Przeprowadzając zadanie identyfikacji dla kaŜdej przyjętej funkcji aproksymującej otrzymamy zbiór modeli K o róŜnych strukturach (7): K = {C1 , C2 ,K, Ck } (7) gdzie: C1 – struktura modelu dla pierwszej funkcji aproksymującej, C2 – struktura modelu dla drugiej funkcji aproksymującej, k – liczba modeli o róŜnych strukturach. Z otrzymanego zbioru K powinniśmy wybrać najlepszy model (w sensie odwzorowania zachowania obiektu rzeczywistego). Wybór najlepszego modelu jest moŜliwy przez wykorzystanie rozkładu względem wartości szczególnych (SVD) w równaniu identyfikacji. 3. Rozkład względem wartości szczególnych (SVD) w zadaniach identyfikacji Wiadomo, Ŝe dowolna rzeczywista macierz prostokątna W o wymiarach (n × p ) , moŜe być przedstawiona za pomocą rozkładu względem wartości szczególnych według zaleŜności [3]: W = Q ⋅ M ⋅ RT (8) 98 O. Popov, A. Barcz, P. Piela Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania gdzie Q i R – macierze ortogonalne, macierz Q ma rozmiar (n × n ) , natomiast macierz R rozmiar ( p × p ) . Jeśli n < p , to prostokątna macierz M posiada następującą formę: µ1 0 0 M = 0 ... 0 0 0 µ n 0 0 0 (9) Rozmiar macierzy M wynosi (n × p ) . Niezerowe elementy tej macierzy {µ1 , µ 2 ,K, µ n } stanowią wartości szczególne macierzy W. Są one uszeregowane w kolejności nierosnącej, czyli µ1 ≥ µ2 ≥ L ≥ µ n > 0 . (10) RozwaŜmy wielkość będącą odwrotnością wskaźnika uwarunkowania macierzy M: ∆ ξ= µ 1 = n Cond 2( M ) µ1 (11) Wartość ξ moŜe zmieniać się w granicach 0 ≤ ξ ≤ 1 . Dla ξ = 0 macierz M jest osobliwa, natomiast dla ξ = 1 macierz M jest idealnie uwarunkowana. W związku z powyŜszym współczynnik ξ stanowi miarę bliskości od granicy przekształcenia nieosobliwej macierzy M do macierzy osobliwej. W pracach [6, 11] pokazano, Ŝe wartość współczynnika ξ jest wygodnym parametrem ilościowych miar sterowalności, obserwowalności i identyfikowalności systemu dynamicznego. Rozkład SVD moŜna przeprowadzić równieŜ dla macierzy Ps występującej w równaniu identyfikacji (6): (12) Ps = G ⋅ Q ⋅ H T gdzie G i H – macierze ortogonalne odpowiedniej wymiarowości, macierz Q zbudowana jest analogicznie jak macierz M . Wyboru najlepszej struktury modelu ze zbioru modeli K będziemy dokonywali na podstawie analizy współczynnika ξ wyznaczanego dla kaŜdej macierzy Ps otrzymanej w procesie identyfikacji dla poszczególnych modeli ze zbioru K. Modelem o najlepszej strukturze w sensie odwzorowania zachowania obiektu rzeczywistego będzie ten model, dla którego współczynnik ξ osiągnie największą wartość. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 99 4. Wybór struktury modelu z wykorzystaniem rozkładu SVD w równaniu identyfikacji przykład Obiektem badań będzie układ dwóch zbiorników z cieczą o odpływie swobodnym pokazany na rysunku 2. Wszelkie opory i parametry charakteryzujące ciecz zostały pominięte (na podstawie [13]). Rysunek 2. Badany obiekt - układ dwóch zbiorników z cieczą oraz przebieg zmiennych stanu obiektu Po uwzględnieniu przyjętych załoŜeń, model moŜna opisać za pomocą układu równań róŜniczkowych w postaci: dh S wy1 ⋅ ϕ1 ⋅ 2 g (h1 − h2 ) Q 1 = we − dt S1 S1 (13) S ⋅ ϕ ⋅ 2 g ( h S wy 2 ⋅ ϕ 2 ⋅ 2 gh2 wy1 1 1 − h2 ) dh2 − dt = S2 S2 gdzie: h1 – poziom cieczy w zbiorniku 1, h2 – poziom cieczy w zbiorniku 2, S1 – powierzchnia zbiornika 1, S2 – powierzchnia zbiornika 2, S wy1 – przekrój poprzeczny odpływu ze zbiornika 1, S wy 2 – przekrój poprzeczny odpływu ze zbiornika 2, ϕ1 – współczynnik wypływu, ϕ 2 – współczynnik wypływu, Qwe – dopływ cieczy, g – przyspieszenie ziemskie. Na rysunku 2 pokazano przebieg zmiennych stanu h1 i h2 dla pewnych warunków początkowych h1 (0) = 4 , h2 (0) = 2 , S1 = 1 , S 2 = 2 , S wy1 = S wy 2 = 0.2 , ϕ1 = ϕ 2 = 1 , Qwe = 0.2 . Przebiegi te uznano za wzorcowe i potraktowano je jako ilustrację zachowania obiektu rzeczywistego. W dalszych rozwaŜaniach załoŜono, Ŝe struktura i parametry obiektu (13) są nieznane: 100 O. Popov, A. Barcz, P. Piela Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania H& = F (H ) , gdzie H ∈ R 2 . (14) W celu zaprezentowania opisywanej metody przyjęto trzy postacie funkcji aproksymujących (tabela 1). Otrzymano zbiór modeli postaci K = {C1 , C2 , C3 } . Zadanie identyfikacji parametrów poszczególnych modeli przeprowadzono zgodnie z opisem podanym w punkcie 2. Tabela 4. Struktury modeli w zaleŜności od przyjętej funkcji aproksymacyjnej Nr modelu Struktura modelu 1 h&1 c11 c12 = h& c 2 21 c22 2 h&1 c11 c12 = h& c 2 21 c22 3 h&1 c11 c12 = h& c 2 21 c22 c13 c23 c13 c23 c13 c23 h1 c14 h12 ⋅ , c24 h13 h 2 H& 1 = C1 ⋅ Z1 h1 c14 h12 ⋅ , c24 h2 h2 2 H& 2 = C2 ⋅ Z 2 h1 c14 h2 ⋅ 2 , c24 h2 h3 2 H& 3 = C3 ⋅ Z 3 Dane pomiarowe potrzebne do identyfikacji otrzymano w wyniku symulacji modelu nieliniowego (13) dla ustalonych danych początkowych. Eksperyment identyfikacyjny trwał 20s. Pomiary wykonywano co 0.01s. W trakcie trwania procedury identyfikacyjnej dla kaŜdego modelu wyznaczono macierz Ps , dokonano rozkładu tej macierzy względem wartości szczególnych i obliczono współczynnik ξ . Tabela 2 przedstawia wartości współczynnika ξ dla poszczególnych modeli zbioru K. Tabela 5.Wartość współczynnika ξ dla poszczególnych modeli Nr modelu Wartość współczynnika ξ 1 2 3 2.16 ⋅ 10 −6 1.8 ⋅ 10 −5 6.15 ⋅ 10 −5 Największą wartość współczynnika ξ posiada model oznaczony numerem 3. Oznacza to, Ŝe ten model w zbiorze K najlepiej odwzorowuje zachowanie obiektu rzeczywistego. Na rysunku 3 przedstawiono przebiegi zmiennych stanu modelu wzorcowego i modelu nr 3. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 101 Rysunek 3. Przebiegi zmiennych stanu modelu wzorcowego i modelu nr 3 5. Podsumowanie Dokładność odwzorowania zachowania obiektów rzeczywistych ma kluczowe znaczenie w przypadku wykorzystania ich modeli w dynamicznych inteligentnych systemach nauczania, co wielokrotnie było podkreślane w pracach autorów, na przykład w [1, 8, 9, 10, 12]. Zwiększanie dokładności odwzorowania zachowania obiektów rzeczywistych moŜna przeprowadzać poprzez zmianę parametrów modelu lub poprzez zmianę struktury modelu. W niniejszej pracy pokazano algorytm wybory najlepszej struktury modelu z dostępnego zbioru modeli uzyskanych w procesie identyfikacji metodą najmniejszych kwadratów. Zaproponowany algorytm wyboru struktury z wykorzystaniem rozkładu względem wartości szczególnych w równaniu identyfikacji jest uniwersalny i moŜna go stosować w róŜnych zadaniach, w których konieczne jest opracowanie wysokiej jakości modeli rzeczywistych obiektów dynamicznych. 6. Literatura 1. 2. Barcz A., Popov O., Verification of the processes’ mathematical models in the computerbased tutoring system using the sensitivity analysis. Materiały 10 Międzynarodowej Konferencji Advanced Computer Systems – ACS 2003, Międzyzdroje, 2003. Bielińska E., Finger J., Kasprzyk J., Jegierski T., Ogonowski Z., Pawełczyk M., Identyfikacja procesów, Wydawnictwo Politechniki Śląskiej, Gliwice, 2002. 102 O. Popov, A. Barcz, P. Piela Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. Kiełbasinski A., Schwetlick H., Numeryczna algebra liniowa. Wprowadzenie do obliczeń numerycznych. Wydanie drugie. Wydawnictwa Naukowo Techniczne, Warszawa, 1992. Ljung L., System Identification Theory for the User. Prentice Hall PTR, Upper Saddle River, New York, 1999. Popov O. Elementy teorii systemów – systemy dynamiczne. Wydawnictwo Uczelniane Politechniki Szczecińskiej, Szczecin 2005. Popov O., Investigation of structural qualities and informative density of dynamic processes. The metod of quantitative estimations. International Conference of Control Problems, IPU, Moskwa, 1999. Popov O., Barcz A., Piela P., Weryfikacja i walidacja modeli matematycznych procesów w bazie wiedzy dynamicznych inteligentnych systemów nauczania, Studia i Materiały Polskiego Stowarzyszenia zarządzania wiedzą, tom 14, pod red. W. Bojar, Polskie Stowarzyszenie Zarządzania Wiedzą, Bydgoszcz, 2008. Popov O., Barcz A., Piela P., Sobczak T., Problem of the flight simulation in computerbased training systems for civil aviation. Proceedings of the 6th International Conference Intelligent Tutoring Systems, Workshop Simulation Based Training, Biarritz, 2002. Popov O., Barcz A., Piela P., Tretyakov A., Some problems of design of computer-based training systems for civil aviation pilots, methods of their solving. 16th IFAC Symposium on Automatic Control in Aerospace – ACA 2004, St. Petersburg, 2004. Popov O., Piela P., Reconfiguration dynamic systems’ models in a computer-based tutoring system, Proceedings of the 10th International Multi-Conference on Advanced Computer Systems, Międzyzdroje 2003. Popov O., Tretyakov A., Structural properties and informative density of dynamic processes: The method of quantitative estimation at the control, management and identification problems. Proceedings of the 5th International Conference Advanced Computer Systems, part II, p. 216 – 224, Szczecin 1998. Popov O., Tretyakova T., Barcz A., Piela P., Komputerowe systemy nauczania dla operatorów obiektów dynamicznych. Badania Operacyjne i Systemowe 2006. Akademicka Oficyna Wydawnicza EXIT, Warszawa, 2006. Szacka K., Teoria układów dynamicznych. Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 1999. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 103 SELECTION OF STRUCTURE OF MATHEMATICAL MODELS OF PROCESSES IN KNOWLEDGE BASE OF DYNAMIC INTELLIGENT TUTORING SYSTEM Summary In the article the method of creating the mathematical models of nonlinear dynamic in case of lack or slight information about object is proposed. As a result of using the identification methods it is possible to obtain the set of various models that bring closer the considered object. From the obtained set it is necessary to select the model with the best structure. The suggested method for selecting the structure of model is based on using the singular value decomposition in identification equation. Keywords: mathematical model, tutoring system, identification, singular value decomposition Orest Popov Anna Barcz Piotr Piela Wydział Informatyki Politechnika Szczecińska, 71 – 210 Szczecin ul. śołnierska 49 e-mail: [email protected] e-mail: [email protected] e-mail: [email protected] 104 Izabela Rojek Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową IZABELA ROJEK Uniwersytet Kazimierza Wielkiego HYBRYDOWY SYSTEM KLASYFIKUJĄCY W INTELIGENTNYM WSPOMAGANIU ZARZĄDZANIA SIECIĄ WODOCIĄGOWĄ1 Streszczenie W artykule przedstawiono badania dotyczące systemów klasyfikujących wbudowanych w system inteligentnego wspomagania zarządzania siecią wodociągową. Pierwsze badania dotyczyły opracowania klasyfikatorów pojedynczych, później klasyfikatorów wielokrotnych, aby w ostatnim etapie pokazać hybrydowy system klasyfikujący. System hybrydowy nie tylko zawiera typowe przykłady klasyfikujące oraz wyjątki dla awarii i nieprawidłowości w sieci, ale równieŜ preferencje uŜytkowników i odbiorców systemu. Pozwala to na optymalną klasyfikację wartości ciśnienia i przepływu wody w sieci wodociągowej, bo te wartości są bardzo waŜne z punktu widzenia zarządzania siecią wodociągową. Modele klasyfikujące pozwalają kontrolować bieŜące wartości i reagować na nieprawidłowości w sieci wodociągowej. Słowa kluczowe: zarządzanie miejską siecią wodociągową, hybrydowy system klasyfikujący, inteligentne wspomaganie 1. Wprowadzenie Przedsiębiorstwo wodociągowe w zakresie sieci wodociągowej powinno zajmować się dystrybucją wody dobrej jakości w ilości gwarantującej zaspokojenie potrzeb odbiorców, poprawną eksploatacją sieci wodociągowej zapewniającą właściwe ciśnienie w węzłach odbiorczych, sprawnym usuwaniem awarii oraz planowaniem i wykonywaniem prac związanych z konserwacją, modernizacją i rozbudową sieci [1]. Zarządzanie siecią wodociągową jest trudnym i kompleksowym procesem, ze względu na dynamikę i stochastyczność zmian zachodzących w sieci. Tego typu zmiany wymuszają zastosowanie metod inteligencji obliczeniowej. Problemy zarządzania siecią wodociągową dotyczą optymalizacji jej struktury i parametrów, energooszczędnej eksploatacji zapewniającej poprawną dystrybucję wody o odpowiedniej jakości, optymalizacji prac projektowych przy rozbudowie sieci, wykrywania i lokalizacji stanów awaryjnych, opracowywania planów remontów sieci z uwzględnieniem jej awaryjności, kosztów inwestycyjnych i eksploatacyjnych. W szczególności, waŜnym problemem jest energooszczędne zarządzanie pompami w sieci oraz kontrolowanie poziomu wody w zbiornikach retencyjnych. Na początku prowadzone były badania dotyczące analizy, czy ciśnienie i przepływ wody w sieci wodociągowej mieszczą się w normie, czy teŜ nie. W tym celu opracowano modele klasyfikujące kontrolujące, czy te wartości są w normie, czy teŜ nie. W przypadku, gdy wartości były poza normą system ekspertowy sygnalizował potrzebę uruchomienia pomp. Opracowane modele klasyfikujące były opracowane w postaci klasyfikatorów pojedynczych i wielokrotnych. Modele zo1 Artykuł napisany w ramach realizacji projektu rozwojowego Ministerstwa Nauki i Szkolnictwa WyŜszego R11 001 01. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 105 stały przetestowane na danych rzeczywistych z miejskiego przedsiębiorstwa wodnokanalizacyjnego. Jednak dalsze badania wykazały potrzebę budowy klasyfikatora hybrydowego, który w swojej postaci łączy oprócz typowych przypadków, wyjątków dotyczących awarii dodatkowo preferencje uŜytkownika i odbiorcy systemu. 2. Modele klasyfikujące Przeanalizowano róŜne metody analizy danych [2,3]. Specyfika wiedzy dotyczącej sieci wodociągowej wykazała, Ŝe szczególnie interesującą metodą analizy danych jest klasyfikacja. Klasyfikacja jest problemem, w którym określa się przynaleŜność obiektów do znanych kategorycznych klas. Proces przydziału danych do klas (klasyfikowanie) wykorzystuje tzw. klasyfikator. Klasyfikator jest pewnym modelem, którego parametry identyfikowane są w procesie uczenia pod nadzorem, w którym do celów uczenia dostępny jest treningowy zbiór danych (obiektów) oraz ich klas. Model ten jest po zakończeniu procesu uczenia wykorzystywany do klasyfikacji nowych danych. Opracowano szereg modeli klasyfikacyjnych w postaci: klasyfikatorów pojedynczych (drzew decyzyjnych) i klasyfikatorów wielokrotnych złoŜonych z drzew decyzyjnych. Obecnie dodano nowy klasyfikator hybrydowy, który przeprowadzi indukcję reguł na podstawie typowych przykładów, wyjątków i preferencji. Modele porównywane są dla uzyskania optymalnej klasyfikacji. Modele zostały przetestowane na danych rzeczywistych z miejskiego przedsiębiorstwa wodno-kanalizacyjnego. Opracowane klasyfikatory pozwolą na kontrolowanie w czasie rzeczywistym, czy przepływ i ciśnienie wody w sieci wodociągowej są w normie. W przypadku nieprawidłowości zostaną uruchomione odpowiednie procedury dotyczące pracy pomp. Bazując na modelach klasyfikacji inteligentny system wspomagania pozwala na tworzenie scenariuszy dla zarządzania siecią wodociągową. Dlatego wbudowane modele ulepszają zarządzanie siecią wodociągową. Przygotowanie danych dla modeli klasyfikacji Z punktu widzenia monitorowania działania sieci wodociągowej najwaŜniejsze są dwa parametry, tj. ciśnienie i przepływ wody. Parametry te w celu poprawnego działania sieci wodociągowej muszą mieścić się w określonej normie. W zbiorze uczącym i testującym naleŜy określić, czy mierzona wartość parametru mieści się w normie, czy teŜ nie. Dlatego metoda klasyfikacji jest w przypadku rozwiązania tego problemu najbardziej przydatna. Do budowy pliku uczącego i testującego wykorzystano pomiary ciśnienia i przepływu z bazy danych monitoringu sieci wodociągowej. Dane pomiarowe zostały zebrane z trzech węzłów pomiarowych. Plik uczący i testujący ma następującą budowę: − atrybuty wejściowe: dzień tygodnia, dzień miesiąca, miesiąc, czas, przepływ, ciśnienie, − atrybuty wyjściowe: decyzja, czy wartość pomiaru mieści się w normie, czy teŜ nie. W pierwszym etapie badań do utworzenia modeli wykorzystano dane zawierające pomiary z okresu jednego miesiąca, od 20 października do 19 listopada 2006 roku. W sumie dawało to 204370 rekordów. Uzyskane dane podzielono na dwa pliki. Pierwszy uczący, zawierający 90% pomiarów oraz drugi testowy złoŜony z 10% pomiarów. PoniewaŜ oba pliki zawierają bardzo podobne dane, więc do pełniejszego przetestowania otrzymywanych modeli utworzono drugi plik testowy zawierający 100 rekordów z wartością atrybutu decyzyjnego o wartości „0” symulujących 106 Izabela Rojek Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową błędne pomiary lub sygnalizujące awarię. W danych rzeczywistych wartość ciśnienia wahała się pomiędzy 3 a 3,6 [bar], a wartość przepływu od 0 do około 1500 [m3/h]. Model pojedynczego klasyfikatora Metoda indukcji drzew decyzyjnych pozwala na przybliŜenie funkcji klasyfikacyjnych o dyskretnych wartościach wejściowych odnoszących się do pewnych pojęć, klas decyzyjnych. Dzisiaj drzewa decyzyjne stanową podstawową metodę indukcyjnego uczenia się maszyn. Spowodowane jest to duŜą efektywnością, moŜliwością prostej programowej implementacji, jak i intuicyjną oczywistością dla człowieka. Ta metoda pozyskiwania wiedzy opiera się na analizie przykładów, przy czym kaŜdy przykład musi być opisany przez zestaw atrybutów, gdzie kaŜdy atrybut moŜe przyjmować róŜne wartości. Drzewo decyzyjne jest to skierowany graf acykliczny, przy czym krawędzie takiego grafu nazywane są gałęziami, wierzchołki, z których wychodzi, co najmniej jedna krawędź, nazywane są węzłami, a pozostałe wierzchołki - liśćmi. Ponadto przyjmuje się, Ŝe w takim grafie istnieje tylko jedna ścieŜka między róŜnymi wierzchołkami. Konstrukcję drzewa na podstawie zbioru przykładów, najprościej przedstawić w postaci algorytmu rekurencyjnego uruchamianego dla kaŜdego węzła w drzewie. Pierwszym krokiem algorytmu jest podjęcie decyzji, czy rozpatrywany węzeł powinien stać się liściem końcowym drzewa wg kryterium stopu albo węzłem-rozgałęzieniem. Zaklasyfikowanie węzła jako liść końcowy drzewa spowoduje zakończenie algorytmu. Podjęcie decyzji, Ŝe dany węzeł staje się rozgałęzieniem spowoduje wybór atrybutu (z dostępnej puli atrybutów) wg kryterium wyboru atrybutu. Następnie na podstawie wartości, jakie przyjmuje wybrany argument, z zestawu przykładów tworzone są kolejne węzły drzewa. Algorytm uruchamiany jest rekurencyjnie. Odpowiednia technika wyboru argumentu ma kluczowy wpływ na wygląd drzewa decyzyjnego, gdyŜ właśnie od kolejności wyboru atrybutów zaleŜy w głównej mierze głębokość i stopień rozbudowy drzewa. Wywołania rekurencyjne algorytmu tworzącego drzewo naleŜy kiedyś zakończyć, odpowiada za to właśnie "kryterium stopu". Określa ono czy dany węzeł drzewa powinien być traktowany jako końcowy liść drzewa zawierający w swoim opisie etykietę klasy-decyzji. Natomiast Kryterium wyboru atrybutu jest to w zasadzie najwaŜniejsza część algorytmu, to od niej zaleŜy kolejność wyboru atrybutów do zbudowania testu, na którego podstawie nastąpi w węźle podział zbioru przykładów. W znaczącym stopniu wpływa to na późniejszy wygląd drzewa. MoŜna stwierdzić, Ŝe "dobrym" testem jest ten, którego uŜycie w węźle spowoduje skrócenie ścieŜki prowadzącej przez ten węzeł do liści wskazujących klasę decyzyjną. Wybór odpowiedniego atrybutu ze zbioru atrybutów jest dokonywany dzięki wprowadzeniu systemu ocen. System ocen atrybutów opiera się na załoŜeniu, iŜ najbardziej "bezuŜytecznym" atrybutem jest taki, w którym rozkład częstości występowania kolejnych klas-wyboru jest taki sam przed i po podziale zbioru danych przykładów wg ocenianego atrybutu. Do tworzenia drzewa zostało wykorzystane kryterium wyboru na podstawie miary przyrostu informacji, które jest powiązane z pojęciem miary entropii (1) wywodzącej się z teorii informacji. Niech S będzie zbiorem uczącym zawierającym przykłady naleŜące do jednej z k klas decyzyjnych oznaczonych przez K1,...,Kk. Niech n będzie liczbą przykładów z S oraz ni niech oznacza liczebność klasy Ki. Entropia związana z klasyfikacją zbioru S jest zdefiniowana jako: 107 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 k Ent ( S ) = −∑ pi lg 2 pi (1) i =1 gdzie pi jest prawdopodobieństwem, Ŝe losowo wybrany przykład z S naleŜy do klasy Ki, estymowanym jako ni/n. Podstawa logarytmu jest równa 2, poniewaŜ entropia mierzy oczekiwaną liczbę bitów do zakodowania informacji o klasyfikacji losowo wybranego przykładu ze zbioru S. W sytuacji analizowania klasyfikacji binarnej (k=2) entropia przyjmuje wartości z przedziału [0, l]. Maksymalna wartość równa l będzie osiągana wtedy tylko wtedy, gdy dla p1=p2=0,5, czyli przypadek taki wystąpi dla przykładów o równomiernym rozkładzie klas. Minimalną wartość entropii, równą 0, osiągnie się, gdy wszystkie przykłady naleŜą do tej samej klasy. Wartość entropii moŜna interpretować następująco: im wartość entropii jest mniejsza, tym w zbiorze S występuje większa przewaga przydziału przykładów do jednej z klas nad pozostałymi klasami. Z miarą entropii związana jest miara przyrostu informacji i wybiera się atrybut, dla którego wyliczono największy przyrost informacji. W trakcie powstawania drzewa decyzyjnego istnieje ryzyko nadmiernego dopasowania do przykładów trenujących. Drzewo decyzyjne skonstruowane w sposób opisany powyŜej moŜe okazać się zbyt złoŜone i odzwierciedlać przypadkowe zaleŜności 'występujące w zbiorze przykładów, zwłaszcza, jeśli jest on "zaszumiony" (zawiera małą ilość błędnych danych), dlatego oprócz samej konstrukcji drzewa uŜywa się teŜ sposobów słuŜących do uproszczenia drzewa w taki sposób, aby zachować jak największą spójność ze zbiorem przykładów i zminimalizować błąd rzeczywisty (powstający podczas testowania obiektami nie naleŜącymi do zbioru przykładów). Takie algorytmy noszą potocznie nazwę algorytmów przycinania. Narzędzia wspomagające analizę za pomocą drzew decyzji generują diagram drzewa decyzji oraz statystyki klasyfikacji. Liczony jest łączny błąd klasyfikowania (2). Jest on zdefiniowane jako: ε ov = nw . ntest (2) nw – liczba błędnie sklasyfikowanych przykładów testowych, ntest – liczba przykładów testowych Klasyfikator jest dobry, jeśli ε ov jest najniŜszy. Jeśli my chcemy analizować głębiej to mo- Ŝemy uŜyć tzw. MC (ang.: confusion matrix), czyli tablicy, w której pokazane są wyniki klasyfikacji wraz z rzeczywistymi kategoriami przypadków ze zbioru testowego [3]. Weryfikację przeprowadza się w odniesieniu do zbioru przykładów testowych, które nie były częścią zbioru uczącego. Przykłady testowe są klasyfikowane za pomocą klasyfikatora powstałego ze zbioru uczącego. Ponadto dla przykładu testowego znana jest jego rzeczywista klasyfikacja. Pozwala to na porównanie proponowanej przez klasyfikator decyzji z rzeczywistą i stwierdzenie, czy decyzja klasyfikatora jest poprawna, czy błędna. Na podstawie klasyfikatora w postaci drzewa mogą zostać automatycznie wygenerowane reguły decyzyjne, które zostaną umieszczone w bazie wiedzy systemu ekspertowego. Eksperymenty związane z tworzeniem modeli drzew decyzyjnych były parametryzowane dwoma parametrami: minimalną liczbą przykładów tworzących liść drzewa oraz przycinaniem drzewa decyzyjnego. 108 Izabela Rojek Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową Pierwszy parametr minimalna liczba przykładów tworzących liść drzewa związana jest z własnością algorytmów uczenia się drzew decyzyjnych, w których poszczególne gałęzie drzewa są rozbudowywane tak głęboko, aŜ przykłady w węźle zostaną zaklasyfikowane do pojedynczej klasy decyzyjnej, czyli pojedynczego liścia. Strategia rozbudowywania gałęzi drzewa w celu jednoznacznego rozróŜnienia przykładów z róŜnych klas prowadzi do bardzo złoŜonych drzew decyzyjnych. Dlatego moŜna określić parametr, który zatrzymuje dalszą rozbudowę gałęzi drzew decyzyjnych. W eksperymencie parametr minimalna liczba przykładów w liściach przyjmował wartości: 1,2,5,10,25. Natomiast drugi parametr przycinanie drzewa pozwala redukować rozmiary drzewa. Idea postępowania polega na tym, Ŝe w pełnym drzewie decyzyjnym usuwa się pewne fragmenty (poddrzewa) o niewielkim znaczeniu dla klasyfikacji obiektów. W eksperymencie ten drugi parametr przyjmował wartości w zakresie: bez przycięcia, 80%, 40%, 25%,15% , 5%, 2%. Dla obu parametrów rozpatrywano procentowe wartości błędnie zaklasyfikowanych rekordów z pliku testowego. Najlepsze rezultaty otrzymano w drzewach zawierających jeden przykład w liściu, czyli reguły tworzone dla kaŜdego przykładu, oraz o parametrze przycięcie drzewa równym 40%. Procentowa wartość błędnie zaklasyfikowanych rekordów wyniosła 0,61% [4]. Na podstawie drzewa decyzyjnego zostały automatycznie wygenerowane reguły decyzyjne, które następnie umieszczone zostały w bazie wiedzy systemu wspomagania decyzji. W marę przybywania danych z kolejnych miesięcy reguły będą aktualizowane. Model klasyfikatora wielokrotnego W ostatnich latach obserwuje się rosnące zainteresowanie tworzeniem złoŜonych systemów klasyfikujących. Idea ta polega na integracji wielu pojedynczych algorytmów uczenia się w jeden system klasyfikujący. Celem takiej integracji jest przede wszystkim osiągnięcie lepszej trafności klasyfikacji od otrzymanej w rezultacie uŜycia oddzielnie pojedynczych klasyfikatorów wchodzących w skład systemu [3]. W latach dziewięćdziesiątych powstało wiele prac dotyczących złoŜonych systemów klasyfikujących. Wyniki eksperymentalne potwierdzają wzrost trafności klasyfikowania dla proponowanych systemów. Integracja jednorodnych lub róŜnorodnych klasyfikatorów (lub algorytmów uczenia się) moŜe być przeprowadzona róŜnymi sposobami. Jedną z dwóch głównych kategorii złoŜonych systemów klasyfikujących są systemy wielokrotne. Pojęcie systemu wielokrotnego (odpowiednik terminu angielskiego multiple model, multiple classifier lub ensemble of classifiers) odnosi się do zbioru pojedynczych klasyfikatorów, których odpowiedzi są zagregowane do jednej odpowiedzi całego systemu. Klasyfikatory składowe mogą być jednorodne (homogeniczne) lub róŜnorodne (heterogeniczne). W pierwszym przypadku klasyfikatory uczone są na zróŜnicowanych danych. Zasadnicze pytanie dotyczy sposobów budowania złoŜonych systemów, tak aby pozwalały na osiągnięcie wyŜszej trafności klasyfikacji niŜ klasyfikatory składowe działające oddzielnie. Agregacja odpowiedzi pojedynczych klasyfikatorów w globalną odpowiedź systemu dokonywana jest w sposób grupowy albo specjalizowany. W pierwszym sposobie wszystkie klasyfikatory biorą, udział w wypracowaniu decyzji końcowej dla nowego obiektu. W drugim sposobie wyznacza się te klasyfikatory, których specjalizacja obejmuje charakterystykę klasyfikowanego obiektu. Sama agregacja realizowana jest najczęściej poprzez głosowanie proste (głos kaŜdego klasyfikatora ma równy priorytet) lub waŜone. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 109 Istnieje wiele sposobów tworzenia złoŜonych systemów klasyfikujących. Część z nich polega na modyfikowaniu danych uczących dla poszczególnych jednorodnych klasyfikatorów, inne zakładają róŜnicowanie samych modeli klasyfikujących. Systemy wielokrotne dzielą się na klasyfikatory oparte na: − zróŜnicowanych klasyfikatorach o Generalizacja stosowa (Stacking) - Jest to model hierarchicznego, wielowarstwowego klasyfikatora złoŜonego zaproponowany przez Wolperta. Klasyfikatory składowe pierwszej warstwy uczone są na oryginalnych danych, a ich odpowiedzi są danymi wejściowymi do kolejnej warstwy. W ostatniej warstwie umieszczony jest pojedynczy klasyfikator wypracowujący ostateczną decyzję. Klasyfikatory wyŜszych warstw starają się minimalizować błędy popełniane przez klasyfikatory z niŜszych warstw. − jednorodnych klasyfikatorach o Technika bagging - Model wprowadzony przez Breimana wykorzystuje ideę powielania zbioru uczącego za pomocą wielokrotnego próbkowania techniką "bootstraping". KaŜdy powielony zbiór ma tę samą wielkość, co oryginalny, lecz w wyniku próbkowania niektóre przykłady uczące są kopiowane, podczas gdy inne nie mogą się wielokrotnie powtórzyć. Z kaŜdego z tych zbiorów generuje się klasyfikator tym samym algorytmem uczącym. Odpowiedzi klasyfikatorów są agregowane poprzez proste głosowanie. o Technika "boosting" - Podana została poprzez Freunda i Schapirego. Idea metody polega na skojarzeniu z kaŜdym obiektem uczącym wagi, której wartość odzwierciedla jego istotność. Algorytm uczenia się uruchamiany jest iteracyjnie nad modyfikowanym zbiorem uczącym. Modyfikacje dotyczą zmiany wag w kolejnych kopiach zbioru uczącego, które skupiają działanie algorytmu uczącego wokół tzw. trudnych przykładów, dla których klasyfikatory popełniały błędy w poprzednich iteracjach. Odpowiedź końcowa systemu opiera się na waŜonym głosowaniu (tutaj wagi głosujących klasyfikatorów uzaleŜnione są od błędów popełnianych przez odpowiednie klasyfikatory składowe). Kolejno opracowano klasyfikatory wielokrotne w celu poprawienia dokładności klasyfikacji. UŜyto następujących klasyfikatorów wielokrotnych: AdaBoost, LogitBoost, RacedIncrementalLogitBoost, FilteredClassifier, Bagging, Stacking, AttributeSelectedClassifier, OrdinalClassClassifier, RandomCommittee. Do oszacowania skuteczności klasyfikatorów wykorzystano technikę 10-krotnej oceny krzyŜowej. Porównano wybrane klasyfikatory wielokrotne ze względu na: − prawidłowo zaklasyfikowane przykłady, − nieprawidłowo zaklasyfikowane przykłady, − prawidłowo zaklasyfikowane przykłady w %, − nieprawidłowo zaklasyfikowane przykłady w %, − średni błąd absolutny, − pierwiastek błędu średniokwadratowego, − wraŜliwość, − specyficzność. 110 Izabela Rojek Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową Porównanie klasyfikatorów pojedynczych z wielokrotnymi wykazało lepsze cechy klasyfikowania u klasyfikatorów wielokrotnych. Najlepszym klasyfikatorem okazał się RandomCommittee, który prawidłowo klasyfikował w 100%. 3. Hybrydowy system klasyfikujący Z punktu widzenia inteligentnego wspomagania zarządzania siecią wodociągową naleŜało dodatkowo opracować preferencje uŜytkownika i odbiorcy systemu [5], a później naleŜało je dodać do hybrydowego systemu klasyfikującego. Motywacje dla tworzenia systemów hybrydowych wynikają z obserwacji, Ŝe dla kaŜdego algorytmu uczącego istnieje pewna klasa problemów, dla których jest skuteczny. Dla pozostałych problemów algorytm moŜe być mniej skuteczny od innych algorytmów. Ponadto niektóre dane uczące mogą mieć złoŜoną strukturę wymagającą modelowania więcej niŜ jedną formą reprezentacji wiedzy. W tych sytuacjach moŜna tworzyć system hybrydowy, który przybliŜa róŜne obszary danych za pomocą róŜnych reprezentacji. W rezultacie synergii połączonych modeli cały system ma działać skuteczniej. Badania nad tworzeniem róŜnych systemów hybrydowych zapoczątkowano juŜ w latach osiemdziesiątych. Istnieje wiele propozycji łączących np. paradygmaty uczenia się drzew decyzyjnych czy reguł decyzyjnych z uczeniem się na wcześniej zapamiętanych przypadkach lub z uczeniem się sieci neuronowych [3]. Motywacje do zbudowania systemu hybrydowego łączącego w sobie typowe przypadki, wyjątki oraz preferencje wynikają z obserwacji i oczekiwań odbiorców systemu. ZałoŜeniem jest, aby system inteligentnego wspomagania uczył się jak i wspomagał podejmowanie właściwej decyzji i działania juŜ z uwzględnieniem nie tylko typowych przypadków, czy tez nieprawidłowości zachodzących w sieci traktowanych jako wyjątki, ale teŜ preferencje operatora sieci jak i odbiorcy wody. W ten sposób system będzie miał moŜliwość generowania scenariuszy zarządzania siecią wodociągową w optymalny sposób, z uwzględnieniem preferencji odbiorców i uŜytkowników systemu juŜ na etapie najwcześniejszym działania systemu, z moŜliwością przewidywania jak i reagowania na sytuacje nietypowe. Na rys. 1 przedstawiona została propozycja hybrydowego systemu klasyfikującego. Nowe przykłady przybywają i są gromadzone w zbiorze przykładów. Te przykłady gromadzone są na podstawie monitoringu sieci wodociągowej. Następnie zbiór przykładów naleŜy podzielić na wyjątki, typowe przykłady i preferencje. Zbiór preferencji powstaje na podstawie przewidywania obciąŜenia sieci wodociągowej i poboru wody. Podział zbioru przykładów moŜe wynikać z sugestii eksperta, czy analizy statystycznej (np. moŜe być rezultatem analizy skupień). Po dokonaniu podziału zbioru przykładów naleŜy przeprowadzić indukcję reguł typowych przykładów, wyjątków oraz preferencji, wykorzystując najlepszy opisany wcześniej algorytm indukcji drzew decyzyjnych. Nowy przykład klasyfikowany jest jako wyjątek, typowy przypadek lub preferencja i następnie uruchamiane są procedury działania z odpowiednim priorytetem. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 111 Rys. 1. Hybrydowy system klasyfikujący 4. Uwagi końcowe Proponowany hybrydowy system klasyfikujący pozwala na optymalną klasyfikację pomiarów zbieranych z sieci wodociągowej. Klasyfikuje on nie tylko typowe przykłady klasyfikacyjne, wyjątki dotyczące awarii, ale równieŜ preferencje uŜytkowników i odbiorców systemu inteligentnego wspomagania zarządzania siecią wodociągową. Opracowanie takiego systemu klasyfikującego moŜliwe było dzięki przeprowadzeniu wcześniej badań dotyczących opracowania modeli klasyfikacyjnych w postaci pojedynczych i wielokrotnych klasyfikatorów, modeli predykcji i modeli preferencji. Wykorzystanie inteligencji komputerowej pozwala automatyzować wiele procesów zachodzących w sieci wodociągowej, a przez to zmniejsza udział czynnika ludzkiego w tych czynnościach, czyli udział operatora sieci. Kolejny etap rozbudowy systemu będzie dotyczył opracowania metod i modeli reagowania na awarie w miejskiej sieci wodociągowej, w szczególności na wycieki. W przypadku sygnalizacji alarmu, system powinien wskazać przyczynę awarii i uruchomić odpowiednią procedurę działania. 112 Izabela Rojek Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową 5. Literatura 1. 2. 3. 4. 5. Studziński J., Bogdan L.: Informatyczny system wspomagania decyzji do zarządzania, sterowania operacyjnego i planowania miejskiego systemu wodno-ściekowego. W: Studziński J., Drelichowski L., Hryniewicz O. (Red.): Rozwój i zastosowania metod ilościowych i technik informatycznych wspomagających procesy decyzyjne, Instytut Badań Systemowych Polska Akademia Nauk, Badania Systemowe 49, Warszawa 2006. Michalski R.S., Bratko I., Kubat M.: Machine learning and data mining, John Wiley&Sons, 1998. Stefanowski J.: Algorytmy indukcji reguł decyzyjnych w odkrywaniu wiedzy, rozprawa habilitacyjna, Wydawnictwo Politechniki Poznańskiej, seria Rozprawy, nr 361, Poznań 2001. Rojek I.: Inteligentny system wspomagania decyzji dla sterowania siecią wodociągową, materiały konferencyjne II Krajowej Konferencji Naukowej „Technologie przetwarzania danych”, wydawnictwo Politechniki Poznańskiej, Poznań 2007, 186-194. Rojek I., Inteligentne zarządzanie preferencjami poboru wody w sieci wodociągowej, red. Arkadiusz Januszewski, Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, ISSN 1732-324X, vol. 14 , Bydgoszcz 2008, 67-74. HYBRID SYSTEM OF CLASSIFICATION IN INTELLIGENT SUPPORT OF MANAGEMENT OF WATER NETWORK Summary Research concerning classification systems embedded in system of intelligent support of management of water network present in the paper. The first research concerned description of simple classifiers, next multiple classifiers. Last research shows hybrid system of classification. Hybrid system includes typical classification examples, exceptions of failures and preferences users and consumers of system. The system allows on optimal classification of values of pressure and water flow in water network. The classification models allow controlling current values and responding on failures in water network. Keywords: management of water network, hybrid system of classification, intelligent support Izabela Rojek Instytut Mechaniki Środowiska i Informatyki Stosowanej Uniwersytet Kazimierza Wielkiego 85-064 Bydgoszcz, ul. Chodkiewicza 30 e-mail: [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 113 PIOTR SULIKOWSKI, RYSZARD BUDZIŃSKI Politechnika Szczecińska METODA KLASYFIKACJI KLIENTÓW OPERATORA TELEFONII KOMÓRKOWEJ W ANALIZIE ZJAWISKA REZYGNACJI1 Streszczenie Rezygnacja klientów stanowi powaŜny problem dla kaŜdego operatora telefonii komórkowej. Wystarczająco wczesna identyfikacja potencjalnych rezygnujących mogłaby pozwolić utrzymać ich w sieci danego operatora. Proponuje się wieloetapową procedurę badawczą, umoŜliwiającą identyfikację czynników wpływających na odejścia, a następnie opracowanie klasyfikacyjnego modelu badanego zjawiska osobno dla kaŜdego segmentu klientów. Opisana metoda pozwala uwzględniać zarówno zmienne liczbowe, jak i lingwistyczne, a takŜe element czasu charakteryzujący dane z róŜnych okresów z przeszłości. Słowa kluczowe: eksploracja danych, zbiory przybliŜone, churn, CRM, telefonia komórkowa 1. Wprowadzenie Według GSM World Association, czyli organizacji, która zrzesza operatorów GSM [ang. Global System for Mobile communication] i regulatorów telekomunikacyjnych z całego świata, pod koniec roku 2007 w technologii GSM aktywnych było niemal 2,9 miliarda kart SIM [ang. Subscriber Identity Module] w ponad 220 krajach i terytoriach. Stanowiło to ponad 86% cyfrowej komunikacji mobilnej na świecie [1]. Z badań ankietowych, których wyniki podano w [2] wynika, Ŝe ok. 3/4 Polaków ma telefon komórkowy, przy czym 10-11% posiada więcej niŜ jedną komórkę. Według Urzędu Komunikacji Elektronicznej na koniec 2007 roku w Polsce aktywnych było 34 mln kart SIM, a zatem wskaźnik penetracji kształtował się na poziomie ok. 90%. Telefonia mobilna to niezwykle konkurencyjny sektor rynku, gdyŜ operatorzy usilnie zabiegają o klientów – ich liczba bezpośrednio przekłada się przecieŜ na wielkość przychodów [3]. Odsetek klientów rezygnujących z dotychczasowej sieci telefonii mobilnej w Europie i Stanach Zjednoczonych wynosi przeciętnie 24-36% rocznie [4] i jego zmiany wykazują tendencję wzrostową. Według danych Urzędu Komunikacji Elektronicznej polscy operatorzy znajdują się w ścisłej „czołówce” – odsetek klientów odchodzących w zaleŜności od sieci wynosił od 32,5% do 37,2% w samym tylko roku 2007, w którym to odłączono w sumie aŜ 13,5 mln (!) kart SIM. Osoby, które przestają być klientami danej firmy np. na rzecz jej bezpośredniej konkurencji mogą w istotny sposób decydować o kształcie rynku. Jest to szczególnie widoczne w przypadku przedsięwzięć, w których koszty pozyskania klienta są niewspółmiernie wysokie do kosztów jego 1 W artykule przedstawiono wybrane elementy pracy mgra inŜ. Piotra Sulikowskiego napisanej pod kierunkiem promotora prof. dra hab. inŜ. Ryszarda Budzińskiego. Przygotowanie odnośnej pracy moŜliwe było m.in. dzięki uczestnictwu w międzynarodowym programie konkursowym SAS® Fellowship Program oraz współpracy z operatorami telefonii komórkowej. 114 Piotr Sulikowski, Ryszard Budziński Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji utrzymania. Problem odejść jest najbardziej dotkliwy, gdy dotyczy grupy najwaŜniejszych, najbardziej dochodowych klientów, tych o wysokiej wartości Ŝyciowej LTV [ang. lifetime value]. Dogłębne poznanie problemu i wiedza o tym, kim są klienci, których nie udało się zatrzymać moŜe przyczynić się do przewagi konkurencyjnej danej firmy. Dopiero pod koniec ubiegłego wieku wiedzę taką zaczęto wykorzystywać, analizując dane i tworząc modele, które z większym lub mniejszym powodzeniem pozwalały wskazywać rezygnujących klientów [5]. Co istotne, kiedy potencjalnych odchodzących uda się juŜ poprawnie zidentyfikować, koszt działań zapobiegawczych wcale nie musi być wysoki – często wystarczy nawiązanie bezpośredniego kontaktu z klientem, np. przeprowadzenie ankiety czy zwykłej rozmowy telefonicznej, wypytanie klienta o poziom jego satysfakcji itp. Powstaje jednak problem, w jaki sposób klasyfikować klientów jako potencjalnie pozostających lub odchodzących, aby móc przedsięwziąć kroki zmierzające do zmniejszenia odsetka rezygnacji. Rozwiązanie mogą przynieść róŜnego rodzaju metody eksploracji danych i odkrywania wiedzy. Dzięki wykorzystaniu danych, które są standardowo gromadzone w bazach operatora (tzn. nawet bez trudniej dostępnych danych o sytuacji na rynku czy satysfakcji klienta) moŜna próbować opracować wystarczająco dokładny klasyfikacyjny model odejść, a następnie przenieść odkryte reguły rządzące zjawiskiem dla badanych klientów w przeszłości na przyszłość. W toku badań wykorzystywano pakiet oprogramowania SAS®, pozwalający na zautomatyzowaną realizację pewnych standardowych zadań analitycznych. Zastosowany język programowania to SAS® 4GL [ang. 4th Generation Language]. Ponadto korzystano z programu ROSE2, udostępnianego dla celów naukowych przez Zakład Inteligentnych Systemów Wspomagania Decyzji Instytutu Informatyki Politechniki Poznańskiej [6]. 2. Utrzymanie i rezygnacja Zagadnienia omawiane w niniejszym artykule naleŜy umieścić w kontekście jednej z ogólnych filozofii działania przedsiębiorstwa, jakim jest zarządzanie relacjami z klientami – CRM [ang. Customer Relationship Management]. Mówi ona, Ŝe w kaŜdej dziedzinie i na kaŜdym etapie funkcjonowania firmy preferencje, wymagania i przyzwyczajenia klienta oraz umiejętne budowanie relacji z nim są najwaŜniejsze. Filozofia CRM-u uwzględnia fakt, Ŝe kaŜdy klient jest indywidualną jednostką, wskazując, iŜ kaŜdego trzeba traktować nie w sposób masowy, ale taki, jakiego by sobie Ŝyczył [7]. W informatyce CRM-em nazywany jest system informatyczny, który w istotny sposób przyczynia się do realizacji zarysowanej powyŜej strategii. Utrzymanie (retencja, zatrzymanie) klienta odnosi się do powtórnego zakupu produktów lub ponownego skorzystania z usług danego dostawcy przez danego klienta. Retencja jest oczywiście zjawiskiem pozytywnym dla firmy, chyba Ŝe dotyczy pewnej grupy osób przynoszących firmie straty lub szkody. Zwykle jednak im większa baza wartościowych klientów, tym większe przychody i zyski firmy. Ponadto osoby wielokrotnie korzystające z oferty danego przedsiębiorstwa (tzw. klienci stali) są zazwyczaj mniej wraŜliwi na wzrost cen; wiele osób skłonnych jest płacić wyŜszą cenę za produkty firmy, która jest juŜ im znana, i którą darzą zaufaniem [8]. Pojęciem przeciwstawianym utrzymaniu jest rezygnacja, lub inaczej odejście, często określane teŜ jako churn [czyt. czern]. Oznacza ono całkowite zaprzestanie nabywania pewnych produktów/usług lub tylko zmianę dostawcy. NaleŜałoby się odnieść do dwóch głównych typów churnu: ▪ przymusowego [ang. involuntary churn], ▪ i dobrowolnego [ang. voluntary churn]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 115 W literaturze nie ma zgodności co do interpretacji ww. typów odejść; według autora moŜna powyŜsze rozumieć tak, Ŝe „rezygnacja pierwszego rodzaju spowodowana jest okolicznościami, zazwyczaj niespodziewanymi, na które dostawca nie ma bezpośredniego wpływu, choćby zmianą miejsca zamieszkania konsumenta poza obszar świadczenia usług, jego złą sytuacją finansową czy teŜ względami zdrowotnymi. Odejście drugiego typu wynika [zaś] z przyczyn, na które dostawca ma wpływ lub na które moŜe skutecznie reagować, np. braku satysfakcji z produktu, jego trudnej dostępności, dotychczasowych złych doświadczeń z nim, wzrostu opłat lub braku czytelności cennika, niskiej jakości obsługi” [9]. Stosowanych jest co najmniej kilka róŜnych miar zjawiska. Najczęściej stosowanym miernikiem jest tzw. wskaźnik rezygnacji CR [ang. churn rate], inaczej wskaźnik odejść, wskaźnik utraty klienta lub wskaźnik churnu. WyraŜa on „średni roczny odsetek utraconych klientów” [8]. NaleŜy wyjaśnić jednak, Ŝe wskaźnik utraty klienta moŜe dotyczyć okresów innych niŜ rok kalendarzowy. Ogólnie zatem określa wielkość grupy klientów, która nie dokonuje kolejnego zakupu w danej firmie w ściśle określonym czasie (najczęściej wynikającym ze specyfiki przedsiębiorstwa i cyklu zakupowego) względem całej bazy klientów: CR = nc ⋅100% , n gdzie nc – liczba klientów, którzy nie dokonali powtórnego zakupu, n – liczba wszystkich klientów. Wydaje się, Ŝe rzeczywistą skalę zjawiska opisuje wskaźnik, w którym liczba wszystkich klientów w mianowniku dotyczy początku analizowanego okresu. Warto dodać, Ŝe menedŜerowie firm dla uzyskania jak najlepszych wartości wskaźnika często preferują tzw. wskaźnik odejść netto, w którym uwzględniane są równieŜ nowe osoby, zasilające bazę klientów firmy w analizowanym okresie. NaleŜy pamiętać, Ŝe zjawisko odchodzenia klientów w specyficznych przypadkach nie musi być niekorzystne, podobnie jak utrzymywanie klientów nie zawsze jest opłacalne. Oczywiście w zaleŜności od polityki budowania lojalności w danej organizacji moŜna podejmować działania zmierzające do zmiany klienta, którego nie warto utrzymywać, w takiego, który stanie się klientem wartościowym i rentownym. MoŜna zauwaŜyć, iŜ rezygnacja jest problemem niezwykle złoŜonym. Dlatego powszechne jest sformułowanie „zarządzanie churnem”, określające zestaw działań związanych z utrzymywaniem klientów i przeciwdziałaniem ich rezygnacjom. Przykładową strukturę procesu zarządzania rezygnacjami zaprezentowano na rys. 1. W bazie danych pokazanej na tym rysunku przechowywane są m.in. dane z biura obsługi klienta, dane dot. faktur i wykonanych operacji, dane benchmarkowe czy teŜ dane z przeprowadzonych badań klientów dot. poziomu deklarowanej przez nich satysfakcji. Na ich podstawie następuje identyfikacja potencjalnych odchodzących oraz obliczanie Ŝyciowej wartości klientów, co z kolei wykorzystywane jest do ich klasyfikacji. Klienci nierentowni powinni być sprawdzani pod kątem moŜliwości ich transformacji w klientów rentownych. Jeśli okaŜe się to niemoŜliwe, firma prawdopodobnie powinna rozwaŜyć rezygnację z nich i uznać za kandydatów do odejścia przymusowego. Klienci rentowni lub mający chociaŜ odpowiedni potencjał w tej kwestii zasługują natomiast na wysiłki firmy zmierzające do ich utrzymania. Efekty tych wysiłków, podobnie jak wyniki analiz bazy, wykorzystywane są do przewidywania moŜliwych zachowań klientów. To z kolei moŜe pozwolić na udoskonalenie całego procesu i próbę eliminacji niektórych przyczyn rezygnacji. Warto prócz tego zauwaŜyć, Ŝe 116 Piotr Sulikowski, Ryszard Budziński Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji wspomniana wcześniej identyfikacja potencjalnych odchodzących, której w głównej mierze dotyczy niniejszy artykuł, znajduje się w centralnym miejscu opisywanego procesu [4]. baza danych kandydaci do odejścia przymusowego eliminacja przyczyn churnu identyfikacja potencjalnych odchodzących predykcja przyszłych zachowań klienci nierentowni obliczanie LTV klienta transformacja w klienta rentownego klienci rentowni tworzenie i realizacja strategii utrzymania Rys. 1. Proces zarządzania churnem Źródło: opracowanie własne na podst. [4] 3. Problem identyfikacji rezygnujących MoŜna zatem powiedzieć, Ŝe kluczowym elementem zarządzania churnem jest identyfikacja rezygnujących. Choć przewaŜnie trudno zbadać, co dokładnie jest przyczyną odejścia konkretnego klienta, niezwykle wskazane byłoby, Ŝeby operator potrafił zidentyfikować sytuację wysokiego ryzyka, w której abonent zaczyna zastanawiać się nad odejściem lub teŜ jest wysokie prawdopodobieństwo, iŜ przestanie wywiązywać się z płatności, co będzie skutkować jego odłączeniem. W obu przypadkach, gdyby operator potrafił przewidzieć takie sytuacje, mógłby spróbować zapobiec odejściom i maksymalizować swój zysk aktualny, jak i przyszły. Przykładowo moŜe zaproponować specjalną ofertę lojalnościową (w pierwszym przypadku) czy teŜ zasugerować przejście z systemu abonamentowego na bezabonamentowy (w drugim przypadku). Sygnałem wskazującym na ryzyko rezygnacji klienta z usług moŜe być np. kontakt z działem obsługi klienta, gdzie uŜytkownik sieci dowiaduje się o skutki przedwczesnego zerwania umowy lojalnościowej. Innym niepokojącym sygnałem moŜe być zmiana zachowania uŜytkownika sieci POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 117 dot. np. czasu trwania rozmów, wysokości opłat za połączenia, docelowych numerów połączeń czy odległości pomiędzy rozmówcami [10]. Dla celów identyfikacji potencjalnych rezygnujących moŜna zatem badać cechy i zachowania klientów. Badanie takie słuŜyć moŜe odkrywaniu reguł rządzących zjawiskiem odejść – pomocne są tu metody eksploracji danych [ang. data mining] i odkrywania wiedzy w bazach danych KDD [ang. Knowledge Discovery in Databases]. Według definicji wiodącej agencji badawczokonsultingowej Gartner eksploracja danych to „proces odkrywania znaczących powiązań, wzorców lub tendencji poprzez dokładne badanie duŜych ilości danych przechowywanych w repozytoriach. Data mining wykorzystuje techniki rozpoznawania wzorców, jak teŜ metody statystyczne i matematyczne ” [11, tłum. własne]. Eksploracja jest nazywana takŜe zgłębianiem, drąŜeniem, ekstrakcją lub wydobywaniem danych2. Jednym z moŜliwych podejść do eksploracji danych i odkrywania wiedzy w analizie rezygnacji jest to wykorzystujące teorię zbiorów przybliŜonych. Godną odnotowania ciekawostką jest, Ŝe sam twórca wspomnianej teorii, czyli Z. Pawlak, w [12] omawia metodę jej wykorzystania na przykładzie właśnie odejść klientów w telekomunikacji, co moŜna w pewnym sensie uznać za fakt znamienny. W analizach opartych na tej teorii zazwyczaj uwzględnia się dane za jeden wybrany okres lub teŜ jednakowo traktuje się dane z róŜnych okresów. Ewentualnie te same czynniki dla róŜnych okresów traktuje się jako de facto róŜne czynniki. Pewną wadą tych podejść jest to, Ŝe albo w niewystarczający sposób uwzględniają uwarunkowania czasowe gromadzonych danych, albo teŜ nie pozwalają róŜnicować danych pochodzących z róŜnych okresów w czytelny sposób. Wydaje się, Ŝe czas, jak wiadomo ma bardzo istotne znaczenie dla postrzegania rzeczywistości [13] i dobrze byłoby móc uwzględniać jego znaczenie w prowadzonych analizach. 4. Procedura analityczna Opisywana dalej procedura badawcza została wypracowana przez autora dla celu predykcji rezygnacji klientów, a takŜe poznania reguł dot. cech i zachowań klientów w kontekście tego zjawiska. Jej wstępny zarys przedstawiono wcześniej m.in. w [14]. NaleŜy zaznaczyć, Ŝe proponowana procedura, w zgodzie z załoŜeniami popularnej metodologii CRISP-DM [ang. Cross-Industry Standard Process for Data Mining], pozwala na interwencję analityka na kaŜdym z etapów, a takŜe powrót do faz wcześniejszych, tak aby uzyskać jak najlepsze wyniki. Co waŜne, w opisywanej procedurze autor zakłada wykorzystanie danych z n okresów ti (i={n+1,..., 0}): ostatniego okresu poddawanego analizie (t0), ale takŜe – dodatkowo – okresów wcześniejszych (t-1, t-2 itd.), róŜnicując ich wpływ na tworzony regułowy model. Etapy tej procedury prezentują się następująco: 1. Określenie załoŜeń i przygotowanie danych. 2. Przeglądowa analiza danych. 3. Segmentacja klientów. 4. Analiza korelacji. 5. Badanie współliniowości. 6. Regresja logistyczna z metodą wyboru krokowego. 7. Odkrywanie reguł z uwzględnieniem uwarunkowań czasowych. 2 Autorowi wydaje się, Ŝe dwa ostatnie określenia nie są jednak najbardziej trafne, gdyŜ mogą sugerować zwykłe pobieranie danych z bazy, a nie ich twórczą analizę. 118 Piotr Sulikowski, Ryszard Budziński Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji Na początku pierwszego etapu naleŜy przede wszystkim ustalić, jaki dokładnie rodzaj rezygnacji podlegać będzie analizom i jak definiowane będzie zdarzenie odejścia. Ponadto trzeba zdecydować, co będzie jednostką analiz – czy będzie to pojedyncza karta SIM czy teŜ kaŜdy klient, który to moŜe mieć więcej aktywnych kart i telefonów. MoŜna na przykład przyjąć, Ŝe analizowane będą karty SIM aktywne na początku okresu i na podstawie statusu ich aktywności na koniec badanego okresu wartość zmiennej zaleŜnej przyjmować będzie wartość 0 (gdy karta nie pozostaje aktywna, czyli klient rezygnuje) lub 1 (w przeciwnym wypadku). Zakłada się, Ŝe badane są przynajmniej 2 kolejne równe co długości okresy z przeszłości (czyli t0, t-1), poprzedzające pewien określony moment czasu. Ze względu na charakter analizowanego zjawiska wydaje się logiczne, Ŝe zachowania klientów w ostatnim okresie (t0) powinny być najbardziej istotne dla odkrywania reguł, które rządzą churnem i wykrywania zmiennych z nim powiązanych. W związku z tym przyjmuje się, Ŝe okres t0 ma zatem charakter priorytetowy i w pewnym sensie nadrzędny w stosunku do wszystkich okresów wcześniejszych. Ze względu m.in. na cykl zmian ofertowych w sieciach komórkowych, proponuje się rozpatrywanie okresów półrocznych lub trzymiesięcznych. W ramach kaŜdego z analizowanych okresów ti uwzględniana będzie odpowiednia liczba miesięcznych okresów rozliczeniowych (billingowych). Jeden z nich uznawany jest za miesiąc bazowy, względem którego prowadzone są pewne obliczenia dynamiki itp., i po którym dla danego klienta nie uwzględnia się juŜ kolejnych miesięcy. Dla klientów nierezygnujących jako miesiąc bazowy moŜna przyjmować ostatni z miesięcy kaŜdego z analizowanych okresów. Dla klientów rezygnujących lepiej jednak przyjmować miesiąc wcześniejszy, tzn. taki, w którym proces decyzyjny klienta dot. odejścia jeszcze się nie zakończył. NaleŜy uwzględnić takŜe pewne uwarunkowania techniczne operatora, gdyŜ często zdarza się, Ŝe po odejściu klienta przez pewien czas, np. 2 miesiące, figuruje on jako obiekt aktywny w systemie billingowym. Taką sytuację naleŜałoby zidentyfikować, aby właściwie określić bazowy miesiąc rozliczeniowy. Z drugiej strony oczywiście trzeba uwaŜać, aby nie sięgać zbyt daleko wstecz dla danego okresu ti, gdyŜ moŜna natrafić na czas kiedy klient nie myślał jeszcze o rezygnacji. Przydatna jest tu oczywiście pewna wiedza dziedzinowa. Na tym etapie poza tym warto popracować nad dobrym zrozumieniem danych źródłowych i ich reprezentacją docelową. Z tego względu bardzo często jest to etap najbardziej pracoi czasochłonny; wymaga duŜej wiedzy dot. zarówno modelowania, jak i wiedzy dziedzinowej. W duŜej mierze od właściwego przygotowania danych zaleŜeć moŜe ostateczna uŜyteczność opracowywanego modelu. Na kolejnym etapie procedury dokonuje się przeglądowej analizy danych, zwłaszcza dla okresu uznawanego za priorytetowy, czyli t0. Dobrze jest np. dokładnie rozpoznać typy cech, określanych przez zmienne w badanym zbiorze. W ramach przeglądowej analizy danych dobrze jest dokonać syntetycznego opisu statystycznego badanej zbiorowości, przeanalizować rozkłady empiryczne zmiennych, czy teŜ zwrócić uwagę na to, jakie ewentualne czynniki badanego zjawiska nie zostały uwzględnione w posiadanym zbiorze danych. W następnym kroku wskazana jest segmentacja klientów na tzw. grupy względnie jednorodne. Trudno bowiem przyjąć, Ŝe identyczne reguły rządzą zachowaniami klientów np. abonamentowych i bezabonamentowych, czy teŜ indywidualnych i biznesowych. Pewne względnie homogeniczne grupy przez samych operatorów nawet traktowane są zazwyczaj w róŜny sposób, co wpisuje się POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 119 zresztą w popularną strategię tzw. działań zróŜnicowanych, określaną jako „tworzenie odrębnych strategii marketingowych dostosowanych dla potrzeb i oczekiwań róŜnych grup klientów” [15]. RóŜnice między poszczególnymi grupami dotyczyć mogą takŜe zakresu zmiennych, jakimi opisać moŜna klientów. JeŜeli analityk uzna to za celowe, moŜna pokusić się o jeszcze dalej idącą segmentację, np. w oparciu o tzw. taksonomię rozmytą. Sugeruje się, aby następne etapy procedury realizować osobno dla kaŜdej z grup. Analiza korelacji przeprowadzana jest w kolejnym etapie. Stosuje się róŜnego rodzaju miary korelacji. NaleŜy jednak pamiętać, Ŝe nie kaŜdą miarę da się zastosować dla kaŜdego typu zmiennych. Dobrze teŜ, gdy wybrane współczynniki korelacji lub ich pochodne są między sobą porównywalne, tak Ŝe moŜna próbować uszeregować potencjalne predyktory według ich wpływu na zmienną zaleŜną. Warto stosować tzw. grupę miar typu PRE [ang. Proportion/Percentage Reduction in Error], które są na poziomie ilorazowym, co pozwala podejmować próby wnioskowania nt. względnej waŜności poszczególnych zmiennych objaśniających. PoniewaŜ wstępny model badanego zjawiska tworzony będzie przy pomocy regresji logistycznej, pewien problem stanowi współliniowość [ang. collinearity], która występuje, kiedy moŜna zaobserwować silne związki liniowe pomiędzy zmiennymi objaśniającymi. Jeśli pewne zmienne są silnie współliniowe, trudno uzyskać dobre oszacowanie ich wpływu na zmienną objaśnianą. JeŜeli pewna zmienna objaśniająca będzie mocno powiązana z inną zmienną objaśniającą, a nie będzie mocno związana ze zmienną zaleŜną, przyjmuje się, Ŝe wówczas jedna z pary zmiennych niezaleŜnych będzie wyłączona z analizy regresji. Gdy jednak nie para zmiennych jest silnie skorelowana, lecz w zaleŜności między sobą uwikłanych jest wiele zmiennych, opisane podejście moŜe nie być wystarczające. Warto wówczas skorzystać z odpowiednich statystyk diagnozujących tzw. wielowspółliniowość [ang. multicollinearity]: tolerancji i czynnika inflacji wariancji VIF [ang. Variance Inflation Factor]. Do wstępnego modelowania badanego zjawiska na podstawie danych z okresu t0 proponuje się zastosować metodę wielokrotnej binarnej regresji logistycznej, metody bardzo popularnej i chętnie stosowanej w badaniach marketingowych. PoniewaŜ pod uwagę brane są obserwacje nt. róŜnych klientów z tylko jednego okresu, moŜna przyjąć, Ŝe załoŜenie o niezaleŜności obserwacji jest tu spełnione. Na tym etapie procedury dokonuje się równieŜ wyboru zmiennych do końcowego modelu. Mniejsza liczba zmiennych ułatwia badaczowi objęcie umysłem zaleŜności opisywanych przez model. Trzeba takŜe pamiętać, Ŝe kaŜda kolejna zmienna w równaniu regresji powodować moŜe wzrost oczekiwanych błędów predykcji. Do wyboru zmiennych do modelu proponuje się wykorzystywać tzw. metodę wyboru krokowego stepwise z poziomem istotności dla wejścia α=0,16 [16] i poziomem istotności dla wyjścia β=0,10. Ponadto wydaje się, Ŝe wskazane jest, aby analityk dysponował odpowiednią wiedzą teoretyczną lub tą wynikającą z wcześniejszych doświadczeń dot. analizowanego zjawiska. Dzięki temu mógłby korygować ewentualne wnioski wynikające z samych danych, w tym listę uwzględnianych w końcowym modelu zmiennych. W końcu generowany jest regułowy model badanego zjawiska uwzględniający i róŜnicujący dane pochodzące z róŜnych okresów z przeszłości. Do odkrywania reguł metodą zbiorów przybliŜonych proponuje się wykorzystywać próbę zrównowaŜoną, tj. o równej lub zbliŜonej liczbie obiektów naleŜących do kaŜdej z dwóch klas zmiennej decyzyjnej, czyli klientów pozostających i rezygnujących. Odpowiednio duŜe próby losowe powinny zostać wygenerowane dla kaŜdego z okresów ti. 120 Piotr Sulikowski, Ryszard Budziński Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji Proponuje się uwzględniać tylko te zmienne objaśniające, które dobrano w poprzednich etapach i bez konieczności dalszego redukowania zbioru atrybutów. Sugeruje się podział tabeli informacyjnej dla okresu t0 w stosunku 2:1 na część uczącą (2m obiektów) i część testową (m obiektów). Dodatkowo dla okresu t0 proponuje się spośród pozostałych obiektów w zbiorze wylosować m przykładów o proporcjach przynaleŜności do poszczególnych konceptów decyzyjnych odpowiadających rzeczywistości (próba nie zrównowaŜona). Dla wcześniejszych okresów ti losuje się zrównowaŜone próby po 2m obiektów kaŜda. Następnie zdyskretyzować naleŜy wartości zmiennych, chyba Ŝe analizowany zbiór jest juŜ w pełni zdyskretyzowany, np. zawiera tylko zakodowane wartości lingwistyczne. Przyjmuje się, Ŝe normy dyskretyzacji wyznaczane są na podstawie ostatniego okresu t0, a następnie aplikuje się je dla okresów wcześniejszych. MoŜna zdecydować się na wybór kilku metod dyskretyzacji i porównać, jakie efekty przynoszą dla badanego zbioru danych. Ze względu na moŜliwe zmiany dzielące poszczególne okresy wydaje się, Ŝe naleŜy róŜnicować wpływ danych z poszczególnych okresów ti na odkrywaną wiedzę regułową. Realizacja tego postulatu w proponowanej metodzie odbywa się poprzez pośrednie wpływanie na wsparcie odkrywanych reguł decyzyjnych. Przyjmuje się, Ŝe w analizowanym zbiorze obserwacje z okresu poprzedniego mogą być łączone ze zwielokrotnionymi obserwacjami z okresów następnych. Proces zwielokrotnienia autor nazywa dalej równieŜ klonowaniem. Kwestią istotną dla wnioskowania jest tutaj ustalenie, jakie zmiany dzielą poszczególne okresy w stosunku do nadrzędnego okresu t0. Wprowadza się współczynnik klonowania cc [z ang. cloning coefficient]. Dla kaŜdego z analizowanych okresów ti współczynnik cci ustalany jest przez eksperta dziedzinowego na podstawie zmian dzielących okresy. Niech cci ∈ C (i={-n+1,..., 0}przy n analizowanych okresów). W najprostszym przypadku, gdy analizie poddawane są tylko 2 okresy: t0 oraz t-1, ekspert określałby, o ile większy wpływ na generowane reguły miałyby mieć zachowania klientów z ostatniego okresu w stosunku do okresu poprzedniego. Przykładowo, jeŜeli cc0 = 2, a cc-1 = 1, wówczas dane z ostatniego okresu uwaŜane są za dwa razy bardziej istotne niŜ te z okresu poprzedniego. Dla większej liczby badanych okresów ti ciąg wartości cci moŜe odzwierciedlać zarówno liniowy jak i nieliniowy charakter zaleŜności między kolejnymi okresami. Warto zauwaŜyć, Ŝe ekspert moŜe takŜe wyłączać wybrane okresy z analiz (np. ze względu na zbyt duŜe zmiany, jakie je dzielą w stosunku do t0). Wówczas dla tych okresów ti określi odpowiednie cci = 0. Po przygotowaniu końcowego zbioru dokonuje się indukcji reguł. Warto następnie przeanalizować powstałe reguły pod kątem miar je opisujących, np. siły, pewności, pokrycia itp. Dla analityka zainteresowanego zrozumieniem badanego zjawiska szczególnie cenne mogą być reguły o największej sile. Warto teŜ rozwaŜać reguły nie w kategoriach deterministycznych, lecz probabilistycznych, przybliŜonych, tzn. uwzględniać reguły nie do końca pewne, ale pozwalające przyporządkować analizowane obiekty z większym prawdopodobieństwem do jednej klasy niŜ innej. 5. Podsumowanie Problem zjawiska rezygnacji jest niezwykle istotny dla funkcjonowania wielu firm. Szczególne miejsce zajmują pośród nich operatorzy telefonii komórkowej. Umiejętność wskazania, którzy klienci mogą planować np. przejście ze swoim numerem do operatora konkurencyjnego, zadecydować moŜe o przewadze konkurencyjnej operatora. Skuteczna klasyfikacja pozwala na przedsięwzięcie środków zaradczych, które mogą doprowadzić do utrzymania klienta, a co za tym POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 121 idzie zapewnić firmie trwałe zyski. Niewątpliwie jest to jedna z przyczyn, dla których zainteresowanie metodami eksploracji danych i odkrywaniem wiedzy w biznesie nieustannie rośnie. Zaproponowana procedura pozwala na zautomatyzowany wybór predyktorów i bogatą moŜliwą interpretację związków między nimi a zmienną objaśnianą. Uwzględnianie czasu pozwala róŜnicować dane pochodzące z róŜnych okresów i w lepszy sposób czerpać z nich wiedzę niŜ gdyby traktowane były one identycznie. Proponowane podejście uwzględniające dane z przeszłości bardziej odległej niŜ okres t0 nabiera ponadto szczególnego znaczenia dla analiz, w których dysponuje się przekrojowym zbiorem danych nt. pewnej stosunkowo niewielkiej liczby przykładów, ale z wielu okresów z przeszłości. Wówczas ograniczanie się tylko do okresu ostatniego moŜe nawet uniemoŜliwiać odkrycie reguł, zwłaszcza przy odpowiednio duŜej liczbie atrybutów. Z drugiej strony jednakowe traktowanie danych z róŜnych okresów moŜe zupełnie nie mieć sensu, gdyŜ ignorowałoby de facto pojęcie czasu i zmian, jakie w nim zachodzą. Co istotne, proponowana metoda pozwala takŜe na interwencje eksperta i analityka niemal w kaŜdym momencie. Na zakończenie warto dodać, Ŝe metodę zastosowano do opracowania klasyfikacyjnego modelu rezygnacji klientów abonamentowych dla jednego z operatorów komórkowych. Uzyskane wyniki okazały się bardzo zadowalające. Ze względu na ograniczenie miejsca zostaną one szczegółowo zaprezentowane w następnych planowanych publikacjach. 7. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. GSM World News – Statistics [online]. GSM World Association, 2008-02-06 [dostęp 21 maja 2008]. Dostępny w Internecie: < http://www.gsmworld.com /news/statistics/index.shtml>. T. Świderek: Aktywnych kart SIM jest o 7,5 mln mniej niŜ według GUS. W: „Gazeta Prawna” [online]. 2008-04-07 [dostęp 21 maja 2008]. Dostępny w Internecie: <http://biznes.gazetaprawna.pl/artykuly/12942,aktywnych_kart_sim_jest_o_7_5_mln_mni ej_niz_wedlug_gus.html>. Sulikowski P., Budziński R.: Zastosowanie teorii zbiorów przybliŜonych do definiowania reguł zachowania się klientów operatora telefonii komórkowej. W: Drelichowski L. (red.): Studia i materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, t. 4. Bydgoszcz: PSZW, 2005, s. 193- 204. Strouse K.G.: Customer-Centered: Telecommunications Services Marketing. Norwood, MA: Artech House, 2004. Dyché J.: CRM. Relacje z klientami. Gliwice: HELION, 2002. Laboratory of Intelligent Decision Support Systems of the Poznan University of Technology: ROSE2 2.2 (build 25.02.2004) [online]. Poznań: Politechnika Poznańska, 2004 [dostęp 10 lutego 2008]. Dostępny w Internecie: <http://wwwidss.cs.put.poznan.pl/site/rose.html>. Langford-Wood N., Salter B.: CRM in a week. London: Hodder & Stoughton, 2002. Rudawska E.: Lojalność klientów. Warszawa: Polskie Wydawnictwo Ekonomiczne, 2005. Sulikowski P.: Zastosowanie teorii zbiorów przybliŜonych w analizie lojalności jako element systemu zarządzania relacjami z klientami (CRM). W: Kiełtyka L. (red.): 122 Piotr Sulikowski, Ryszard Budziński Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji 10. 11. 12. 13. 14. 15. 16. Multimedia w biznesie i edukacji. Białystok: Fundacja Współczesne Zarządzanie, 2005, t.II, s. 60-66. Todman Ch.: Projektowanie hurtowni danych. Zarządzanie kontaktami z klientami (CRM). Warszawa: Wydawnictwa Naukowo-Techniczne, 2003. The Gartner Glossary of Information Technology and Acronyms and Terms [online]. [Stamford, CT]: Gartner Inc., 2004 [dostęp: 10 maja 2008]. Dostępny w Internecie: <http://www.gartner.com/6_help/glossary/Gartner_IT_Glossary.pdf>. Pawlak Z.: Rough set theory and its applications. „Journal of Telecommunications and Information Technology” 2002, Nr 3, s. 7-10. Budziński R.: Komputerowy system przetwarzania danych ekonomiczno-finansowych w przedsiębiorstwie. Warszawa-Szczecin: Wydawnictwo Naukowe Uniwersytetu Szczecińskiego, 2000, Seria Badania Systemowe, t.24, Instytut Badań Systemowych PAN. Sulikowski P.: Mobile Operator Customer Classification in Churn Analysis. In: Proceedings of the SAS® Global Forum 2008 Conference, 16-19.03.2008, San Antonio, Texas. SAS Institute Inc., Cary, NC, 2008, Paper 344-2008. Drelichowski L.: Elementy teorii i praktyki zarządzania z technikami informacyjnymi w przedsiębiorstwie. Bydgoszcz: Wydawnictwa Uczelniane Akademii TechnicznoRolniczej, 2000. Shtatland E.S., Kleinman K., Cain E.M.: Stepwise Methods in Using SAS® PROC LOGISTIC and SAS® Enterprise Miner™ for Prediction. In: Proceedings of the 28th Annual SAS Users Group International Conference, Seattle, WA, March 30 – April 2, 2003. Cary, NC: SAS Institute Inc, 2003, Paper 258-28. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 MOBILE OPERATOR CUSTOMER CLASSIFICATION METHOD IN CHURN ANALYSIS Summary Customer churn is a grave problem for all mobile operators. Early identification of potential churners could help retain them in the operator’s network. A multistage research procedure is proposed. It allows the identification of significant churn factors and then the establishing of a classification model of the phenomenon for each customer segment. The method outlined in the paper relies on both qualitative and quantitative data as well as takes into account the element of time, which characterises data from different periods. Keywords: data mining, rough sets, churn, CRM, mobile telephony Piotr Sulikowski Katedra Systemów Informatycznych Zarządzania Instytut Systemów Informatycznych Ryszard Budziński Dyrektor Instytutu Systemów Informatycznych Wydział Informatyki Politechniki Szczecińskiej Szczecin, ul. śołnierska 49 http://www.wi.ps.pl e-mail: [email protected] e-mail: [email protected] http://www.wi.ps.pl 123 124 Jarosław Wątróbski, Monika Stolarska Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych JAROSŁAW WĄTRÓBSKI, MONIKA STOLARSKA Politechnika Szczecińska MODEL OCENY JAKOŚCI UśYTKOWEJ SYSTEMÓW KLASY CRM W ORGANIZACJACH WIRTUALNYCH Streszczenie W artykule przedstawiono autorski modelu oceny jakości uŜytkowej systemów CRM. W kolejności dokonano analizy kryteriów merytorycznych warunkujących funkcjonowanie systemów w organizacji wirtualnej, przedstawiono załoŜenia metodyczne modelu oceny oraz przedstawiono wyniki przeprowadzonych serii eksperymentów symulacyjnych. Całość kończą wnioski przeprowadzonych badań. Słowa kluczowe: zarządzanie relacjami z klientami, CRM, organizacja wirtualna, ocena jakości uŜytkowej, metoda AHP, wielokryterialne wspomaganie decyzji 1. Wprowadzenie Orientacja na klienta jest podejściem charakterystycznym dla większości współczesnych przedsiębiorstw. W organizacji wirtualnej nabiera jednak szczególnego znaczenia, poniewaŜ jest ona tworzona okazjonalnie, w odpowiedzi na potrzeby konkretnego klienta, w konkretnym czasie i ma na celu realizację z góry ustalonych zadań. Taka koncepcja elastycznego, zmiennego przedsiębiorstwa zapewnia rozwój i podniesienie efektywności działań. Dodatkowymi korzyściami są redukcja kosztów i czasu realizacji zamówień, zmniejszenie ryzyka oraz zapewnienie moŜliwości działalności na rynku globalnym. Sytuacyjny i chwilowy dobór partnerów w takich organizacjach gwarantuje pracę w zespole liderów, a co za tym idzie wysoką jakość usług i towarów [1,2,3,4]. Zarządzanie relacjami z klientami odgrywa kluczową rolę w funkcjonowaniu organizacji wirtualnej. Z uwagi na środowisko w jakim ona funkcjonuje i cel jaki jest przed nią postawiony powinna przykładać ogromną wagę do wyboru najlepszego dla siebie rozwiązania klasy CRM. Internet tworzy nowe warunki i wymagania w zakresie zarządzania klientami. Wirtualny sposób komunikacji wymaga innego podejścia do klienta organizacji wirtualnej [5]. Zanikanie barier komunikacyjnych, większy profesjonalizm i wiedza pracowników stanowi o ogromnej przewadze przedsiębiorstw wykorzystujących Sieć nad tradycyjnymi [6]. P.B.Seybold wskazuje, Ŝe podstawowe czynniki warunkujące relacje z klientami w organizacji wirtualnej, to: dostarczenie klientowi informacji o przedsiębiorstwie, zagwarantowanie obsługi i umoŜliwienie wzajemnych kontaktów, obsługa elektroniczna transakcji oraz dbałość o indywidualne traktowanie klienta [7]. Współczesny rynek oferuje wiele rozwiązań klasy CRM. Rozwiązania proponowane przez liczących się na rynku producentów mają zarówno mocne jak i słabe strony. Zaprojektowanie systemu, który będzie charakteryzował się spójnością oprogramowania i dostępem do róŜnych kanałów komunikacji, jest zadaniem trudnym do zrealizowania. Zachowanie skalowalności systemów oraz potrzeba ich kastomizacji powoduje, Ŝe nie ma rozwiązań uniwersalnych. Wybór POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 125 systemu musi być ściśle dostosowany do indywidualnych potrzeb i moŜliwości konkretnego przedsiębiorstwa [8]. Dostępne obecnie rozwiązania są niestety często drogie i mało wydajne. Pojawiają się błędy podczas wdroŜeń, spowodowane brakiem kompetencji lub niedopasowaniem oprogramowania do warunków i potrzeb przedsiębiorstwa. Problemem staje się równieŜ uzyskanie pełnych informacji o dostępnych systemach. Mimo iŜ, w publikacjach, raportach, na konferencjach, targach handlowych czy na seminariach dostawców prezentowane są rozwiązania CRM utrudnione jest pozyskanie informacji do analizy przedwdroŜeniowej, która ułatwi podjęcie decyzji odnośnie wyboru systemu. Zatrudnienie firmy analitycznej lub konsultingowej, która specjalizuje się w tematyce CRM i pozwoli dostosować najlepsze rozwiązanie dla konkretnego przedsiębiorstwa wymaga od firmy dodatkowych nakładów finansowych [9]. Podobnie wiele raportów dostępnych jest jedynie komercyjnie za opłatą. Wybór systemu informatycznego jest procesem złoŜonym i wieloetapowym. Ocena jakości uŜytkowej systemów CRM wymaga uŜycia odpowiedniego aparatu badawczego. W literaturze przedmiotu wskazuje się na moŜliwość wykorzystania metod wielokryterialnego wspomagania decyzji w doborze systemu. Badania w tym zakresie prowadzone są przez M.J.Blin i A.Tsoukias [10] oraz T.Hong i E.Kim [11]. Wskazując dostępne metody wielokryterialnego wspomagania decyzji w zakresie oceny jakości uŜytkowej oprogramowania, za M.Sikorskim [12], naleŜy wyróŜnić: - „funkcję uŜyteczności”- wynika ona z projekcji oczekiwanych korzyści, opiera się na porównywalności wariantów, umoŜliwia agregację preferencji w oparciu o modele kompensacyjne (poprawa wartości jednego z kryteriów warunkuje pogorszenie innego) i niekompensacyjne. Wśród nich jako jedną z odmian wskazuje się metodę AHP (AHP - ang. Analytic Hierarchy Process) czyli „hierarchiczną analizy problemu”– decydent formułuje swoje preferencje przy wyborze wariantu decyzyjnego, określa cele nadrzędne, główne i szczegółowe; metoda AHP uwzględnia psychologiczne procesy wartościowania; - „relację przewyŜszania” (ang.outranking) – analiza decyzyjna w sytuacjach nieporównywalności lub większej liczby (do kilkunastu) wariantów; wynikiem jest graf porządkujący warianty od najlepszego do najgorszego. 2. Proponowane rozwiązanie Problem oceny oprogramowania jest szczególnie złoŜony z uwagi na ilość, róŜnorodność, a czasem nawet nieporównywalność kryteriów jakie naleŜy rozwaŜyć. Podjęcie odpowiedniej decyzji wymaga oparcia na odpowiednim aparacie badawczym. Metodologia wielokryterialnego wspomagania decyzji (MCDA – ang. Multiple-Criteria Decision Aid) stosowana jest w sytuacjach gdy rozwiązanie problemu, podjęcie ostatecznej i najlepszej decyzji zaleŜy od wielu kryteriów [13]. Metodologia wielokryterialnego wspomagania decyzji wyróŜnia wiele metod i technik stosowanych w zakresie modelowania preferencji i agregacji danych. Do określenia struktury problemu decyzyjnego jak teŜ modelowania preferencji i eksploatacji modelu przyjęto metodę AHP jako metodę badawczą. Metoda AHP [14,15,16] umoŜliwia analizę oraz rozwiązanie złoŜonego problemu decyzyjnego jakim jest wybór systemu CRM [17]. Gwarantuje decydentowi znalezienie systemu moŜliwie najbardziej zbieŜnego z określonymi przez niego oczekiwaniami. Decydent określa cele, warianty, kryteria, wskazuje jednoznacznie, które 126 Jarosław Wątróbski, Monika Stolarska Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych cechy jakościowe systemu mają dla niego największe znaczenie. Dzięki takiemu przejrzystemu modelowi wspomagania decyzji moŜliwe jest szybkie wyeliminowanie tych rozwiązań, które nie spełniają oczekiwań. Na rynku CRM działa obecnie ponad 1000 dostawców systemów oferujących zaawansowane technologicznie i kompleksowe rozwiązania. Wybór najlepszego systemu zarządzania relacjami z klientami, dostosowanie rozwiązań informatycznych do potrzeb przedsiębiorstwa wirtualnego i wypracowanie czytelnych rekomendacji decydenta wymaga zastosowania odpowiedniego aparatu badawczego. Zastosowanie metody AHP do oceny jakości uŜytkowej oprogramowania do zarządzania relacjami z klientami znajduje według A.Gospodarowicza [18] uzasadnienie z uwagi na moŜliwość mierzenia jakości za pomocą skali opisanej liczbowo. 3. Model oceny jakości uŜytkowej systemów klasy CRM Prace badawcze nad oceną jakości uŜytkowej rozwiązań CRM przeprowadzono w następujących etapach. Dla potrzeb oceny wybrano 60 systemów i oceniono je według hierarchicznego zbioru kryteriów (przedstawionych na Rysunku 1). Tak zdefiniowany układ kryteriów merytorycznych podyktowany jest wyodrębnieniem jedynie kryteriów warunkujących przydatność wymienionych systemów w organizacji wirtualnej. Pierwotny zbiór rozwiązań (60 systemów) został zredukowany do grupy 21 systemów. Proces ten podyktowany był koniecznością pozostawienia dla potrzeb oceny i agregacji danych jedynie tych systemów dla których informacje preferencyjne miały charakter pełny. W pozostałej grupie dokonano podziału na 3 podgrupy: systemy ekonomiczne, skalowalne i z dostępną wersją internetową. KaŜda klasa systemów oceniona została według tej samej grupy kryteriów globalnych i cząstkowych. Kryteria wyboru systemu CRM K1 Funkcjonalność K2 Docelowy odbiorca K 2.1 K 2.2 Dedykowana wielkość firmy Dedykowany segment rynku K3 Skalowalność K 2.3 K4 Technologia K 4.1 Wersja branŜowa Bazy danych K5 Moduły K 4.2 K 4.3 K 6.1 K 6.2 Wersja internetowa Urządzenia mobilne Customizacja na Ŝyczenie klienta Customizacja samodzielna Rys. 1. Kryteria wyboru systemu CRM Źródło: Opracowanie własne K7 Integracja z systemami zewnętrznymi K6 Klient POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 127 Konstrukcję modelu oceny jakości uŜytkowej [19] systemów CRM dla organizacji wirtualnej, zgodnie z załoŜeniami metody AHP, przeprowadzono w następujących etapach. Na wstępie zidentyfikowano hierarchiczną rodzinę kryteriów wyboru systemów CRM (Rys. 1), kolejno wyznaczono wektory priorytetów, wektory preferencji lokalnych kaŜdorazowo kontrolując wartość współczynników losowych zgodności (CR). Taka organizacja eksperymentu badawczego pozwoliła na wyeliminowanie nieprzechodniości i niespójności w opiniach ekspertów. Wyznaczone w ten sposób zbiory wartości stanowiły podstawę do obliczenia wartości uŜyteczności cząstkowych dla poszczególnych wariantów decyzyjnych jak i końcowych wartości funkcji uŜyteczności ocenionych systemów klasy CRM. Tym samym otrzymano czytelny dla decydenta ranking systemów. W kaŜdej grupie został jednoznacznie wskazany najlepszy i najgorszy wybór systemu. W grupie systemów ekonomicznych najlepszy wybór to system A4 czyli ITCube (ICsolutions s.c.), najgorszy zaś to A6 czyli recentCRM (Connect Distribution Sp. z o.o). Koszt ITCube to około 500 zł, recentCRM dostępny jest od 139 euro. Najlepszy wybór wśród systemów skalowalnych to system A5 czyli PeopleSoft CRM (PeopleSoft Inc.), najgorszy - A6 czyli Cerem (Janko Soft System). Najlepszym rozwiązaniem CRM pośród tych oferujących wersję internetową okazał się system A6 czyli GoldMine Business Contact Manager (FrontRange Solutions), najgorszym A2 czyli bs4-CRM (BS4 INTERNET). Przeprowadzone kolejno badania eksperymentalne nad oceną systemów CRM stanowią próbę odpowiedzi na pytanie: co stanie się w przypadku zmian wag kryteriów przez decydenta. Przeprowadzone zostały one w dwóch etapach. Pierwszy etap modelowania obejmował zmiany wartości uŜyteczności cząstkowej kryteriów lokalnych i ich wpływ na pierwotnie otrzymany ranking systemów. Dla kaŜdego z kryteriów globalnych obserwowane były zmiany, w przypadku gdy jedno z podkryteriów drugiego poziomu silnie dominowało pozostałe. Wyniki przedstawione zostały w formie wykresów zawartych w tabelach 3.1, 3.2 oraz 3.3. W kolejnym etapie modelowania uwzględniono wpływ zmian w zakresie kryteriów globalnych na rozkład uŜyteczności cząstkowej oraz syntetyczną wartość uŜyteczności wariantów decyzyjnych. Decydent określił, które kryteria są najwaŜniejsze dla organizacji wirtualnej. Na tej podstawie powstały modele oceny, macierze oceny waŜności kryteriów i końcowe rankingi systemów. 128 Jarosław Wątróbski, Monika Stolarska Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych Tabela 3.1 Etapy modelowania systemów ekonomicznych – zmiany wartości uŜyteczności cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu Podkryterium 1 Dedykowana wielkość firmy Podkryterium 2 Dedykowany segment firmy Podkryterium 3 Wersja branŜowa 1 1 1 0,4 0,4 0,4 0,3 0,3 7 0,3 7 7 2 2 2 0,2 0,2 0,2 0,1 0,1 0,1 K2 0,0 0,0 0,0 6 6 6 3 3 3 5 5 5 4 Bazy danych Wersja internetowa 1 0,3 0,3 2 2 7 2 0,2 0,2 0,1 0,1 0,1 0,0 0,0 5 0,0 6 3 3 5 4 Kastomizacja na Ŝyczenie 4 6 3 5 4 Kastomizacja samodzielna 1 1 0,4 0,4 0,3 0,3 7 2 2 0,2 0,2 0,1 0,1 0,0 0,0 6 3 5 0,3 7 0,2 6 K6 1 0,4 0,4 7 7 Urządzenia mobilne 1 0,4 K4 4 4 4 6 3 5 4 Źródło: opracowanie własne Przeprowadzona seria eksperymentów badawczych wskazuje, Ŝe zmiana preferencji w obszarze kryteriów lokalnych wpływa znacząco na ranking systemów ekonomicznych. W zaleŜności od kryterium lokalnego, które jest aktualnie najwaŜniejsze dla decydenta zmienia się ranking systemów, bez względu na stopnie dominacji pozostałych kryteriów. Najlepszym wyborem dla decydenta jest system A2, najgorszym - system A6. 129 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 Tabela 3.2 Etapy modelowania systemów skalowalnych – zmiany wartości uŜyteczności cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu Podkryterium 1 Dedykowana wielkość firmy Podkryterium 2 Dedykowany segment firmy 1 1 0,5 0,4 0,3 0,2 0,1 0,0 7 K2 5 0,5 0,4 0,3 0,2 0,1 0,0 6 2 0,2 0,1 0,0 6 3 5 4 Kastomizacja samodzielna 1 3 4 0,5 0,4 0,3 0,2 0,1 0,0 7 2 6 5 0,4 0,3 7 4 1 0,5 0,4 0,3 0,2 0,1 0,0 K6 2 5 Kastomizacja na Ŝyczenie 7 1 0,5 3 4 4 Urządzenia mobilne 6 3 5 5 0,5 0,4 0,3 0,2 0,1 0,0 7 3 4 1 2 2 6 Wersja internetowa 1 0,5 0,4 0,3 0,2 0,1 0,0 7 3 4 Bazy danych K4 2 6 3 5 1 0,5 0,4 0,3 0,2 0,1 0,0 7 2 6 7 Podkryterium 3 Wersja branŜowa 2 6 3 5 4 Źródło: opracowanie własne Przeprowadzone badania wskazują jednoznacznie, Ŝe zmiana preferencji w obszarze kryteriów lokalnych nie wpływa na ranking w grupie systemów skalowalnych. Bez względu na kryterium lokalne, które jest aktualnie najwaŜniejsze dla decydenta ranking systemów nie zmienia się. 130 Jarosław Wątróbski, Monika Stolarska Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych Tabela 3.3 Etapy modelowania systemów z wersją internetową – zmiany wartości uŜyteczności cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu. Podkryterium 1 Dedykowana wielkość firmy Podkryterium 2 Dedykowany segment firmy Podkryterium 3 Wersja branŜowa 1 1 0,4 0,4 0,3 0,3 1 0,4 7 K2 7 2 2 0,2 0,2 0,1 0,1 0,0 0,0 3 5 4 5 3 5 Wersja internetowa 4 Urządzenia mobilne 1 1 0,4 0,4 0,3 0,3 7 2 2 0,3 7 0,2 0,2 0,2 0,1 0,1 0,1 0,0 0,0 6 3 5 3 4 2 0,0 6 5 Kastomizacja na Ŝyczenie 4 6 3 5 4 Kastomizacja samodzielna 1 1 0,4 0,4 0,3 2 0,3 7 0,2 2 0,2 0,1 0,1 0,0 0,0 6 3 5 6 4 0,4 K6 0,0 3 1 7 0,1 6 Bazy danych K4 2 0,2 6 7 0,3 7 4 6 3 5 4 Źródło: opracowanie własne Zmiana preferencji w obszarze kryteriów lokalnych nie wpływa na ranking końcowy systemów klasy CRM z wersją internetową. Przeprowadzone badania modelowe pozwoliły w duŜym stopniu zbadać odporność pierwotnie wybranego rankingu rozwiązań - systemów CRM dostosowanych dla organizacji wirtualnych. W pierwszym etapie zmieniano wartości uŜyteczności cząstkowej kryteriów lokalnych i zbadano POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 131 ich wpływ na pierwotnie otrzymany ranking systemów. Dla kaŜdego z kryteriów globalnych (K2, K4, K6) obserwowano zmiany, w przypadku gdy jedno z podkryteriów drugiego poziomu silnie dominowało pozostałe. W drugim etapie modelowania uwzględniono wpływ zmian w zakresie kryteriów globalnych na rozkład uŜyteczności cząstkowej oraz syntetyczną wartość uŜyteczności wariantów decyzyjnych. Decydent określił 3 grupy kryteriów najwaŜniejszych dla organizacji wirtualnej. W pierwszym wypadku badano zmiany w rankingu systemów, gdy kryteriami dominującymi dla decydenta były technologia (K4), moŜliwość samodzielnej modyfikacji systemu przez klienta (K6.1) oraz skalowalność (K3). Następnie decydent za najwaŜniejsze wskazał moŜliwość integracji z systemami zewnętrznymi (K7), moduły (K5) i funkcjonalność systemu (K1). W ostatnim przypadku najwaŜniejszymi kryteriami były skalowalność (K3), funkcjonalność (K1) i dostępność wersji branŜowej (K2.3). Na tej podstawie powstały nowe modele oceny, nowe macierze oceny waŜności kryteriów i rankingi systemów. Kolejno wskazano, Ŝe zmiany wag kryteriów globalnych i lokalnych mają istotny wpływ na wyniki rankingu systemów. W przypadku grup systemów sklasyfikowanych jako ekonomiczne i posiadające wersję internetową zaobserwowano największe róŜnice. Dla systemów ekonomicznych wykazano, Ŝe najlepszym wyborem jest A4 (ITCube) lub A2 (OKAY CRM), najgorszym A5 (Qmax) lub A6 (recentCRM). Dla drugiej grupy systemów najlepszym rozwiązaniem jest system A5 (CRM Case Manager 3.0) lub A6 (VICOM TAKTKOS), najgorszym A2 (bs4-CRM). W przypadku systemów skalowalnych zaobserwowano, Ŝe istnieją dwa systemy, które bez względu na zmiany wag priorytetów decydenta silnie dominują pozostałe systemy. Bezkonkurencyjnie najlepszym systemem w rankingu jest A5 (PeopleSoft CRM), najniŜszą wartość w rankingu uzyskuje zaś system A6 (CeReM). 4. Uwagi końcowe W artykule podjęto próbę konstrukcji modelu oceny jakości uŜytkowej systemów klasy CRM. Przeprowadzone badania potwierdzają poprawność zastosowanego aparatu matematycznego. Przeprowadzone eksperymenty symulacyjne wprowadzają dodatkowo do materiału badawczego systemowe aspekty analizy odporności na zmiany preferencji w ustalonych rankingach rozwiązań, jak równieŜ stanowią rzetelne wprowadzenie do pełnej analizy wraŜliwości zbioru rozwiązań. PowyŜsze rozwaŜania pozwalają twierdzić zatem, Ŝe celowe jest zastosowanie metody AHP do oceny jakości uŜytkowej oprogramowania do zarządzania relacjami z klientami. W trakcie przeprowadzonych badań zaobserwowano, Ŝe istnieją moŜliwości ewolucji proponowanego rozwiązania. Wśród niedostatków modelu wskazać naleŜy konieczność posiadania pełnej informacji preferencyjnej (wszystkich szczegółowych ocen systemów CRM) czy niemoŜliwość uwzględnienia grupowych opinii ekspertów. Wskazane problemy stanowią jednocześnie wytyczne dla dalszych badań. W kolejności dalszych studiów wymagają: - zastosowanie metody AHP w wersji rozmytej, niwelując tym samym niedostatek związany z wspomaganiem decyzji w środowisku wielu ekspertów, - uwzględnienie niedeterministycznej wersji metody AHP pozwalającej na realizację eksperymentów w środowisku z brakującymi danymi. 132 Jarosław Wątróbski, Monika Stolarska Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. Perechuda K.: Organizacja wirtualna, Ossolineum, Wrocław 1997. W.M.Grudzewski i Hejduk I.K.: Przedsiębiorstwo przyszłości, Difin, 2001 r., s.164. Gach D., Nowak O.: Firma wirtualna-model przyszłościowy, Przegląd Organizacji, 1997, nr 12, s.23. Grajewski P.: Organizacja procesowa, Polskie Wydawnictwo Ekonomiczne, Warszawa 2007, s.35. Małachowski A.: Internet w zarządzaniu przedsiębiorstwem, Wydawnictwo Akademii Ekonomicznej im.Oskara Langego we Wrocławiu, Wrocław 2003, s.136. Dobiegała-Korona B., Doligalski T., Korona B.: Konkurowanie o klienta e-marketingiem, Difin, Warszawa 2004, s.40-41. Seybold P.B.: KLIENCI.com Jak stworzyć skuteczną strategię biznesową dla Internetu i nie tylko, IFC PRESS, Kraków 2001, s.74. Burnett K.: Relacje z kluczowymi klientami. Analiza i zarządzanie, Oficyna Ekonomiczna, Kraków 2002, s.292. Dyche J.: CRM Relacje z klientami, Gliwice, Wydawnictwo Helion, 2002 , s.190-191. Blin M.-J., Tsoukias A.: Evaluation of COTS using multicriteria methodology, in Proceedings of the 6th European Conference on Software Quality, 1999. Hong T., Kim E.: The Selection of CRM Systems in Financial Institutes Using the Analytic Hierarchy Process, Proceedings of the 13th Asia Pacific Management Conference, Melbourne, Australia, 2007, 296-302. Sikorski M.: Zarządzanie jakością uŜytkową w przedsięwzięciach informatycznych, Wydawnictwo Politechniki Gdańskiej, Gdańsk 2000, s.28-30. Blin M.-J., Tsoukias A.: Multicriteria Methodology Contribution to Software Quality Evaluations, Springer Netherlands, Software Quality Journal, volume 9, number 2, June 2001. Saaty T.L., The analytic hierarchy process: Planning, Priority Setting, Resource Allocation, Pittsburgh, PA RWS Publications, 1997. Downarowicz O., Krause J., Sikorski M., Stachowski W.: Zastosowanie metody AHP do oceny i sterowania poziomem bezpieczeństwa złoŜonego obiektu technicznego, Politechnika Gdańska, Gdańsk 2000. Kwiesielewicz M., Analityczny hierarchiczny proces decyzyjny. Nierozmyte i rozmyte porównanie parami, IBS PAN, Warszawa 2002. Hong T., Kim E.: The Selection of CRM Systems in Financial Institutes Using the Analytic Hierarchy Process, Proceedings of the 13th Asia Pacific Management Conference, Melbourne, Australia, 2007, 296-302. Gospodarowicz A.: Metody analizy i oceny pakietów programowych, Wydawnictwo Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, Wrocław 1997 Kobyliński A.: ISO/IEC 9126 – Analiza modelu jakości produktów programowych w: Systemy Wspomagania Organizacji 2003, red. T. Porębska-Miąc, H. Sroka, Prace Naukowe AE w Katowicach, Katowice, 2003 r. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr 16, 2008 CRM SYSTEMS EVALUATION MODEL IN VIRTUAL ORGANIZATIONS Summary The purpose of this paper is an attempt to apply the AHP method in evaluation of CRM systems in virtual organizations. The article presents a recapitulation of research conducted hitherto on the evaluation of CRM systems. Respectively, the concept of multi-dimensional methods was presented and an evaluation model of the functional quality of Customer Relationship Management systems applying the AHP method was constructed. Conclusion table from the research conducted ends the study. Keywords: Customer Relationship Management, Analytic Hierarchy Process Jarosław Wątróbski Monika Stolarska Instytut Systemów Informatycznych Zarządzania Politechnika Szczecińska Szczecin, ul. śołnierska 49 e-mail: [email protected] e-mail: [email protected] http://www.wi.ps.pl 133 134 Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF COOPERATION FROM ANALYST RYSZARD BUDZIŃSKI, ZBIGNIEW PIOTROWSKI, JAROSŁAW WĄTRÓBSKI Politechnika Szczecińska A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF COOPERATION FROM ANALYST Summary Cooperating between an analyst and a decision maker is difficult in situations with dispersed sources of decision information. Furthermore, required cooperation with an analyst makes automatic gathering of decision alternatives impossible. The paper proposes building a software agent where the decision logic is extended with selected functions of decision analysis. The suggested approach is based on decision rules built from an organisation’s historic data about results of implementing previous decisions. Applying decision rules based on notation/terminology used in an organisation allows making decisions in dispersed environment where a decision maker elaborates a description of a decision situation using the natural language. The conclusions of the papers presents a SWOT analysis of applying the proposed solution in enterprises. Keywords: MCDA, decision aiding, software agents 1. Course of the decision process Roy [1] defines decision aiding as taking actions according to the resultant influence of a Decision Maker’s (DM) value system, where the DM is a single person or a committee. The decision process includes a set of activities grouped at four levels as follows: 1. determining criteria of identifying possible actions and the goal of decision making, 2. consequence analysis and modelling judgements, 3. identifying global preferences and techniques of judgements aggregation, 4. choosing a decision problematic and creating a recommendation. Applying a formalised decision approach requires to align the structure of the description of a decision situation made by a DM, to a form which fits to a chosen methodology. Adapting actions are performed as an analytical task, where an analyst moderates a dialog with a DM. An analyst uses his domain knowledge along with the technical knowledge about courses of the decision process with various techniques. The dialog is lead in a direction which allows further building a decision model according to the requirements of a selected process. The Source: based on [2] presents a sample course of a decision process found in the literature. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 Fig. 1 The course of the decision process Source: based on [2] 135 136 Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF COOPERATION FROM ANALYST 2. Applying mobile agents in decision aiding The boundary between the terms: „program” and „agent” is blurred. Various definitions of the mentioned terms exist. Moreover, the same piece of software can be classified as an agent or a program, depending on a definition used. In the paper, the term agent refers to an “autonomous agent” according to the definition from [3]: An autonomous agent is a system situated within and a part of an environment that senses that environment and acts on it, over time, in pursuit of its own agenda and so as to effect what it senses in the future.” While the design of the proposed solution was carried on, the definition of the agent’s autonomy was extended with mobility. In the remaining part of the paper, mobility is recognised as a natural outcome of an agent’s autonomy which enables freedom of movement. Using a mobile agent allows to aid decisions in situations where the analysis of decision alternatives is done in the same location as a data source. Such an approach is based on an assumption that the client-server paradigm is replaced by a more efficient approach. All computations are done in the location where data are stored. The advantage of such an approach is transmitting only results or performance values, in case of a decision agent. Hence, the load of transmission channels is lower. Additional advantage of using an autonomous entity (with its own goals) is the ability of independent searching and discovering data sources [4]. The paper [5] presents a decision aiding agent, which decomposes the decision process into components. Moreover, a decision problem is divided into subproblems, which are assigned to different agents. Namely it is a multi-agent system. The described solution for aiding decisions is designed to solve a fixed structure of decision problems with varied input data. Decomposition of a decision problem into specific task uses expert knowledge. 3. Issues of achieving mobility in decision aiding Analysing a decision situation allows to isolate a spectrum of consequences, which is represented as a set of dimension of individual actions. Choosing an appropriate level of completeness when creating a spectrum of consequences is an analytical task, which cannot be automated [1]. Analytic activities are done by a decision maker and an analyst cooperating as a team. A DM elaborates his view on a decision situation, then an analyst adds his knowledge about formalisation techniques which can be applied in a given context of a decision process. Structuring the description of a decision situation requires not only the knowledge about a situation itself, but also about its environment and considered alternatives. Therefore, a dispersed decision process, where formulating a problem is preceded by a time consuming process of gathering decision alternatives (a searching various physical data sources, acquiring proposals from business partners) requires involving an analyst in the process at least twice. The outcome of an analyst’s assistance is a specification of informational requirements and rejecting criteria for decision alternatives. Formalised form of a decision problem allows to search decision alternatives which meet minimal requirements for implementing them. Automating this stage of the process is a very difficult task, due to the unstructured description of a problem presented by a DM. The difficulty is a result of the fact that usually a DM is not an expert in knowledge modelling. Searching for decision alternatives can be a time dispersed activity. Time consuming nature of POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 137 the process is the result of gathering decision alternatives from various locations. Lack of ability to estimate the time required to build a complete set of decision alternatives makes designing an efficient process difficult. Furthermore, this is a reason why an idle phase comes after identifying all decision alternatives (and the decision process takes more time), where the process has to be suspended until consultation with an analyst is possible. Additional time of the decision process depends on an analyst’s availability, and can bring additional costs for a decision maker (cost of improving availability of an analyst by offering him additional remuneration). The second task for an analyst is to use information provided by a DM together with descriptions of decision alternatives to choose the best multicriteria technique to transform gathered judgements into a preference system which allows to identify mutual relations between considered alternatives. In the last phase of the process, the identified global preferences allow to create a recommendation according to a decision maker’s request (decision problematic). 4. Suggested expert system analysing a decision situation An approach for building a software agent presented in [5] is based on expert knowledge about a particular decision situation, which makes applying the agent limited to situations covered by the knowledge base. However, aiding decisions where there is no knowledge base, requires consultation with an analyst to build a decision model. Hence, the mobile approach in situations, where the input set is not known a priori is limited. Inability to early determine all premises of a decision situation makes consultation with an analyst inefficient. As a solution addressing the issue introduced in the previous paragraph an expert system is proposed. The novelty of the proposed system is analysing the meta-data layer of the description of a decision situation. The task of analysing a situation was presented in the introduction of the paper. Such a task requires consultation with a decision maker, followed by synthesis: gathered opinions, input data of the process and experience of an expert (analyst). The model automating the mentioned process is given on the Fig. 2. 138 Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF COOPERATION FROM ANALYST Fig. 2 The expert system analysing a decision situation The analysis process presented on the Fig. 2. assumes using an expert system and an expert knowledge base. The strength of such a system depends strongly on completeness of the knowledge base. The proposed expert system evaluates a given decision situation based on the description provided by a DM and it considers decision aiding methods (multicriteria methods) which are included in a set of methods implemented in the agent’s code. The agent’s work requires transferring its code to multiple hosts in order to search for decision alternatives which fulfil DM’s requirements (potential alternatives). Descriptions of decision alternatives as well as characteristics of data sources consist partially of meta data of the process. The complete definition of a problem along with the meta-description of the context of a decision situation are used by the agent for in reasoning. The outcome of the reasoning process is a decision model built with DM’s data, gathered input data and the structure resulted from an activated subset of decision rules. Afterwards, the decision model is solved and the results are used to make a recommendation for a DM. 5. Creating rules based on historical data The phase of building the knowledge base requires participation of an analyst which goes beyond only aiding a DM. The assistance of an analyst needs to be extended to make use of provided information not only according to the conventional meaning of the process. Hence, knowledge gain from an analyst’s assistance should be utilised as a source of a process of supervised learning of a software agent. Building a knowledge based is based on the description of a decision situation, which consist of the two main dimensions: • dimension of the definition of a decision situation (decision problem), • dimension of the meta-description of a decision situation (environmental context). Designing rules for the dimension of the definition of a decision situation requires using his- POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 139 torical knowledge from decisions made in the past. It is crucial to include the context of previous decisions by tracking progress of the dialog between an analyst and a DM. The data gathered in such interaction would allow to create rules which can be used when solving future decision situations in similar contexts. Giving to much autonomy to an agent witch its own set of rules can arise a threat of making unwanted decisions. Such a situation may happen when incorrect rules are activated. It may happen because people don’t follow a one schema which can be encoded once. Moreover, changes in a structure of data gathered from sources of decision information may occur. Each change of the data structure creates a requirement of rebuilding data gathering modules [6]. 6. Concluding remarks Filling the knowledge base gives an opportunity to use the meta-description of a decision situation gathered during interaction with a DM. The dialog leading to define a decision problem (user interface functionality, a program to set up an agent) still requires participation of an analyst when structuring informal form of the description of a decision situation elaborated by a DM. Nonetheless, the context information, in accordance to the structure of rules included into the knowledge base, makes possible to initiate the reasoning process after obtaining a satisfactory (complete) set of descriptions of decision alternatives. The completed reasoning process results in choosing an approach suitable for aiding the decision in a given situation. Choosing a method along with the aiding process itself are done during the autonomous phase of the agent’s operation. Hence, only a single interaction with an analyst is required. Gathering decision alternatives descriptions, choosing an appropriate aiding technique, computations of the decision process resulting and finally drawing a recommendation are all automatic phases of the process. Analysis of historic data requires identifying dependencies between data. As a method of identifying dependencies, the frequent sets analysis, along with associations discovery using Apriori algorithm [7] were chosen. The APRIORI software [8], which was created and is developed at the University of Magdeburg was used. The algorithm of the mentioned software is included in the complex data-mining solution SPSS Clementine. Sample frequent sets which were discovered when analysed chosen positions from scientific literature are presented below. The numbers in parentheses are the support ratio and the absolute number of occurencies of the set. Sample frequent sets: • Method_1 K5_0 K8_0 K6_0 K3_1 K4_1 (14.3/3) • K7_1 K9_0 K5_0 K8_0 K3_1 K4_1 (19.0/4) • K9_0 K5_0 K8_0 K3_1 K4_1 (28.6/6) • K9_0 K5_0 K6_0 K3_1 K4_1 (28.6/6) • Method_1 K7_1 K9_0 K8_0 K4_1 (14.3/3) • Method_1 K7_1 K9_0 K6_0 K4_1 (14.3/3) • Method_1 K5_0 K6_0 K3_1 (19.0/4) • Method_1 K5_0 K6_0 K4_1 (28.6/6) • K4_0 K3_1 (19.0/4) • Method_3 K7_2 (14.3/3) Rules discovered with the identified frequent sets are encoded in the “conclusion <- deter- 140 Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF COOPERATION FROM ANALYST minants” form and a set of sample decision rules is presented below. Sample decision rules: • Method_1 <- K7_1 K5_0 K8_0 K6_0 K4_1 (9.5/2, 66.7) • Method_1 <- K7_1 K5_0 K6_0 K3_1 K4_1 (14.3/3, 75.0) • Method_3 <- K2_0 K6_0 K4_1 (14.3/3, 60.0) • Method_4 <- K9_1 K5_0 K8_0 (9.5/2, 66.7) • Method_1 <- K3_0 (14.3/3, 60.0) • Method_2 <- K8_1 K9_0 (9.5/2, 66.7) In the analysis the following encoding schema was utilised: literals are described as “name_value”, in example: “Method_1” means that the value “1” is assigned to the “Method” variable, and the literal “K3_1” describes assigning the value “1” to the determinant K3. The introduced approach eliminates the necessity of waiting for consultation of an analyst after descriptions of decision alternatives are gathered. The lack of the need of synchronising the decision process with an analyst’s schedule (the availability issue) results in time savings and cost cuts of the process. The Table 1 presents an analysis of applying the proposed approach in an economical organisation (an enterprise). The results of the analysis is presented as the SWOT table. Table 1 SWOT analysis of the agent for aiding decisions using context information Strengths • Lack of the necessity of waiting for a second interaction with an analyst • Automated choice of a multicriteria method allows to autonomous solving of a decision model • Possibility of performing calculations in a data source Opportunities • Text-mining analysis of documents accompanying the decision process would allow discovering decision alternatives from unstructured sources • Dispersed information sources would gain benefits from applying software agents • Formalised structure of management information in enterprises (ISO norms, widely applied data warehouses) allow to use existing information structures when defining decision situations (lower requirement for an analyst’s assistance) Weaknesses • Reasoning is reliable only for situations described in the knowledge base • Assistance of an analyst is still required in formalising the description of a decision situation • Requires structured form of descriptions of decision alternatives Threats • Data used to build the knowledge base may not fit to real operations of an organisation • Changes of the environment can depreciate the knowledge base The described approach allows to automate the task of choosing a multicriteria approach suitable for a given decision situation. Despite automating only a part of the decision process, such a task gives significant benefits in the time and the cost of the decision process. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 141 7. Literature 1. 2. 3. 4. 5. 6. 7. 8. B. Roy, Wielokryterialne wspomaganie decyzji, Wydawnictwa Naukowo-Techniczne, Warszawa, 1990. Y. Siskos, E. Grigoroudis and N. F. Matsatsinis, UTA Methods, Multiple Criteria Decision Analysis: State of the Art Surveys, 2005. S. Franklin and A. Graesser, Is It an agent, or just a program?: A taxonomy for autonomous agents, Intelligent Agents III Agent Theories, Architectures, and Languages, 1997, pp. 21-35. P. Vu Anh and A. Karmouch, Mobile software agents: an overview, Communications Magazine, IEEE, 36 (1998), pp. 26-37. T. Bui and J. Lee, An agent-based framework for building decision support systems, Decision Support Systems, 25 (1999), pp. 225-237. H. Chalupsky, Y. Gil, C. A. Knoblock, K. Lerman, J. Oh, D. V. Pynadath, T. A. Russ and M. Tambe, Electric Elves: Applying Agent Technology to Support Human Organizations, Proceedings of the Thirteenth Conference on Innovative Applications of Artificial Intelligence Conference, AAAI Press, 2001, pp. 51-58. C. Borgelt and R. Kruse, Induction of association rules: Apriori implementation, Proceedings of the 15th Conference on Computational Statistics (2002), pp. 395?400-395?400. http://www.borgelt.net/apriori.html. Ryszard Budziński Zbigniew Piotrowski Jarosław Wątróbski Instytut Systemów Informatycznych Wydział Informatyki Politechnika Szczecińska 71-210 Szczecin, ul. śołnierska 49 e-mail: [email protected] e-mail: [email protected] e-mail: [email protected] 142 Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski MODULE FOR MANAGEMENT OF STUDENT PAYMENTS ROBERT BUDZYŃSKI, ARKADIUSZ ORŁOWSKI, WALDEMAR KARWOWSKI SGGW Warszawa MODULE FOR MANAGEMENT OF STUDENT PAYMENTS Summary In the paper payments module of integrated software system, dedicated for the Bogdan Jański Academy, is described. The main aim is to show how payments module of the system was designed and implemented using only open source tools, and how module was integrated with commercial bank system. The first section describes importance of settlement of students accounts at non public university. In the next section general view of the Students Service System is presented with particular focus on module for management of student payments. Next technological issues are presented, chosen software tools for system development are listed. Moreover integration with Trans-Collect bank system is described and general equipment requirements. The fourth section includes description of user interface. At the end conclusions and remarks from system realization are presented. Keywords: information technology, information system, PostgreSQL 1. Introduction During the past decade scholarisation level has substantially grown in Poland. Students of non public universities have to pay for their study. Payment management is relatively simple when the number of students does not exceed a few hundreds what was exactly the case at the beginning of Bogdan Janski Academy. All ambiguities related to individual payments could directly be explained by involved students during simple visit in any accounts department. As the Academy grew up increasing the number of the external branches each branch had to posses its own account department. Such a situation was quite inconvenient generating additional costs. Now, thanks to a new information system, all external branches of the Janski Academy make use of one central accounts department. Students do not have to personally visit accounts department and do not have to provide any additional information to obtain, e.g. a certificate for military service, because all necessary information is already incorporated into the system. This dramatically shortened the time spent by students on removing burocratical obstacles and save a lot of work of administrative staff of the Academy. Before introducing the information system developed by one of the authors of the present paper the Academy actually purchased another system called Socrates. However, for some reasons it was not successfully implemented. We suspect that the reason for that was the failure of training process. It seems to us that the subsequent success of the system we described in the present article could be attributed to the multiple-stage methodology. The system was built in stages. After each phase any particular fragment of the system was implemented and discussed with the most interested staff of the Academy. The concentration on the most important features of the system enabled us to spend enough time to thoroughly consult the involved staff and prospective users POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 143 of the system. Thanks to such an interaction we could achieve desirable look and content of windows with menu commands and space for inserting data. Simplicity of windows reduce the necessity of training the staff. Picking up the browser as the software on the client side (well known to the average user) minimized time spent by professionals on helping users. 2. Students Service System Student Service System is a client-sever internet application with centralized database. It supports everyday work of BJA Dean Offices in 6 cities (Warszawa, Chełm, Kraków, Opole, Zabrze and Elbląg), but open architecture makes possible to deal with unlimited number of offices. Currently more than 8000 students data are managed trough the system, this number is limited only by capacity of hard drives. Server is located in Warszawa - BJA headquarter, client software consists of standard web browser, and as we mentioned earlier, access to the Internet is necessary. Whole system is built using technologies with open specification and free license. There are Java language together with servlets and Java Server Pages technology (JSP) used in Eclipse IDE. For presentation layer were used HTML, XML, XSLT, Apache Cocoon and XSP. As a database PostgreSQL was utilized with SQL language and its procedural extension plpgsql. On the server side Linux operating system is installed and database together with Cocoon engine run on it. Such tools are connected with limited financial resources for implementation but they turned out to be a very good and stable solution. Relational database supporting most popular standard – SQL, makes system open for integration with other systems and for future developing. Any authorized person can connect with database for reading and writing, adding new tables is easy. Internet browser is the simplest and cheapest user interface software, and in practice do not need upgrading if new versions of the system appear. Such solution with commonly used Internet connection, without dedicated private network and specialized client application, saves money but causes data security problem. Stored data are personal data and cannot be disclosure, additionally there are information connected with finances, unauthorized access could destroy whole academy activity. To solve problem, system supports users roles with assigned access to limited parts of the system, and strong data encoding are implemented. Authorization is performed with SSL protocol, all information about users like: name, position, role and level of privileges are stored in the database; user login and password are stored in encoded form. After user is logged on, new session is started which supports user identification during work with the system. If user finishes activity she/he should log out, but if after a defined time no action is performed log out is made automatically. Information about time of logging and user computer are registered in log file. Similarly most important operations like entering student, adding payments etc. are registered too, and they are possible to review only by administrator. We have to mention that students itself cannot use the system which is dedicated only to BJA staff, it is less comfortable for students but safety level is higher. Now we present software and hardware specification of Student Service System which is currently in use in BJA. We start with software. • Operating system: Linux Fedora Core 4. • Database: PostgreSQL version 8.0.7 • Servlet container - application server for Cocoon: Jetty 4.2.23 • Application platform: Cocoon 2.1.9 • Programming language: Java version 1.5.0 All software necessary for the system is available on GNU license and can be use without 144 Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski MODULE FOR MANAGEMENT OF STUDENT PAYMENTS payment. Because Java, PostgreSQL and Jetty can be installed not only on Linux platform it is possible to use other operation systems for example Microsoft Windows. Every software element can be installed on separate machine if bigger computing power will be needed. Current server configuration is the following (all mentioned parameters are recommended). • Processor – two processors Opteron 246. • Mainboard – TYAN Thunder K8WE • RAM – two pieces of 1GB 400MHz dual channnel DDR Kingstone • Hard drive - two 160GB Samsung SATAII (HD160JJ NCQ) • Recorder - DVD RAM • Power supplier - Termaltake W0049 PurePower 680W Recommended configuration of client Workstation - any working computer with internet browser (Firefox version 1.5.0 or above is recommended), Acrobat Reader (version 5.05) for viewing PDF files or MS Office package or OpenOffice – 2.0. General parameters of Student Service System. Number of system users: unlimited. Quantity of data stored in the database: limited only by hard drive capacity. Operation speed: almost all queries to the database in above configuration are performed in time less than 1 second, in practice operation speed depends on internet transfer. 3. Modules of Students Service System Student Service System offers set of functions important for effective Dean Office functionality. System has modularized architecture, it consists of many separate and relatively independent modules, such as Dean Office management, Documents, Reports, Support of financial accounting plan, Student data, Payments management, Student grants, Groups, Lecturers, Plans of study, and Schedule. On the figure 1. is presented general view of modules and dependency between them. Fig.1. System modules Source: Own preparation POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 145 We shortly characterize particular modules with special focus on module functionality. System was developing during three years, module after module. Dean office management is kind of supervising module which coordinates using of many other modules. First of them is student data module, it deals with student identification number, personal data, address and information about bank accounts. User using this module enters student data into system. Next we have Payments management, it is very important and historically whole system started from them. BJA is a nonpublic university and strongly depends on students fees, need of managing and clearing student accounts, lays at the beginning of application. At academy’s bank account, every student has its own subaccount for fee payments. Payments management module is integrated with bank system, and can stores dues and fees brings up to date every day. Module can export all student balances into accounting program. This module makes available presentation of delayed fees, additionally some corrections are possible to be done by hand. Following module is Student grants, it gives possibility to register grant proposals and after confirmation generates documents with grant payments for accounting department. Module is integrated with banking program Multicash which generates money transfers. Next group of modules are connected with didactic process. They were added to the system relatively late, when dean office workers realized that computer system can support their work not only with financial issues but can help in student groups management and lectures planning. Groups module gives possibility to attach students into particular group, and generates appropriate lists, protocols etc. Lecturers module consists professors and teaching assistants data together with connected information. Scheduling module enables planning courses timetable using defined courses template and is strictly connected with study plans. It makes possible verification if number of hours filled in schedule corresponds to number of hours from study plan. Plan of study includes a list of “study plan positions” that is a list of all courses with defined number of lectures and exercises hours for every semester together with additional information about exams (it may happen that course is continued trough two semesters with one final exam). Finally we have three independent modules. All reports are gathered in one module, there are defined several dozen of them, mainly for financial operations. Among others it includes reports for Government Statistical Office. Documents module makes possible for example generation of calls for payment. Support for financial accounting has functions for checking realization of didactic tasks by lecturers and many other functions. 4. Design and implementation of payments management module As we mentioned in the previous section Payments management module is most important and whole idea of the system started from it. Payments module is integrated with bank system interface called Trans-Collect. Payments data are imported from bank system and stored in the database. Process of checking fees is easy. System can trace automatically all student dues and fees then prepare reports and generate demands for delayed payments etc. Every document is prepared in Adobe Reader, Open Office or Microsoft Office format depending on user need. It is easy to read or print it. Payments management gives possibility to supervise fee payment process and export financial data to accounting application. Of course every module is strictly connected with a set of database tables. Tables connected with payments are presented on the figure 2. 146 Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski MODULE FOR MANAGEMENT OF STUDENT PAYMENTS . Fig. 2. Database tables connected with payments We have to note that every student has its own subaccount in BJA bank accounts which includes number of student book registration and digits connected with year of first registration, department and type of fee. Student subaccount number is generated according to NRB standard, algorithm was adopted to needs of BJA.. Parts of students subaccount number are presented on the figure 3. Such construction of subaccount number easies payment attachment to particular student, because part of the number is student identifier. Fig. 3. Method of student account generation POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 147 Generation process is implemented in plpgsql language and presented below: CREATE FUNCTION generuj_konto_bankowe(character varying, character varying, character varying, character varying) RETURNS character varying AS $_$ DECLARE numer varchar; id_o varchar; id_w varchar; rok varchar; indeks varchar; typ varchar; koncowka varchar; konto varchar; konto_ck varchar; wynik int4; a1 int8; a2 int8; a3 int8; a4 int8; ck int8; BEGIN konto='10600018'; typ='9'; koncowka='252100'; rok=$2; indeks=$1; select into id_o idc_oddzial from id_rachunku where oddzial=$3 and wydzial=$4; select into id_w idc_wydzial from id_rachunku where oddzial=$3 and wydzial=$4; konto_ck=id_o||id_w||rok||indeks||typ; if length(konto_ck)<>15 then return null; end if; wynik=0; for i in 1..15 loop if i%4=1 then wynik=wynik+int4(substring(konto_ck,i,1)); end if; if i%4=2 then wynik=wynik+int4(substring(konto_ck,i,1))*3; end if; if i%4=3 then wynik=wynik+int4(substring(konto_ck,i,1))*7; end if; if i%4=0 then wynik=wynik+int4(substring(konto_ck,i,1))*9; end if; end loop; wynik=wynik%10; numer=konto||konto_ck||wynik||koncowka; a1=int8(substring(numer,1,10)); a2=int8(substring(numer,11,8)); a3=int8(substring(numer,19,8)); a4=int8(substring(numer,27,4)); ck=98-(((((((a1%97)*100000000+a2)%97)*100000000+a3)%97)*10000+a4)%97); if ck<10 then numer='0'||ck||' '||konto||' '||id_o||' '||id_w||rok||indeks||typ||wynik; else numer=ck||' '||konto||' '||id_o||' '||id_w||rok||indeks||typ||wynik; end if; return numer; END; $_$ LANGUAGE plpgsql; Data supported trough Trans-Collect interface are imported as packages of all payments bo- 148 Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski MODULE FOR MANAGEMENT OF STUDENT PAYMENTS oked during previous day. To import file, dedicated user has to log on at bank web page using standard browser, and downloads it. This process is separated from the System, only dedicated user knows login and password for bank web page. Process is not done automatically from security reasons. Finally dedicated user imports file into Student Service System. Name of imported file is not precisely defined, but is unique, and consists of 8 digits and txt extension. First two digits are connected with department, next six represent date in YYMMDD format. System stores names of all previously downloaded files, it means that duplication is not allowed. Data received from bank are in text format with comma separated values, first line includes information about total sum of all payments and is used as verification checksum. Following lines contain individual payments. During importing mentioned checksum is verified. List of all payments files are available to review and data can be exported in MS Excel format if user needs it. 5. User Interface for Payments Module From the main window menu user can chose Payments module. After than user is moved to Students payments window. On that window it is possible searching of particular student, according to family name, PESEL number, BJA identification number or group. If wanted student is found, window with proper student information is displayed (see figure 4). User can generate proper document if needed or view plan of payments. Fig.4. Student payments window POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 149 In the window current balance is presented. Student balance is generated automatically when window is opened and it is one of the most important information for dean office staff. If student for example wants to stamp identity card or receive any document, non negative balance is necessary. Lack of positive balance causes sending demand for payment or ultimately removing permanent debtor from BJA.. By default only financial operations occurred during current academic year are displayed, but it is possible to display all historical financial data if needed. Of course if student wants information in paper form, dean office staff can easily print list of operations. System administrator generates every month debit list (figure 5.) because typically payments are made monthly. I everything is correct process is performed automatically, staff activity is needed only if payments are made yearly, one time at the beginning of the semester or if some incompatibility appears. Debit lists are exported to accounting system after 20 day of each month.. Fig.5. Window for debit generation 6. Concluding remarks The Students Service System is fully functional information system. Payments modules are first part of the system and have been working for 3 years. Whole system is in use one year. During that time, there were not bigger problems. More than 8000 students are registered in the system. Every day 51 registered staff members use system to perform their tasks. Functionality of the module has been changed several times to meet changing users expectations. As a result of payments module success, other modules were developed around it. Although system works perfectly there are still many new user demands. Module architecture is very helpful in regular updating of the system.. Tools and technologies used for system implementation proved to be very useful and flexible. Independent database makes data available to other applications through JDBC and ODBC what gives chance for other programmers to integrate with other systems. To 150 Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski MODULE FOR MANAGEMENT OF STUDENT PAYMENTS summarize, experience gained during the payments module of Students Service System project shows, that open source tools with proper system design, are possible to respond to user requirements. 7. Literature 1. 2. 3. 4. 5. Budzyński R., Budowa i wdroŜenie Systemu Obsługi Studenta w Szkole WyŜszej im. Bogdana Jańskiego. Master thesis (in Polish), Warszawa 2007. Cocoon website: http://cocoon.apache.org/ Ellis, S. (2006). Fedora Core 5 Installation Guide. From http://docs.fedoraproject.org /fedora-install-guide-en/fc5/ Fortis Bank Polska. (2007). IBAN. From http://www.fortisbank.com.pl/services/ planet/ PlanetFAQIBANPL.html PostgreSQL Global Development Group. (2007). PL/pgSQL - SQL Procedural Language. From http://www.postgresql.org/docs/7.4/interactive/plpgsql.html Robert Budzyński Arkadiusz Orłowski Waldemar Karwowski Katedra Informatyki Wydział Zastosowań Informatyki i Matematyki Szkoła Główna Gospodarstwa Wiejskiego 02-776 Warszawa, ul. Nowoursynowska 159 e-mail: [email protected] e-mail: [email protected] e-mail: [email protected] POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 151 ZBIGNIEW PIOTROWSKI, JAROSŁAW WĄTRÓBSKI Politechnika Szczecińska CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF A DECISION SITUATION Summary Decision situations are related to various aspects of operations in an organisation. Hence the content of information included in a decision maker’s expectations goes beyond defining criteria and setting a decision problematic. Finding a suitable approach is a task for an analyst who assists a decision maker in the decision process. The following paper synthesises premises used in analysing decision situations, which result in a choice of a multicriteria method to perform calculations. The concluded guidelines can be used as a vocabulary of analytical knowledge which allows to select a multicriteria method suitable for a given context of a decision situation. Keywords: information technology, internet usage, cluster analysis 1. Decision situations in operations of an economic organisation Managing an economic organisation is filled with reactive actions against external stimulae. System theory defines an organisation as an open system, which goal is to reach stability in the environment with destabilising influence of disrupting factors. Considering an organisation more detailed than using the „black-box” approach defined by the system theory, a system interconnected subsystems and business processes emerges. Each process consists of communicating actions, information processing and decisions. Decision situations exist in every business process and in almost every business procedure. Significant importance to decisions should be given in interactive processes, based on interaction with humans. The common trend of automating all economic operations (processes) covers only simple and repetitive tasks. Whereas, the mentioned tasks include decision situations, in most cases those decisions are well described and codified. Hence it is possible to encode them as a singlecriterion decision algorithm. Moreover, simple intra-procedural decisions are mostly binary (yes/no) decisions. A difficulty arises when a decision involves choosing or grading (ranking) a number of available alternatives. Such situations are encountered at the operational level, the tactical level as well as at the strategic level. Moreover, those situations are difficult to codify and to encode into an algorithm. Modelling decision processes in the mentioned situations is done by creating general guidelines for decisions and specifying desired outcomes of the implementation of a chosen decision. The decision process itself is a manual operation of a business process and a burden of carrying tasks included in the process is on a person responsible for executing a given instance of a process. 152 Zbigniew Piotrowski, Jarosław Wątróbski CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF A DECISION SITUATION 2. Expressing a decision situation as a criteria definition and a decision problematic A decision problem according to B. Roy’s definition [1] is a representation of an element of a global decision. The literature distinguishes a number of types of decision alternatives. In the context of this paper, the essential division is the division on realistic alternatives (corresponding to a project, which implementation is feasible) and on unrealistic alternatives (which can include contradictory goals and can be only used for the discussion). The difficulty when solving multicriteria decision problems is the requirement of including alternatives’ judgements (choice alternatives) from various points of view, which refers to multicriteria judgements [2]. According to the outline presented above, the definition of a decision problem consists of a two-elements set presented below: (C, Φ ) , where: C – a set of criteria, and Φ – a set of meta-data of a decision situation. The C set describes relations between properties of decision alternatives and preference levels of considered alternatives in respective aspects of consecutive elements of the description. The meta-data set consists of decision maker’s expectations about a decision situation. Determining decision criteria requires elaborating all properties of a desired post-implementation outcome of making the considered decision. An analytic task which is given to an analyst (an analyst and a decision makers states for roles and in practice can be assigned to a single person) is to reflect particular aspects of considered implementation on characteristics describing possible options (decision alternatives). The fundamental element of the meta-data set Φ is choice of a problematic of a decision situation according to the division proposed in [1]: a) problematic α – the choice problematic (finding a subset of the A set which includes only the best solutions), b) problematic β – the sorting problematic (assigning alternatives to defined categories), c) problematic γ – the ordering problematic (constructing a ranking of alternatives in the set A from the best one to the worst one). Fig. 3 Reference problematics (respectively choice α, ranking γ, and assignment β) in multicriteria decision aiding Source: based on [1] Determining a decision problematic is a very important, however not the only one determinant of a technique of carrying on the decision process. A problematic of a considered decision situation POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 153 depends on decision maker’s expectations for the process, as well as on characteristics of an analysed decision. The following sample contexts determining the decision problematic are described in [4]: comparison (prioritise) of various technologies of energy production – problematic γ, choice of an investment plan – problematic α, creating a set of projects – problematic β. 3. Participation of an analyst in determining meta-data of a decision situation Available tools for computer aided decision support are directed on calculating preference levels of considered decision alternatives using provided descriptions. Such an approach allows to automate only a part of the decision process. Applying multicriteria methods to analyse a decision situation requires making a deliberate choice of a method suitable for a given decision situation. The goal of the mentioned choice is to find the multicriteria transformation F which fulfils: F ( C , Φ ) → max u where u is an indicator of a decision maker’s satisfaction measured by his preferences. Choosing a multicriteria method suitable for a given decision problem is made by an analyst who uses his knowledge about the environment of the problem and about characteristics of multicriteria methods. Particularly, in the aggregation phase, the way of dealing with differences between attributes’ values is crucial. Nonetheless the impact of dispersion of those values on mutual preferences between decision alternatives shall not be neglected. The purpose of the exploitation phase is to make an representation of the global preference which is the outcome of a decision maker’s expectations (meta-data) and mutual local preferences between particular decision alternatives. 4. Premises of the reality considered when analysing a decision situation The environment of a decision situation is a factor which is not included in the decision process (a constant factor when compared to decision alternatives). The environment’s characteristics however, have impact on judgements of decision alternatives and on outlining the preferred alternatives. Particularly, factors connected with the completeness of the description of a decision situation included in a problem specification are the determinants of the mentioned completeness. An additional factor, which is important when choosing a suitable decision making approach, is the reality domain covering an analysed problem. Particular domains of decision situations are characterised by known dependencies among properties of actions and outcomes of their implementations. While researching guidelines for choosing a multicriteria approach for a decision situation, the paper focused on explanations provided by the scientific literature. The positions [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19] describe solving decision situations using one of the following methods: PROMETHEE I/II, TOPSIS, ELECTRE III or AHP. The use of multicriteria methods for considered problems and claims supporting choices made were analysed. The conclusions drawn after analysing the literature were used to determine the structure of contextual information, which was used to analyse impacts of particular factors. According to the mentioned above, a set of contextual determinants was created as the K set presented below: K = {K1 , K 2 , K 3 , K 4 , K 5 , K 6 , K 7 , K 8 , K 9 } , 154 Zbigniew Piotrowski, Jarosław Wątróbski CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF A DECISION SITUATION where: K1 - Category of the subject of a decision, describes whether a decision is about an object, an action or a localisation (nominal variable) K 2 - Discipline of a decision, describes whether a decision is described by technical, social or economic determinants (nominal variable) K 3 - Describes whether conflicting criteria exist in a decision situation (binary variable) K 4 - Describes whether criteria covers the whole picture of a decision situation (binary variable) K 5 - Describes a number of criteria (ordinal variable) K 6 - Describes a number of alternatives (ordinal variable) K 7 - Describes a decision maker’s awareness level of a decision situation (ordinal variable) K8 - Describes the scale of an analysed decision (ordinal variable) K 9 - The goal of a decision (nominal variable) It is suggested to consolidate the K set into the meta-data set Ф of a decision situation as an integral part of the decision process. The next step of the impact analysis of the outlined determinants was to discover significances of determinants in choosing a multicriteria method suitable for a given decision situation. 5. Impact of identifying environmental factors on the results of decision aiding Analysing the impact of the factors mentioned above was done using decision trees. The SAS Enterprise Miner software was used, and decision trees were induced using functions implemented into SAS Enterprise Miner. The entropy minimisation method was chosen. The following settings were used for inducing decision trees: • minimum number observations in a leaf: 2, • observations required for a split search: 10, • maximum number of branches from a node: 2 (binary tree), • splitting rules saved in each node: 5. The analysis was performed for two types of the output: choosing a multicriteria method and choosing a decision aiding “school” (as a property dividing methods in two classes). The results of the analysis for choosing a particular method are presented on the Fig. 4. The naming was aligned to the format required by the LaTeX document preparation system, and was done as follows: • $P_T$ - PROMETHEE I/II, • $T_P$ - TOPSIS, • $A_H$ - AHP, • $E_3$ - ELECTRE III. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 155 Fig. 4 Decision tree for choosing a method based on the context of a decision situation The correct classification rate for the decision tree choosing a multicriteria method equals 0,667. The induction process isolated the following subset of determinants which are sufficient in the aspect of the analysed process: K ' = {K 2 , K6 , K7 } . It turned out that important factors of the context of a decision situation are: a decision discipline, a number of alternatives, and a decision maker’s awareness level of a decision situation. Choosing a school of decision aiding is presented on the decision tree on the Fig. 5. Value 1 de- 156 Zbigniew Piotrowski, Jarosław Wątróbski CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF A DECISION SITUATION scribes an approach based on the European school (outranking approach) and the value 2 describes the American school (utility value approach). Fig. 5 Decision tree for choosing a decision aiding school based on a context of a decision situation The correct classification rate for the decision tree choosing a decision aiding school method equals 0,714. The induction process isolated a single determinant which is sufficient in the aspect of the analysed process. Therefore the selected subset contains a single element, which is presented below: K '' = { K 8 } . It turned out that the scale of an analysed decision is the only significant factor. 6. Guidelines for improving reliability of the decision process The paper proposes including the context of a decision situation in decision aiding tools. It was suggested to build a tool which would allow to define a set of parameters characterising environmental factors of a decision situation. A piece of software supporting multicriteria decisions was developed at the Szczecin University of Technology. The program allows to define not only criteria parameters, but also the meta-description of a decision situation. Users can define own properties (meta-properties) describing a decision situation., which are used to make an assessment of the meta-information of a decision situation. A sample screenshot of a control defining an environmental factor in the program’s dictionary is presented on the Fig. 6. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 157 Fig. 6 Definition of an environmental factor The defined set of parameters describes the context of a decision situation using a dictionary of acceptable values. Two approaches are possible when using information gathered in the process. The first approach is to collect learning information in order to build a set of decision rules. The second approach is to use context information to activate rules in the knowledge base in order to choose a multicriteria method which is the most suitable for a given decision situation. 6. Concluding remarks The choice of a multicriteria method based on the context of a decision situation allows to apply the same approach, which was used in the past with success. A chosen set of data gathered from scientific literature was used to discover four significant factors which are sufficient to describe suitability of a method to a decision situation. The isolated determinants are: • the discipline of a decision, • a number of alternatives, • a decision maker’s awareness level of a decision situation, 158 Zbigniew Piotrowski, Jarosław Wątróbski CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF A DECISION SITUATION • the scale of an analysed decision. The expected outcome of the program consists of marking methods suitable to solve a given decision situation. During the research it was observed that that the more appropriate approach is to indicate a set of methods which is supported by a significant number of observations (above a minimal level of support), along with the level of its support. The Fig. 7 shows the list of methods included in the software with the suitable method checked. Fig. 7 Choosing a multicriteria method to solve a decision problem It is crucial to notice that some methods don’t include the full set of input information, which can be specified by a decision maker. For example the TOPSIS method doesn’t account veto, preference and indifference thresholds. Hence, the research shall be continued on including a set of input information provided by a decision maker, in order to a better fir of a chosen multicriteria method to a given problem. Furthermore an available set of multicriteria methods should include a complete set of methods applied in situations which nature is similar to situations which are common in the organisation. Such an approach would allow making a choice of a method guided by real premises, not by limitations of available tools. 5. Literature 1. 2. 3. 4. 5. 6. B. Roy, The outranking approach and the foundations of ELECTRE methods, Theory and Decision, 31 (1991), pp. 49-73. C. E. Escobar-Toledo, The Use of Multicriteria Decision Aid System in the Information Technology (IT) Allocation Problem, European Journal of Operational Research, 5/2(2005). C. Araz and I. Ozkarahan, Supplier evaluation and management system for strategic sourcing based on a new multicriteria sorting procedure, International Journal of Production Economics, 106 (2007), pp. 585-606. J. P. Brans and P. Vincke, A PREFERENCE RANKING ORGANISATION METHOD, Management Science, 31 (1985), pp. 647-656. J. P. Brans, P. Vincke and B. Mareschal, How to select and how to rank projects: The PROMETHEE method, European Journal of Operational Research, 24 (1986), pp. 228238. J.-J. Wang and D.-L. Yang, Using a hybrid multi-criteria decision aid method for information systems outsourcing, Computers & Operations Research, 34 (2007), pp. 3691-3700. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 159 M. Goumas and V. Lygerou, An extension of the PROMETHEE method for decision making in fuzzy environment: Ranking of alternative energy exploitation projects, European Journal of Operational Research, 123 (2000), pp. 606-613. A. Kangas, J. Kangas and J. Pykaelaeinen, Outranking Methods As Tools in Strategic Natural Resources Planning, Silva Fennica, 35 (2001), pp. 215-227. G. Ozerol and E. Karasakal, A Parallel between Regret Theory and Outranking Methods for Multicriteria Decision Making Under Imprecise Information, Theory and Decision. R. Rao and J. Davim, A decision-making framework model for material selection using a combined multiple attribute decision-making method, The International Journal of Advanced Manufacturing Technology, 35 (2008), pp. 751-760. D.-F. Li, Compromise ratio method for fuzzy multi-attribute group decision making, Applied Soft Computing, 7 (2007), pp. 807-817. M.-T. Chu, J. Shyu, G.-H. Tzeng and R. Khosla, Comparison among three analytical methods for knowledge communities group-decision analysis, Expert Systems with Applications, 33 (2007), pp. 1011-1024. C.-C. Wei, C.-F. Chien and M.-J. J. Wang, An AHP-based approach to ERP system selection, International Journal of Production Economics, 96 (2005), pp. 47-62. C.-H. Cheng, K.-L. Yang and C.-L. Hwang, Evaluating attack helicopters by AHP based on linguistic variable weight, European Journal of Operational Research, 116 (1999), pp. 423-435. T. L. Saaty, How to make a decision: The analytic hierarchy process, European Journal of Operational Research, 48 (1990), pp. 9-26. T. L. Saaty, The Analytic Hierarchy and Analytic Network Processes for the Measurement of Intangible Criteria and for Decision-Making, Multiple Criteria Decision Analysis: State of the Art Surveys, 2005. M. r. Augusto, J. o. Lisboa, M. Yasin and J. R. Figueira, Benchmarking in a multiple criteria performance context: An application and a conceptual framework, European Journal of Operational Research, 184 (2008), pp. 244-254. J. Hokkanen and P. Salminen, ELECTRE III and IV Decision Aids in an Environmental Problem, Journal of Multi-Criteria Decision Analysis, 6 (1997), pp. 215-226. M. Augusto, J. Lisboa, M. Yasin and J. R. Figueira, Benchmarking in a multiple criteria performance context: An application and a conceptual framework, European Journal of Operational Research, 184 (2008), pp. 244-254. Zbigniew Piotrowski Jarosław Wątróbski Instytut Systemów Informatycznych Wydział Informatyki Politechnika Szczecińska 71-210 Szczecin ul. śołnierska 49 e-mail: [email protected] e-mail: [email protected] 160 Jacek Unold GENERIC ANALYSIS OF AN E-COMMERCE FIELD JACEK UNOLD Uniwersytet Ekonomiczny we Wrocławiu GENERIC ANALYSIS OF AN E-COMMERCE FIELD Summary Electronic commerce (EC) involves conducting transactions electronically. There are many different categories of EC, including B2B, B2C, C2C, collaborative commerce, etc. These different approaches are realized in different business models, e.g., “name your price”, “affiliate marketing”, etc. There are numerous benefits of EC to organizations, consumers, and society, which prove that EC is here to stay and cannot be ignored. There are some limitations of EC, as well, but, as time passes, they should diminish significantly. Keywords: electronic commerce (EC), e-business modeling, transactions typology 1. Introduction The world of business has been experiencing one of the most important and visible changes so far. This is a reflection of the move to the Internet-based society. The major concern of many companies today is how to transform themselves in order to take part in the digital economy, where electronic business is the norm. Electronic commerce describes the manner in which transactions tale place over networks, mostly the Internet. This paper revisits the notion and basic characteristics of electronic commerce, and points to the fact, that this new and dynamic phenomenon is the most recent and promising practical application in the area of human-computer interaction. 2. Definition and basic perspectives of electronic commerce Electronic commerce (EC) is a relatively new concept that describes the process of buying, selling, or exchanging products, services, and information via computer networks, including the Internet. The term commerce is defined as describing transactions conducted between business partners, so the term electronic commerce may be found to be fairly narrow. Thus, many use the term ebusiness, which refers to a broader definition of EC. E-business is not just buying and selling of goods and services, but also servicing customers, collaborating with business partners, and conducting electronic transactions within an organization. Usually, however, these two terms are used interchangeably. The form e-commerce can take depends on the degree of digitization of the product (service) sold, the process, and the delivery agent (or intermediary). These components can be physical or digital. Pure physical organizations are referred to as brick-and-mortar organizations, pure EC organizations are referred to as virtual organizations. Click-and-mortar organizations conduct some e-commerce activity, yet their primary business is done in the physical world. EC can be defined from different perspectives (Schneider 2006; Turban et al. 2006): POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 1. 2. 3. 4. 5. 6. 161 A communications perspective. EC is the delivery of goods, services, information or payments over computer networks or by any other electronic means. A business process perspective. EC is the application of technology toward the automation of business transactions and work flow. A service perspective. EC is a tool that addresses the desire of firms, consumers, and management to cut service costs while improving the quality of goods and increasing the speed of service delivery. An online perspective. EC provides the capability of buying and selling products and information over the Internet and other online services. A collaborations perspective. EC is a framework for inter- and intra-organizational collaboration. A community perspective. EC provides a gathering place for community members, to learn, transact, and collaborate. 3. Modeling e-commerce for business purposes Electronic commerce enables the creation of new business models. A business model is a method of doing business by which a company can generate revenue to sustain itself (Turban et al 2006, p. 6). There are many types of EC business models The following list includes some of the most common or visible models (Timmers 2001; Applegate 2001). Name your price. This model allows a buyer to set the price he is willing to pay for a specific product or service. Customers may submit several bids before they get the product. It was pioneered by Priceline.com, and most of Priceline.com’s products and services are travel-related. Find the best price. A consumer specifies his needs and then the company locates the lowest price for that service or product (e.g., hotwire.com). Dynamic brokering. In this model, customers can specify requirements and these are Webcasted to service providers in an automatic invitation to tender. Bids can be automatically offered, amended, and considered, all without any additional input from the customers (e.g., GetThere.com). Affiliate marketing. A marketing partner has an arrangement with a company to refer customers to the company’s Web site so that a customer can purchase a service or a product. The marketing partner receives a 3 to 15 percent commission on the purchase price. This is a virtual commissioned sales force (Amazon.com has close to 500,000 affiliates). Group purchasing. Discounts are usually available for quantity purchasing. In the concept of electronic aggregation a third party finds the individuals or small, medium size enterprises (SMEs), aggregates orders, and then negotiates for the best deal (e.g., aphs.com; etrana.com). Electronic tendering systems. Large buyers usually make their purchases through a tendering (bidding) system, which nowadays can be done online (e.g., gegxs.com). Online auctions. It was pioneered by eBay.com, and now there are several hundred other companies which conduct online auctions, including Amazon.com and Yahoo.com. Customization and personalization. Although these are not new models, what is new is the ability to quickly perform them at prices not much higher than their non-customized counterparts. Electronic marketplaces and exchanges. There were electronic marketplaces before, but they existed in isolated applications, like stock exchanges. Today there are thousands of them, and 162 Jacek Unold GENERIC ANALYSIS OF AN E-COMMERCE FIELD they introduce efficiencies to the marketplace. Of special interest are vertical marketplaces (vertical portals, vortals), which concentrate on one industry (e.g., e-steel.com). Supply chain improvers. The improvement of supply chain management is one of the main contributions of EC in the world of business. The initial analysis of the list above points to the main characteristics of business models for electronic commerce: • digitize as much as you can; eliminate paper and other physical transactions, • digitize at the beginning of the transaction process, • change the supply chain from a linear model to hub-based model, • aggregate many business partners into one place, • savings are in cost, cycle time, quality, and customer service (Turban et al. 2006, p.9). 4. Classification of the EC field The EC field is a comprehensive one, and it involves many activities, organizational units, and technologies. Successful EC implementation depends on five major areas: people, public policy, marketing and advertisement, business partners, and support services. These basic components are bonded by management (Shaw 1999). The most common classification of EC is by the nature of transaction. The following types of transactions are distinguished (Turban et al. 2006; Unold 2005): • business-to-business (B2B), which is the most EC today; • business-to-consumer (B2C), also called e-tailing, • consumer-to-consumer (C2C), e.g., individuals selling residential property, cars, and so on in classified ads, • people-to-people (P2P), which is a special type of C2C, where people exchange CDs, videos, software etc. (e.g., napster.com), • consumer-to-business (C2B), e.g., Priceline.com, • intra-business (organizational) EC, including all internal organizational activities, usually performed on intranets or corporate portals, • business-to-employees (B2E), a subset of intra-business category, where the organization delivers services, information, or products to individual employees, • government-to-citizens (G2C) and to others, • exchange-to-exchange (E2E), a formal system that connects exchanges, • collaborative commerce (c-commerce), an application of inter-organizational information systems (IOS) for electronic collaboration between business partners and between organizational employees, • mobile commerce (m-commerce), electronic commerce in a wireless environment. As an example of the phenomenal growth of the volume of transactions in cyberspace, in 2007 Canadian people spent 62.7 billion dollars online - 62 % in B2B and 32 to 38 % in B2C. This is 26 percent increase over the preceding year (Canadian 2008). 5. The benefits of EC Many potential benefits of EC to organizations, individuals, and society, result from the global nature of the technology, its interactive nature, the variety of possibilities for its use, the POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 163 resourcefulness and rapid growth of its supporting infrastructures, especially the Web. According to Clinton and Gore (1997) the EC revolution is just as profound as the change that came with the industrial revolution. Turban et al. (2006) list some of the major benefits of EC to organizations. Electronic commerce expands the marketplace to national and international markets. A company can easily, quickly, and with minimal capital outlay, locate more customers, the best suppliers, and the best business partners worldwide. For example, online retail powerhouse Amazon posted a strong first quarter of earnings. For the quarter ending March 31, 2008, Amazon reported $4.13 billion in net revenue, toward the high end of its own guidance and ahead of analysts' consensus of $4.08 billion. Quarterly revenue was a 37 percent jump from the same period a year before (Corbin 2008). EC decreases the cost of creating, processing, distributing, storing, and retrieving paper-based information. By introducing an electronic procurement system, a company can cut purchasing administrative costs by as much as 85 percent. EC can minimize supply chain inefficiencies (excessive inventories or delivery delays). This benefit is based on the concept of pull-type production, which begins when an order is placed. The approach mentioned above allows for inexpensive customization of products and services and provides a competitive advantage for a company (e.g., a pull-type processing applied successfully by Dell Computer Corp.). EC allows for the introduction of many innovative business models that provide strategic advantages and increase profits. EC allows for a high degree of specialization that is not economically feasible in the physical world. EC reduces the time between the outlay of capital and the receipt of products and services. EC lowers telecommunications costs. EC enables efficient e-procurement that can reduce administrative costs by 80 percent, reducing purchasing prices by 5 to 15 percent, and reducing cycle time by more than 50 percent. There are many other examples of savings. It costs a bank $1.08 to perform a simple teller transaction at a branch. On the Web, the same transaction costs only $0.10. The cost of issuing an airline ticket on the Web is $1, whereas with a physical system the transaction costs $8. EC promotes better CRM and increases customer loyalty by enabling companies to interact more closely with customers. Turban et al. (2006) identify basic benefits of EC to consumers, as well. EC allows consumers to perform transactions 24/7 and year round, from any location. EC provides consumers with much more choices, and in some cases, especially with digitized products, allows for quick delivery. EC provides consumers with less expensive products and services by allowing them to shop in many places and conduct quick comparisons. They can locate relevant and detailed product information in seconds, rather than days or weeks. EC enables the participation in virtual auctions. EC allows customers to interact with other customers in electronic communities, exchange ideas, and compare experiences. EC facilitates competition, which results in substantially lower prices. Basic benefits to society, according to Turban et al. (2006), are also significant. More individu- 164 Jacek Unold GENERIC ANALYSIS OF AN E-COMMERCE FIELD als can work at home. Some merchandise can be sold at lower prices, allowing less affluent people to buy more and increase their standard of living. People in less developed countries and rural areas have access to products and services that otherwise are unavailable. Of special importance is the access to distant learning. Public services can be delivered at a reduced cost and improved quality. Other benefits include (What 2008): • Instant product updates, including descriptions and pricing • 24-hour store visibility to anyone with an Internet connection • Large portals enable large product bases, manufacturers and prices • Search utilities far surpasses the speed used to find products through catalogs • Encourages competition between small and large online retailers 6. The limitations of EC Major limitations of EC belong to two main groups: technical and nontechnical. Technical limitations have many aspects (Turban et al. 2006). One of the issues is that system security, reliability, standards, are still evolving. So are software development tools. In many areas, telecommunications bandwidths are insufficient. Very often it is difficult to integrate the Internet and EC software with some existing applications and databases. Vendors may need special Web servers, network servers, and other infrastructure developments. Some EC software might not fit with some hardware, or it may be incompatible with certain operating systems or components. Turban also identifies main nontechnical limitations of EC. Internet access is still expensive and inconvenient for many potential customers. The cost of developing EC in-house can be very high and mistakes made due to lack of experience may result in delays. As a discipline, EC is still evolving and changing rapidly. EC does not have enough support services. Many legal issues are as yet unresolved. As a result, many people are looking for EC to stabilize before they enter into it. Customers think the issues of security and privacy are very important. At the same time, customers do not trust an unknown, faceless seller, paperless transactions, and e-money. The EC sector has a difficult task of convincing customers that online transactions are, in fact, very secure. There are other psychological issues involved. Some customers like to touch items, so they know exactly what they are buying. Some people fear that as EC reduces face-to-face social interactions, there could be a breakdown in human relationships. In many areas there is not enough critical mass for EC to be successful, there may be not enough sellers and buyers for profitable EC operations in many areas. 7. Conclusions The driving forces of EC are multidimensional. Market (economics), technological, and societal pressures force organizations to respond to new business pressures. Traditional responses may not be sufficient because of the magnitude of the pressures and the frequent changes involved. Therefore, organizations must innovate and reengineer their operations. In many cases, EC is the major facilitator of those organizational responses. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 165 Electronic commerce, which involves conducting transactions electronically, is the most recent and cutting-edge application within the area of human-computer interaction. Electronic marketplaces, called marketspaces, allow for the selling and buying of products electronically, which can be realized in many different modes, B2B, B2C, C2C, etc. The applications of EC, and there are many of them, are based on infrastructures and supported by people, public policies, technical standards, advertising, logistics, and business partners – all bonded by proper management. There are still some limitations of EC, and they can be categorized as technological and nontechnological. As time passes, these barriers should have less and less meaning, as capacity, security, accessibility continue to improve through technological innovations. On the other hand, there are numerous benefits of EC to organizations, consumers, and society. Because these benefits are substantial, it proves that EC is here to stay and cannot be ignored. 8. Literature 1. Applegate L., M., E-business Models, in: Information Technology for the Future Enterprise, ed. G. W. Dickson and G. DeSanctis, Prentice Hall, Upper Saddle River, 2001. 2. Canadian e-commerce: bashful steps ahead (2008). [In:] E-Commerce Journal, www.ecommerce-journal.com/news/canadian_e_commerce_bashful_steps_ahead, retrieved May 28, 2008. 3. Clinton W.,J., Gore A, A Framework for Global Electronic Commerce, iitf.nist.gov/eleccomm/ecomm.htm, 1997. 4. Corbin K.: Amazon Tops Expectations on Soaring Sales. In: InternetNews.Com. http://www.internetnews.com/bus-news/article.php/3742706/Amazon+Tops+ Expectations +on+Soaring+Sales.htm Retrieved May 28, 2008.. 5. Schneider G., Electronic Commerce, Course Technology, 2006. 6. Schaw M., J., Electronic Commerce: Review of Critical Research Issues, “Information Systems Frontiers” no. 1, 1999. 7. Timmers P., Electronic Commerce, Wiley, New York, 2001 8. Turban E., King D., Lee J., Warkentin M., Chung H.M., Electronic Commerce: A Managerial Perspective. Prentice Hall, 2006. 9. Unold J., Marketing Information Systems (in Polish). The Wroclaw University of Economics Press, Wroclaw, 2005. 10. What are the benefits and limitations of E-commerce? [In:] Aplus.net Knowledge Base: http://www.apluskb.com/scripts/What_are_the_Benefits_and_answer709.html, Retrieved May 28, 2008. Jacek Unold Uniwersytet Ekonomiczny 50-345 Wroclaw ul. Komandorska 118/120 [email protected] 166 Jacek Winiarski COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS IN IT PROJECTS JACEK WINIARSKI Uniwersytet Gdański COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS IN IT PROJECTS Summary The paper is targeted at the comparative analysis of practical applications of risk assessment methods of projects in IT industry. The study was based on an IT Project comprising 349 activities, wherein 8 were selected which were the most likely not to comply with the scheduled time, scope and budget resources. Next, four techniques were described and apply to provide the assessment of the same part of the project: 2x2 Matrix Method, Probability and Effects Matrix Method, Heeg’s Method, Failure Mode Effects Analysis. The obtained results were discussed and on the basis thereof, conclusion were formulated to select the method depending on the specificity of an IT Project. Keywords: IT projects, risk management, risk assessment techniques 1. Introduction IT projects implementation as described in software development methodologies is usually distributed into several stages. It begins with requirements specifications and ends with operation and maintenance of the implemented product [1]. Throughout the course of software development cycle the events affecting its course may take place. In practice, they are described by probability of their occurrence and the potential scope of damage they may create in the implemented project. The product of these quantities is defined as the risk measure [3]. It is used for forecasting negative impacts on the course of the implemented individual activities within the task or the entire project. Project management is the approach oriented at the accomplishment of the set objectives within the assumed time and budget [4]. It is an art of maintaining the project failure risk at a possible lowest level throughout the entire project cycle. Risk management is one of many elements of the project management process. In principle, it is distributed into the following stages [2]: identification and distribution of risk sources, identification of exposed project tasks, risk assessment, planning of response to the risk and risk and risk monitoring in the course of project implementation. 2. Failures in implementation of IT projects There are scores of institutions acting in the field of risk analysis in IT projects. These are mainly academic centres but there are also many organizations associating experts with know-how. One of the most often cited publications are reports called The CHAOS Chronicles, published regularly by The Standish Group International, an American institution dealing with monitoring of IT projects implemented in the USA. The analysis of documents published on the Web fosters detailed specification of the results of IT projects monitoring in the form of statistics. According to the data publish on The Standish Group International web pages, approximately POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 167 2/3 of IT projects fail to end in a full success. Throughout their implementation (according to the statistics in every second project), there are deviations from time schedule or budget assumptions, failure to develop all the designed functions of the programme or abandonment of the entire project. The main objective of the risk assessment at the planning and implementation stages of IT projects is to reduce the number of projects which are likely to exceed the scheduled resources or be eventually terminated [9]. The risk assessment techniques presented in the paper compel the IT Project Managers to continuously update the information on potential hazards. One of the frequent mistakes made by IT Project Managers is to assume that the risk of successful accomplishment of the project remains the same throughout the entire project of its implementation [6]. It is to the contrary. The risk is incessantly variable, thus constant monitoring as per a carefully designed schedule is of essence. As shown in practice, the meticulousness and thoroughness of the risk assessment contribute considerably to the end success of the project. 3. Characteristics of the selected IT project The study was based on a project of system development aimed at servicing the Lending Library of Higher Education School. The undertaking in question was designed as a set of 349 tasks to be carried out by a group of 5 IT Specialists within 64 days. The accomplished and implemented software is to facilitate students’ access to the book catalogue by means of web browsers. Table 1. Selected risk-prone projects tasks ID Probability of non-compliance with the scheduled resources Implementation costs [PLN] 0,4 4500 3 days 30 days 5 days 10 days 30 minutes 10 days 0,3 0,5 0,6 0,5 800 10 300 4 400 7 300 0,3 500 0,3 5 500 2 days 0,2 4 800 Task name: Duration 14 days 43 52 67 104 Requirements Specification Definition of classes Code development Code testing Code adjustment 109 Software installation 40 110 111 Preparation of user documentation User training Source: own computations The detailed comparative analyses were based on eight tasks from the entire project exposed to the risk of failure, taking into account the scheduled time, scope and budget (Table 1). 4. Examples of application of risk assessment techniques in the selected IT Project – case study The popular risk assessment methods applied to IT Projects comprise: 2x2 matrix method, probability and effects matrix method, Heeg’s method, failure Analysis of failure effects. Less popular techniques encompass: sensitivity analysis, spot techniques, probability analysis (using e.g. Monte Carlo simulation), flow diagrams (e.g. critical path analysis) or decision tree analysis 168 Jacek Winiarski COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS IN IT PROJECTS (e.g. PERT, VERT, GERT analyses). 4.1 2x2 Matrix Method One of the primary tools fostering risk management process in project works is the so-called 2x2 matrix. It defines risk as the probability function for the occurrence of harmful event and the effect thereof [7]. Table 2. Risk assessment using 2x2 Matrix method Impact Probability Large Small Small Large Quarter 1 Quarter 2 Quarter 3 Quarter 1 40’ 40 40’’ Source: own computations 2x2 Matrix should be completed following the previous identification of potential hazards and preparation of the list thereof. Next, they are filled (depending on the probability of occurrence and the scope of potential loss they may cause) in their respective matrix quarters. The parts of the table specify [2]: • Quarter 1 represents the area of hazards of high probability of occurrence and inconsiderable negative effects for the project, • Quarter 2 represents the area of hazards of high probability of occurrence and simultaneously substantial negative effects for the project implementation process, • Quarter 3 represents the area of hazards of small probability of occurrence and inconsiderable negative effects for the project implementation process. This is the least risk-prone area. • Quarter 4 represents the area of hazards of small probability of occurrence and considerable negative effects for the project, If the 2x2 table is not completed with hazards but with the tasks exposed to the risk of noncompliance with the scheduled resources, then after the analysis of the possibility of reallocation thereof along the directions recommended by the technique in question, precautions will be developed with the view of diminishing the risk for the accomplishment of particular tasks and thus the entire project. Task 40 – requirements specification was placed in the 2nd quarter by the project risk manager. Next, the Project Manger suggested that Task 40 should be performed in compliance with the forms adopted in PRINCE2 method. The suggestion caused the task to be moved to the first quarter 40’ (prim variant). Next, another Project Manager decided to carry out additional audit of the prepared requirements specification by an external expert. This decision caused the task 40’’ to be moved to the third quarter 40’ (bis variant). All project tasks may be examined individually in the same manner. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 169 4.2 Method of Matrix of probability and effects Another more complex tool is the so-called matrix of probability and effects. It is an elaboration of the 2x2 matrix concept. It is more detailed as far as the probability of estimates and the effects of hazard occurrence are concerned. Like previously, particular hazards are filled in the respective fields in the extended version of the table. After all hazards identified in the project have been filled, preventive measures are designed to eliminate the risk sources allocated in the second quarter [2]. The ultimate objective of the risk management process is the reallocation of the most probable and most perilous hazards top other areas of the matrix. The measures provide the basis for the risk management in the project planning process. The table used for the method in question may upon its modification serve for calculation of the measurable total scope of project risk. The aforesaid modification provides for allocation to particular cells of hazard weights representing the scope of probability of occurrence of a given hazard and the potential effects thereof (Table 3). Each identified hazard, which may occur during performance of the project shall be allocated to particular cells of the table. As a next step, the weight of a given cell should be multiplied by the number of hazards allocated thereto and sum up all the achieved numbers. The sum shall be divided by the total number of hazards in the analysed project. The end result is a measurable quantity of the total project risk. Table 3. Risk Assessment Method of Matrix of Probability and Effects Probability Minimal Extremely high (0.8 – 1) 43 Low (0.2 – 0.4) Extremely low (0 – 0.2) Effects Minimal Minimal 67 (8,0) Minimal (7,0) (8,0) (5,0) (7,0) (3,0) (4,0) (5,0) (1,5) (3,0) (4,0) 40 (2,0) (3,5) 52’ High (0.6 – 0.8) Average (0.4 – 0.6) Minimal (1,5) 43’ (1,2) 40’, 104’ (1,0) 110’,109’, 111’ (0,5) (2,0) 67’ (1,8) 110, 109 (1,5) 111 (1,0) (7,0) 52 (5,0) 104 (4,0) (9,0) Source: own computations With respect to the project, the entire introductory risk of the project was 3.31. After the preventive measures have been recommended and applied, the total project-related risk was reduced to 1. The presented example, like 2x2 matrix method was based on the study of risk-prone tasks and not the tasks themselves. 4.3 Heeg’s method The method recommended by Heeg in [2] comprises three stages. These include: • risk identification, • risk assessment, • selection. The presented method is based on the identification of project-specific hazards. According to 170 Jacek Winiarski COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS IN IT PROJECTS the author of the method, the risk sources may be the identified in several ways. One of the commonly used techniques is the analysis of task packages described by means of e.g. Work Breakdown Structure - WBS. It may be presented in the form of a table 4. Table 4. Risk assessment using Heeg’s method ID 40 43 52 67 10 4 10 9 11 0 11 1 Probability of occurrence Costs of neutralization [PLN] Probable costs [PLN] Task name Potential risks Requirements Specification Definition of classes Code development Code testing Omission of required functionalities Incomplete classes Syntactic errors Data transfer errors 0,4 8000 3200 0,2 0,01 0,3 1000 500 4000 200 5 1200 Code adjustment Semantic errors 0,04 300 12 Software installation Incompatibility 0,1 2000 200 Preparation of user documentation Deadline 0,01 3000 30 User training Deadline 0,01 1500 15 Source: own computations Following identification of the risk-prone tasks and detailed specification of potential risk sources, which may affect the implementation process, it is necessary to determine the probability of occurrence of detailed hazards (Table 4, Column 4). Next, the planned costs related to elimination of potential losses are to be estimated (Table 4, Column 5). The last column of Table 4 comprises probable costs i.e. product of probability and foreseen costs of loss compensation (Table 4, Columns 4 and 5). Thus computed quantities of probable costs must be sorted in descending order and the group of tasks for which the sum of quantities in Column 4 Table 4 will be 75% of the total probable costs of the analysed project [2] must be specified (starting from the highest values). In the example in question, these include tasks 40 and 67 (amounting to 90.5% of the total costs). Thus identified set of task groups shall be given a particular attention from the Project Managers. The possibility to undertake protective measures for these groups must be taken into consideration. The sum of total probable costs shall be 4862 PLN. 4.4 Failure Mode Effect Analysis Failure mode effect analysis was proposed by Maylor and described in [1]. This method analyzes three parameters describing all tasks within the project. Each of these parameters must be expresses as a number on a scale from 0 to 10. The author adopts one point scale for all parameters. The requested quantities include: • meaning of failure of implementation of a given task (failure), • probability failure oversight, POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 171 • probability of failure occurrence during performance of a particular task. Each of the parameters must be examined individually. The objective of the presented analysis is to calculate a given total risk task constituting a function dependant on the aforementioned parameters. The risk is calculated on the basis of the following dependence: Risk = failure significance * probability of failure omission * probability of failure occurrence The higher the risk values, the more serious hazard is related to a particular task. With respect to activities exposed to the highest risk, additional measures alleviating potential losses should be proposed. Table 5. Risk Assessment Through Failure Effects Analysis ID 40 43 52 67 104 109 110 111 Task name Requirements Specification Definition of classes Code development Code testing Code adjustment Software installation Preparation of user documentation User training Failure significance Probability of failure oversight Probability of failure occurrence Risk 8 3 4 96 3 2 3 18 7 8 7 1 2 2 5 6 5 35 96 70 5 1 3 15 4 7 3 83 5 1 2 10 Source: own computations For each task examined in the project by Failure Mode Effect Analysis, two additional parameters must be provided. These include: failure significance and failure oversight probability. Having performed the calculations illustrated in Table 5, one may discern that the highest risk pertains to tasks 40 and 67, while the least to the tasks no. 109 and 18. The total project risk is the sum of values in the last column, which is 423. 5. Comparative analysis of applications of risk measurement methods in IT projects Applications of the results obtained by means of 2x2 Matrix Method are not vast. This method is suitable for presentation of risk mitigation issues, since it clearly illustrates the required trends of preventive measures. IT project risk assessment based on this method may occur vague, general and eventually not yielding satisfactory results for the Managers. The concept of 2x2 matrix is focusing on risks, not the risk-prone tasks, which definitely affects the profile of the analyses being carried out. 2x2 matrix does not allow risk quantification, with respect either to a part or the entire project. This technique is an easy-to-use tool for risk assessment in small projects. Its application supports the strategy of compensating potential effects of identified risks. If 2x2 matrix is completed with risk-prone tasks instead of identified risks, then after the main 172 Jacek Winiarski COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS IN IT PROJECTS assumptions of the method have been applied, the effect of its use shall consist in development of preventive measures plan targeted at reduction of risks for individual tasks, hence for the entire project. Thus applied 2x2 matrix method will facilitate the assessment of the proposed preventive measures (after twice risk quantity measurement, before and after the preventive measures have been taken). Those who wish to use this technique shall be good experts in risk management, as this technique is based on the intuition, which determinant for the usability of the obtained results. Probability and effects matrix is the extended version of 2x2 matrix method. It has two advantages, which differentiate it significantly from the original pattern. One advantage is the fact that it fosters calculation of risk for individual tasks, task groups or the entire project, before and after the preventive measures have been taken. The other advantage is the clarity of results, not only for small but also for medium-sized IT projects. Heeg’s method is the first from among the presented techniques, which assigns individual risks to the planned project tasks. Each of the tasks may be assigned more than one risk. This technique requires specification of the probability of occurrence of all identified risks. It is an interesting parameter, since within the framework of the risk definition another quantity is searched for, which is the probability of task non-performance [5]. In Heeg’s method it is indispensable to specify potential costs of the reduction of effects of the identified risk occurrence. In practice, both quantities are identified on the basis of experience and intuition of the researchers. The method facilitates a detailed identification and analysis of risk sources, which may occur during the implementation of the project. By means of these method, the sources may be easily identified and assigned to particular tasks. This possibility is an essential advantage of the method in question. Unfortunately, this method also employs heuristic quantities in final risk assessment. In failure mode effects analysis it is necessary to specify further parameters. These parameters are not required in any other risk assessment techniques. It is indispensable to determine: failure significance, failure oversight probability as well as failure occurrence probability. The last parameter is identical to the scope of risk of a non-performed task taking into consideration scheduled time resources, scope and budget. The person managing the risk must express all these values on a scale from 0 to 10. Failure mode effects analysis does not employ mathematical tools facilitating objectivity of data use for calculations. Like the aforementioned methods, the values used are based on the intuition. It will prove, however, in comparative analyses. From among the presented methods, this one allows the largest number of details to be used in the study. It occurs that Managers value the possibility of taking into account the probability of failure oversight. Failure mode effects analysis may be easily used for the risk assessment in large and middle-sized IT projects. POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 173 Table 6. Comparative applications of risk assessment applications IT projects Easiness of application Time involvement Precision Usability 2x2 Matrix Method Method of Matrix of Probability and Effects Heeg’s Method Failure Mode Effect Analysis Duration of implementation Method name Results Costs Required resources l l l l s s s s e e m d s m h m l m m h l m h h Key: low (l), medium (m), high (h), short (s), easy (e), difficult (d) Source: own computations 6. Summary The paper depicted four methods of risk assessment methods applied in IT projects implementation. The same part of the IT project was examined through a comparative analysis. The obtained results foster concept that matrix techniques focus predominantly on the analysis of identified risks. They only indirectly examine the project tasks, for which it is probable, not comply with the scheduled time resources, scope or budget. As a consequence, although these methods mark out the directions of preventive measures aimed at reduction of the risk, they seem not to be useful for large or complex IT projects. They are suitable for rough analyses in small projects. Further two methods foster a more detailed risk assessment. Based on the identified potential risks assigned to particular project tasks, Heeg’s Method specifies probable costs, the company will have to incur in case of an anticipated risk. This project does not foster total risk calculation. This technique is suitable for comparative analyses for several variants of implementation of the same task, while it is not appropriate for the entire IT projects. The last presented technique – Failure Mode Effect Analysis introduces two additional (crucial) parameters: failure significance and failure oversight probability. Thanks to these parameters, the method enables calculation of risk for implementation of all individual tasks as well as the entire project. This technique is commonly used in IT project risk management as the calculations involving two new parameters are very useful. The Project Manager’s ultimate decision on the choice of the method for risk assessment in planning and implementation of an IT project will depends first and foremost on the specificity of project requirements (scope and innovativeness), funds and selected implementation methods. 174 Jacek Winiarski COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS IN IT PROJECTS 7. Literature 1. Chapman Ch., Ward S. (1997): Project risk management processes, techniques and insights, J Wiley & Sons, Chichester. 2. Chong Y,Y, Brown M.E. (2001): Zarządzanie ryzykiem projektu, Oficyna Ekonomiczna, Dom wydawniczy ABC, Kraków. 3. Frączkowski K. (2003): Zarządzanie projektem informatycznym, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław. 4. Kaczmarek T.T. (2005): Ryzyko i zarządzanie ryzykiem. Ujęcie interdyscyplinarne, Difin, Warszawa. 5. Knight F. (1933): Risk, uncertainty and profit, London. 6. Pańkowska M. (2001): Zarządzanie zasobami informatycznymi, Difin, Warszawa. 7. Pritchard C.L. (2002): Zarządzanie ryzykiem w projektach. Teoria i praktyka, WIG – PRESS, Warszawa. 8. Stabryła A. (2006): Zarządzanie projektami ekonomicznymi i organizacyjnymi, Wydawnictwo Naukowe PWN, Warszawa. 9. Szyjewski Z. (2004): Metodyki zarządzania projektami informatycznymi, Wydawnictwo PLACET, Warszawa. 10. Winiarski J. (2007): Analiza metod zarządzania ryzykiem w pracach projektowych z dziedziny informatyki, Pieniądze i Więź, Nr 2 (35), Gdańsk. Jacek Winiarski Uniwersytet Gdański 81-824 Sopot, ul. Armii Krajowej 119/121 e-mail: [email protected] http://ekonom.ug.gda.pl/ POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 175 MACIEJ ADAMSKI Uniwersytet Kazimierza Wielkiego w Bydgoszczy SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION Summary The paper constitutes a proposal for quantitative research method in investigating culture change. The proposal outlines steps to be taken in order to assess source usefulness: Identifying categories in culture studies, creating lists of source availability, listing representation of sources, deciding on source usefulness, further research or supplementary data collection. Keywords: car culture, knowledge management, quantitative methods in culture research 1. Introduction Throughout the recent centuries culture has been shaped not only by non-material phenomena and achievements of artistic nature but also by products of human inventiveness and science. The examples of the process are cars and computers that made a huge impact on the development of civilisation. Car culture is one of the particular notions that gave way to research in many countries. The context of knowledge creation constitutes a promising environment for material culture exploration. The aim of this paper is to propose the method for author’s classification and categorisation of literature concerning the influence of motoring on culture change in the UK obtained so far. The question of knowledge importance and its prospects in business and social life have been thoroughly investigated beginning from classical concepts of knowledge proposed as early as in ancient times and most recent implementations of knowledge management at enterprises (Drelichowski 2004). The presentation of the whole research problem in knowledge environment has been proposed at the conference of the Polish Association for Knowledge Management (Adamski 2008). Car culture has been defined from different perspectives. Car culture studies include general considerations concerning the phenomenon of car in modern societies (Gierczak 1994), particular aspects of culture where a car is a dominant motif (Thoms, Holdem, Claydon 1998) , (Wollen, Kerr 2002). Besides, modern car research includes also proposals for car culture research (Miller 2001 in: Miller 2001). In general, a car has become an indispensable element of our everyday life. Regardless of the place around the world, a car is primarily perceived as the means of transport. Cars replace even public transport in such a way that buses or trains journeys are cancelled. However, by the increase in car use, the traffic is heavier and some roads are almost always jammed. But a car gives a chance for comfortable, independent travelling and moving in the space according to personal preferences, plans, schedules. Travelling by car gives a possibility of arranging travelling time, direction or company at own discretion the only limitation lying in the load of belongings one can carry in the car. A car can be compared to a silent servant and friend being an aide in daily chores. In broader terms, a car is an element of architecture and organizes the space around us. On the other hand, analogies were drawn to show that cars as examples of 176 Maciej Adamski SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION mobile architecture may serve as a model for erecting immovable components of architecture – buildings. Another question of the car phenomenon in our contemporaries concerns personal emotions connected with the “automotive life”. It is said that physical and emotional distances between people travelling together in one car are shortened. Moreover, car travelling is connected with sensual perceptions of pleasure, danger, let alone sensual media of sight (visual perception of the interior, road, et), sense of hearing (perception of sounds coming from the mechanical parts or from the traffic), sense of smell (the smell of interior or petrol). What is more, a car is an extension of home. Car as such is not only an extension but also may be called a satellite of home. Care directed towards car’s technical condition, long journeys taken in some countries and a strong emotional tie with the family car resemble such relations to a considerable extent. Car use is also related with compensation feelings (travelling to the country compensates urban inconveniencies). Finally the need for speed and freedom are embodied by cars and fast travelling. The feelings connected with pleasure or discomfort connected with speed vary from one person to another (Gierczak 1994). The classification of human activity and social processes, works art, gender roles are visible in the collections of essays devoted to car cultures. Researchers, very often from different countries, present particular aspects of car impact on societies, i.e. impressions from German car production plant, motoring in the Soviet Union or car use in Havana(Wollen, Kerr 2002). Motoring in Britain in humanistic aspect has been explored by O’Connell (1998) but only in the period of 1896-1939. The subject of the monograph is the role a car played in shaping British society in the 20th century. The author concentrates on the interrelation between car, motoring and gender. Popular culture connected with cars in Britain was explored in a collection of essays (Thoms, Holdem, Claydon 1998). Researchers focus on motor car ownership in Britain, British sports cars phenomenon or war and the car. Besides, the relations in British car industry are also presented as a very important input into industrial culture change. The above-mentioned presentation of sources concentrating on car cultures is only a sample of the car culture research undertaken in various fields. The research in car culture in Britain and the impact of car on British culture can be discussed on the basis of the sources gathered. 2. Research method for categorisation of sources The above-mentioned presentation of sources concentrating on car cultures is only a sample of the car culture research undertaken in various fields. The research in car culture in Britain and the impact of car on British culture can be discussed on the basis of the sources gathered. New knowledge creation or knowledge perspective requires the identification of material available for research. In order to create a representative portfolio of material for further research, it is indispensable first to come up with subject research areas that will constitute headings under which sources will be ascribed. A primary set of headings includes: 1. 2. 3. 4. 5. 6. 7. Input of British motoring into general progress of motoring Social issues Motoring in British literature British motoring in visual art British motoring and journalism British motoring and the law British motoring and marketing POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 177 British motoring and film British culture The culture of technology Philosophy of technology British motor sport History of British motor industry British motoring and the Internet British motoring and music Psychology and the car Heritage and British motoring Other The set of headings has an impressionistic nature. It was the choice of the researcher that decided upon the inclusion of headings. Of course, it is possible that the list is not exhausted. The aim of the table with headings is to provide a picture of the research sources and materials gathered so far. Each heading carries a broader meaning behind in terms of capacity of subject matter. (1) refers to events and developments in general progress of motoring (inventions, new ideas and concepts). (2) consists of the materials related to the British society and its history in the context of motoring, e.g. men and women and their cars, cities and countryside shaped by the advance of motoring, etc. (3) comprises the motifs of cars and motoring in English literature. (4) provides elements of visual art in Britain where the main theme was a car, driver or motoring or motor sports as such. (5) includes motoring journalism and motoring journalists in Great Britain, either motoring journalism for the elite or for the masses (such a distinction can be drawn). (6) explores legal issues connected with motoring in Britain as a part of the social development (legal regulations for drivers, crimes connected with driving a car, etc.). Marketing and selling cars (7) concerns advertisement methods, language and visual aids employed to sell cars to Britons. (8) is in a way connected with English literature because the sources for film adaptation lies very often in literature but here the car as a member of cast will be investigated (either an English car or any car in an English film. British culture (9) in a culture-driven research is indispensable for creating a background of the whole work. The culture of technology (10) presents technology, a nonhumanistic domain, as an inherent part of culture and constitutes another plane for background material (cf. (9)). The same background information lies under the philosophy of technology heading (11). (12) evokes rich traditions of British motor sports and British sports cars. (13) constitutes the skeleton of the whole work providing explanation for the emergence, rise and decline of the British motor industry. (14) shows the presence of cultural aspects of British motoring on the Internet – promotion, raising awareness and protecting the national motoring heritage. (15) investigates the motifs of an English car in music. (16) gives an overview of attitudes towards car ownership and use in Britain, including emotions connected with driving. (17) refers to the motoring heritage that is widely present in Britain (e.g. National Motor Museum). (18) includes some cross-boundary issues not included under any other headings. The excerpt of the table with sources looks as follows: 178 Maciej Adamski SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION Table. 1. Cultural categories representation in sources Category Item x 1 2 3 4 5 6 7 8 9 10 Input of British motoring into general progress of motoring 1 Social issues Motoring in British literature British motoring In visual art British motoring and journalism British motoring and the law 2 3 4 5 6 + + + + + + + + + + In the context of the analysis of influence of British motoring and the presentation of sources of knowledge enabling to investigate and identify the most important motoring impact on a wide range of cultural conditions of the United Kingdom, various sources of knowledge can be identified. These are direct and indirect sources. In scholarly environments it is often said that a given culture can be best explored and described by a stranger because of their objectivity in assessment. It is particularly true in the case of Norman Davies, a British historian who wrote a very popular book covering history of Poland – God’s Playground. However, this opinion may face objection because such an exploration can be prevented by such factors as great distance, problems with access to the sources of knowledge and financial constraints. In the case of the thesis the principal goal concerned finding a place where it would be possible to get information connected with British motoring history. It was not possible to assimilate with the British motoring environment for a longer period of time to experience motoring phenomena in the form as they really are. The sources gathered so far facilitate the preparation of main sections of the dissertation (Adamski 2007). The sources that are discussed in this chapter will serve only as example of possible and already available sources of information and knowledge for the said dissertation. Printed and online sources cover the important aspects of the provisional outline presented below. The sources of knowledge are of various kinds – ranging from historical books on the history of motoring in general: Dzieje samochodu by Witold Rychter published in 1983. However old the source may seem, it was prepared meticulously by one of the greatest Polish motoring historians. Another item is The rise and decline of the British motor industry by Roy Church is a critical analysis of a complex event of the motoring industry collapse. The historical background is necessary for further presentation of cultural implementations of the motoring motifs. A completely different source of information are diaries of motoring enthusiast journalists and creators of motoring centres in the UK – Drive On! A social history of the motor car by L. J. K. Setright: “a Wittgenstein of the motoring press. A separate place will be granted to “gutter” motoring press practiced by Jeremy POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 179 Clarkson, the host of a popular TV program on motoring. Next important source are British motoring magazines: Top Gear (paper version of Clarkson’s TV series) and some past issues of Autocar and Motor from the late 1940s (purchased in Internet auctions). Of course, the latest issues of British motoring magazines will be used as a source for information about the condition of the contemporary British motoring journalism (Car of the 1990s and 2000s). With respect to the car ads in Great Britain, it is possible to get sources from newspapers but also from a series of postcards with old car ads. The presentation of sources available to the author shows only an exemplary part of materials gathered till now, the library that is being supplemented constantly includes also other materials connected for example with art (catalogues of auto work of arts sold by auction houses – Auto Art) and studies of motoring influences on British literature (The car in British society. Class gender and motoring 1896-1939) by Sean O’Connell). 3. Quantitative data The list of sources and the number of sources in table form facilitates the process of finding “blank spaces”. These are the categories where the representation of sources is insufficient for meticulous analysis of a given research problem. The method of source listing seems particularly useful for multi-aspect research problem. Furthermore, if a given category turns out to be represented insufficiently, it may be necessary to cross out a given category due to the lack of sources gathered. The 18 categories represented in sources may overlap in the categorization, i. e. one reference source may fall into several categories. Table 2. List of categories and amount of sources Category 1. Input of British motoring into gen2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. eral progress of motoring Social issues Motoring In British literature British motoring in visual art British motoring and journalism British motoring and the law British motoring and marketing British motoring and film British culture The culture of technology Philosophy of technology British motor sport History of British motor industry British motoring and the Internet British motoring and music Psychology and the car Heritage and British motoring Other Total 4 10 3 9 31 2 3 2 4 1 0 3 13 0 1 1 12 0 180 Maciej Adamski SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION Another categorization that can be conducted involves the divisions of reference genres. The division includes monographs, collections of essays, diaries, papers downloaded from the Internet and magazines. The groups, in turn, can be divided into primary and secondary sources. Primary sources include publications by the actors of British industry and car culture (e.g. Lord Montagu of Beaulieu: Wheels within Wheels. An Unconventional Life, Jeremy Clarkson: Motorworld). Next group, with very scarce representation, is the group with real life automobilia, this group could include also old prints – magazines from the first half of the 20th century (Your Driving Test. How to Prepare for It. How to Pass It. Ministry of Transport dated 1963; The Autocar – June 17 1949). Secondary sources include essays or papers in which references to other reference material are made. These are papers on various aspects of British cars and British motoring or general car culture (e.g. Mimi Scheller: Automotive Emotions: Feeling the Car.). The representation of sources in genres can be presented in the table: Table 3. Representation of source genres Papers (online) Press magazines 14 31 Collections of essays/papers 4 Printed automobilia 5 Monographs 34 Total: 88 The table presents the overall amount of sources available so far. 88 items at hand divided into 5 groups give an overview of source availability and the distribution of the material gathered in various source genres. The scarce representation of automobilia does not have to mean that the source genre is not useful and should be excluded from the analysis. Such a representation results from the fact of local unavailability of such sources – thus, they may serve as artefacts and examples of the past motoring life and may constitute some material for further analysis and discussion. 4. Quantitative analysis shaping qualitative decisions The quantitative method applied here facilitates taking decisions about usefulness of categories and sources in the research. The usefulness assessment can be assessed according to the following scheme: Source representation in culture studies 1. Sufficient for further research 2. Insufficient or unobtainable 3. Insufficient and obtainable Fig. 1 Decision tree in research category assessment POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT Series: Studies & Proceedings No. 16, 2008 181 In the paper the following method of analysis was proposed: 1. 2. 3. 4. 5. Identifying categories in culture studies Creating matrices of sources availability Listing representation of sources Deciding on source usefulness Further research or supplementary data collection The method as such can aid a structured and systematic analysis of cultural issues and may constitute an objective tool for checking accuracy of judgements in humanities. However, in some cases, the source availability may be a decisive factor in including or excluding a given category from the research scope. 5. Literature: 1. 2. 3. 4. 5. 6. 7. Adamski, M., 2008. Knowledge Creation – Car In British Culture. Polish Association for Knowledge Management. Series: Studies and Proceedings No. 15. Bydgoszcz., pp. 5-11. Drelichowski, L., 2004. Podstawy inŜynierii zarządzania wiedzą. Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą. Bydgoszcz., pp. 13-22. Gierczak, J., 1994. Fenomen auta w przestrzeni. Oficyna Wydawnicza Politechniki Wrocławskiej. Wrocław., pp. 4-155. O’Connell, S., 1998. The car in British Society: Class, Gender and Motoring, 1896-1939. Studies in Popular Culture. Manchester University Press. Manchester., pp. 5-133. Miller, D. (ed.), 2001. Car Cultures. Materializing Cultures. Berg. Oxford. Thomas, D, Kolden, L., Claydon, T., Claydon, T., (eds.), 2002 The Motor Car and Popular Culture in the 20th Century. Ashgate. Aldershot. Wollen, P., Kerr, J., 2002. Autopia. Cars and Culture. Reaktion Books. London. Maciej Adamski Katedra Filologii Angielskiej, Instytut Neofilologii i Lingwistyki Stosowanej Uniwersytet Kazimierza Wielkiego w Bydgoszczy 85-601 Bydgoszcz, ul. Grabowa 2 e-mail: [email protected]