studia i materiały polskiego stowarzyszenia zarządzania wiedzą

Transkrypt

studia i materiały polskiego stowarzyszenia zarządzania wiedzą
STUDIA I MATERIAŁY
POLSKIEGO STOWARZYSZENIA
ZARZĄDZANIA WIEDZĄ
Redaktor tomu: dr Arkadiusz Januszewski
Komitet Redakcyjny:
dr hab. inŜ. Waldemar Bojar prof. UTP
prof. dr hab. Ryszard Budziński
prof. dr hab. Andrzej Straszak
Polskie Stowarzyszenie Zarządzania Wiedzą
Bydgoszcz 2008
2
Recenzenci:
prof. dr hab. Witold Chmielarz
prof. dr hab. inŜ. Ludosław Drelichowski
dr hab. inŜ. Jan Studziński
Opracowanie redakcyjne i korekta:
inŜ. Waldemar Kępa
ISSN 1732-324X
Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc
3
Spis treści
RYSZARD BUDZIŃSKI, MONIKA STOLARSKA
Aspekty metodyczne oceny witryn internetowych ........................................................................ 5
WITOLD CHMIELARZ ....................................................................................................................
Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego wybranych
banków w Polsce......................................................................................................................... 15
MIROSŁAW DYCZKOWSKI ...........................................................................................................
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć
informatycznych.......................................................................................................................... 26
WALDEMAR KARWOWSKI, ARKADIUSZ ORŁOWSKI, MACIEJ GROCHOWSKI ................
Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań ............................ 37
ANNA LENART ................................................................................................................................
Systemy ERP a zarządzanie relacjami z klientami...................................................................... 47
TOMASZ ORDYSIŃSKI...................................................................................................................
Metody szacowania wartości rynkowej serwisu internetowego .................................................. 57
MARIA JOLANTA ORŁOWSKA.....................................................................................................
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników..... 67
OLGA PILIPCZUK............................................................................................................................
Moduł monitorowania jakości procesów usługowych (PQM) jako komponent zintegrowanego
systemu zarządznia ..................................................................................................................... 79
OREST POPOV, ANNA BARCZ, PIOTR PIELA ............................................................................
Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych
inteligentnych systemów nauczania ............................................................................................ 95
IZABELA ROJEK..............................................................................................................................
Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią
wodociągową ............................................................................................................................ 104
PIOTR SULIKOWSKI, RYSZARD BUDZIŃSKI ............................................................................
Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji 113
JAROSŁAW WĄTRÓBSKI, MONIKA STOLARSKA ....................................................................
Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych.............. 124
4
RYSZARD BUDZIŃSKI, ZBIGNIEW PIOTROWSKI, JAROSŁAW WĄTRÓBSKI.....................
A Decision Aiding Software Agent under Condition of Lack of Cooperation From Analyst ... 134
ROBERT BUDZYŃSKI, ARKADIUSZ ORŁOWSKI, WALDEMAR KARWOWSKI...................
Module for Management of Student Payments ......................................................................... 142
ZBIGNIEW PIOTROWSKI, JAROSŁAW WĄTRÓBSKI ...............................................................
Choosing a Multicriteria Approach Based on Analysis of a Context of a Decision Situation .. 151
JACEK UNOLD .................................................................................................................................
Generic Analysis of an E-Commerce Field............................................................................... 160
JACEK WINIARSKI..........................................................................................................................
Comparative Analysis of Application of Risk Assessment Methods in IT Projects.................. 166
MACIEJ ADAMSKI
Source Quantity and Quality for Research Problem – Car in British Culture in the Context of
Knowledge Creation ................................................................................................................. 175
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
5
RYSZARD BUDZIŃSKI,
MONIKA STOLARSKA
Politechnika Szczecińska
ASPEKTY METODYCZNE OCENY WITRYN INTERNETOWYCH
Streszczenie
Celem niniejszego artykułu jest ocena jakości uŜytkowej serwisów internetowych
na przykładzie branŜy komputerowej. Metodyczny wkład autorski stanowi próba
opracowania konwertera z metody punktowej do hierarchicznej analizy problemu
(AHP). Na początku przedstawiono podstawowe załoŜenia przyjętej metodyki, następnie zaproponowano własne rozwiązanie problemu. Całość kończą wnioski dotyczące proponowanej metodologii i przeprowadzonych badań.
Słowa kluczowe: metoda punktowa, metoda AHP, ocena jakości oprogramowania, ocena witryn
internetowych
1. Wprowadzenie
Internetowe sklepy stanowią obecnie dla wielu firm szansę na dotarcie do duŜej grupy klientów
oraz doskonałe uzupełnienie tradycyjnej sprzedaŜy. Transakcje dokonywane za pośrednictwem
Internetu cieszą się ogromnym zainteresowaniem klientów z uwagi na niŜszy koszt produktów,
zróŜnicowaną ofertę oraz często bezpłatną dostawę towaru. Problem, który podjęto w artykule stanowi próbę oceny jakości uŜytkowej serwisów internetowych z uwzględnieniem indywidualnych
preferencji docelowej grupy odbiorców. Jest on takŜe przedmiotem dociekań w szeregu opracowań
naukowych. MoŜna tu przytoczyć prace K. Króla i P. Goli [1,2], E. Dobrogowskiej – Schlebusch
[3], J. Bańskiego [4] czy publikację W. Chmielarza. [5] W rozwaŜaniach autora podjęto próbę adaptacji metody punktowej do zadanej w pracy klasy problematyki. Konkluzje badawcze wskazują
na moŜliwości ewolucji proponowanego rozwiązania – adaptacji aparatu metody AHP do budowy
konwertera uzyskanych metodą punktową wyników. Tak zadany problem metodyczny stanowi
przedmiot niniejszego opracowania.
2. Metody oceny jakości uŜytkowej oprogramowania
W literaturze występuje wiele modeli jakości systemu informatycznego. Według A. Kobylińskiego ich budowa oparta jest o zbiór atrybutów jakości. KaŜdemu z atrybutów przyporządkowuje
się atrybuty szczegółowe, a tym kolejno miary. Model taki moŜe być wykorzystywany w zaleŜności od potrzeb do identyfikacji wymagań oprogramowania lub kryteriów zapewniania jakości.
Z uwagi na fakt wykształcenia się róŜnych modeli jakości produktów programowych zaistniała
konieczność ich ustandaryzowania i opracowania norm. International Organisation for Standarisation (ISO) i International Electrotechnical Commission (IEC) określiły charakterystyki i podcharakterystyki jakości. [6]
Ocena pakietów programowych, a w tym witryn internetowych, wymaga doboru zestawu kryteriów w pełni charakteryzujących najwaŜniejsze ich aspekty. Ustalenie ostatecznego zbioru kryte-
6
Ryszard Budziński, Monika Stolarska
Aspekty metodyczne oceny witryn internetowych
riów odbywa się w oparciu o wiedzę i doświadczenie decydentów, co ma zapewnić trafność oraz
wiarygodność analiz i decyzji. Pomiar wartości kryteriów stanowi waŜny element budowy modelu
oceny. Kryteria poddawane są analizie zgodności, mierzone pod względem waŜności według określonej skali, następnie normowane i porównywane. Określenie rodzaju stosowanej skali umoŜliwia
jednoznaczną klasyfikację kryteriów. [7]
Modele oceny jakości oprogramowania charakteryzują się określonymi cechami: hierarchiczną
strukturą i oceną na róŜnych poziomach abstrakcji, mieszaniną róŜnych typów miar i preferencji
(wymagających odpowiednich procedur agregacji). Mogą dotyczyć części oprogramowania albo
całości, róŜnych wymiarów i mogą być wykonywane dla róŜnych celów. Z oceną jakości związane
są równieŜ zagadnienia róŜnicy między miarą i oceną oraz braki agregacji. Definicja miar, kryteria
i procedura agregacji nie mogą zostać określone dowolnie - muszą być zgodne z ogólnymi regułami, które zwykle określone są za pomocą międzynarodowych norm (ISO 9126 i IEEE 1061).
Wg norm ISO jakość to komplet cech przedstawionych graficznie za pomocą struktury drzewiastej, w którym kaŜda cecha ma wagę. W rzeczywistości zastosowanie norm jest trudne, a skutki
nie są zadowalające. Normy zwykle zaniedbują problem zaadaptowania odpowiedniej procedury
agregacji. UŜycie metodologii wielokryterialnego wspomagania decyzji pozwala rozwiązać ten
problem.
Analizując dostępne metody oceny pakietów programowych za A. Gospodarowiczem (1997)
moŜna wyróŜnić:
- metody jednowymiarowe (rachunek porównawczy kosztów, kalkulacja rentowności, rachunek amortyzacji),
- metody wielowymiarowe.
Metody wielowymiarowe naleŜą do klasy metod wskaźnikowych o charakterze syntetyzującym.
Wyniki otrzymywane są w drodze stopniowej agregacji zbiorów pojedynczych wskaźników aŜ do
momentu uzyskania wartości zbiorczej stanowiącej syntetyczną ocenę badanego obiektu. Agregacja dokonywana jest z uŜyciem danych empirycznych i metod matematycznych (w tym statystycznych i ekonometrycznych), zaś wartość końcowa (zbiorcza ocena syntetyczna) wyznaczana jest
jako liniowa kombinacja pojedynczych wartości:
Y = ω1 X 1 + ω2 X 2 + ... + ω2 X 2 + ... + ωn X n
gdzie: Y - ocena syntetyczna, Xi - wartość poszczególnego wskaźnika, wi - wagi przypisane poszczególnym wskaźnikom.
A. Gospodarowicz (1997) podkreśla, Ŝe w zaleŜności od sposobu wyboru poszczególnych
wskaźników i przypisanych im wag wyróŜnia się dwa rodzaje syntetycznych systemów wskaźnikowych:
- niezwiązane z metodą (wybór najbardziej odpowiednich dla danej sytuacji wskaźników oraz
ich wag odbywa się według subiektywnej wiedzy i preferencji badacza lub analityka),
- związane z metodą (systemy projektuje się przy uŜyciu metod statystyczno-matematycznych
i ekonometrycznych).
Problem oceny i doboru składników infrastruktury informatycznej przedsiębiorstwa
w metodach macierzowych przedstawiany jest w formie macierzy, której wiersze i kolumny stanowią kolejno zbiór obiektów podlegających ocenie oraz ich wartości ze względu na wszystkie
rozpatrywane kryteria. (Tabela 1).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
7
Tabela 1. Przedstawienie problemu w metodach macierzowych
Ki
O1
O2
...
On
K1
O11
O21
...
On1
K2
O21
O22
...
On2
...
...
...
...
...
Km
Om1
Om2
...
Omn
Źródło: opracowanie własne.
gdzie: Ki - kryteria oceny (i=1,2,...,n), Oj - systemy informatyczne (j=1,2,...,m), Pij ocena przyporządkowana j-temu produktowi ze względu na i-te kryterium.
Ocena łączna wyznaczana jest przez maksymalizację sumy wartości kryteriów obiektu:
∑p
ij
= max
i
bądź przez wyznaczenie minimalnego odchylenia od wartości poŜądanej:
∑p
rj −
pij = min
i
gdzie: prj - wartość stanu poŜądanego.
Wprowadzenie pojęcia względnej waŜności kryteriów powoduje, Ŝe:
pij = wj nij
gdzie: pij - pojedyncza ocena produktu biorąc pod uwagę j-te kryterium, wj - waga określająca znaczenie j-tego kryterium, nij - liczba punktów przydzielonych dla i-tego produktu biorąc pod uwagę j-te kryterium.
3. Metoda hierarchicznej analizy problemu (AHP)
Metodologia wielokryterialnego wspomagania decyzji ma wiele zalet, takich jak: moŜliwość
obsługi niejednorodnych informacji w procesie agregacji czy uprawomocnienie jakościowego
modelu na drodze porządkowej agregacji. [8]
AHP to narzędzie, które słuŜy wspomaganiu decyzji, umoŜliwia połączenie jakościowych oraz
ilościowych kryteriów w procesie decyzyjnym. Pozwala na hierarchiczne przedstawienie modelu,
a dzięki temu moŜliwe jest wyraźne zaznaczenie w procesie decydowania relacji pomiędzy celem,
kryteriami wyboru i alternatywami. Hierarchia słuŜy tworzeniu struktury pierwszeństwa
związanego z określonym problemem decyzji.
Hierarchiczna analiza problemu bazuje na trzech komponentach: problemie strukturalizacji
(a w szczególności spójnej rodziny kryteriów zawierającej właściwą hierarchię zawierania),
ustaleniu relatywnej waŜności kryteriów oraz syntezie. [9]
8
Ryszard Budziński, Monika Stolarska
Aspekty metodyczne oceny witryn internetowych
rozłoŜenie problemu
decyzyjnego na elementy
i określenie hierarchii
kryteriów, które ułatwią
ich rozwiązanie
KROK 1
Budowa modelu
porównania parami
kryteriów oraz wariantów
decyzyjnych, a następnie
wystawienie oceny przy
wykorzystaniu skali
dominacji
KROK 2
Porównania
Określenie preferencji, priorytetów w
odniesieniu do kryteriów i wariantów
decyzyjnych. W tym celu wykonuje się
przez obliczenia za pomocą
oprogramowania AHP (Expert Choice)
lub arkusza kalkulacyjnego (Excel)
KROK 3
Określenie preferencji,
priorytetów
klasyfikacja wariantów
decyzyjnych ze
względu na udział w
realizacji celu
KROK 4
Klasyfikacja
Rys.1. Realizacja metody AHP – kroki
Źródło: opracowanie własne na podstawie: Downarowicz O., Krause J., Sikorski M., Stachowski
W. “Zastosowanie metody AHP do oceny i sterowania poziomem bezpieczeństwa złoŜonego
obiektu technicznego”
Podstawowa procedura AHP składa się z porównania par czynników w komplecie wzajemnych
macierzy kontrolowanych współczynnikiem niespójności. Wartości w macierzy ułoŜone są w taki
sposób, aby jednoznacznie wskazywać, który element dominuje ze względu na dane kryterium nad
innym. [10]
Saaty uŜywa 9-stopniowej skali waŜności kryteriów. Nadanie kryteriom stopni waŜności umoŜliwia ich porównanie. Decydent subiektywnie ocenia dane kryteria za pomocą skali. Ocena kryteriów ma przede wszystkim charakter jakościowy.
Dane stanowiące oceny cząstkowe poddaje się następnie agregacji zgodnie z hierarchiczną reprezentacją problemu. Wskaźniki syntetyczne stanowią wartości funkcji uŜyteczności kolejnych
wariantów decyzyjnych i wyznaczane są przy uŜyciu formy addytywnej:
n
U ( A i ) = ∑ wij * eij
j =1
gdzie: U(Ai) oznacza wartości funkcji uŜyteczności i-tego wariantu decyzyjnego, ei - wartość i-tej
alternatywy ze względu na j-ty atrybut (kryterium), wj - waga j-tego kryterium.
A. Gospodarowicz wskazuje, Ŝe wyniki liczbowe metody Saaty’ego zaleŜą w głównej mierze
od niesprzeczności macierzy porównań waŜności kryteriów oraz ocen realizacji poszczególnych
kryteriów przez porównywane produkty. Wynika to z faktu, iŜ decydent poddaje kryteria subiektywnej ocenie. Określa on liczbowo stopień istotności danego kryterium względem innego jedną
z 9-ciu dostępnych ocen. Oceny te mogą być rozbieŜne i moŜe to prowadzić do konieczności ponownego zdefiniowania problemu oraz zmiany kryteriów oceny. W sytuacji gdy wskaźnik CR
przekroczy wartość uznaną za potwierdzenie zgodności, wiarygodność decydenta poddana jest
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
9
w wątpliwość. [11]
4. Rozwiązanie własne - autokonwersja z metody punktowej do AHP
W niniejszym opracowaniu podjęto próbę opracowania metodycznych mechanizmów konwersji
not uzyskanych metodą punktową do postaci zgodnej z metodą AHP. Realizacja tego zadania wymaga w kolejności przeprowadzenia następujących etapów (rys. 2)
Strukturalizacja problemu
Pozyskanie ocen witryn internetowych – metoda punktowa
Autokonwersja ocen do postaci znormalizowanych wektorów preferencji lokalnych
Pozyskanie preferencji lokalnych i konstrukcja bazowej postaci wektora wag
Agregacja i budowa rankingu uŜyteczności
Badania modelowe odporności rankingu na zmiany w wektorze priorytetów
Rys.2. Etapy autokonwersji z metody punktowej do AHP
Źródło: opracowanie własne
W pierwszym etapie naleŜy określić postać spójnej rodziny kryteriów oceny witryn
internetowych jak równieŜ zbiór ocenianych witryn. Następstwem strukturalizacji problemu jest
tabela (patrz przykład - Tabela 2), która w intuicyjny i prosty sposób moŜe zostać uzupełniona
notami ekspertów (uŜytkowników serwisów). Tak zdefiniowany zbiór ocen cząstkowych stanowi
podstawę do dalszej agregacji ocen. ZałoŜono, Ŝe w tym celu, w sposób zautomatyzowany,
przebiegać będzie konwersja wyników do metody AHP. W pierwszym etapie odbywa się
pozyskanie wartości względnych waŜności kryteriów oceny od decydenta. Na jej podstawie zaś
odbywa się dalsza agregacja ocen i wyznaczenie końcowych wartości funkcji uŜyteczności witryn
internetowych. W ostatnim etapie proponowanej procedury odbywa się analiza odporności tak
wyznaczonego rankingu rozwiązań na zmiany w wektorze preferencji globalnych.
10
Ryszard Budziński, Monika Stolarska
Aspekty metodyczne oceny witryn internetowych
PoniŜej przedstawiono weryfikację empiryczną proponowanej procedury badawczej. Tabela 2
stanowi punkt wyjścia do budowy mechanizmu przejścia do zastosowania metodyki AHP
w zakresie oceny jakości uŜytkowej witryn sklepów komputerowych. Do oceny witryn przyjęto 6
kryteriów: wizualizacja strony głównej, oferta asortymentowa, obsługa procesu usługowego,
asortyment, ceny produktów, poprawność technologiczna.
Tabela 2. Punktowe zasady oceny kryteriów do oceny serwisów internetowych
Przejrzystość
listy
Obsługa procesu
usługowego
Asortyment –
ilość produktów
Ceny produktów
(średnia)
Poprawny
html
Poprawny
css
0,75
1
1
1
1
0,25
0,75
0,5
0,75
1
0,75
1
0,75
1
0,75
0,5
0,5
0,75
1
0,75
0,5
0,5
0,25
0,75
0,5
1
1
1
1
0,75
1
0,5
1
0,25
0,5
0,5
0,25
1
1
0,25
0,5
0,75
0,5
0,25
1
0
0,25
1
0,75
0,2
5
0
0,5
1
0,7
5
Pozycja w
wynikach
google
Jakość zdjęć
produktów
1
Ilość informacji o produkcie
Narzędzia
marketingu
2It.pl
1Klik.pl
Sklepkomputerowy24.pl
Market.pl
Poprawność technologiczna strony
Przejrzystość
menu
Komputronik.pl
Oferta asortymentowa
Jakość grafiki
Wizualizacja strony
0,75
0,5
1
0,75
0,75
Źródło: opracowanie własne na podst. A. Szewczyk, E. Krok (red). „Fenomen Internetu” tom II,
hogben, Szczecin 2008, s.341-343
gdzie: 0 – brak cechy, 0,25 – niski poziom cechy, 0,5 – średni poziom cechy, 0,75 – wysoki poziom cechy, 1 – bardzo wysoki poziom cechy.
Zgodnie z załoŜeniami metody AHP porównanie parami witryn komputerowych wymaga określenia w jakim stopniu dana witryna dominuje nad inną.
Tabela 3. Macierz waŜności kryteriów
K1
K2
K3
K4
K5
K6
K1
1,00
5,00
3,00
1,00
3,00
0,33
K2
0,20
1,00
1,00
1,00
1,00
0,33
K3
0,33
1,00
1,00
1,00
1,00
1,00
K4
1,00
1,00
1,00
1,00
1,00
0,20
K5
0,33
1,00
1,00
1,00
1,00
0,33
K6
3,00
3,00
1,00
5,00
3,00
1,00
SUMA
13,33
4,53
5,33
5,20
4,67
16,00
Źródło: opracowanie własne
11
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
Tabela 4. Wagi kryteriów
K1
K2
K3
K4
K5
K6
K1
0,08
0,38
0,23
0,08
0,23
0,03
K2
0,04
0,22
0,22
0,22
0,22
0,07
K3
0,06
0,19
0,19
0,19
0,19
0,19
K4
0,19
0,19
0,19
0,19
0,19
0,04
K5
0,07
0,21
0,21
0,21
0,21
0,07
K6
0,19
0,19
0,06
0,31
0,19
0,06
WAGA
0,1055
0,2295
0,1837
0,2004
0,2045
0,0764
Źródło: opracowanie własne
Wskaźnik zgodności dla powyŜej zamieszczonej macierzy wynosi 0,0982317 i jest mniejszy od
wartości granicznej (0,1). Oznacza to, Ŝe zachowana została spójność ocen.
Tabela 5. Wartości wektorów preferencji lokalnych i globalnych oraz funkcji uŜyteczności dla rankingu witryn internetowych
WAGA
komputronik.pl
2It.pl
1Klik.pl
sklepkomputerowy24.pl
eMarket.pl
K1
0,1055
0,2682
0,2651
0,2089
0,1569
0,1009
K2
0,2295
0,3259
0,1376
0,1758
0,1654
0,1953
K3
0,1837
0,4651
0,1069
0,0761
0,2809
0,0709
K4
0,2004
0,1617
0,3597
0,3597
0,0400
0,0788
K5
0,2045
0,1053
0,2454
0,1053
0,0469
0,4971
K6
0,0764
0,1495
0,0435
0,2382
0,3779
0,1908
F.u.
0,2539
0,2048
0,1882
0,1526
0,2005
Źródło: opracowanie własne
1
0,50
0,40
0,30
6
2
0,20
0,10
0,00
5
3
4
komputronik.pl
2It.pl
1Klik.pl
sklepkomputerowy24.pl
Wykres 1. Rozkład uŜyteczności cząstkowej
Źródło: opracowanie własne.
NajwyŜszą wartość funkcji uŜyteczności uzyskała witryna komputronik.pl, najniŜszą
sklepkomputerowy24.pl.
12
Ryszard Budziński, Monika Stolarska
Aspekty metodyczne oceny witryn internetowych
5. Badania eksperymentalne – zmiany uŜyteczności cząstkowej kryteriów globalnych
Zgodnie z przyjętą procedurą badawczą w kolejnym etapie badań zanalizowano wpływ zmiany
wartości wektorów priorytetów dla podkryteriów II-go poziomu na postać końcową wynikowego
rankingu witryn internetowych.
Pierwszy etap modelowania obejmować będzie zmiany wartości uŜyteczności cząstkowej
kryteriów lokalnych i ich wpływ na pierwotnie otrzymany ranking systemów. Dla kaŜdego
z kryteriów globalnych (K1, K2, K6) obserwowane będą zmiany w przypadku, gdy jedno
z podkryteriów drugiego poziomu będzie silnie dominować pozostałe. Wyniki przedstawione
zostaną w formie wykresów zawartych w tabeli 6.
Tabela 6. Etapy modelowania systemów ekonomicznych – zmiany wartości uŜyteczności cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu
Podkryterium 1
K1
Podkryterium 2
Podkryterium 3
1
1
1
0,50
0,60
0,50
0,40
0,40
0,30
0,40
6
6
0,30
2
6
2
0,20
2
0,20
0,20
0,10
0,10
0,00
0,00
0,00
5
5
3
5
3
3
4
4
4
K2
1
1
1
0,50
6
0,50
0,50
0,40
0,40
0,40
0,30
0,30
6
0,30
2
6
0,20
2
2
0,20
0,20
0,10
0,10
0,10
0,00
0,00
0,00
5
5
3
5
3
3
4
4
K6
4
1
1
1
0,50
0,50
0,50
0,40
0,40
0,40
0,30
0,30
6
2
6
2
0,20
0,20
0,30
6
0,10
0,10
0,00
0,00
5
3
4
2
0,20
0,10
0,00
5
3
4
5
3
4
13
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
Jak moŜna zauwaŜyć w powyŜszej tabeli zmiany wartości uŜyteczności cząstkowej w drugim etapie modelowania nie spowodowały rewizji postaci końcowych rankingów witryn internetowych.
Wskazuje to, Ŝe są odporne na zmiany waŜności kryteriów wskazanych przez decydenta.
Tabela 7. Rankingi funkcji uŜyteczności witryn internetowych przy zmianie wag
Komputronik.pl
2It.pl
1Klik.pl
Sklepkomputerowy24.pl
Market.pl
F.u.(1)
F.u.(2)
F.u.(3)
F.u.(4)
F.u.(5)
F.u.(6)
F.u.(7)
F.u.(8)
F.u.(9)
0,2538
0,2488
0,2591
0,2801
0,2346
0,2470
0,254
7
0,2497
0,2547
0,2004
0,2187
0,1953
0,1998
0,2143
0,2002
0,205
8
0,2043
0,2058
0,1798
0,1872
0,1976
0,1685
0,1919
0,2042
0,198
6
0,1867
0,1986
0,1604
0,1467
0,1507
0,1648
0,1579
0,1351
0,141
8
0,1587
0,1418
0,2056
0,1986
0,1974
0,1868
0,2013
0,2136
0,199
2
0,2006
0,1992
Źródło: opracowanie własne
6. Uwagi końcowe
Ocena witryn internetowych branŜy komputerowej przy wykorzystaniu metody AHP daje
czytelną dla informację dla decydenta w jakim stopniu spełniają określone przez niego kryteria.
Przedstawione w niniejszym artykule metodyczne podstawy konwersji z metody punktowej do
AHP umoŜliwiły porównanie wyników uzyskanych w obu metodach. Zmiany uŜyteczności
cząstkowej nie wpłynęły w znaczący sposób na wyniki, jakie osiągnęły podczas porównywania
parami strony WWW. Zastosowanie metody AHP do oceny witryn dało zbliŜone wyniki do
metody punktowej. W obu wypadkach najlepsze wyniki uzyskała witryna komputronik.pl.
W metodzie punktowej najmniej punktów uzyskał 2It.pl, w metodzie AHP najniŜszą wartość
funkcji uŜyteczności uzyskał sklepkomputerowy24.pl, co pozwala wysnuć wniosek o jedynie
częściowej porównywalności obu metod.
W konkluzjach badawczych warto zaznaczyć, Ŝe proponowana procedura posiada wysokie
walory utylitarne. Prosty mechanizm pozyskiwania ocen eksperckich w połączeniu z moŜliwością
modelowania preferencji i analizy wraŜliwości rozwiązań stanowią o tym, Ŝe wynikowe rankingi są
dobrze umocowane, w przeciwieństwie do prostych średnich waŜonych
7. Literatura
1.
2.
3.
Król K., Gola P.: Jakość witryn internetowych małopolskich gospodarstw
agroturystycznych [dostęp: 2008].
Król K.: Techniczno merytoryczny stan internetowych witryn gospodarstw
agroturystycznych [dostęp: 2008].
Dobrogowska – Schlebusch E.: Ocena jakości informacji medycznej dostępnej
w Internecie – jako zadanie dla bibliotek w: Biuletyn EBIB [Dokument elektroniczny] nr
3/2007 (84) kwiecień. - Czasopismo elektroniczne. - [Warszawa]: Stowarzyszenie
Bibliotekarzy Polskich KWE, 2007.
14
Ryszard Budziński, Monika Stolarska
Aspekty metodyczne oceny witryn internetowych
4.
Bański J.: Witryny internetowe jednostek samorządowych z siedzibą w małych miastach –
analiza i ocena [dostęp: 2008].
5. Szewczyk A., Krok E. (red).: Fenomen Internetu tom II, Wydawnictwo hogben, Szczecin
2008, s.341-345.
6. Kobyliński A.: ISO/IEC 9126 – Analiza modelu jakości produktów programowych w:
Systemy Wspomagania Organizacji 2003, red. T. Porębska-Miąc, H. Sroka, Prace
Naukowe AE w Katowicach, Katowice 2003.
7. Gospodarowicz A. (red.): Metody analizy i oceny pakietów programowych,
Wydawnictwo Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, Wrocław
1997, s.49-55.
8. Blin M.-J., Tsoukias A.: Multicriteria Methodology Contribution to Software Quality
Evaluations, Springer Netherlands, Software Quality Journal, volume 9, number 2, June
2001.
9. Mamaghani F.: Methodology to select security software, Information Management &
Computer Security, volume: 10, issue: 1, 2002.
10. [4].
11. [2] s.96.
METHODICALASPECTS OF THE WEBSITES EVALUATION
Summary
The aim of this study is functional quality evaluation for selected websites. Methodical aspect of study is propose a new procedure of quality evaluation using utility function. MCDA (AHP) model as a theoretical fundament of the own procedure
was presented.
Keywords: AHP, evaluation for selected websites
Ryszard Budziński
Monika Stolarska
Instytut Systemów Informatycznych
Politechnika Szczecińska
Szczecin, ul. śołnierska 49
e-mail: [email protected]
http://www.wi.ps.pl
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
15
WITOLD CHMIELARZ
Uniwersytet Warszawski
PROBLEMY OCENY WITRYN BANKOWOŚCI ELEKTRONICZNEJ DLA KLIENTA
INDYWIDUALNEGO WYBRANYCH BANKÓW W POLSCE
Streszczenie
Podstawowym celem artykułu jest przedstawienie problemów zastosowania róŜnych metod oceny witryn internetowych. Przykładem stały się tu serwisy bankowości
elektronicznej dla klienteli indywidualnej. Po wprowadzeniu przedstawiającym
aspekty oceny za pomocą metod tradycyjnych prezentowana jest nowa metodyka
pomiaru oraz jej zastosowanie w analizowanym przypadku. W zakończeniu prezentowane są wnioski z pierwszych badań nad jej zastosowaniem.
Słowa kluczowe: metody oceny przedsięwzięć innowacyjnych, bankowość elektroniczna, porównanie metod
1. Wprowadzenie
Zasadniczym celem niniejszego artykułu jest analiza problemów oceny serwisów
internetowych w zakresie bankowości elektronicznej w wybranych bankach działających na terenie
Polski na początku 2008 r. Stanowi on kontynuację i jednocześnie rozszerzenie poprzednich badań
związanych z porównaniem i oceną systemów informatycznych wprowadzanych do organizacji, a
w szczególności do instytucji bankowych. Prezentowane rozwaŜania są następstwem drugiej serii –
w stosunku do zeszłorocznych [6] - analiz dotyczących oceny bankowości internetowej, w których
starano się wyeliminować występujące wcześniej niedogodności metodyczne oraz problemy
związane z uzyskaniem racjonalnej oceny eksperckiej. W pewnym sensie jest to równieŜ
przedłuŜenie badań dotyczących transformacji zastosowań systemów informatycznych bankowości,
prowadzonych przez autora od 1999 r [3].
Drugą serię ostatnich badań [2] rozpoczęto od prezentacji zastosowań metod tradycyjnych punktowej, wraz z róŜnymi jej odmianami (z ekspercką skalą preferencji). Stosowane metody
pozwoliły na wskazanie – najlepszych w danym momencie – serwisów bankowych dla klienta
indywidualnego.
Ostatnią, trzecią serię, do której zalicza się równieŜ obecna praca - zainicjowały badania
mające usprawnić metodyki oceny witryn internetowych. Dlatego początkowo odniesiono je do
ograniczonej ilości banków oferujących usługi dla klienta indywidualnego były brane pod uwagę
tylko banki internetowe. Obecny etap tej serii polega na rozszerzeniu ich na większą ilość banków.
Na podstawie danych uzyskanych ze Związku Banków Polskich, tworząc prostą prognozę
uwzględniającą preferencji trendów najnowszych okresów moŜna szacować, Ŝe w Polsce na koniec
2008 roku liczba rachunków osobistych obsługiwanych przez Internet osiągnie ponad 12 mln, a w
2009 r. przekroczy 13 mln. (patrz: Rys.1). Nawet jeśli przyjąć, Ŝe liczba aktywnych uŜytkowników
jest około 2 mln mniejsza [5], to i tak wynika z tego, Ŝe w Polsce ponad 45% właścicieli
rachunków osobistych korzysta z kanału internetowego.
16
Witold Chmielarz
Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego
wybranych banków w Polsce
14 000 000
13 294 986
12 012 812
12 000 000
10 614 551
10 000 000
8 573 681
8 000 000
6 634 521
6 000 000
5 049 578
4 000 000
2 901 342
2 000 000
1 260 000
565 000
0
2001 г.
2002 г.
2003 г.
2004 г.
2005 г.
2006 г.
2007 г.
2008 г.
2009 г.
Rys.1. Ilość uŜytkowników z internetowym dostępem do konta (2008, 2009 r. – prognoza z preferencjami ostatnich okresów)
Publikowane są dane mówiące o tym, Ŝe ponad 90% klientów banków komercyjnych ma
potencjalną moŜliwość korzystania z tych łączy. Szacuje się, Ŝe sześć banków o największej ilości
dostępu do kont internetowych juŜ w chwili obecnej ma 6,5 mln aktywnych uŜytkowników kont
internetowych (na 14,5, mln posiadanych przez nie kont osobistych). Gdyby nie obawy klientów
przed włamaniem na konto (47%), przejęciem hasła i loginu (14%), fałszywymi stronami banku
(6%), wirusami (3%), podglądaniem transakcji (3%) i innymi zagroŜeniami [4] oraz kłopotami
z obsługą zabezpieczeń im przeciwdziałających - ilość klientów indywidualnych usług
elektronicznych rosłaby w jeszcze większym tempie Bankowość elektroniczna, która jest
nowoczesną, bezkontaktową formą realizacji usług bankowych umoŜliwiającą korzystanie z nich
bez konieczności odwiedzania banku, staje się bardzo waŜną gałęzią w obsłudze klientów
instytucjonalnych i indywidualnych
Ze względu na formę organizacyjną teoretycznie moŜna ją podzielić na:
• oddział elektroniczny - dostęp do konta elektronicznego - klient chcący skorzystać
z dostępu do konta przez Internet zakłada nowy rachunek, nawet kiedy posiada juŜ
w banku tradycyjne konto,
• konto elektroniczne - klient nie musi otwierać nowego konta, a otrzymuje dodatkowy
elektroniczny kanał dostępu do swojego konta tradycyjnego wraz z innymi oferowanymi
usługami,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
•
17
bank wirtualny – oferujący tylko konta z dostępem przez sieć, nie posiadający własnych
placówek - klient ma dostęp do swojego konta jedynie przez elektroniczne kanały
dostępu, kontakt z bankiem moŜe być oprócz tego uzyskany przez telefon, e-mail lub
pocztą.
2. ZałoŜenia stosowanej metody badawczej
Podstawą powziętych badań był etap przygotowawczy polegający na zebraniu
i ukonstytuowaniu oceniającego zespołu eksperckiego. Tym razem byli to specjaliści z zakresu
bankowości elektronicznej z wiodących uczelni na terenie kraju, mający na koncie badania w tej
dziedzinie. Następnie wyodrębniony zespół dokonywał wyboru kryteriów oceny bankowych usług
elektronicznych.
Na ogół w podobnych badaniach stosowano kryteria funkcjonalne, techniczne, ekonomiczne,
organizacyjne oraz psychologiczne. Z wcześniejszych badań wynikało, Ŝe w chwili obecnej
kryteria psychologiczne i w duŜej mierze organizacyjne dla elektronicznych bankowych usług
przeznaczonych dla klientów indywidualnych kształtują się w bardzo podobny sposób. Podobnie –
jak się wydaje – przedstawia się sprawa wizualizacji i poruszania się po wyróŜnionych dla tego
badania witrynach bankowych. Dlatego pod uwagę wzięto głównie kryteria ekonomiczne
i funkcjonalne, dołączając wzorem analiz serwisów internetowych podstawowe kryteria
technologiczne, poza cechami charakterystycznymi serwisów. W badaniu wyróŜniono więc
kryteria następujące:
- ekonomiczne - oprocentowanie nominalne roczne, prowadzenie rachunku mies./zł, prowizja za
dostęp do kanałów elektronicznych (w tym token, jak jest), opłata za przelew do banku macierzystego, opłata za przelew do innego banku, procent za depozyty - lokata 10 tys., opłata za
wydanie karty, opłata za obsługę karty - mies./zł,
- funkcjonalne – ze względu na duŜe podobieństwo usług podstawowych wyróŜniono jedynie
ponadstandardowe usługi dodatkowe typu: ubezpieczenia, fundusze inwestycyjne, przelew za
granicę, czy rachunek walutowy,
- technologiczne - liczba bezprowizyjnych bankomatów, kanały dostępu do konta (placówki,
Internet, Call Center, telefon komórkowy), zabezpieczenia (identyfikator i hasło, token, protokół SSL, lista haseł jednorazowych, lista kodów jednorazowych).
W pierwszym kroku stosowano tradycyjną metodę punktową wraz z jej mutacjami i zakładaną
skalą preferencji. W metodzie punktowej zbierano informacje o wyróŜnionych kryteriach; przypisywano im wartości wg załoŜonej skali wartości oraz analizowano wyniki w tabeli zbiorczej. Przyjęto następującą skalę wartości ocen:
- 1,00 – bardzo dobra (pełne spełnienie kryterium, najniŜsze koszty);
- 0,75 – dobra (prawie doskonałe spełnienie kryterium, nieco wyŜsze koszty);
- 0,50 – średnia (połowiczne spełnienie kryterium, średnie koszty);
- 0,25 – dostateczna - zadowalające spełnienie kryterium, wysokie koszty;
- 0,00 – niedostateczna - brak cechy, najwyŜsze koszty.
Metodę punktową wykorzystywano w dwóch odmianach: prostej – gdzie kryteria były
traktowane równowaŜnie oraz ze skalą preferencji – gdzie grupom kryteriów przypisywano
wartości współczynników róŜnicujące ich traktowanie przez klienta (suma współczynników = 1).
18
Witold Chmielarz
Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego
wybranych banków w Polsce
W prostej metodzie punktowej mierzy się odległość od maksymalnie moŜliwej do uzyskania
(wg zakładanej skali wartości). Dotyczy ona wartości miary kryterium i w sensie odległości jest
taka sama, kiedy mierzymy odległości kryterium pierwszego od drugiego, jak i na odwrót. Nie
określa się natomiast relacji pomiędzy poszczególnymi kryteriami. Za taką miarę moŜna uwaŜać
przydanie poszczególnym kryteriom (lub ich grupom) skali preferencji. Liniowa skala preferencji
w postaci znormalizowanej określa z kolei udział poszczególnych kryteriów w ostatecznym
wyniku. Wyznacza więc jednorazową relację pomiędzy kryteriami w odniesieniu do całości oceny,
jest równieŜ jakby „uśrednioną” miarą dla kryteriów w poszczególnych przypadkach, nie
indywidualizując oceny dla kaŜdego z nich. Ale teŜ nie określa o ile kaŜde z kryteriów jest
lepsze/gorsze od innego. Jest tylko pochodną od znormalizowanej odległości.
Ta powszechnie dziś – w róŜnych odmianach - stosowana metodyka [9] posiada niestety
pewne wady, takie jak: subiektywizm ocen eksperckich, nieadekwatność wyznaczonych kryteriów
do oceny sytuacji występują teŜ problemy ze sprowadzeniem ocen róŜnych kryteriów do
porównywalności. Systematyka taka rodzi teŜ problemy związane z wątpliwościami dotyczącymi
potrzeby zbiorczych porównań róŜnych kategorii usług bankowych (np. karty, usługi internetowe,
usługi okienkowe itp.) w róŜnych formach bankowości elektronicznej (elektroniczny dostęp do
konta tradycyjnego, oddział elektroniczny, bank wirtualny); czy teŜ skali punktacji i jej
przeliczania z wartości pienięŜnych na umowne (punktowe lub procentowe).
Subiektywizm oceny moŜna ograniczyć poprzez zaangaŜowanie grupy ekspertów
i wyciągnięcie średniej lub dominanty z ich szacunków. Uśrednienie nie likwiduje, co prawda
subiektywizmu, ale moŜe go przynajmniej zmniejszyć. Grupa ekspertów moŜe teŜ wyznaczyć zbiór
kryteriów oceny, eliminując lub przynajmniej ograniczając ich brak odpowiedniości do sytuacji,
jak równieŜ wyznaczyć algorytm przeliczenia wskaźników wartościowych na ilościowe.
Podstawową zaletą tej grupy metod jest moŜliwość przedstawienia zbiorczego wyniku oceny
za pomocą jednego wskaźnika dla kaŜdego banku, który jest porównywalna z wynikiem
opisującym inne banki i to porównanie umoŜliwia. W ten sposób niejako udziela jednoznacznej
odpowiedzi na pytanie, który z danych banków jest dla określonej kategorii klienta najlepszy, nie
wdając się w dywagacje dotyczące rankingowania poszczególnych rodzajów usług bankowych. Nie
zmusza teŜ – dla porównań – do budowania złudnego w gruncie rzeczy i podwaŜanego przez
klientów - przeciętnego koszyka usług bankowych wycenianego wartościowo.
Do oceny kryteriów kosztowych, funkcjonalnych, technologicznych oraz pozostałych
posłuŜyła tabela wyjściowa, w której przedstawiono oferty banków dotyczące usług bankowości
elektronicznej i opłat związanych z korzystaniem z kont bankowych, którymi moŜemy zarządzać
przez Internet, utworzona na podstawie danych uzyskanych ze stron internetowych poszczególnych
banków. Na jej podstawie stworzono uproszoną i uśrednioną tabelę zbiorczą ocen kryteriów
generowanych przez ekspertów. Dane do tabeli uzyskano analizując od lutego do marca 2008 r.
serwisy internetowe wybranych, najpopularniejszych wśród klientów szesnastu banków
z elektronicznych dostępem do konta (w tym cztery banki internetowe), w razie potrzeby
wspomagając się informacją z infolinii lub innych źródeł internetowych.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
19
3. Wykorzystanie metody punktowej dla analiz usług bankowości elektronicznej dla klientów
indywidualnych
Podstawą dla zastosowanej metody konwersji były dane zgromadzone w metodzie punktowej.
Proste zsumowanie punktów uzyskanych z tabeli wyjściowej przedstawia określony ranking usług
bankowości elektronicznej dla poszczególnych banków. Na pierwszej pozycji znalazł się w tym
rankingu mBank (73,96% poziomu usług maksymalnych, wobec 68,42% w roku 2007), następnie
Lucas Bank (76,04% dzięki bardzo dobrze zorganizowanej obsłudze klienckiej), a na następnych
pozycjach dwa banki internetowe Toyota Bank (73,96% maksymalnej moŜliwej ilości punktów
wobec 77,63% w roku ubiegłym – niekwestionowany lider roku ubiegłego) oraz Volkswagen Bank
z usługą e-direct (72,92%). Dopiero na następnej pozycji znalazło się Inteligo PKO BP, płacące
cenę za nieelastyczną politykę (zwłaszcza cenową swojego właściciela).
Rozpiętość w ocenach najlepszej trójki sprowadza się do blisko 9 punktów procentowych
(wobec 2,25 punktu w roku ubiegłym), co świadczy o rosnącym zróŜnicowaniu ocen – tym razem
do oceny uchwycono banki w momencie zmian wzajemnych relacji w stosunku do indywidualnych
klientów. Tym niemniej, pomimo 24 punktów rozpiętości oceny najlepszej i najgorszej, widać, Ŝe
banki nawzajem pilnie się obserwują i wyciągają szybko wnioski z niepowodzeń i sukcesów
innych. W większości nie ma Ŝadnych obowiązkowych wpłat miesięcznych, albo są one celowo
minimalizowane (co nie do końca oddaje skala punktowa), przelewy do banku są na ogół
bezpłatne, a poziom zabezpieczeń moŜe być uznany za wystarczający dla klientów (2-4 rodzajów
zabezpieczeń). Pozostałe elementy są podstawą niejako przetargu konkurencyjnego na rynku,
ustalając cienką linię równowagi pomiędzy chęcią uzyskania przewagi konkurencyjnej, a zyskiem
banku (w Polsce niestety nadal z przewagą tego ostatniego).
W szczególności zaczyna to dotyczyć kwestii wizualizacyjnych (tradycja a nowe mody
i trendy w tym zakresie) oraz funkcjonalnych usług dodatkowych (ubezpieczenia, fundusze
inwestycyjne, przelewy za granicę, rachunek walutowy, karta wirtualna itp.). Najgorzej w tej
klasyfikacji wypadły: ING - konto direct 57,29%, Millenium – konto osobiste – 58,33% oraz
Nordea Bank – konto Nordea Spectrum – 59,38%. Oprócz Millenium, którego słaba pozycja
zaskakuje (klienci podkreślają słabą nawigację na stronie), są to przewaŜnie nowi partnerzy na
rynku, którzy swój brak doświadczenia w prowadzeniu indywidualnych usług elektronicznych
nadrabiają dobrymi pociągnięciami w zakresie kryteriów ekonomicznych (np. oprocentowanie
depozytów).
20
Witold Chmielarz
Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego
wybranych banków w Polsce
Wyniki rankingu przedstawiono na Rys.2.
mBank (ekonto)
81%
Lukas (e-KONTO)
76%
74%
Toyota Bank (konto osobiste)
73%
VWBank (e-direct) pakiet standard
PolBank EFG Rachunek Gotówkowy
71%
PKO BP - iPKO
70%
PKO BP Konto Inteligo
69%
Dominet Bank Konto Komfort
69%
BGś Plan Gotówkowy
67%
BZ WBK Konto 24.pl
65%
Getin Bank Konto Internetowe
61%
61%
Citibank (Konto osobiste CityOne Direct)
MultiBank (Multikonto Ja)
60%
Nordea Bank Konto Nordea Spectrum
59%
58%
Millenium (Konto osobiste)
57%
ING (direct)
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
Rys.2. Ranking uŜyteczności elektronicznego dostępu do kont indywidualnych
Z przedstawionego zestawienia wynika teŜ, Ŝe dwie usługi: opłata za wydanie karty i opłata za
przelew do banku macierzystego osiągnęły poziom, który w chwili obecnej jest w stanie zadowolić
klienta w ponad 90%. Bezapelacyjnie najgorszym wskaźnikiem jest oprocentowanie nominalne
roczne (oceniane w większości przez uŜytkowników jako zbyt niskie – 31,8% maksymalnych
moŜliwości). Niewiele ponad 50% ocen maksymalnych przekraczają teŜ wskaźniki opłat za
przelew do innego banku i usług dodatkowych. Z czynników niewymienionych w kryteriach klienci
zwracali uwagę na brak moŜliwości dokonania przelewu za granicę oraz brak moŜliwości
całkowicie automatycznego – przez Internet - uzyskania kredytu
Jak napisano wcześniej pierwszą metodą ograniczającą swoisty subiektywizm ocen grupy
ekspertów jest zastosowanie jednostkowych preferencji co do poszczególnych kryteriów, bądź
grup kryteriów. Przeprowadzono cztery eksperymenty przypisując preferencje do wariantów:
- ekonomicznego (60%), pozostałe po 20%;
- technologicznego (60%), pozostałe po 20%;
- funkcjonalnego (60%), pozostałe po 20%;
- pozaekonomiczne – po 45%, ekonomiczne 10%.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
21
mBank (ekonto)
Lukas (e-KONTO)
Toyota Bank (konto osobiste)
VWBank (e-direct) pakiet standard
PolBank EFG Rachunek Gotówkowy
Inteligo - PKO BP
PKO BP – iPKO
Punktowa z preferencjami funkcjonalnymi
Dominet Bank Konto Komfort
BGś Plan Gotówkowy
Punktowa z preferencjami technologicznymi
Punktowa z preferencjami pozaekonomicznymi
Punktowa z preferencjami ekonomicznymi
BZ WBK Konto 24.pl
Getin Bank Konto Internetowe
Citibank (Konto CityOne Direct)
MultiBank (Multikonto Ja)
Nordea Bank Konto Nordea Spectrum
Millenium (Konto osobiste)
ING -direct
0,0000 0,0100 0,0200 0,0300 0,0400 0,0500 0,0600 0,0700 0,0800 0,0900
Rys.3. Ranking oceny punktowej wg róŜnych rodzajów preferencji dla wybranych banków
W kaŜdym z przypadków niezagroŜoną, pierwszą pozycję ma mBank. W miarę zmniejszania
się wpływu czynników ekonomicznych dobre pozycje Inteligo i Toyota Bank przechodzą na konta
indywidualne BZ WBK oraz iKonto PKO BP. Dobrze zrównowaŜone czynniki oceny posiada
Lukas Bank w dwóch na cztery przypadki przesuwający się w tych rankingach na drugie miejsce.
Na pozycjach ostatnich kolejność specjalnie się nie zmienia – oprócz uprzednio wymienionych:
Millenium i ING, jest to Getin Bank, przy dominacji czynników ekonomicznych zamieniający się
z Dominet Bankiem.
Przedstawione wyniki – otrzymane przy pomocy tradycyjnej metody punktowej i metody
punktowej z róŜną skalą preferencji nie wyczerpują moŜliwości oceny witryn internetowych.
Prowadzone od ubiegłego roku badania szczegółowe pokazują, Ŝe metody eliminujące wskaźniki
subiektywne pokazują nieco inne rezultaty niŜ przedstawione w powyŜszym badaniu.
4.
Wykorzystanie metody konwersji dla analiz usług bankowości elektronicznej dla klientów indywidualnych
ZałoŜenia metody konwersji były następujące: po zbudowaniu przez ekspertów tabeli ocen
poszczególnych kryteriów dla kaŜdego z banków - konwersję naleŜy rozpocząć od ustalenia
wektora preferencji kryteriów poziomu nadrzędnego. Proponuje się następujące przekształcenie
zbiorczej tabeli wynikowej na wektor preferencji (pierwszy konwerter):
22
-
-
Witold Chmielarz
Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego
wybranych banków w Polsce
utworzenie macierzy odległości od wartości maksymalnej dla kaŜdego kryterium, w kaŜdym
serwisie,
obliczenie średniej odległości od wartości maksymalnej, dla kaŜdego kryterium,
stworzenie macierzy róŜnic pomiędzy odległością od wartości maksymalnej, a odległością
średnią wg kryteriów,
dla kaŜdego serwisu banku budowa macierzy konwersji (4) – modułów odległości względnych
poszczególnych kryteriów od pozostałych kryteriów (odległość od tego samego kryterium wynosi 0), poniŜej przekątnej uzyskane odległości są odwrotnością odległości powyŜej przekątnej,
uśrednienie macierzy konwersji kryteriów – stworzenie jednej macierzy średnich modułów
wartości dla wszystkich kryteriów,
przekształcenie macierzy konwersji kryteriów w nadrzędną macierz preferencji (obliczenie
kwadratu macierzy, sumowanie po wierszach, standaryzacja uzyskanego wektora preferencji;
ponowne podniesienie do kwadratu, sumowanie po wierszach, standaryzacja wektora preferencji – powtarzanie tej iteracji dopóki róŜnice w kolejnych wektorach preferencji będą minimalne).
Następnie dokonywano przekształcenia wyników podanych przez ekspertów na poziomie
macierzy określających oceny eksperckie kolejnych serwisów dla poszczególnych kryteriów (drugi
konwerter). Wyniki otrzymano w analogiczny sposób:
- stworzenie macierzy odległości od wartości maksymalnej dla kaŜdego kryterium i kaŜdej witryny,
- obliczenie średniej odległości od wartości maksymalnej, dla kaŜdego serwisu,
- stworzenie macierzy róŜnic odchyleń od wartości maksymalnej i średniej odległości cech od
maksymalnej,
- dla kaŜdego kryterium skonstruowanie macierzy (12) przekształceń (konwersji) róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami, analogicznie jw. (odległość dla
danej cechy w tym samym serwisie od tego samego serwisu wynosi 0), wartości poniŜej przekątnej są odwrotnościami tych, które są powyŜej przekątnej,
- budowa macierzy modułów przekształceń róŜnic odległości średniej od wartości maksymalnej
pomiędzy serwisami, dla kaŜdego kryterium,
- dla kaŜdej macierzy modułów przekształceń róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami podniesienie jej do kwadratu, podsumowanie wierszy, standaryzacja
uzyskanego wektora rankingu oraz powtarzanie tej czynności dopóki róŜnice uzyskane pomiędzy dwoma wektorami rankingowymi dla danego kryterium będą minimalne,
- skonstruowanie z tak uzyskanych wektorów zbiorczej macierzy rankingowej – powrót do macierzy gdzie w boczku są nazwy kryteriów, w główce nazwy serwisów bankowych przez odpowiednie przeniesienie do niej uzyskanych wektorów preferencji dla kaŜdego kryterium,
- przemnoŜenie tak uzyskanej macierzy przez obliczony uprzednio wektor preferencji,
- analizowanie wyników ostatecznych i wyciągnięcie wniosków (uwaga: najniŜsze odległości są
w tym przypadku najkorzystniejsze, sprowadzenie do porównywalności z pozostałymi metodami moŜemy uzyskać przez odjęcie tych wartości od 1 i ich ponowną standaryzacji).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
23
Metoda konwersji – jako oparta na uśrednionych odległościach od przeciętnych - spłaszczyła
uzyskane wyniki. Tym niemniej występuje w niej większa zgodność z wynikami uzyskanymi
metodą punktową niŜ w metodzie AHP.
mBank (ekonto)
Lukas (e-KONTO)
Toyota Bank (konto osobiste)
VWBank (e-direct) pakiet standard
PolBank EFG Rachunek Gotówkowy
Inteligo - PKO BP
PKO BP – iPKO
Dominet Bank Konto Komfort
BGś Plan Gotówkowy
Punktowa z preferencjami z metody konwersji
Metoda konwersji
BZ WBK Konto 24.pl
Getin Bank Konto Internetowe
Citibank (Konto CityOne Direct)
MultiBank (Multikonto Ja)
Nordea Bank Konto Nordea Spectrum
Millenium (Konto osobiste)
ING -direct
0,0000 0,0100 0,0200 0,0300 0,0400 0,0500 0,0600 0,0700 0,0800 0,0900
Rys. 4. Ranking oceny elektronicznego dostępu do kont indywidualnych w wybranych bankach
Z trzech pierwszych pozycji – mBank (1) oraz Toyota Bank (3), zgadzają się z wynikami
metody punktowej. Podobna zaleŜność występuje w obsłudze kont indywidualnych banków
najgorszych. Zdecydowane zróŜnicowanie wyników w porównaniu z metodą punktową nastąpiło
natomiast po przemnoŜeniu wyników metody punktowej przez wektor preferencji metody
konwersji. Tu na pierwszej pozycji znalazły się Toyota Bank i Lukas Bank, a na najgorszych
MultiBank i CityBank. Podobna zaleŜność wystąpiła w metodzie punktowej z preferencjami
pozaekonomicznymi. Wyniki dla metody konwersji oraz metody punktowej przemnoŜonej przez
wektor preferencji metody konwersji przedstawiono na Rys. 4.
6. Wnioski
PowyŜej przedstawiono dwie z trzech zastosowanych metod oceny przedsięwzięć
informatycznych: metodę punktową (zwaną czasem wielokryterialną metodą punktową) oraz
własną metodę konwersji, opartą na pomiarze średnich odległości uzyskanych z metody
punktowej. Ze względu na szczupłość miejsca nie ukazano wyników metodą AHP (Analytic
Hierarchy Process – T.L. Saaty.). Zaś metoda konwersji powstała jako kompromis pomiędzy
24
Witold Chmielarz
Problemy oceny witryn bankowości elektronicznej dla klienta indywidualnego
wybranych banków w Polsce
metodą AHP, a metodą punktową i zdaje się uwzględniać odpowiedzi na wszelkie postulaty
zgłaszane dla udoskonalenia metody punktowej (przede wszystkim ogranicza subiektywizm ocen
ekspertów).
Jednocześnie w pracy przedstawiono wstępne metody przeciwdziałania subiektywizmowi
ocen:
- zgromadzenie zespołu ekspertów, którego średnie oceny brane są pod uwagę w szacowaniu
pomiaru,
- określenie przez ten zespół róŜnych (technicznej, funkcjonalnej, ekonomicznej i pozaekonomicznej) skal preferencji uŜytkownika oraz analiza skutków przyjęcia takich załoŜeń,
- zastosowania skali preferencji innych metod (tu metody AHP oraz metody konwersji).
Pomimo, Ŝe oceny wg róŜnych metod, tych samych witryn w tym samym okresie dokonywał
ten sam zespół ekspertów, uzyskane rankingi – pomimo zachowani głównego trendu (przodujące w
jednym rankingu na ogół przodowały równieŜ w innym), nieco się między sobą róŜniły. I przy tej
ilości zastosowanych kryteriów trudno jest czasem określić prawdziwe przyczyny tych róŜnic.
Generalnie rzecz biorąc:
- metoda punktowa, chociaŜ subiektywna, przy duŜej ilości kryteriów, tradycyjnej metodzie
liniowej skali punktowej, była przez ekspertów oceniana pozytywnie, jako racjonalna, łatwa
do przyswojenia metoda oceny. Po uwzględnieniu skali preferencji eksperci twierdzili, Ŝe –
ich zdaniem – wraŜenie subiektywizmu i równowaŜności definitywnie róŜnych kryteriów nie
są aŜ tak znaczące, jak to wynika z ocen środowisk naukowych.
- metoda AHP okazała się w opinii ekspertów bardzo uciąŜliwa w przypadku konieczności porównania wielu serwisów, za pomocą większej ilości kryteriów. Deklaratywny obiektywizm tej
metody przegrywał tu ze zmęczeniem eksperta, dlatego często pierwsze przeglądane witryny
uzyskiwały w stosunku do następnych lepsze oceny (zmiana kolejności oceny witryn dawała
zupełnie inne rezultaty). Często przedstawiona ocena była uwaŜana przez ekspertów za niejednoznaczną, ze względu na jej relatywizm i rozciągnięcie skali. Pracochłonności tej metody
rosła w porównaniu z metodą punktową wykładniczo w stosunku do ilości wykorzystywanych
kryteriów oceny oraz ilość branych pod uwagę witryn bankowych.
- metoda konwersji łącząc zalety metody punktowej (jednoznaczna, łatwa ocena kryterium) oraz
metody Saaty’ego (określenie relacji kryterium do innych kryteriów), a polegająca na wyznaczeniu relacji kryterium w stosunku do innych kryteriów opartej o uśrednione odległości od
potencjalnej wartości maksymalnej na podstawie wcześniejszej oceny punktowej, została
uznana za rozsądny kompromis pomiędzy tymi metodami..
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
25
7. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Chmielarz W.: Metody oceny witryn banków internetowych w zakresie obsługi klienta indywidualnego, Rachunkowość bankowa, nr 3(40), 2008, str. 65-77.
Chmielarz W.: Przełączniki metodyczne w ocenie witryn internetowych sklepów komputerowych, rozdz. 43 w: Zarządzanie Wiedzą i Technologiami Informatycznymi, red. C.
Orłowski, Z. Kowalczuk, E. Szczerbicki, nr 4 seria: Automatyka i Informatyka, Pomorskie Wydawnictwo Naukowo-Techniczne PWNT, Gdański, 2008, str. 361-368.
Chmielarz W.: Systemy elektronicznej bankowości, Difin, Warszawa, 2005.
F-Secure Reveals Consumer Attitudes Toward Internet Security Across Europe and North
America in: http://www.f-secure.com/f-secure/pressroom/news/fs_news_20080228_01_
eng.html, maj 2008.
Macierzyński M.:: 40 procent rachunków obsługiwanych jest przez Internet, Warszawa,
2007 r., http://www.bankier.pl/wiadomosc/juz-40-procent-rachunkow-obslugiwanychjest-przez-internet-1588175.html.
Modele efektywnych zastosowań elektronicznego biznesu w sektorach gospodarki polskiej, red. Chmielarz W., Wydawnictwo WSEI, Warszawa, 2007.
Saaty T.L: Fundamentals of the Analytic network process, ISAHP, Kobe, nr 8, 1999 r.
Saaty T.L.: How to Make a Decision: The Analytic Hierarchy Process, European Journal
of Operational Research, No 48, 1990, str. 9-26.
Surmacz W.: Sieć i płacz, w: Biznes Ranking banków „Newsweeka”, Newsweek z 30. 09.
2007 str.58-60.
EVALUATION PROBLEMS OF E-BANKING WEBSITES FOR INDIVIDUAL CUSTOMER IN SELECTED BANK IN POLAND
Summary
The main goal of the article is evaluation method problems of websites presentation. As an example e-banking websites for individual customers are taken. After
introduction about aspects of valuation by traditional methods, new procedure of
measure is shown. In the final part there are comparing sets of results of investigation and conclusions were drawn.
Keywords: evaluation methods of innovation, e-banking, method comparing
Witold Chmielarz
Wydział Zarządzania
Uniwersytet Warszawski
e-mail: [email protected].
26
Mirosław Dyczkowski
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych
MIROSŁAW DYCZKOWSKI
Uniwersytet Ekonomiczny we Wrocławiu
ANALIZA SCENARIUSZOWA JAKO CZĘŚĆ ROZSZERZONEJ OCENY EFEKTYWNOŚCI PRZEDSIĘWZIĘĆ INFORMATYCZNYCH
Streszczenie
Badając efektywność przedsięwzięć informatycznych, których źródłem finansowania (współfinansowania) są środki pochodzące z funduszy europejskich stosuje się
podejście typu CBA (cost-benefits analysis). CBA i wyliczane podczas analizy wartości NPV i IRR są podstawą oceny opłacalności i określonych rekomendacji dla decyzji o uruchomieniu projektów. Uwzględnienie w takich ocenach czynników zmienności załoŜeń projektowych oraz związanego z nimi ryzyka wymaga ich rozszerzenia o
dodatkowe badania, których przykładem jest analiza scenariuszowa. W artykule
omówiono istotę analizy scenariuszowej oraz przedstawiono przykład jej uŜycia w
ocenie efektywności projektu implementacji systemu klasy ERP w rozproszonym
przestrzennie przedsiębiorstwie dystrybucyjnym.
Słowa kluczowe: przedsięwzięcia informatyczne, efektywność inwestycji informatycznych, metody oceny efektywności, analiza scenariuszowa
1. Wprowadzenie
Współcześnie informatyka jest jednym z waŜniejszych czynników rozwoju, dzięki któremu
jest moŜliwe tworzenie nowych form i sposobów obsługi działalności wewnątrz firm oraz w ich
otoczeniu gospodarczym i społecznym. Jednak takie rozwiązania i wspomagające je inwestycje
informatyczne powinny, podobnie jak kaŜda aktywność przedsiębiorstw, sprzyjać osiąganiu
zakładanych korzyści, a więc ich realizacja oraz wytworzone produkty musi cechować
efektywność.
Autor od kilku lat zajmuje się w swej działalności naukowo-badawczej problematyką
organizacji i zarządzania przedsięwzięciami informatycznymi, ze szczególnym uwzględnieniem
zagadnień ich efektywności ekonomicznej. Obserwując procesy informatyzacji i badając ich
rezultaty zauwaŜył, Ŝe jednym z waŜnych zagadnień w planowaniu biznesowej strony
przedsięwzięć informatycznych jest jak najbardziej precyzyjne oszacowanie ich efektywności.
W literaturze przedmiotu (por. m.in. [1], [2], [5] i [7] oraz powoływane tam prace innych
autorów) precyzyjnie sformułowano załoŜenia dotyczące procesu badania efektywności, które
następnie przekładają się na jego strukturę oraz przebieg procedur pomiaru i oceny. Po pierwsze,
takie badanie powinno mieć charakter pełnozakresowy, czyli dotyczyć obu stron rachunku
efektywności, a więc nakładów (kosztów) i efektów (wyników, korzyści). Po drugie, pomiar musi
opierać się na jednoznacznych kryteriach i adekwatnych, moŜliwych do zastosowania
w środowisku danego projektu metodach i miarach. Po trzecie, aby zapewnić porównywalność
ocen, naleŜy znormalizować obiekty pomiaru, co najlepiej osiągamy wyraŜając je w jednostkach
pienięŜnych. Po czwarte, perspektywą badawczą powinno być ujęcie zintegrowane (systemowe),
obejmujące efektywność procesową, związaną z przedsięwzięciem IT oraz efektywność
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
27
produktową, której istotę stanowią pełne koszty posiadania (TCO) i korzyści z uŜytkowania (TCB)
jego produktów.
Wymienione zasady spełniają szeroko opisane w literaturze ekonomicznej (por. [7, rozdz. 2]
i powoływane tam prace), sprawdzone w praktyce rachunku inwestycyjnego i stosowane coraz
częściej takŜe w obszarze IT (por. [2, rozdz. 4 i 5] i [3]) metody analityczne oparte na algorytmach
typu CBA (cost-benefits analysis). W praktyce przedsięwzięć informatycznych najczęściej są one
jednak ograniczane do prostych ocen bezwzględnej opłacalności, uzyskiwanych poprzez finansowe
miary statyczne (okres zwrotu – PB i księgowa stopa zwrotu – ARR) oraz dynamiczne
(zaktualizowana wartość netto – NPV, wewnętrzna stopa zwrotu – IRR, wskaźnik rentowności –
PI, zdyskontowany okres zwrotu – DPP i zmodyfikowana wewnętrzna stopa zwrotu – MIRR).
Znacznie rzadziej ocena efektywności jest rozszerzana o analizy uwzględniające zmienność
przyjmowanych załoŜeń projektowych oraz czynnik ryzyka, które stanowią przecieŜ immanentne
cechy przedsięwzięć innowacyjnych, do których zaliczamy znaczą część projektów
informatycznych. Przykładowymi technikami, które z powodzeniem moŜna zastosować w takich
rozszerzonych badaniach są analizy wraŜliwości, scenariuszowe oraz probabilistyczno-statystyczne
i symulacyjne [7, s. 189-228]. PowyŜsze techniki analityczne są rekomendowane w projektach
europejskich, w tym przedsięwzięciach z obszaru IT prowadzonych z wykorzystaniem środków
pochodzących z europejskich funduszy wsparcia [6, s. 192-193]. Pierwszą z nich, tj. analizę
wraŜliwości autor szerzej omówił wraz z pokazaniem przykładu jej uŜycia w projekcie utworzenia
regionalnego centrum personalizacji elektronicznej legitymacji studenckiej w pracy [4]. Natomiast
celem niniejszego opracowania jest prezentacja analizy scenariuszowej.
2. Istota analizy scenariuszowej
Analiza scenariuszowa (scenariuszy, scenario analysis) to – obok analizy wraŜliwości oraz
grupy metod probabilistyczno-statystycznych i symulacyjnych – najwaŜniejsza pośrednia metoda
analizy ryzyka przedsięwzięć inwestycyjnych [7, rozdz. 3]. Jest ona stosunkowo prostą techniką
analityczną, której istotę stanowi badanie wpływu moŜliwych zmian podstawowych parametrów
przedsięwzięcia na poziom jego opłacalności. Zakłada się przy tym, Ŝe w fazie realizacji projektu
(inwestycyjnej), a następnie w fazie uŜytkowania jego produktów (operacyjnej) wartości
poszczególnych parametrów uŜytych do oszacowania jego efektywności ex ante mogą przyjąć inne
wielkości niŜ pierwotnie załoŜono. Takie podejście wynika z charakterystycznego dla rozwoju
metod bezwzględnego rachunku efektywności odejścia od załoŜeń deterministycznych
w szacowaniu opłacalności projektów, utoŜsamianego z przyjmowaniem w czasie badania jednego,
z góry przyjętego poziomu zmiennych, na rzecz probabilistycznego rozumienia efektywności, czyli
badania najwaŜniejszych zmiennych na wielu moŜliwych poziomach. Zwiększa to zakres
i wiarygodność dostarczanej informacji o ryzyku projektowym, gdyŜ udostępnia decydentom
wiedzę o skutkach zmienności parametrów, istotnych z punktu widzenia opłacalności, a tym
samym wraŜliwości załoŜonych efektów na te zmiany. W sposób pośredni wspomaga tym samym
szacowanie wartości oczekiwanych i odchyleń, redukując tak charakterystyczną dla projektów IT
niepewność.
W analizie scenariuszowej, którą moŜna przeprowadzać według modelu zagregowanego
i zdezagregowanego, uwzględnia się zarówno wraŜliwość zmiennych objaśnianych (najczęściej jest
nią NPV, ale moŜna teŜ badać w ten sposób IRR czy MIRR) na zmiany niezaleŜnych zmiennych
objaśniających, jak i zakres najbardziej prawdopodobnych wartości zmiennych objaśniających
28
Mirosław Dyczkowski
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych
(por. przykładowe warianty analityczne zawarte w tab.1). Pozwala to wyeliminować istotne
ograniczenie standardowej analizy wraŜliwości, w której po kolei bada się wpływ zmian wartości
poszczególnych zmiennych objaśniających, stabilizując pozostałe składowe występujące
w algorytmie danej metody (wskaźnika).
Tabela 1. Warianty badania wraŜliwości parametrów przedsięwzięć informatycznych
Przykładowe kryteria oceny
Zmienne zagregowane
NCFt
NPV = ∑
t
t = 0 (1 + k )
NPV1 * (k 2 − k1 )
NPV1 − NPV2
n
MIRR = n
∑ CIF * (1 + k )
t
t =0
n
COFt
∑
t
t = 0 (1 + k )
(1) zmiana (+/−) nakładów
i/lub kosztów
(2) zmiana (+/−) efektów
(1) zmiana długości (+/−) faz
projektowych i/lub realizacyjnych
(2) zmiana długości (+/−) fazy
uŜytkowania
przepływy pienięŜne
netto (NCF)
n
IRR* = k1 +
Zmienne szczegółowe
cykl Ŝycia
przedsięwzięcia
( n −1)
−1
(1) zmiana (+/−) kosztu kapitału
(2) zmiana struktury finansowania
stopa dyskontowa (k)
Przykładowe nakłady i/lub koszty
uŜytkowania
inwestycyjne
i obsługi
sprzęt (zakup, instalacja, utrzymanie sprzętu (w
uruchomienie...)
tym koszty serwisu)
oprogramowanie (licen- utrzymanie oprogramocje, modyfikacje, usługi wania (opieka autorska,
towarzyszące...)
upgrade’y)
usługi doradcze, techusługi doradcze, techniczne, szkoleniowe itp. niczne, szkoleniowe itp.
w ramach przygotowania w ramach wsparcia po
i realizacji projektu
wdroŜeniu
inne koszty operacyjne
inne nakłady i/lub koszty
(materiały eksploatacyj(pomieszczenia, koszty
ne, energia, koszty prabudŜetowane poza IT...)
cy...)
Przykładowe efekty
automatyzacji
informacyjne
obniŜenie kosztów działalności poprzez niŜsze
koszty wspomagania
procesów biznesowych
i/lub koszty IT...
generowanie nowych,
wcześniej niedostępnych
informacji lub dostarczanie informacji, które
wcześniej były dostępne,
poprawa sprawności
ale obecnie są dokładrealizacyjnej, wydajności
niejsze, udostępniane w
i produktywności procedogodniejszy sposób i w
sów biznesowych i/lub
postaci ułatwiającej ich
informacyjnych poprzez
uŜycie, w trybie on-line,
ich całościową i/lub częnadąŜnie, mobilnie...
ściową automatyzację
Źródło: Opracowanie własne na podstawie [2] i [7]; por. [4]
Istotą techniki jest więc określanie scenariuszy, które zakładają przyjmowanie przez
niezaleŜne zmienne objaśniające występujące w algorytmie danej metody oceny opłacalności,
będącej podstawą bezwzględnego kryterium decyzyjnego (w projektach europejskich NPV ≥ 0
oraz IRR ≥ kgr, gdzie kgr to graniczna stopa dyskonta), określonych wartości w przyszłości [7, s.
204]. Korzysta się przy tym z informacji uzyskanych z analizy wraŜliwości (macierze, wskaźniki
i krzywe wraŜliwości oraz oszacowane względne i bezwzględne marginesy bezpieczeństwa, szerzej
29
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
na ten temat autor napisał w pracy [4]), sporządzając na ich podstawie moŜliwe warianty
(scenariusze) przyszłego kształtowania się niezaleŜnych zmiennych objaśniających.
Na rys. 1 przedstawiono miejsce analizy scenariuszowej w procesie pomiaru i oceny
efektywności przedsięwzięć informatycznych. Widać na nim wyraźnie, Ŝe powinna ona być
stosowana na etapie decyzyjnym, szczególnie podczas badania ex ante, gdy decydujemy
o uruchomieniu projektu i/lub wybieramy jego warianty realizacyjne, próbując odpowiedzieć na
pytania typu:
− jakie rozwiązania z zakresu technologii i/lub systemów informatycznych będą najefektywniej
wspierać bieŜącą i przyszłą strategię firmy?
− czy a następnie kiedy naleŜy podjąć się realizacji konkretnego projektu i jakie są główne powody takiej decyzji?
− które z przedsięwzięć IT naleŜy realizować i w jakiej kolejności, jeŜeli tworzą one program
informatyzacji (portfel projektów informatycznych)?
− z oferty którego z dostawców produktów i/lub usług IT, wybranego na bazie jakich kryteriów
szczegółowych, skorzystać realizując dane przedsięwzięcie?
etap przeddecyzyjny
Określenie granic projektu
Dekompozycja projektu
Projekt/system
Podprojekty
Podsystemy
Projekt/system
Procesy
etap decyzyjny
Wybór modelu decyzyjnego i scenariusza badania
badanie ex ante
badanie w trakcie
badanie ex post
decyzje przedprojektowe
decyzje operacyjne
decyzje poprojektowe
(uruchomienie projektu, wybór wariantu
realizacyjnego, zdefiniowanie zasad oceny)
(wprowadzenie zmian,
zaniechanie realizacji)
(wprowadzenie zmian, inicjacja
nowego projektu)
planowane nakłady i efekty
ponoszone nakłady
i bieŜące efekty
poniesione nakłady
i uzyskane efekty
(prognozy, estymacje, symulacje)
konieczność uwzględnienia czynników zmienności i ryzyka
analizy wraŜliwości
pomiar i ocena
Repozytorium metod badania efektywności
a) rachunek efektywności inwestycji
b) analiza ekonomiczna i finansowa
c) metody tradycyjne i dedykowane
analizy scenariuszowe
Narzędzia wspomagające
a) pakiety biurowe (np. Excel, Calc)
b) systemy zarządzania projektami (np. Project)
Rys. 1. Miejsce analizy scenariuszowej w badania efektywności przedsięwzięć IT
Źródło: Opracowanie własne; por. [2, s. 68] i [5, s. 41]
30
Mirosław Dyczkowski
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych
Analiza scenariuszowa obejmuje dwa podstawowe etapy: konstruowania scenariuszy
i obliczeniowo-oceniający. W pierwszym z nich określa się scenariusze opisujące strukturę
zmiennych objaśniających (zagregowanych i/lub szczegółowych) oraz ich wartości w przyszłości.
Jak wskazano wcześniej, pomocna jest przy tym przeprowadzona wyprzedzająco analiza
wraŜliwości, która pozwala zidentyfikować dla kaŜdego projektu czynniki o decydującym wpływie
na jego efektywność, a więc wyznaczyć tzw. zmienne krytyczne. Na przykład w projektach
europejskich dalszej analizie powinno się poddać te parametry, których wzrost albo spadek o 1%
przynosi zmiany rzędu 1% w obliczanej na ich podstawie wartości IRR lub 5% bazowej wartości
NPV [6, s. 218].
W literaturze przedmiotu (por. m.in. [7, s. 204-205] i powoływane tam prace innych autorów)
zaleca się najczęściej konstruowanie co najmniej trzech scenariuszy (tzw. analiza OBP):
− optymistycznego (optimistic, O), w którym niezaleŜne zmienne objaśniające przyjmują wartości na poziomie najbardziej optymistycznym,
− bazowego (best, baseline, B), w którym niezaleŜne zmienne objaśniające są przyjmowane
w wartościach załoŜonych i/lub wymaganych dla analizowanego przedsięwzięcia,
− pesymistycznego (pessimistic, P), który jest tworzony dla najbardziej pesymistycznych wartości niezaleŜnych zmiennych objaśniających.
W związku z tym, Ŝe w „rzeczywistości projektowej” liczba scenariuszy jest nieograniczona,
moŜna spotkać poglądy, iŜ nie powinna być ona a priori określana. Taką koncepcję przedstawili
S.A. Ross, R.W. Westerfild i B.D. Jordan, ale jako minimum sugerują oni jednocześnie
konstruowanie co najmniej 5 scenariuszy: bazowego, dwóch skrajnych (optymistycznego
i pesymistycznego) oraz dwóch opartych na wartościach pośrednich między scenariuszem
bazowym a skrajnymi (podano za pracą [7, s. 205]).
W drugim etapie dla kaŜdego zdefiniowanego scenariusza wylicza się wartości zmiennej
objaśnianej. Jak zaznaczono wcześniej najczęściej jest nią NPV, ale na przykład w projektach
europejskich (w związku z przyjętym bezwzględnym kryterium decyzyjnym) dodatkowo powinno
się uwzględniać róŜne formuły obliczeniowe NPV, tj. FNPV (finansowa NPV w ujęciu
komercyjnym w wariantach dla projektu – tzw. FNPV/C i dla kapitału własnego – tzw. FNPV/K)
i ENPV (ekonomiczna NPV w ujęciu społecznym), a takŜe róŜne formuły IRR, tj. FRR (finansowa
IRR w ujęciu komercyjnym w wariantach zwrotu z projektu – tzw. FRR/C i zwrotu z kapitału
własnego – tzw. FRR/K) oraz ERR (ekonomiczna IRR w ujęciu społecznym); por. [6, s. 192 i 202216].
Tabela 2. Modelowe warianty sytuacji decyzyjnych w analizie scenariuszowej OBP
Warianty
I
II
III
IV
Bezwzględne kryterium decyzyjne dla scenariusza
optymistycznego
bazowego
pesymistycznego
NPV ≥ 0 i IRR ≥ kgr
NPV ≥ 0 i IRR ≥ kgr
NPV ≥ 0 i IRR ≥ kgr
NPV < 0 i IRR < kgr
NPV ≥ 0 i IRR ≥ kgr
NPV ≥ 0 i IRR ≥ kgr
NPV ≥ 0 i IRR ≥ kgr
NPV < 0 i IRR < kgr
Rekomendacja
realizować
NPV < 0 i IRR < kgr
NPV < 0 i IRR < kgr
konieczna pogłębiona analiza
NPV < 0 i IRR < kgr
NPV < 0 i IRR < kgr
odrzucić
Źródło: Opracowanie własne na podstawie [7, s. 206]
31
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
Wyliczone wartości zmiennej objaśnianej są podstawą dla decyzji inwestycyjnych. Modelowe
sytuacje decyzyjne oraz wynikające z nich rekomendacje, zgodne z podanym wcześniej kryterium
opłacalności, przedstawiono w tab. 2. W przypadku wariantów II i III sugerowana jest pogłębiona
analiza metodami probabilistyczno-statystycznymi i symulacyjnymi oraz określenie akceptowalnej
przez inwestującego wysokości dopuszczalnej straty, czyli takiej, która nie zagrozi firmie
powaŜnymi konsekwencjami finansowymi, w przypadku realizacji projektu według scenariusza
pesymistycznego lub do niego zbliŜonego. Dla właściwie skonstruowanych scenariuszy
maksymalna wartość potencjalnej straty jest równa ujemnej wartości NPV, obliczonej dla
scenariusza pesymistycznego i ta właśnie wartość powinna stanowić punkt odniesienia przy jej
wyznaczaniu. Na ogół, gdy potencjalna strata, wynikająca z realizacji danego przedsięwzięcia,
moŜe być bez większych problemów zakumulowana przez firmę, podejmuje się decyzję
o uruchomieniu projektu.
3. Przykład oceny efektywności rozszerzonej o analizę scenariuszową
Przedmiotem przykładu jest analiza efektywności inwestycji związanych z implementacją systemu klasy ERP w rozproszonym przestrzennie przedsiębiorstwie dystrybucyjnym działającym
przede wszystkim na rynku hurtowym oraz zaopatrzenia jednostek, w których procedury zakupowe
prowadzone są drogą przetargów regulowanych prawem zamówień publicznych. W tab. 3 przedstawiono zakres projektu, prezentując podstawowe funkcje uŜytkowa systemu wraz z liczbą tzw.
aktywnych uŜytkowników (licencji).
Tabela 3. Zakres badanego projektu (podstawowe funkcje i liczba aktywnych uŜytkowników)
Lokalizacja
Podsystem
Dystrybucja hurtowa
Dystrybucja detaliczna (I etap)
Finanse, księgowość i controlling
Kadry i płace
Środki majątkowe
Zarządzanie sklepami
CRM (rozszerzony funkcjonalnie
o obsługę przetargów i zamówień publicznych)
72
0
13
3
2
3
Oddziały (4
rozproszone)
56
0
6
0
0
7
60
56
Centrala
Sklepy
Razem
0
3
0
0
0
0
128
3
19
3
2
10
1
117
Źródło: Opracowanie własne
Przedsięwzięcie było prowadzone jako projekt zewnętrzny, drogą pozyskania od jednego dostawcy pełniącego rolę integratora, zgodnego ze specyfikacją systemu zintegrowanego klasy ERP,
rozszerzonego o dodatkowe moduły dystrybucyjne zrealizowane w technologii bazującej na usługach sieciowych. W tab. 4 podano strukturę rodzajową nakładów i kosztów związanych z tą inwestycją. NaleŜy dodać, Ŝe wszyscy dostawcy uczestniczący w przetargu na realizację projektu musieli „wpisać się” w zaprezentowaną strukturę, co ułatwiało porównanie pełnych kosztów pozyskania, implementacji i posiadania aplikacji (tzw. TCO projektu).
32
Mirosław Dyczkowski
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych
Tabela 4. Struktura rodzajowa nakładów i kosztów badanego projektu
Lp.
1
2
3
4
5
6
7
8
9
10
11
Rodzaj nakładu i/lub kosztu
Oprogramowanie aplikacyjne, stanowiące własność oferenta
Motor bazy danych
Licencje za oprogramowanie nie stanowiące własności oferenta i usługi towarzyszące
Usługi doradcze w ramach opracowania koncepcji wdroŜenia
Usługi doradcze w ramach przygotowania wdroŜenia
Usługi informatyczne w ramach przygotowania wdroŜenia – modyfikacje
systemu informatycznego
Usługi doradcze w ramach wdroŜenia
Usługi informatyczne, techniczne i szkoleniowe w ramach wdroŜenia – prace
wdroŜeniowe (instalacja, konfiguracja, szkolenia, tworzenie baz danych, w
tym migracja danych, testy systemu)
Usługi informatyczne i techniczne w ramach wsparcia po wdroŜeniu (roczna
opieka autorsko-upgrade’owa)
Sprzęt komputerowy (serwery i urządzenia sieciowe)
Łączna wartość wg oferty
Wartość w PLN
585 600,00
94 634,00
214 688,00
24 400,00
24 400,00
109 800,00
24 400,00
604 144,00
91 500,00
416 920,00
2 190 486,00
Źródło: Opracowanie własne
Szacując efekty przedsięwzięcia oraz przepływy pienięŜne oparto się na zasadach analizy
przyrostowej (por. [2] i [7]), przy czym efekty dotyczyły usprawnienia, a tym samym obniŜenia
kosztów procesów dystrybucyjnych, magazynowych oraz obsługi naleŜności i roszczeń, a takŜe
wynikającego z tego zmniejszenia poziomu zapasów i udziału kredytów w finansowaniu działalności operacyjnej firmy. Poziom oczekiwanych efektów szacowano na podstawie projekcji zmian
struktury kosztów procesów biznesowych, określonej na bazie danych historycznych sprowadzonych do cen stałych i zakładanych przez firmę korzyści z wdroŜenia rozwiązań informatycznych.
Przyjęto przy tym, Ŝe krzywa oczekiwanych efektów ekonomicznych będzie miała przebieg charakterystyczny dla implementacji systemów klasy ERP, tj. w pierwszym roku ich skala wyniesie
2% w stosunku do średniej z lat poprzedzających projekt, w kolejnych dwóch latach będą one
większe o 6% i o 5% w stosunku do roku poprzedniego, natomiast w czwartym, ostatnim roku badania nie będzie juŜ Ŝadnych przyrostów oszczędności. W związku z tym, Ŝe jednym ze źródeł sfinansowania projektu miały być środki z europejskich funduszy wsparcia, badanie efektywności
przeprowadzono zgodnie z wymaganą w takich sytuacjach procedurą, uwzględniając obowiązujące
kryterium decyzyjne. Przyjęto wartość stopy dyskontowej równą 8%, czteroletni cykl Ŝycia projektu oraz załoŜono, Ŝe wszystkie inwestycje (dla dystrybucji detalicznej I etap) zostaną wykonane w
pierwszym roku realizacji przedsięwzięcia. W tab. 5 przedstawiono dane, procedurę oraz wyniki
obliczeń, konieczne do określenia efektywności inwestycji w zakładanym wariancie bazowym, tj.
takim, w którym wartości poszczególnych parametrów przedsięwzięcia są stałe i przyjmują oczekiwane wielkości.
33
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
Tabela 5. Przepływy pienięŜne badanego projektu (dane w PLN)
Wyszczególnienie
Nakłady inwestycyjne i koszty
Szacowane efekty
Przepływy pienięŜne netto (NCF)
Współczynnik dyskontowy (CO)
Zdyskontowane przepływy pienięŜne
(NCF x CO)
rok
bazowy
2 190 486,00
215 395,26
−1 975 090,74
1,0000
rok
bazowy + 1
91 500,00
861 581,04
770 081,04
0,9259
rok
bazowy + 2
91 500,00
1 400 069,20
1 308 569,20
0,8573
rok
bazowy + 3
91 500,00
1 400 069,20
1 308 569,20
0,7938
−1 975 090,74
713 038,00
1 121 887,17
1 038 784,42
Źródło: Opracowanie własne
Obliczone w arkuszu Excel na danych pobranych z tab. 5 wskaźniki efektywności przedsięwzięcia wyniosły odpowiednio: NPV = 898 618,86 zł i IRR = 19,98%, a więc wariant bazowy projektu spełniał wymagania bezwzględnego kryterium opłacalności. Następnie na podstawie przeprowadzonej analizy wraŜliwości zbudowano dwa dodatkowe (oprócz bazowego) scenariusze: pesymistyczny i optymistyczny. W tab. 6 przedstawiono zasady ich konstrukcji.
Tabela 6. Scenariusze realizacyjne badanego projektu
Wyszczególnienie
pesymistyczny
975 465 zł
Łączna wartość licencji na oprogra- (konieczność rozszerzenia
mowanie
licencji – koszt wyŜszy o
9%)
Usługi informatyczne i techniczne w
102 480 zł
ramach wsparcia po wdroŜeniu
(usługi powdroŜeniowe
(roczna opieka autorskodroŜsze o 12%)
upgrade’owa)
909 151 zł
Łączne koszty wdroŜenia
(wdroŜenie droŜsze o
15,5%)
437 766 zł
Sprzęt informatyczny
(sprzęt droŜszy o 5%)
Razem nakłady i koszty
2 424 862 zł
Względne efekty w II roku
4%
Bezwzględne efekty w II roku
430 791 zł
Scenariusze
bazowy
optymistyczny
894 922 zł
823 328 zł
(licencja tańsza o 8%)
91 500 zł
86 925 zł
(usługi powdroŜeniowe
tańsze o 5%)
787 144 zł
692 687 zł
(wdroŜenie tańsze o 12%)
416 920 zł
2 190 486 zł
6%
646 186 zł
379 397 zł
(sprzęt tańszy o 9%)
1 982 337 zł
8%
861 581 zł
Źródło: Opracowanie własne
Dla obu dodatkowych scenariusz sporządzono następnie tabele przepływów pienięŜnych i na
ich podstawie obliczono wskaźniki efektywności przedsięwzięcia, które zawarto w tab. 7. Tabelę tą
uzupełniono następnie o dwa kolejne zestawy wskaźników, tzw. skorygowane, które są wyliczane
dla „złagodzenia” nadmiernego optymizmu i pesymizmu scenariuszy skrajnych. Jest to związane
z zauwaŜonymi w większości konstruowanych scenariuszy tendencjami do przeszacowywania za-
34
Mirosław Dyczkowski
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych
gregowanych wielkości granicznych, poprzez najbardziej optymistyczne i/lub pesymistyczne szacowanie ich składowych. Podczas, gdy w rzeczywistości prawdopodobieństwo, Ŝe wszystkie niezaleŜne zmienne objaśniające osiągną jednocześnie najwyŜszą albo najniŜszą wartość jest bardzo
małe. Tą wadę analizy scenariuszowej moŜna wyeliminować metodami probabilistycznostatystycznymi i symulacyjnymi [7, s. 207].
Tabela 7. Zestawienie porównawcze wartości NPV i IRR dla poszczególnych scenariuszy
Scenariusz
Miara
NPV
IRR
pesymistyczny
80 851,55 zł
1,69%
pesymistyczny
skorygowany
88 936,71 zł
1,85%
bazowy
898 618,86 zł
19,98%
optymistyczny
skorygowany
1 506 287,15 zł
35,95%
optymistyczny
1 673 652,39 zł
39,94%
Źródło: Opracowanie własne.
Analizując przedstawione wyniki analizy scenariuszowej oraz wyliczone wartości NPV i IRR
moŜna zauwaŜyć, Ŝe projekt w pełni spełnia bezwzględne kryterium opłacalności (NPV ≥ 0 oraz
IRR ≥ kgr) dla scenariuszy bazowego i obu optymistycznych. Inaczej jest natomiast w przypadku
obu scenariuszy pesymistycznych, gdzie wprawdzie NPV ≥ 0, ale IRR < kgr. Stopa ta na ogół jest
przyjmowana w typowych projektach komercyjnych na poziomie równym lub przewyŜszającym
WACC, tj. średni koszt pozyskania kapitału, natomiast w komercyjnych projektach współfinansowanych z europejskich funduszy wsparcia załoŜono na lata 2000-2006, Ŝe kgr = 6%, przy czym
dopuszcza się sytuację, Ŝe moŜe być ona niŜsza [6, s. 2006]. MoŜna więc uznać badany projekt za
efektywny w ujęciu ekonomicznym i udzielić rekomendacji dla rozpoczęcia wdroŜenia. Kończąc
prezentację przykładu naleŜy dodać, Ŝe w rzeczywistości jego efektywność ekonomiczna okazała
się wyŜsza, gdyŜ udało się go w znacznej mierze sfinansować ze środków pochodzących z europejskich funduszy wsparcia (EFS oraz SPO Wzrost Konkurencyjności Przedsiębiorstw).
4. Podsumowanie
Przedstawione w opracowaniu metody analityczne, opierające się na przyjętej w projektach
europejskich filozofii CBA z uŜyciem bezwzględnych kryteriów decyzyjnych opartych na estymowanych wartościach NPV i IRR oraz przykład ich zastosowania do zbadania opłacalności projektu
wdroŜeniowego, pokazują przydatność zaproponowanego podejścia do oceny efektywności ekonomicznej tego typu inwestycji. Dowodzą teŜ, Ŝe badanie efektywności ekonomicznej jest dobrym
sposobem na wstępne wyeliminowanie projektów nieopłacalnych i ułatwia podjęcie decyzji o rozpoczęciu realizacji przedsięwzięcia, które powinno przynieść oczekiwane korzyści. Potwierdzają
takŜe, iŜ rozszerzenie takiego badania o intuicyjnie zrozumiałą i względnie mało pracochłonną analizę scenariuszową, pozwala uwzględnić w ocenie efektywności bardzo waŜną w przedsięwzięciach
informatycznych zmienność załoŜeń projektowych oraz czynnik ryzyka, podnosząc tym samym
istotnie wiarygodność uzyskanych wyników.
Jest to szczególnie waŜne, gdyŜ w czasie realnego zapotrzebowania na gospodarcze systemy
informatyczne, konieczna jest rzetelna ocena efektywności tego typu przedsięwzięć. Tylko ona
bowiem zapewni alokację środków finansowych i rzeczowych wymaganą dla podtrzymania dynamicznego rozwoju zastosowań tej klasy aplikacji, w tym stałe jego zasilanie w ramach projektów
europejskich. Aby nasze firmy mogły bowiem skutecznie korzystać z oferty europejskich funduszy
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
35
wsparcia muszą nauczyć się stosowania metod rachunku efektywności wymaganego przez instytucje zarządzające tymi funduszami. Autor ma nadzieję, Ŝe przedstawione w opracowaniu rozwaŜania i zaprezentowany przykład przyczynią się do upowszechnienia wiedzy na ten tak istotny temat.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
Cypryjański J.: Metodyczne podstawy ekonomicznej oceny inwestycji informatycznych
przedsiębiorstw. Seria: Rozprawy i Studia, tom 669. Wydawnictwo Naukowe
Uniwersytetu Szczecińskiego, Szczecin 2007.
Dudycz H., Dyczkowski M.: Efektywność przedsięwzięć informatycznych. Podstawy
metodyczne pomiaru i przykłady zastosowań. Wydawnictwo AE, Wrocław 2006.
Dudycz H., Dyczkowski M.: Selected problems of the assessment of economic
effectiveness of IT projects. In: Development of Methods and Technologies of Informatics
for Process Modeling and Management. (Studziński J., Drelichowski L., Hryniewicz
O., Eds.). PAS SRI, Series Systems Research, Vol. 50, Warsaw 2006, pp. 43-53.
Dyczkowski M.: Analiza wraŜliwości jako element rozszerzonej oceny efektywności
przedsięwzięć informatycznych. W: Systemy wspomagania organizacji SWO’2008.
(Porębska-Miąc T, Sroka H., Red.). Prace Naukowe Akademii Ekonomicznej, Katowice
2008 (w druku).
Informatyka – ocena efektywności. Red. Dudycz H., Dyczkowski M., Nowak J.S., Polskie
Towarzystwo Informatyczne – Oddział Górnośląski, Katowice 2006.
Rogowski W.: Rachunek efektywności projektów europejskich. W: Zarządzanie
projektem europejskim. (Trocki M., Grucza B., Red.). PWE, Warszawa 2007, s. 191-222.
Rogowski W.: Rachunek efektywności przedsięwzięć inwestycyjnych. Oficyna
Ekonomiczna, Kraków 2004.
36
Mirosław Dyczkowski
Analiza scenariuszowa jako część rozszerzonej oceny efektywności przedsięwzięć informatycznych
SCENARIO ANALYSIS AS A PART OF THE EXTENDED EFFECTIVENESS ASSESSMENT IN IT PROJECTS
Summary
For a purpose of effectiveness assessment in IT projects, financed or cofinanced with the European funds, cost/benefit analysis (CBA) is applied. CBA and
calculated within this analysis NPV and IRR values are used as a basis for viability
assessment and recommendations for decisions related to project launch. If such assessments are to consider variability factors for projects’ assumptions and related
risk, they should be extended by additional examinations, for example by scenario
analysis. The paper discusses a concept of scenario analysis and presents an example of its application in effectiveness assessment for implementing ERP-class system
in geographically dispersed distribution company.
Keywords: IT projects, effectiveness of IT investments, methods of effectiveness assessment, scenario analysis
Mirosław Dyczkowski
Instytut Informatyki Ekonomicznej
Uniwersytet Ekonomiczny we Wrocławiu
Wrocław, ul. Komandorska 118/120
e-mail: [email protected]
http://www.ue.wroc.pl/
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
37
WALDEMAR KARWOWSKI,
ARKADIUSZ ORŁOWSKI,
MACIEJ GROCHOWSKI
SGGW Warszawa
BUDOWA PORTALU INTERNETOWEGO
DLA ORGANIZACJI STUDENCKIEJ AIESEC POZNAŃ
Streszczenie
Coraz częściej organizacje wykorzystują portale internetowe, które integrują coraz więcej usług. Portale mogą bazować na gotowych rozwiązaniach lub mogą być
tworzone na zamówienie. W artykule przedstawiono proces powstania portalu dla
organizacji AIESEC Poznań. Omówiono podstawy wybranej technologii - Java Enterprise Edition - oraz sposób jej wykorzystania w tworzeniu aplikacji bazodanowej z
dostępem internetowym. Bardziej szczegółowo przedstawiono architekturę aplikacji
opartą na stworzonym szkielecie.
Słowa kluczowe: portal, CRM, CMS, framework, Java
1. Wprowadzenie
Praktycznie kaŜde przedsiębiorstwo stara się prowadzić korporacyjny portal internetowy. Podstawowym zadaniem takich portali jest z jednej strony prezentacja informacji na zewnątrz z drugiej
zaś usprawnienie komunikacji między pracownikami przedsiębiorstwa. Przed laty prawie kaŜda
strona internetowa była pisana od podstaw, bardzo często w zwykłym edytorze tekstu albo specjalnym edytorze HTML. Zadanie aktualizowania stron nie było łatwe i często wymagało pomocy informatyków. Dostęp do informacji zgromadzonych w bazach danych równieŜ był powaŜnym problemem, synchronizacja stron i bazy poprzez ręczne modyfikacje nie była moŜliwa. Z czasem pojawiły się technologie pozwalające na łatwiejsze i efektywniejsze tworzenie witryn takie jak ASP
(ang. Active Server Pages) firmy Microsoft, serwlety Javy czy wreszcie język PHP. Powstały gotowe systemy do generowania stron internetowych, najpopularniejsze z nich to systemy zarządzania treścią - CMS (ang. Content Management System). CMS najprościej mówiąc jest to narzędzie
ułatwiające zarządzanie stroną internetową, jej rozbudowę i aktualizację. Obecnie coraz więcej
stron powstaje w oparciu o istniejące systemy zarządzania treścią. Współcześnie systemy takie są
na tyle rozbudowane, Ŝe w wielu przypadkach wystarczają do stworzenia rozbudowanego portalu.
Zapewniają moŜliwość logowania i róŜne poziomy dostępu dla uŜytkowników. Pozwalają na integrację z bazą danych. Projektant strony korzysta z gotowych komponentów i nie musi martwić się
techniczną stroną systemu, swoją uwagę skupia na treściach merytorycznych. Zarządzanie treścią
strony odbywa się przewaŜnie za pomocą wygodnych formularzy dostępnych z poziomu strony
WWW. Dostępna jest duŜa liczba systemów CMS napisanych w róŜnych językach programowania,
są to systemy zarówno komercyjne jak i typu open source. Do najbardziej popularnych zaliczyć
moŜna: Joomla!, Mambo, Typo3, PHP-Nuke, ezPublish. Jednocześnie nadal powstają systemy budowane na zamówienie, bowiem nie kaŜdemu odpowiada funkcjonalność oferowana przez systemy
gotowe [6,9].
38
Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski
Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań
W dalszej części pracy zostaną omówione zagadnienia związane budową portalu na konkretnym przykładzie portalu internetowego tworzonego dla organizacji studenckiej AIESEC Poznań
[3]. Omówione będą kolejno załoŜenia dla tego portalu oraz powstanie jego architektury. Na zakończenie podane zostaną uwagi i wnioski związane z realizacją tego projektu.
2. Idea i załoŜenia systemu
Zamiast tworzyć portal internetowy od podstaw, moŜna wykorzystać dostępny na rynku gotowy wzorzec wymagający tylko konfiguracji. Zaletą takiego rozwiązania jest fakt stosowania
sprawdzonego produktu, którego twórcy mają najczęściej wieloletnie doświadczenie w rozwiązywaniu konkretnych problemów, na które napotkać moŜe przedsiębiorstwo czy organizacja. Aplikacje tego typu są tworzone i cały czas rozszerzane z wykorzystaniem najlepszych praktyk wypracowanych wspólnie przez twórców i klientów oprogramowania. Natomiast niewątpliwą wadą systemów powszechnie dostępnych na rynku jest to, Ŝe wykrywane w nich błędy są często publikowane
na stronach internetowych i powszechnie znane włamywaczom. Administrator takiego systemu
musi pilnie śledzić, czy w zainstalowanym na jego serwerze systemie nie zostały wykryte błędy,
które moŜna wykorzystać do włamania się do serwisu. W przypadku dedykowanych systemów duŜo trudniej jest zdobyć informacje o lukach w jego zabezpieczeniach. Oczywiście w praktyce mamy często sytuacje pośrednią, gotowy system jest dostrajany do potrzeb uŜytkownika, wymaga to
na ogół pracy programisty. Decyzja o wyborze rozwiązania w duŜym stopniu zaleŜy od moŜliwości
finansowych firmy. Programy tworzone na zamówienie są drogie i czasami lepiej jest zrezygnować
z pewnych wymagań i wdroŜyć system gotowy.
Cele stawiane portalom mogą być formułowane bardzo szeroko, niezaleŜnie od wielkości, formy i rodzaju działalności firmy czy organizacji. Zastępując telefon czy faks, portale internetowe
mogą nie tylko znacznie zredukować koszty komunikacji, ale przede wszystkim poprawić jej jakość. Komunikacja dotyczyć moŜe delegowania zadań pracownikom niŜszego szczebla, raportowania do zwierzchników oraz wymiany pozostałych informacji o charakterze operacyjnym i strategicznym pomiędzy pracownikami jednego lub róŜnych działów przedsiębiorstwa. Wymiana informacji za pomocą aplikacji internetowych moŜe być w bardzo łatwy sposób dokumentowana, umoŜliwiając stały wgląd we wcześniejsze ustalenia dla wszystkich stron w nich uczestniczących. Takie
rozwiązanie minimalizuje moŜliwość powstania róŜnego rodzaju nieporozumień i niedomówień,
które mogą być bardzo szkodliwe dla sprawnego funkcjonowania przedsiębiorstwa. Ponadto uŜytkownicy portalu korzystają ze wspólnej bazy danych, która moŜe być źródłem cennych informacji
operacyjnych i strategicznych, niezbędnych do efektywnego działania przedsiębiorstwa. Dane zawarte w tej bazie mogą być aktualizowane na bieŜąco niemalŜe z kaŜdego miejsca na ziemi. Rozwiązaniem rozszerzającym moŜliwości zastosowania portalu korporacyjnego moŜe być stworzenia
interfejsu dla uŜytkowników spoza firmy. Udostępnienie klientom lub partnerom odpowiednich
danych moŜe w znacznym stopniu usprawnić wymianę informacji oraz zredukować koszty współpracy. Przykładowo stali klienci mogą mieć moŜliwość wprowadzania nowych zleceń oraz otrzymywania informacji o stopniu realizacji zadań powierzonych właścicielowi portalu. Obecnie obszarami działalności przedsiębiorstwa, które najczęściej obejmowane są przez portale korporacyjne, są:
• zarządzanie relacjami z klientami (CRM),
• zarządzanie produkcją i łańcuchem dostaw (SCM),
• gospodarka magazynowa,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
39
• baza wiedzy,
• zarządzanie konfiguracją (CMDB),
• obsługa techniczna.
Jak nadmieniono wcześniej portale znajdują zastosowanie nie tylko w przedsiębiorstwach
komercyjnych ale maja równieŜ duŜe znaczenie w rozmaitych organizacjach. Jednym
z podstawowych zadań międzynarodowej organizacji studenckiej AIESEC jest prowadzenie
wymiany praktyk studenckich. W tym celu komitety lokalne – będące podstawowymi jednostkami
organizacyjnymi AIESEC – poszukują firm gotowych przyjąć zagranicznych studentów na
praktykę. Aby usprawnić proces wyszukiwania praktyk komitet lokalny AIESEC w Poznaniu
postanowił stworzyć aplikację, która pozwoliłaby narzucić pewna strukturę i ujednolicić dane
dotyczące firm partnerskich oraz umoŜliwiłaby dokumentację spotkań, rozmów telefonicznych
oraz innego rodzaju kontaktów pomiędzy członkami organizacji AIESEC, a osobami
kontaktowymi firm. Aplikacja w zamyśle powinna więc mieć cechy systemu CRM i jednocześnie
wspierać komunikację wewnątrz organizacji poprzez system typu CMS. Zdecydowano się na
budowę systemu we własnym zakresie wykorzystując moŜliwości realizacji zadania w ramach
pracy magisterskiej. Nie bez znaczenia był fakt, Ŝe bezpośredni wykonawca dobrze znał szczegóły
działania organizacji.
3. Wymagania systemu
Pierwszym etapem była analiza dotychczasowych form działalności AIESEC. W rozmowach
ze studentami zajmującymi się wyszukiwaniem firm partnerskich – przyszłymi uŜytkownikami
aplikacji – stwierdzono, Ŝe najczęściej występującym problemem w ich pracy był brak lub
niekompletne informacje dotyczące wcześniejszych kontaktów z firmami. Ponadto dane firm, ich
osób kontaktowych i historii kontaktów bardzo często były niespójne, co w znacznym stopniu
utrudniało efektywne wyszukiwanie praktyk. Przyczyn takiego stanu rzeczy naleŜy upatrywać w
fakcie, iŜ dane zapisywane były w arkuszu kalkulacyjnym, znajdującym się na jednym
z komputerów w biurze AIESEC Poznań. Takie rozwiązanie w znacznym stopniu utrudniało
utrzymanie spójnych, kompletnych, a przede wszystkim aktualnych danych, w których nie
występuje zjawisko redundancji.
Przystępując do projektowania przyjęto przede wszystkim, Ŝe podstawą będzie centralna
relacyjna baza danych, co rozwiąŜe problem braku spójności i redundancji. Koniecznym
wymogiem był prosty interfejs uŜytkownika, aby praca z systemem nie wymagała znajomości
szczegółów technicznych. Po analizie stwierdzono ponadto, Ŝe dopiero zapewnienie dostępu z sieci
Internet pozwoli na utrzymanie aktualności danych, czyli, Ŝe wymogiem będzie portalowa forma
aplikacji. Przed rozpoczęciem prac programistycznych bardzo istotnym elementem procesu
projektowania było ustalenie polityki uprawnień. Jest to waŜne zadanie bowiem podczas
projektowania portalu naleŜy pamiętać o zastosowaniu odpowiedniej polityki uprawnień
umoŜliwiającej jego administratorom kontrolę nad dostępem do danych przez róŜne grupy
uŜytkowników. Dostęp do określonych danych dzielony jest za zwyczaj na trzy podstawowe
poziomy:
• podgląd,
• edycja,
• usuwanie.
40
Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski
Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań
Z polityką uprawnień związana jest równieŜ polityka haseł. MoŜe ona zawierać ustalenia
i reguły dotyczące:
• nadawania haseł i ich formy,
• maksymalnego okresu waŜności haseł,
• maksymalnej ilości prób logowania do systemu.
Po dyskusjach z członkami AIESEC Poznań ustalono, Ŝe stworzone zostaną trzy poziomy
uprawnień:
• superuser (w skrócie SU),
• administrator (w skrócie admin),
• członek komitetu (member).
UŜytkownik naleŜący do grupy superuser ma dostęp do wszystkich danych zapisanych
w aplikacji. Uprawniony jest do tworzenia, przeglądania, edycji i usuwania komitetów lokalnych,
firm, osób kontaktowych, kontaktów oraz uŜytkowników wszystkich dostępnych poziomów
uprawnień. UŜytkownik będący administratorem ma prawo przeglądać i edytować dane
podstawowe komitetu lokalnego, do którego jest przypisany. MoŜe ponadto tworzyć, przeglądać,
edytować i usuwać firmy, osoby kontaktowe, kontakty i uŜytkowników powiązanych z jego
komitetem lokalnym. Standardowy członek komitetu lokalnego (member) uprawniony jest do
tworzenia, przeglądania, edytowania i usuwania własnych firm oraz osób kontaktowych
i kontaktów związanych z jego komitetem lokalnym. Wszyscy uŜytkownicy mają prawo
przeglądania danych podstawowych komitetów lokalnych, firm oraz innych uŜytkowników,
niezaleŜnie od przynaleŜności do komitetu lokalnego.
W tym miejscu trzeba sformułować kilka waŜnych uwag. Projektowanie logiki biznesowej
portalu korporacyjnego związane jest z odwzorowaniem w aplikacji procesów, jakie mają miejsce
w rzeczywistości. Często organizacje decydujące się na wprowadzenie aplikacji korporacyjnej nie
posiadają ściśle zdefiniowanych procedur postępowania w określonych sytuacjach. Przez to moŜe
w tych organizacjach dochodzić do nieporozumień wynikających z faktu, iŜ pracownicy nie mają
określonego zakresu swoich kompetencji. Tak więc kolejną korzyścią, jaką moŜe przynieść
zastosowanie korporacyjnego portalu internetowego jest moŜliwość strukturyzacji procesów
biznesowych występujących w organizacji poprzez ich modelowanie w aplikacji. Jest to zadanie
wymagające duŜego nakładu pracy i zaangaŜowania pracowników całej organizacji, lecz na pewno
warto wykonać je sumiennie i z naleŜytą uwagą. Dobre wymodelowanie procesów biznesowych
przełoŜy się nie tylko na sprawne funkcjonowanie aplikacji, lecz równieŜ poprawi efektywność
całej organizacji. TakŜe podczas realizacji projektu dla AIESEC udało się uporządkować wiele
procedur postępowania.
4. Podstawy systemu
Pomysłodawca nie narzucał ani konkretnego języka programowania ani bazy danych. WaŜne
jednak było, aby wykorzystane narzędzia były narzędziami dostępnymi bezpłatnie. Wybór padł na
środowisko Java Enterprise Edition (JEE) [2,5,7]. Platforma ta łączy w sobie wiele technologii,
interfejsów API oraz standardów tworzenia aplikacji typu enterprise w Javie. Jest to bardzo
szeroko stosowane środowisko programistyczne, niezaleŜne od platformy systemowej, istnieje
wiele darmowych i dobrze udokumentowanych bibliotek, z których moŜna korzystać niemalŜe bez
Ŝadnych ograniczeń. Programista ma dostęp do bogatego zbioru usług w zakresie dystrybucji
obiektów, bezpieczeństwa, zarządzania transakcjami, stanami i zasobami. JEE ustanawia standardy
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
41
w dziedzinach przetwarzania biznesowego dotyczące połączenia z bazą danych, komponentów
biznesowych, warstwy zarządzającej przepływem komunikatów, protokołów komunikacyjnych
i współpracy z systemami zewnętrznymi. Wśród narzędzi zawartych w platformie JEE znajdują się
równieŜ standardy słuŜące do tworzenia aplikacji internetowych, najwaŜniejsze z nich to Java
Servlets oraz Java Server Pages (JSP) [4]. Środowisko to jest uznawane za jedno z najbardziej
wydajnych w przypadku tworzenia aplikacji WWW, ponadto moŜna je bardzo łatwo zintegrować z
róŜnymi systemami zarządzania relacyjnymi bazami danych.
Do realizacji projektu dla AIESEC wybrano serwer bazy danych MySQL Server 5.0, serwer
aplikacji Apache Tomcat 5.0, a do implementacji kodu zintegrowane środowisko programistyczne
Eclipse 3.2. W celu zapewnienia wielojęzyczności zarówno baza danych jak i strony JSP
kodowane są za pomocą UTF-8. System zarządzania relacyjnymi bazami danych MySQL cieszy
się opinią jednego z szybszych serwerów bazodanowych, dzięki czemu znakomicie nadaje się jako
serwer dla często odwiedzanych aplikacji internetowych. Ponadto MySQL zawiera wsparcie dla
replikacji bazy danych w trybie master-slave, co umoŜliwia zabezpieczenie systemu przed
awariami. Bardzo waŜną właściwością wpływającą na wybór właśnie tego systemu jest doskonała
obsługa wielojęzyczności. KaŜda tabela, a nawet kaŜde pole, moŜe mieć własne ustawienie
kodowania znaków. Kolejnym argumentem przemawiającym za oparciem aplikacji o serwer bazy
danych MySQL jest jego dostępność właściwie dla kaŜdej platformy systemowej. Apache Tomcat
to jeden z najpopularniejszych kontenerów aplikacji webowych wykorzystywanych w aplikacjach
opartych na JEE, stanowi on wzorcową implementację specyfikacji programistycznych Java
Servlets i Java Server Pages. Zadaniem tego serwera jest integracja warstwy zaplecza
biznesowego, czyli system zarządzania bazami danych, z warstwą interfejsu klienta realizowaną
przez przeglądarkę internetową. Eclipse jest stale rozbudowywanym zintegrowanym środowiskiem
programistycznym znacznie ułatwiającym prace programisty podczas tworzenia aplikacji. Projekt
ten został stworzony przez firmę IBM, a następnie udostępniony programistom jako
oprogramowanie klasy open source. W chwili obecnej jest on rozwijany przez Fundację Eclipse.
Środowisko dostępne jest dla wszystkich platform, które posiadają własną implementację
wirtualnej maszyny Java oraz dla których przygotowano implementację opracowanej przez
Fundację biblioteki graficznej SWT, będącej alternatywą dla standardowych bibliotek graficznych
Javy – AWT i Swing. Platforma Eclipse sama w sobie nie dostarcza Ŝadnych narzędzi słuŜących
do tworzenia kodu i budowania aplikacji, lecz oferuje obsługę wtyczek rozszerzających jej
funkcjonalność. Podczas tworzenia aplikacji dla AIESEC wykorzystano wtyczki umoŜliwiające
rozwijanie aplikacji w języku Java, tworzenie stron JSP modelowanie aplikacji za pomocą UML,
współpracę z serwerami aplikacji i z serwerami baz danych. Jako podstawę architektury przyjęto
rozwiązanie trójwarstwowe oparte na wzorcu Model View Controller (MVC). Ideą takiej
architektury jest oddzielenie warstwy logiki biznesowej oraz warstwy dostępu do danych od
warstwy prezentacji. Platforma JEE, dzięki zastosowaniu serwletów i stron JSP, jest bardzo
dobrym narzędziem do implementacji tego modelu. Generalnie serwlety słuŜą głownie do
przetwarzania danych i zapewniania komunikacji z bazą danych, dzięki czemu umoŜliwiają
implementację logiki biznesowej tworzonej aplikacji. Generujące kod HTML strony JSP najlepiej
nadają się do tworzenia warstwy prezentacji, odpowiedzialnej za komunikowanie wyników
obsługiwanych Ŝądań. W przypadku tworzenia bardziej skomplikowanej struktury aplikacji
dobrym rozwiązaniem moŜe być wykorzystanie złoŜonego szkieletu (framework) takiego jak Struts
czy Spring [1,8], jednakŜe w opisywanym projekcie stworzono własne rozwiązanie.
42
Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski
Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań
5. Architektura systemu
Sam proces projektowania i implementacji wykorzystywał praktyki metodyki Extreme Programming, przede wszystkim poprzez stałą wspólną pracę z przyszłymi uŜytkownikami. Po ustaleniu ogólnych zasad przystąpiono do definicji niezbędnych obiektów, będących podstawą aplikacji.
Obiekty te i powiązania między nimi występujące, reprezentowane są przez tabele w relacyjnej
bazie danych MySQL. W fazie projektowania, wspólnie z członkami AIESEC ustalono, Ŝe w aplikacji niezbędne będą dane dotyczące firm i organizacji partnerskich, ich osób kontaktowych, komitetów lokalnych AIESEC i ich członków oraz spotkań pomiędzy osobami kontaktowymi, a członkami organizacji. Szczegółowy schemat bazy danych przedstawia rysunek 1. Integralność danych
zapewniona jest poprzez zastosowanie kluczy obcych odwołujących się do kluczy głównych innych tabel. Przykładowo nie ma moŜliwości usunięcia komitetu lokalnego jeŜeli istnieją osoby
kontaktowe przypisane do tego komitetu. Podobnie nie moŜna usunąć firmy jeśli ma ona przypisane osoby kontaktowe. Ponadto poprzez zastosowanie ograniczeń typu „not null” wymuszane jest
wprowadzanie danych uznanych przez członków AIESEC jako niezbędne. Przykładowo ograniczenie tego typu istnieje w polu zawierającym nazwisko członka komitetu lokalnego oraz osoby
kontaktowej firmy.
Rys. 1. Schemat bazy danych w aplikacji (źródło: opracowanie własne)
ZałoŜono, Ŝe struktura aplikacji powinna być wydajna, niezbyt skomplikowana, a jednocześnie
powinna pozwalać na duŜą elastyczność w dodawaniu nowych i modyfikowaniu juŜ istniejących
obiektów i funkcji. W tym celu stworzono własny szkielet, którego poszczególne komponenty są
ze sobą powiązane w sposób ortogonalny. Prostopadłość komponentów przejawia się w tym, iŜ są
one w miarę moŜliwości niezaleŜne od siebie, mają wysoki stopień autonomiczności i jasno
zdefiniowany zakres odpowiedzialności. Dzięki takiemu rozwiązaniu, zmiany jednego komponentu
danego systemu nie wymuszają zmian w innym komponencie. Ortogonalność zapewniona jest
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
43
dzięki strukturze warstwowej. NajwaŜniejszą cechą tej architektury jest fakt, iŜ kaŜda warstwa
opiera się wyłącznie na usługach oferowanych przez warstwę znajdującą się o jeden poziom niŜej,
co umoŜliwia zmianę implementacji poziomu niŜszego bez konieczności przebudowy poziomu
wyŜszego .
PoniewaŜ rolę klienta w naszej aplikacji pełni przeglądarka internetowa, podział pomiędzy
warstwą prezentacji i aplikacji nie ma charakteru fizycznego, a jedynie charakter logiczny. Wynika
to z faktu, iŜ obie te warstwy realizowane są przez serwer aplikacji Apache Tomcat pełniący rolę
kontenera WWW. Oznacza to, Ŝe zarówno interfejs klienta jak i logika biznesowa aplikacji
obsługiwane są przez jedną wirtualną maszynę Javy, a podział pomiędzy warstwą prezentacji
i aplikacji reprezentowany jest przez odpowiednią strukturę klas i stron JSP. W aplikacji rolę
kontrolera i modelu, zamiast serwletów, odgrywają strony JSP, zawierające jedynie skryplety Javy,
oraz dodatkowo korzystające z komponentów JavaBean. Strony JSP zajmują się wyświetlaniem
danych zawartych w utworzonych przez kontroler komponentach. Jest to rozwiązanie równie
bezpieczne i efektywne, a ponadto znacznie bardziej elastyczne i łatwiejsze w implementacji niŜ
rozwiązanie klasyczne. Szczegółowy schemat zastosowanej architektury przedstawia rysunek 2.
Rys. 2. Schemat architektury aplikacji (źródło: opracowanie własne)
Stworzony szkielet składa się z zespołu stron JSP, komponentów JavaBean i klas pomocniczych, umoŜliwiających reprezentację obiektów znajdujących się w bazie. KaŜdemu obiektowi
reprezentowanemu w bazie danych w postaci tabeli, w warstwie modelu aplikacji odpowiada komponent o nazwie odpowiadającej temu obiektowi (np. PersonBean.java), dodatkowo działania bezpośrednio na bazie, wykorzystujące skrypty SQL, wyodrębnione są w komponentach ze słowem
44
Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski
Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań
„Action” (np. PersonActionBean.java). Dostęp do zmiennych w komponentach JavaBean moŜliwy
jest jedynie poprzez metody dostępowe o standardowych nazwach. Dzięki temu moŜliwe jest zapisywanie wartości zmiennych za pomocą znaczników setProperty umieszczonych na stronach JSP.
KaŜdemu obiektowi w bazie odpowiada równieŜ strona JSP, której nazwa składa się z nazwy tego
obiektu (czyli tabeli), po której następuje słowo „Action” i rozszerzenie „jsp” (np. PersonAction.jsp). Strona akcji jest nieco uproszczoną wersją standardowej strony JSP, gdyŜ zawiera ona
wyłącznie instrukcje importu klas i korzystania z obiektów JavaBean oraz skryplet Javy. Pełni ona
głównie funkcję kontrolera, w kodzie tej strony zapisana jest część logiki biznesowej aplikacji oraz
instrukcje sterujące wywoływaniem odpowiednich stron widoku. W pierwszej kolejności skryplet
pobiera z Ŝądania wartość parametru „action”, która determinuję późniejsze kroki. Jeśli wartość ta
jest równa „list” definiowany jest komponent ListBean. Oprócz takich wartości jak nazwa tabeli w
bazie danych, czy wyświetlana nazwa listy, w skryptlecie dodawane są kolumny listy. Komponent
ListBean zawiera równieŜ składowe zapytania SQL, które zostanie wysłane do bazy danych w celu
wygenerowania listy. Osobno przechowywana jest nazwa tabeli, podstawowy warunek klauzuli
„where”, dodatkowe ograniczenia wynikające z zastosowanego filtru i uprawnień zalogowanego
uŜytkownika oraz klauzula „order by”. Jeśli parametr „action” przyjmie wartość „detail” lub
„newForm” definiowany jest komponent DetailBean przechowujący dane szczegółowe konkretnego obiektu lub słuŜący do tworzenia nowego obiektu w bazie danych. Zarówno tutaj jak i w przypadku listy, to jakie dane są wyświetlane i jakie funkcje są dostępne, moŜna uzaleŜnić od poziomu
uprawnień uŜytkownika. W przypadku gdy parametr „action” przechowuje wartość „updateForm”
wywoływana jest strona NewUpdate.jsp z parametrem „update”. W tym przypadku nie ma konieczności tworzenia nowego komponentu DetailBean, gdyŜ został on juŜ zdefiniowany podczas
wyświetlania danych szczegółowych obiektu. Fakt przyjęcia przez parametr „action” wartości
„new" lub „update” oznacza, iŜ Ŝądanie pochodzi ze wspomnianej wcześniej strony NewUpdate.jsp. Dane z formularza HTML, znajdującego się na tej stronie, są zapisywane w odpowiadającym edytowanemu obiektowi komponencie JavaBean. Obiekt ten przekazywany jest jako parametr
do funkcji statycznej komponentu ActionBean danego obiektu, zawierającej odpowiednią instrukcję SQL. W następnym kroku następuje przekierowanie do listy bądź danych szczegółowych
obiektu. W przypadku wystąpienia błędu podczas wywołania funkcji dodawania lub edycji obiektu, przekierowanie następuje z powrotem do formularza oraz wyświetlony zostaje odpowiedni komunikat.
6. Uwagi końcowe
System powstał w oparciu o bezpłatne rozwiązania, rozwijane na zasadach open source, co
jest dowodem na to, Ŝe przy małym nakładzie finansowym moŜna realizować powaŜne projekty
informatyczne. Podstawowym zadaniem było stworzenie elastycznego szkieletu, który umoŜliwiałby prosty i szybki sposób dodawania nowych obiektów i funkcji. Dzięki takiemu rozwiązaniu moŜliwe jest dostosowywanie programu do potencjalnych przyszłych wymagań organizacji i stałe jego
ulepszanie. System zbudowano nie korzystając z zewnętrznych modułów i rozwiązań, samodzielnie zaimplementowano potrzebne mechanizmy szablonów oraz warstwy pośredniej dostępu do
bazy. Rozwijając system starano się na bieŜąco dostosowywać go do uwag uŜytkowników. Projektując system duŜą uwagę zwrócono na bezpieczeństwo. Dlatego starano się zabezpieczyć system
przed atakami hakerów oraz stworzono mechanizm praw dostępu, który pozwala przydzielać
uprawnienia do poszczególnych funkcji określonym uŜytkownikom. Dzięki modularności aplikacji
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
45
bardzo łatwo ją rozwijać dodając nowe funkcje oraz konserwować poszczególne moduły. Wynikiem pracy jest kompletna aplikacja uŜywana przez AIESEC Poznań, a w przyszłości najprawdopodobniej takŜe przez inne komitety lokalne tej międzynarodowej organizacji studenckiej. Powstał
elastyczny szkielet pozwalający na łatwą rozbudowę systemu i jego dostosowanie do rosnących
wymagań organizacji. Niewykluczone jest stworzenie modułów wspierających inne dziedziny działalności AIESEC. NiezaleŜnie od tego aplikacja stworzona dla AIESEC moŜe być bardzo dobrą
podstawą do realizacji innego projektu.
7. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Apache Struts Framework <http://struts.apache.org/>.
Eckel, B.: Thinking in Java. Edycja polska, Wyd. 4. Helion, Gliwice 2006.
Grochowski, M.: Aplikacje bazodanowe z dostępem internetowym na przykładzie portalu
internetowego tworzonego dla organizacji studenckiej AIESEC Poznań. Praca
magisterska, SGGW, Warszawa 2006.
Hall, M., Brown, L.: Java Serwlet i JavaSerwer Pages,Tom 1, Wyd. 2. Helion, Gliwice
2006.
Java EE at a Glance <http://java.sun.com/javaee/>.
Karwowski W., Mazur P., Orłowski A.: System „PAKD”, Studia i Materiały Polskiego
Stowarzyszenia Zarządzania Wiedzą, Nr 13, str. 74-81, PSZW, Bydgoszcz 2008.
Monnox, A: J2EE. Podstawy programowania aplikacji korporacyjnych, Helion, Gliwice
2006.
Spring Framework <http://www.springframework.org/>.
Sulkowski P., Rusek M., Karwowski W.: System Napis.pl, Monografia „Systemy
Informatyczne w Zarządzaniu”, redakcja naukowa: W. Karwowski i A. Orłowski,
Wydawnictwo SGGW, Warszawa 2007, str. 99-109.
46
Waldemar Karwowski, Arkadiusz Orłowski, Maciej Grochowski
Budowa portalu internetowego dla organizacji studenckiej AIESEC Poznań
INTERNET PORTAL DEVELOPMENT
FOR STUDENT ORGANIZATION AIESEC POZNAŃ
Summary
Organizations most frequently exploit Internet portals which integrate more rich
functionality as before. Portals can be implemented with “on shelf” solutions or can
be built for special demand. In the paper development process of portal for student
organization AIESEC Poznań is presented. Background of chosen technology - Java
Enterprise Edition – and a way of its utilizing in developing database application
with the Internet access is described. Application architecture based on created
framework is presented in more details.
Keywords: portal, CMS, framework, Java
Waldemar Karwowski
Arkadiusz Orłowski
Maciej Grochowski
Katedra Informatyki
Wydział Zastosowań Informatyki i Matematyki
Szkoła Główna Gospodarstwa Wiejskiego
02-776 Warszawa ul. Nowoursynowska 159
e-mail: [email protected]
e-mail: [email protected]
http://wzim.sggw.pl
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
47
ANNA LENART
Uniwersytet Gdański
SYSTEMY ERP A ZARZĄDZANIE RELACJAMI Z KLIENTAMI
Streszczenie
Wzrost globalnej konkurencji spowodował konieczność zapewnienia wysokiej
jakości obsługi klientów. W odpowiedzi na zmiany warunków funkcjonowania przedsiębiorstw powstała koncepcja zarządzania relacjami z klientem. Celem artykułu jest
prezentacja obszarów funkcjonalnych i korzyści z zastosowania systemów planowania zasobów przedsiębiorstwa (ERP) oraz systemów zarządzania relacjami z klientem (CRM). W artykule dokonano równieŜ krótkiej charakterystyki systemu ERP oraz
opisano rolę marketingu w zarządzaniu przedsiębiorstwem.
Słowa kluczowe: systemy ERP, systemy CRM, zarządzanie relacjami z klientem, marketing, marketing relacji, zarządzanie przedsiębiorstwem
1. Krótka charakterystyka systemów ERP
Systemy planowania zasobów przedsiębiorstwa (Enterprise Resource Planning – ERP) są niezbędnym zestawem narzędzi przeznaczonych do zarządzania współczesną organizacją. System
ERP to zintegrowany system informatyczny, który umoŜliwia planowanie, zarządzanie i wykorzystanie wszystkich zasobów organizacji oraz kontrolę wszystkich procesów biznesowych w czasie
rzeczywistym [24]. Systemy tej klasy cechuje otwartość i elastyczność. Otwartość oznacza moŜliwość integracji z innymi systemami, usługami internetowymi i urządzeniami mobilnymi. Elastyczność umoŜliwia zmianę konfiguracji systemu w celu dostosowania do zmieniających się wymagań
i praktyk biznesowych. W systemach ERP moŜna wyróŜnić cztery obszary funkcjonalne: marketing
i sprzedaŜ, zarządzanie łańcuchem dostaw, rachunkowość i finanse oraz zasoby ludzkie (tabela 1).
System ERP stanowi niezbędny zestaw narzędzi słuŜący do zarządzania współczesnym przedsiębiorstwem we wszystkich obszarach funkcjonalnych. Podstawą systemu ERP jest podsystem
zarządzania finansami (rachunkowość i finanse), który dostawcy oprogramowania rozszerzyli
o metody zarządzania logistycznego oraz zarządzania zasobami ludzkimi. W celu lepszego dopasowania produktów do potrzeb klienta i odzwierciedlenia wzrostu znaczenia obsługi klientów
w systemach ERP wyodrębniono podsystem marketingu i sprzedaŜy. W ramach tego podsystemu
udostępniane są rozwiązania z zakresu zarządzania relacjami z klientem.
NajwaŜniejsze korzyści z zastosowania systemów ERP to [8; 14]:
• integracja informacji ze wszystkich działów przedsiębiorstwa,
• obniŜka kosztów produkcji,
• poprawa poziomu obsługi klientów,
• synchronizacja procesów zaopatrzenia, produkcji i dystrybucji,
• poprawa płynności finansowej,
• zwiększenie kompetencji pracowników.
48
Anna Lenart
Systemy ERP a zarządzanie relacjami z klientami
Tabela.1. Obszary funkcjonalne systemu ERP
Obszar funkcjonalny
Marketing i sprzedaŜ
Zarządzanie łańcuchem dostaw
Rachunkowość i finanse
Zarządzanie zasobami ludzkimi
Funkcje biznesowe
Marketing produktu
Obsługa zleceń klientów
Wsparcie klienta
Zarządzanie relacjami z klientem
Prognozowanie sprzedaŜy
Zaopatrzenie
Zarządzanie materiałami
Transport
Produkcja
Utrzymanie zakładu
Rachunkowość finansowa
Alokacja i kontrola kosztów
Planowanie i budŜetowanie
Zarządzanie przepływami pienięŜnymi
Rekrutacja
Zarządzanie personelem
Płace
Szkolenia
Źródło: Opracowanie własne na podstawie: [18]
Model ERP zaproponowała amerykańska firma analityczno-doradcza Gartner Group w 1990
roku, ale nie został on opublikowany jako standard. Oznacza to, Ŝe rozwiązania pochodzące od
róŜnych producentów mogą udostępniać uŜytkownikowi zróŜnicowany zakres funkcji i modułów.
W drugiej połowie lat 90. XX wieku systemy ERP stały się niewystarczające do uzyskania
przewagi konkurencyjnej, ale jednocześnie posiadanie takiego systemu stało się jednym
z warunków przetrwania przedsiębiorstwa. Popularność zyskały inne rozwiązania informatyczne:
• systemy zarządzania relacjami z klientem (Customer Relationship Management – CRM),
• systemy zarządzania łańcuchem dostaw (Supply Chain Management – SCM).
Większość systemów ERP udostępnia podstawowe rozwiązania z zakresu transakcyjnych CRM
i wewnętrznych SCM. Istnieje równieŜ moŜliwość integracji zaawansowanych systemów klasy
CRM i SCM z systemami ERP [14].
W 2000 roku firma Gartner Group zaproponowała nową koncepcję systemów planowania
relacji przedsiębiorstwa z otoczeniem, stanowiących rozszerzenie systemów ERP o współpracę
z klientami, dostawcami i partnerami handlowymi oraz rozwiązania z zakresu handlu
elektronicznego. Jest to naturalne rozszerzenie systemów ERP o wykorzystanie technologii
internetowych i rozwiązań mobilnych.
Mimo powstawania wielu innych rozwiązań wspomagających zarządzanie systemy ERP nadal
stanowią strategiczny element biznesu. Inne rozwiązania mogą być selektywnie dobierane przez
klientów niezaleŜnie od rdzenia, czyli systemu ERP [10]. Szerzej na temat systemów ERP
i kierunków ich rozwoju piszą m.in.: [2; 8; 11; 14; 18; 22].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
49
2. Rola marketingu w zarządzaniu przedsiębiorstwem
W warunkach gospodarki rynkowej i nasilającej się konkurencji wzrosło znaczenie marketingu
jako koncepcji zarządzania przedsiębiorstwem. Współczesny marketing to koncepcja zarządzania
zorientowana za rozpoznawanie i zaspokajanie potrzeb wszystkich uczestników rynku, ale przede
wszystkim klientów [17]. Marketing przyczynia się do kreowania wartości oczekiwanych przez
klientów w zamian za zysk [7]. Strategie marketingowe powinny przyczyniać się do „zdobycia
i utrzymania przewagi konkurencyjnej na rynku” [17].
Struktura marketingu obejmuje trzy elementy [7]: system wartości, system badań marketingowych i instrumenty marketingu (marketing-mix). „System wartości określa stosunek przedsiębiorstwa do klientów, pracowników i partnerów” [7]. Badania marketingowe to celowe i systematyczne
gromadzenie informacji na potrzeby podejmowania decyzji marketingowych. Badania marketingowe dotyczą potrzeb klientów i stopnia ich zaspokojenia, efektywności stosowanych narzędzi
marketingowych i oceny pozycji przedsiębiorstwa na tle konkurencji [7]. Instrumenty marketingumix (produkt, cena, promocja, dystrybucja) powinny być stosowane do kreowania wartości dla
klientów i uzyskiwania przewagi konkurencyjnej.
Zadaniem zarządzania marketingowego jest ukształtowanie poziomu i struktury popytu oraz
rozłoŜenie go w czasie w sposób pomagający przedsiębiorstwu osiągnąć ustalone cele. Ponadto
dział marketingu odpowiada za ukształtowanie warunków zakupu, relacji wewnątrz przedsiębiorstwa oraz relacji z otoczeniem [7]. Proces zarządzania marketingowego koordynuje wszystkie
działania podejmowane i realizowane na rynku, np. definiowanie celów marketingu w zgodności
z celami przedsiębiorstwa, rozwój strategii marketingowych zintegrowanych ze strategią globalną
przedsiębiorstwa i stosowanie instrumentów marketingu-mix [17].
WyróŜnia się dwa podejścia do marketingu w przedsiębiorstwie: strategiczne zorientowane na
analizę i operacyjne zorientowane na działania. Marketing strategiczny to systematyczna analiza
potrzeb klientów oraz projektowanie we współpracy z działem badań i rozwoju produktu lub pakietu usług lepszego niŜ proponuje klientowi konkurencja. Ułatwia on sprostanie takim współczesnym wyzwaniom przedsiębiorstwa jak: globalizacja, nowe technologie, ekologia, interaktywna
komunikacja przez rozwój systemów monitorowania otoczenia marketingowego i analizowanie
konkurencji oraz rozwijanie zdolności przystosowania się do zmian w otoczeniu. Marketing operacyjny obejmuje działania krótko- i średnioterminowe na istniejących rynkach. Zadaniem marketingu operacyjnego jest generowanie wpływów ze sprzedaŜy poprzez wykorzystanie instrumentów
marketingu-mix. Marketing strategiczny i operacyjny uzupełniają się wzajemnie dlatego naleŜy
integrować działania w obu obszarach [7].
W latach 90. zaczęto stosować marketing relacji (relationship marketing). Jest to „koncepcja
zarządzania przedsiębiorstwem polegająca na traktowaniu klienta jako wartości firmy i skupieniu
wszystkich wysiłków firmy wokół klienta” [5], które integruje „działy marketingu, sprzedaŜy
i logistyki w słuŜbie klientowi, w imię wartości dla klienta” [5]. Szerzej na temat marketingu relacji patrz: [3; 5].
W celu wspomagania zarządzania marketingowego stosuje się systemy informacji marketingowej, które dostarczają informacje dotyczące potencjalnego popytu na produkty oraz pozwalają
oszacować rentowność i ryzyko związane z podjęciem określonych działań marketingowych. Informacje gromadzone i przetwarzane w calach marketingowych są pozyskiwane z róŜnych źródeł.
Źródła informacji wewnętrznych dotyczą takich obszarów, jak: sprzedaŜ, dostawy, zapasy, koszty,
50
Anna Lenart
Systemy ERP a zarządzanie relacjami z klientami
zatrudnienie itp. [7]. Informacje te są przechowywane w systemach ERP. W tradycyjnym systemie
informacji marketingowej wyróŜnia się cztery moduły: sprawozdania wewnętrzne, badania marketingowe, wywiady i system wspomagania decyzji. W systemie tradycyjnym wykorzystuje się technologie baz danych. Szerzej na temat systemu informacji marketingowej patrz: [7; 18; 22; 25].
Nowoczesne systemy informacyjne marketingu umoŜliwiają korzystanie z technik multimedialnych oraz Internetu. W ten sposób powstała koncepcja marketingu elektronicznego jako nowy
model kontaktu z klientem. Marketing elektroniczny (e-marketing) polega na zastosowaniu Internetu do realizacji działań marketingowych w zakresie komunikowania się między firmami i pozyskiwania informacji przydatnych w tych działaniach. Zastosowanie Internetu w działaniach marketingowych umoŜliwia m.in.: pozyskiwanie informacji do badań marketingowych, dostosowanie
produktów do indywidualnego zapotrzebowania klientów, zbieranie zamówień, prowadzenie promocji firmy i jej produktów. Porównania marketingu tradycyjnego i elektronicznego dokonano
w: [5; 21; 25].
Marketing determinuje rozwój orientacji rynkowej w zarządzaniu przedsiębiorstwem i stanowi
nowoczesną koncepcję zarządzania przedsiębiorstwem.
3. System CRM jako rozszerzenie funkcjonalne systemu ERP
Jednym z rozwiązań informatycznych stosowanych w systemach informacji marketingowej są
systemy zarządzania relacjami z klientem (Customer Relationship Management – CRM).
CRM to metoda zarządzania, której celem jest indywidualizacja obsługi klientów oraz zapewnienie wzrostu sprzedaŜy. AngaŜuje ona szczególnie nieprodukcyjne komórki organizacyjne
przedsiębiorstwa, które są odpowiedzialne za obsługę klienta: marketing, sprzedaŜ i serwis. CRM
to „strategia firmy zorientowana na zwiększenie jej dochodów przez identyfikacje, przyciągnięcie i
utrzymanie klientów” [16]. Zarządzanie relacjami z klientem określane jest teŜ jako: „Proces zarządzania relacjami z obecnymi klientami w celu ich utrzymania, maksymalizacji ich lojalności
oraz zwiększenia uzyskiwanych z nich przychodów, a jednocześnie selektywnego przyciągania
nowych klientów” [23]. Przeglądu definicji systemu CRM dokonano w: [3].
CRM jest podsystemem systemu zarządzania relacjami przedsiębiorstwa (Enterprise Relationship Planning – ERM). Inne podsystemy to:
• system zarządzania relacjami z dostawcami (Supplier Relationship Management – SRM),
• system zarządzania relacjami z partnerami handlowymi (Partner Relationship Management – PRM),
• wewnętrzny system zarządzania relacjami z pracownikami (Employee Relationship Management – ERM).
Zarządzanie relacjami z dostawcami słuŜy skróceniu cyklu produkcyjnego poprzez zapewnieniu terminowości dostaw i jakości dostarczanych materiałów. Systemy te pomagają firmom analizować kontrahentów i wybierać dostawców strategicznych. Dzięki ich zastosowaniu moŜna optymalizować metody przyjmowania ofert i ich selekcji.
Zarządzanie relacjami z partnerami handlowymi dotyczy pośrednich kanałów sprzedaŜy (dystrybutorów, resellerów i detalistów), w przeciwieństwie do CRM, które obsługują bezpośrednio
klientów końcowych. Celem tych systemów jest lepsza koordynacja relacji biznesowych z partnerami na poziomie komunikacji, wymiany informacji oraz współpracy. Pozwalają one równieŜ śledzić sukcesy partnerów handlowych.
Wewnętrzny ERM to rozwiązanie umoŜliwiające szybką komunikację pomiędzy pracownika-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
51
mi oraz dostarczające im informacji i zasobów, w celu zwiększenia efektywności ich pracy, wykorzystując portal korporacyjny [9]. Obejmuje on zarządzanie komunikacją wewnętrzną, zarządzanie
zasobami oraz zarządzanie wiedzą. Szerzej na temat róŜnych systemów zarządzania relacjami patrz
[3].
W dalszej części artykułu skupiono uwagę na systemach CRM. Zadaniem systemów CRM jest
zapewnienie przywiązania i lojalności klienta oraz tworzenie pozytywnego wizerunku firmy przyjaznej dla klienta [25]. Systemy CRM pomagają przedsiębiorstwom w walce konkurencyjnej
o klienta. Koncentrują się na wszystkich procesach i działaniach skupionych na kliencie, a realizowanych wewnątrz firmy (back office) oraz komunikacji ze światem zewnętrznym (front office) [4].
W tabeli 2. zaprezentowano najwaŜniejsze funkcje systemów CRM.
Tabela .2. Obszary funkcjonalne systemu CRM
Obszar funkcjonalny
Marketing
SprzedaŜ
Serwis
Funkcje biznesowe
Obsługa kampanii marketingowych
Obsługa korespondencji
Monitorowanie konkurencji
Segmentacja rynku
Encyklopedia marketingu
Kontakty z klientami
Planowanie i prognozowanie sprzedaŜy
Wsparcie przedstawicieli handlowych
Kontrola realizacji zamówień
Obsługa przyjmowania zgłoszeń
Monitorowanie umów serwisowych
Obsługa reklamacji
Bazy rozwiązań
Źródło: Opracowanie własne na podstawie: [3; 4; 21; 24]
W architekturze systemów CRM wyróŜnia się [1; 3; 5]: CRM transakcyjne (operacyjne), CRM
analityczne oraz CRM interakcyjne (komunikacyjne).
CRM transakcyjny oferuje rozwiązania umoŜliwiające rejestrowanie zamówień, prowadzenie
baz klientów, konfigurowanie ofert i zarządzanie sprzedaŜą. Transakcyjne CRM nazywane są równieŜ front office, poniewaŜ odpowiadają za kontakt firmy z klientem. Źródłem danych dla transakcyjnego CRM są systemy ERP. Proces obsługi klienta przy uŜyciu systemu SAP ERP opisano
w [12].
CRM analityczny udostępnia hurtownię danych i oferuje analizę danych pochodzących z działów marketingu, sprzedaŜy i serwisu. UmoŜliwia on wspomaganie podejmowania decyzji i nazywany jest teŜ strategicznym systemem CRM. Porównania operacyjnych i analitycznych CRM dokonano w [3].
Interakcyjne CRM ułatwiają komunikację i współpracę z klientami, wykorzystując połączenia
głosowe i wideo, faks, email, kontakt osobisty, telekonferencje i Internet. Interakcyjne CRM są teŜ
określane jako Contact Center, czyli wielokanałowe centrum obsługi klienta, które obejmuje: call
center, serwer internetowy i bramki GSM [3]. Szerzej na temat architektury systemów CRM patrz:
52
Anna Lenart
Systemy ERP a zarządzanie relacjami z klientami
[3; 6; 9; 10; 21; 24].
Najczęściej występujące w praktyce korzyści z zastosowania systemów CRM to [3; 20]:
• poprawa przepływu informacji w przedsiębiorstwie,
• uzyskanie kompleksowych danych o kliencie,
• automatyzacja i standaryzacja procesu obsługi klienta,
• wzrost konkurencyjności przedsiębiorstwa,
• segmentacja rynku odbiorców,
• poprawa jakości obsługi klientów,
• integracja kanałów komunikacji z klientem,
• wzrost przychodów ze sprzedaŜy.
Korzyści z wdroŜenia systemu CRM moŜna teŜ podzielić na mierzalne i niemierzalne. Korzyści mierzalne związane są z wartością sprzedaŜy, zyskiem ze sprzedaŜy i kosztami sprzedaŜy. Korzyści niemierzalne to parametry o charakterze jakościowym, np. wzrost lojalności klienta, pozyskiwanie nowych klientów [25].
W tabeli 3 zaprezentowano przykładowe korzyści wynikające z wdroŜenia systemu CRM, które wpływają na długofalowe cele organizacji (korzyści strategiczne) i powodują automatyzację
procesów i wzrost wydajności pracy (korzyści operacyjne) [15].
Tabela .3. Korzyści strategiczne i operacyjne z wdroŜenia systemu CRM
Rodzaj korzyści
Korzyści strategiczne
Korzyści operacyjne
Przykładowe korzyści
Utworzenie repozytorium informacji marketingowej
Poprawa kultury organizacyjnej
Wprowadzenie spójnego systemu obsługi klienta
Zwiększenie satysfakcji klientów
Zwiększenie lojalności klientów
Zwiększenie sprzedaŜy
Lepszy obieg dokumentów
Szybki dostęp do informacji
Zwiększenie efektywności kampanii marketingowych
Kontrola budŜetu przeznaczonego na promocję
Zmniejszenie ilości reklamacji
MoŜliwość lepszej oceny handlowców
Źródło: Opracowanie własne na podstawie: [15]
Dostępne na rynku systemy CRM najczęściej oferują funkcje transakcyjne, analityczne lub
komunikacyjne. Przykładem rozwiązania kompleksowego jest system SAP CRM. WyróŜnia się on
na tle innych rozbudowanymi moŜliwościami analitycznymi. Wykorzystanie hurtowni danych pozwala uwzględniać w analizach dane pochodzące z systemu SAP ERP i innych systemów informatycznych. Szerzej na temat systemu SAP CRM: [1; 15; 20; 25].
W zakresie marketingu system SAP CRM oferuje:
• segmentację i personalizację klienta,
• planowanie marketingowe,
• zarządzanie kampaniami marketingowymi,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
53
• analizę marketingową.
W zakresie sprzedaŜy system SAP CRM udostępnia:
• zarządzanie organizacją i terytorium,
• zarządzanie aktywnością i szansami,
• planowanie i prognozowanie sprzedaŜy,
• analizę sprzedaŜy.
Obszar serwisu w systemie SAP CRM jest wspomagany przez:
• obsługę wielokanałową (serwisanci, call center, Internet),
• planowanie i prognozowanie serwisu,
• zarządzanie serwisem,
• planowanie i organizację zasobów,
• wsparcie i obsługę klienta.
W systemach CRM stosuje się róŜne kanały komunikacji i sprzedaŜy (serwis internetowy, praca w terenie). W wyniku zastosowania technologii internetowych powstały elektroniczne CRM
(electronic CRM – eCRM). Rozwój technologii bezprzewodowych przyczynił się do powstania
mobilnych CRM (mobile CRM – mCRM).
Systemy elektronicznego zarządzania relacjami z klientami umoŜliwiają współpracę z klientami w czasie rzeczywistym oraz dostarczanie spersonalizowanych usług. Realizują one marketing,
handel, promocję oraz kontakt z e-klientami (klientami wirtualnymi) przez Internet [21]. System eCRM obejmuje [16; 19; 21; 24]:
• wsparcie marketingu (zarządzanie kampaniami, sporządzanie katalogu produktów),
• obsługę sprzedaŜy i e-handel,
• serwis i wsparcie klienta po sprzedaŜy,
• call center,
• integrację z systemami ERP,
• synchronizację danych (np. przepływ informacji między urządzeniami przenośnymi a główną bazą danych).
Mobilny CRM umoŜliwia przekazywanie informacji klientom, dostawcom i partnerom handlowych za pośrednictwem technologii bezprzewodowych. MoŜna go stosować do zbierania zamówień i informacji od klientów i przekazywania ich za pomocą telefonu komórkowego lub palmtopa do systemu informatycznego przedsiębiorstwa (np. ERP). Mobilny CRM zapewnia dwustronną komunikację pracownika w terenie z przedsiębiorstwem. Takie rozwiązanie jest szczególnie
przydatne dla przedstawicieli handlowych lub serwisantów, którzy obsługują duŜy obszar geograficzny. Pracownicy w terenie mają dostęp do aktualnych danych o produktach, kliencie, zamówieniach i fakturach. Dzięki temu mogą szybko reagować na potrzeby klientów. Mobilny CRM umoŜliwia zarządzanie pracownikami w terenie, aktualizację danych przez pracowników w terenie
i konsultacje decyzji z przełoŜonymi [3; 4; 6].
W dobie gospodarki opartej na wiedzy stworzono strategię biznesową zarządzania relacjami
z klientem na bazie wiedzy (Knowledge-Enabled Customer Relationship Management – KCRM).
Strategii ta jest definiowana jako „Zarządzanie wiedzą o kliencie, którego celem jest dostarczenie
mu nowej wartości wiąŜącej go z firmą oraz zarządzanie wiedzą o partnerach biznesowych dla
wzmocnienia relacji i skuteczniejszej współpracy” [18]. Porównania strategii CRM i KCRM dokonano w: [23].
54
Anna Lenart
Systemy ERP a zarządzanie relacjami z klientami
Z badań rynku CRM na świecie i w Polsce wynika, Ŝe systemy CRM są najczęściej stosowane
przez instytucje finansowe, firmy telekomunikacyjne i informatyczne [3].
4. Podsumowanie
Pod koniec lat 90. XX wieku w celu uzyskania przewagi konkurencyjnej firmy korzystające
z systemów ERP zaczęły interesować się rozszerzeniem funkcjonalności tych systemów w zakresie
zarządzania relacjami z klientem.
Zarządzanie relacjami z klientem to kombinacja funkcji biznesowych i technologii. Celem tej
strategii jest zrozumienie klienta, pozyskanie i utrzymanie klienta oraz poprawienie poziomu satysfakcji klienta i jego lojalności.
Podstawowe funkcje biznesowe transakcyjnych systemów CRM są dostępne w systemach
ERP. Bardziej rozbudowane rozwiązania analityczne oraz rozwiązania komunikacyjne wymagają
zastosowania oddzielnych systemów CRM, które często są zintegrowane z systemami ERP.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
Adamczewski P.: Zintegrowane systemy informatyczne w praktyce, Mikom, Warszawa
2004.
Adamczyk A., Chmielarz W.: Zintegrowane sytestemy informatycznego wspomagania
zarządzania, Wydawnictwo WSE-I, Warszawa 2005.
Buchnowska D.: CRM – strategia i technologia, Wydawnictwo Uniwersytetu Gdańskiego,
Gdańsk 2006.
Bytniewski A. (red.): Architektura zintegrowanego systemu informatycznego zarządzania,
Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2005.
Dembińska-Cyran I., Hołub-Iwan J., Perenc J.: Zarządzanie relacjami z klientem, Difin,
Warszawa 2004.
Dyché J.: CRM. Relacje z klientami, Helion, Gliwice 2002.
Frąckiewicz E., Karwowski J., Karwowski M., Rudawska E.: Zarządzanie marketingowe,
PWE, Warszawa 2004.
Hamilton S.: Maximizing Your ERP System. A Practical Guide for Managers, McGrawHill, New York 2003.
Kasprzak T. (red.): W kierunku rozszerzonego przedsiębiorstwa. Analiza sektorowa
rozwoju ICT w Polsce, Difin, Warszawa 2006.
Kolbusz E., Olejniczak W., Szyjewski Z. (red.): InŜynieria systemów informatycznych
w e-gospodarce, PWE, Warszawa 2005.
Lech P.: Zintegrowane systemy zarządzania ERP/ERP II. Wykorzystanie w biznesie,
wdraŜanie, Difin, Warszawa 2003.
Lenart A.: Process Approach in the ERP Systems. In: Kubiak B.F., Korowicki A. (eds.):
Information Management, University of Gdansk, Faculty of Management, Gdansk
University Press, Gdansk 2007, pp. 192-200.
Lenart A.: Systemy ERP a zarządzanie wiedzą. W: Bojar W. (red.): Studia i Materiały
Polskiego Stowarzyszenia Zarządzania Wiedzą - nr 13, Polskie Stowarzyszenie
Zarządzania Wiedzą, Bydgoszcz 2008, s. 138-146.
Lenart A.: Zintegrowane systemy informatyczne klasy ERP. Teoria i praktyka na
przykładzie systemu BAAN IV, Wydawnictwo Uniwersytetu Gdańskiego, Gdańsk 2005.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
55
15. Lotko A.: Zarządzanie relacjami z klientem. Strategie i systemy, Wydawnictwo
Politechniki Radomskiej, Radom 2006.
16. Małachowski A.: Środowisko wirtualnego klienta, Wydawnictwo Akademii
Ekonomicznej we Wrocławiu, Wrocław 2005.
17. Matwiejczuk R.: Zarządzanie marketingowo-logistyczne. Wartość i efektywność,
Wydawnictwo C.B. Beck, Warszawa 2006.
18. Monk E., Wagner B.: Concepts in Enterprise Resource Planning, Thompson Course
Technology, Boston, Massachusetts 2006.
19. Norris G., Hurley J. R., Hartley K. M., Dunleavy J. R., Balls J. D.: E-Business and ERP.
Transforming the Enterprise, John Wiley & Sons, New York 2000.
20. Nowicki A., Unold J. (red.): Zarys problematyki doskonalenia systemów informacyjnych
marketingu, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 2002.
21. Olszak C.M., Ziemba E. (red.): Strategie i modele gospodarki elektronicznej, PWN,
Warszawa 2007.
22. Sumner M.: Enterprise Resource Planning, Pearson Prentice Hall, New Jersey 2005.
23. Tiwana A.: Przewodnik po zarządzaniu wiedzą. E-biznes i zastosowania CRM, Placet,
Warszawa 2003.
24. Turban E., Leidner D., McLean E., Wetherbe J.: Information technology for Management.
Transforming Organizations in the Digital Economy, John Wiley & Sons, New York
2007.
25. Unold J.: Systemy informacyjne marketingu, Wydawnictwo Akademii Ekonomicznej we
Wrocławiu, Wrocław 2001.
56
Anna Lenart
Systemy ERP a zarządzanie relacjami z klientami
ERP SYSTEMS AND CUSTOMER RELATIONSHIPS MANAGEMENT
Summary
Globalization of the market and growing competition enlarge requirement in relation to speed and quality of consumer service. Because of changes in environment
of contemporary enterprise the concept of customer relationship management gain
popularity. The purpose of the paper is to present functional areas and advantages
from the use of Enterprise Resource Planning Systems and Customer Relationship
Management Systems. The paper contains the short characteristics of ERP system
and the role of marketing in the enterprise management.
Keywords: ERP systems, Enterprise Resource Planning, CRM systems, Customer Relationship
Management, marketing, relationship marketing, enterprise management
Anna Lenart
Uniwerystet Gdański
e-mail: [email protected]
Tomasz Ordysiński
Metody szacowania wartości rynkowej serwisu internetowego
TOMASZ ORDYSIŃSKI
Uniwersytet Szczeciński
METODY SZACOWANIA WARTOŚCI RYNKOWEJ SERWISU INTERNETOWEGO
Streszczenie
W praktyce działalności internetowej coraz mocnej ujawnia się zjawisko handlu
(odsprzedaŜy, przejęcia, wejścia na giełdę papierów wartościowych) serwisami internetowymi. Ich rola w gospodarce stale rośnie, co pokazują badania internetowego rynku reklamy oraz sprzedaŜy. Coraz więcej firm (małych i duŜych) zaczyna prowadzić działalność stricte sieciową, gdzie głównym zasobem jest informacja zamieszczana na stronach WWW. Zmiana właściciela czy teŜ odsprzedaŜ części udziałów wymaga określenia wartości takiego serwisu. W artykule zawarto próbę identyfikacji i analizy metod wyceny komercyjnych serwisów internetowych pod kątem ich
stosowalności.
Słowa kluczowe: szacowanie wartości serwisu internetowego, metody wyceny stron
WWW, dochody serwisów internetowych
1. Wprowadzenie
Rozwój wykorzystania usług internetowych wśród przedsiębiorstw w Polsce charakteryzuje
się znaczną dynamiką. Liczba komercyjnych stron WWW pełniących funkcje od zwykłej ewizytówki przez handlową (sklepy internetowy) aŜ do zaawansowanych technologiczne portali
przedsiębiorstw stale rośnie. KaŜdy z tych serwisów wymagał lub stale wymaga nakładów finansowych, ale jego utworzenie i utrzymanie ma słuŜyć konkretnemu celowi. Cel ten, definiowany
przez właściciela strony (przedsiębiorstwo), w kaŜdym przypadku jest on związany pośrednio lub
bezpośrednio ze stroną przychodów prowadzonego biznesu. Wycena takiego serwisu internetowego w przypadku związku bezpośredniego (handel elektroniczny) jest dość prosta. DuŜym problemem okazuje się jednak oszacowanie wartości stron w przypadku, gdy nie są one związane z sektorem e-commerce, ale pośrednim (a czasami zręcznie ukrytym) celem ich istnienia jest generowanie przychodów.
Dość często napotyka się wypowiedzi na forach internetowych, gdzie osoba wnosząca do
spółki serwis internetowy jako swój wkład ma go wycenić na potrzeby wpisu do Krajowego Rejestru Sądowego, a brak jest jakichkolwiek urzędowych wskazówek na ten temat. [1] Rzeczywistość
działalności internetowej pokazuje takŜe nasilenie zjawiska handlu serwisami internetowymi w postaci odsprzedaŜy, czy róŜnego rodzaju przejęć, takŜe wśród firm sektora MŚP. Ciekawym problemem w tym procesie jest dokonywanie oszacowania wartości pewnego zbioru stron WWW zarówno przez sprzedającego jak i kupującego. Celem artykułu jest identyfikacja oraz analiza stosowanych metod wyceny komercyjnych serwisów internetowych.
58
Tomasz Ordysiński
Metody szacowania wartości rynkowej serwisu internetowego
2. Komercyjne serwisy internetowe i źródła ich dochodów
Gama rodzajów serwisów internetowych stale się powiększa. Podając obecną typologię moŜna
wyróŜnić:
− serwis informacyjny – jest to serwis poświęcony informacjom o organizacji, misji, charakterze organizacji, liście sukcesów, danych identyfikacyjnych i kontaktowych, zawierający
katalog produktów lub usług, cen oraz aktualne informacje o organizacji oraz bieŜącą
ofertę handlową. Charakteryzuje się duŜymi zasobami treści.
− serwis reklamowy – jego celem jest prowadzenie działań promocyjnych organizacji i jej
produktów.
− serwis transakcyjny – ma na celu wspomaganie procesu sprzedaŜy oraz utrzymanie partnerskich kontaktów z klientami.
− portal komercyjny – jest wielotematycznym serwisem internetowym, oferującym dostęp
do wielu informacji. Udostępnia on bogate treści, bez szczegółowości informacji.
− wortal (vortal) – portal wertykalny, dostarcza szczegółowej informacji z konkretnej dziedziny. MoŜe być dedykowany np. ekonomii, finansom, budownictwu itp.
− blog - rodzaj stron, które generalnie są uŜywane jako internetowe dzienniki, chociaŜ część
z nich (zwłaszcza prowadzonych przez specjalistów z róŜnych dziedzin posiada cechy
stron komercyjnych np. w formie reklamy zewnętrznej lub autoreklamy prowadzącego)
− portal korporacyjny – ma na celu prezentację organizacji, jej działalności i produktów. Są
wykorzystywane w ekstranecie oraz Internecie dla róŜnych odbiorców przedstawiające
róŜną treść.
− serwis szkoleniowy – nastawiony jest na zdobywanie i poszerzanie wiedzy.
− serwis społecznościowy - rodzaj stron, na których spotykają się internauci o podobnych
zainteresowaniach. Fundamentem serwisów społecznościowych są fora dyskusyjne, lub
czaty.[2]
Jednak na tym podziale klasyfikacja na pewno się nie zamknie. Obecnie coraz bardziej popularne
staje się hasło WEB 2.0. Początkowo (lata 2004-2005) traktowane jest pewne hasło reklamowe
zaczyna się strukturalizować jako nowa koncepcja i sposób konstruowania serwisów internetowych. Serwisy budowane według "filozofii Web 2.0" będą w znacznie większym stopniu niŜ dzisiejsze pozostawiać uŜytkownikom pole do własnej aktywności. Będą pozwalać, aby to sami internauci współtworzyli dostępne w serwisie treści oraz decydowali, które z nich zasługują na wyeksponowanie. Często specyfikę Web2.0 tłumaczy się na przykładach serwisów "nowej epoki". Jeden
z takich flagowych serwisów to Del.icio.us. Jego uŜytkownicy na swoich podstronach w serwisie
gromadzą i kategoryzują według słów kluczowych linki do ulubionych stron WWW. Wszystkie
osobiste kolekcje linków są dostępne publicznie.[3]
Wszystkie wymienione powyŜej formy serwisów internetowych utworzone i utrzymywane są
w określonym celu. Internetowa działalność komercyjna przyjąć moŜe rozmaite postaci, ale kaŜda
z nich będzie ukierunkowana na generowanie przychodów. Sposobów zarabiania w Internecie jest
duŜo – od bardzo powszechnych (np. reklama internetowa w postaci banerów) do bardzo zaawansowanych (jak np. giełdy internetowe czy portale branŜowe).
Najszerzej stosowanym sposobem uzyskania przychodów ze strony internetowej jest reklama,
którą na stronach serwisów podzielić moŜna na trzy podstawowe grupy:
59
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
−
własna (róŜne formy reklamujące sam serwis lub całość strony traktowana jako tzw. ewizytówka czy katalog oferty/produktów),
− obca (róŜne formy reklamujące obce serwisy, z którymi właściciel danej strony podpisał
umowę bezpośrednio),
− pochodząca z sieci reklamowych (reklamy rozsyłane przez np. Google Adsense).
Przedstawienie dostępnych obecnie form reklamy internetowej wykracza poza ramy tego artykułu
– dokładne informacje odnaleźć moŜna na stronach np. http://www.ittechnology.us/ (nota bene
przykład blogu, o dość ciekawej formie komercyjnej).
Z punktu widzenia dochodowości istotne są dane dotyczące rynku tej formy reklamy. Przedstawione poniŜej wykresy (rys.1, rys.2) wyraźnie pokazują, Ŝe rynek ten charakteryzuje się znaczną
dynamiką rozwoju i ma bardzo optymistyczne prognozy, które z pewnością zachęcą posiadaczy
serwisów internetowych do wykorzystania tej formy zarabiania w sieci.
14
7,4
8
5,4
6
3,7
4
2,3
1,6
wydantki (w mld USD)
wydatki (w mld USD)
9,3
10
0,07
0,06
0,054
0,05
0,04
0,034
0,03
0,022
0,02
0,01
0
0,076
0,08
11,2
12
2
0,09
12,8
0,004 0,006
0,008
0,013
0,00
2002
2003
2004
2005
2006P 2007P 2008P 2009P
lata
2000
2001
2002
2003
2004
2005
2006
2007P
lata
Rys.1 Wydatki na reklamę on-line Europie Zachodniej(w mld USD) Rys.2 Wydatki na reklamę on-line w Polsce(w mln PLN)
Źródło: IAB Polska - Wydatki gotówkowe bez barterów
Źródło: PricewaterhouseCoopers, 06.2006
Innym źródłem dochodu serwisu internetowego jest sprzedaŜ on-line tzw. e-commerce. Specyfika sieci umoŜliwia handel w formie 24x7, a asortyment towarów oferowanych przez sklepy internetowe zawiera zarówno towary w formie elektronicznej np. utwory muzyczne, treści opracowań
itp. jak i tradycyjne np. ksiąŜki, płyty, sprzęt RTV/AGD. Dynamika rozwoju tego rynku jest równie
optymistyczna jak reklamy internetowej. Blisko 70 proc. internetowego handlu w Europie koncentruje się na czterech rynkach: Wielkiej Brytanii (22 mld euro obrotów w 2007 r., bez usług), Niemiec, Francji i Belgii. Zarazem juŜ w kilku krajach środkowoeuropejskich, równieŜ w Polsce, zainteresowanie tą formą zakupów jest większe niŜ w Hiszpanii i Portugalii, a zbliŜone do Włoch – jak
wynika z raportu Obserwator Cetelem. To samo źródło podaje, Ŝe za dwa lata obroty europejskiego e-handlu stanowić będą 15 proc. całej sprzedaŜy detalicznej. Jak z kolei szacuje amerykańska
firma badawcza eMarketer, polski handel elektroniczny juŜ w 2009 r. powinien mieć 4-proc. udział
w łącznych obrotach detalicznych (według szacunków „Manager Magazin” teraz wynosi około 1,6
procent).[4] Obroty polskich sklepów i aukcji internetowych sięgnęły w ubiegłym roku 8 miliardów złotych. Na polskim rynku działa juŜ blisko 3,3 tys. sklepów internetowych. Według wstępnych szacunków, rynek e-handlu w Polsce powiększył się w 2007 roku aŜ o 60 procent (rys.3).[5]
Kolejnym sposobem na uzyskanie przychodów w Internecie jest pośrednictwo. Jest to forma
działalności internetowej, w której właściciel serwisu oferuje dostęp do pewnych treści o usłu-
60
Tomasz Ordysiński
Metody szacowania wartości rynkowej serwisu internetowego
gach/produktach innych firm. Przykładami takich rozwiązań są wszelkiego rodzaju serwisy ogłoszeniowe (dot. obrotu nieruchomościami, motoryzacją czy usługami), aukcje internetowe lub coraz
bardziej popularne programy partnerskie. Podstawowym „dobrem” takich stron internetowych jest
informacja. WaŜny jest sposób jest przedstawienia – musi być podana Internaucie w sposób atrakcyjny, prosty i uŜyteczny. Liderzy tego typu działalności w Polsce to np. gratka.pl, Allegro.pl czy
teŜ program partnerski „Złote myśli”.
w artość rynku (w m ln PLN)
0
lata
2001
2000
152 180
2003
328 410
2004
980
2005
1300
2007
6000
8000
10000
48 60
2002
2006
4000
921
1800
2000
3000
3470
Sklepy internetow e
4600
Platformy aukcyjne
Rys.3 Wartość polskiego runku e-commerce (w mln PLN)
Źródło: Raport „E-commerce 2007” http://www.sklepy24.pl/
Podsumowując główne rodzaje serwisów oraz sposobów generowania przez nie przychodów
naleŜy zauwaŜyć, Ŝe zmiany społeczno-technologiczne zaowocują z pewnością kolejnymi formami,
czy organizacjami treści publikowanych w Internecie. W tle z kolei rozwijać się będą coraz to nowe technologie wspierające uzyskiwanie przychodów w sposób prostszy, czasami nieco bardziej
„zakamuflowany” i na pewno kierowany do rzeszy kolejnych nowych uŜytkowników Internetu
(trend taki jasno pokazuje dynamiczny rozwój m-biznesu).
3. Metody wyceny serwisów internetowych
Problem wyceny serwisów internetowych moŜna rozpatrywać z wielu punktów widzenia
uzaleŜniając to od ogólnego typu serwisu czy teŜ juŜ konkretnego przypadku. Inaczej spojrzymy na
typowy sklep internetowy, który poza stroną WWW wymaga jeszcze zaplecza w postaci
magazynu, kontrahentów itp. a inaczej na serwis ogłoszeniowy czy informacyjny. W kaŜdym
jednak przypadku sam serwis stanowi pewną wartość niematerialną, do wyceny której
przewidziano juŜ pewne metody i techniki. Opierając się na róŜnicach i podobieństwach tych
metod moŜna wyróŜnić trzy podstawowe sposoby analizy i wyceny wartości niematerialnych:
metodę kosztową, metodę rynkową (nazywaną równieŜ metodą porównania sprzedaŜy) oraz
metodę dochodową. Podejście kosztowe opiera się na ekonomicznej zasadzie zastąpienia, według
której inwestor nie zapłaci za inwestycję więcej niŜ wynosi koszt jej realizacji (na przykład kupno
61
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
lub utworzenie) o identycznym poziomie korzyści, który moŜe być mierzony np. poziomem
funkcjonalności, uŜyteczności itp. Podejście rynkowe opiera się na ekonomicznej zasadzie, która
stwierdza, Ŝe na wolnym i nierestrykcyjnym rynku, czynniki podaŜy i popytu doprowadzą cenę
inwestycji do stanu równowagi. Podejście dochodowe opiera się na ekonomicznej zasadzie
antycypacji (czasami określanej jako zasada oczekiwania), według której wartość przedmiotu
inwestycji (np. wartość niematerialna) równa się obecnej wartości oczekiwanego dochodu, który
będzie uzyskany z tytułu posiadania tegoŜ przedmiotu. Jak wskazuje sama nazwa, inwestor
antycypuje uzyskanie określonego dochodu ekonomicznego.[6] Kontynuując ten tok myślenia, za
G.V. Smith’em, działający serwis internetowy moŜemy potraktować jako produkt informatyczny
i zgodnie z przedstawionym porządkiem najbardziej zalecaną metodą wyceny jego wartości będzie
metoda dochodowa, w dalszej kolejności rynkowa, a dopiero na miejscu trzecim będzie to metoda
kosztowa.[7]
Wraz ze wzrostem aktywności biznesowej w Internecie zauwaŜono pewne ułomności wyŜej
przedstawionych metod – pomimo swojej względnej prostoty w uŜyciu nie uwzględniały one
specyfiki komercyjnej działalności internetowej. Jednym z pierwszych i dość szeroko
zastosowanych sposobów określenia wartości serwisu było zastosowanie mnoŜnika dochodów
netto ze strony internetowej w postaci – 10 x wartość rocznego dochodu netto. Wartość mnoŜnika
równa 10 było oczywiście dyskutowana osiągając czasami wartość równą nawet 15, ale metoda
początkowo się przyjęła i była stosowana do szybkiego określenia ceny orientacyjnej.
Tabela 1. Statystyki wybranych serwisów pod względem uŜytkowników
l.p.
nazwa
liczba uŜytkowników (mln)
odsłony
(mln)
średnia liczba
odsłon na
uŜytkownika
średni czas
uŜytkownika
(g:m:s)
zasięg
(proc.)
416,25
250,83
277,21
144,73
70,52
07:19:20
05:06:03
03:50:28
03:58:59
01:21:57
68,09
57,41
51,8
50,45
44,05
Portale ogólnotematyczne
1
2
3
4
5
Onet.pl
Wirtualna Polska
Interia.pl
O2.pl
Gazeta.pl
1 Money.pl
2 Bankier.pl
3 Gospodarka.pl
Grupa Wolters
4 Kluwers
5 Infor.pl
9,75
4059
8,22
2062
7,43
2059
7,22
1046
6,3
444
Portale biznesowe
2,41
1,94
1,28
45,80
53,83
10,48
18,97
27,6
8,15
23:05
27:31
07:11
16,88
13,59
8,98
0,76
1,06
6,24
18,80
8,17
17,64
08:28
19:15
5,34
7,46
Źródło: opracowanie własne na podstawie 12. Satalecki P. Jak zainwestować w spółki internetowe?
http://www.money.pl/
Drugą metodą wyceny spopularyzowaną w pierwszych latach XXI w. była metoda oparta na
liczbie odwiedzających internautów i ocenie wartości pojedynczej "osobowizyty". Szacowano
róŜnie: od kilkudziesięciu do kilku dolarów na kaŜdego regularnie odwiedzającego portal
62
Tomasz Ordysiński
Metody szacowania wartości rynkowej serwisu internetowego
internautę, od kilku do kilkudziesięciu centów za jedną odsłonę. W bardzo często cytowanym
artykule z listopada 2005r. kwota ta ustalona została na 38$ [13]. Tego rodzaju mechanizmy,
zastosowane przez analityków firmy Wood&Co do polskich portali w roku 2000 przyniosły dość
optymistyczne wyniki: Onet - 2 mld zł, WP - 1,5 mld zł, Interia - 0,9 mld zł, Gazeta.pl - 0,9 mld zł.
Rynek jednak zweryfikował słuszność tych wycen - portal był wart tyle, ile inwestorzy gotowi byli
w niego "włoŜyć". Ponadto widać wyraźnie rozbieŜności w wycenie firm nawet przez same
zarządy. Portal Hoga oceniał swój potencjał w roku 2001 na ok. 9 mln zł, zaś Arena na 100 - 150
mln - ani wyniki finansowe, ani róŜnice w liczbie odwiedzających nie usprawiedliwiały takich
dysproporcji.[10] Z uwagi jednak na brak innych miar oceny, które mogą charakteryzować
popularność serwisu, a co za tym idzie jego atrakcyjność dla inwestorów, statystyki gromadzone
przez narzędzia typu Google Analytics czy Stat.pl leŜą u podstaw określania wartości danego
serwisu internetowego (Tabela 1).
Z czasem zaczęto brać pod uwagę kolejne czynniki w postaci „marki” czy teŜ pozycji serwisu
w rankingach, liczby uŜytkowników (zarejestrowanych, unikatowych), tematyki strony, zasobności
docelowego uŜytkownika, nazwy domeny, dywersyfikacji źródeł przychodów, dywersyfikacji
ruchu, potencjału rozwoju serwisu oraz jego komplementarności czy konkurencyjności względem
innych serwisów np. potencjalnego kupca.[8][9] To rozszerzenie grupy czynników zaowocowało
wieloma
„wyceniarkami”
serwisów
internetowych
dostępnych
takŜe
on-line
(http://www.websitevaluecalculator.com/, http://www.speedtest.pl/wycena.html).
Tabela 2. Ranking najdroŜszych serwisów wg speedtest.pl (maj 2008)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Źródło: http://speedtest.pl
20 najdroŜszych stron
google.com
11 969 431 063,00 PLN
yahoo.com
9 114 857 647,00 PLN
youtube.com
5 864 133 469,00 PLN
wikipedia.org
2 292 539 820,00 PLN
myspace.com
1 722 841 383,00 PLN
microsoft.com
1 708 149 063,00 PLN
amazon.com
658 804 733,00 PLN
rapidshare.com
649 680 706,50 PLN
ebay.com
627 760 110,00 PLN
adobe.com
516 142 846,00 PLN
google.pl
192 287 217,00 PLN
digg.com
170 816 667,00 PLN
mininova.org
161 693 064,00 PLN
redtube.com
134 748 419,40 PLN
veoh.com
128 397 367,00 PLN
thepiratebay.org
123 231 217,00 PLN
megaupload.com
107 519 499,00 PLN
4shared.com
79 188 619,50 PLN
nasza-klasa.pl
60 656 881,50 PLN
onet.pl
56 960 358,00 PLN
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
63
JednakŜe ich algorytmy są niedostępne do publicznego wglądu, co powoduje brak moŜliwości
sprawdzenia np. jakie wagi zostały przyjęte dla poszczególnych czynników wyceny oraz czy
róŜnicują one serwisy pod względem rodzaju, liczby uŜytkowników itp. Powoduje to zdecydowany
brak realnej przydatności takich narzędzi – naleŜy traktować je jako ciekawostki (Tabela 2).
Innym dość popularnym podejściem do wyceny serwisów internetowych jest tzw. wartość
określonych zasobów niematerialnych. Metoda ta jest stosowana często w przypadku bardzo
popularnych domen internetowych i bazuje na ocenie przez kupującego wartości zasobu (np.
domeny, jej popularności i pozycji w rankingach) z kosztem odtworzenia podobnego zasobu o tych
samych właściwościach. Z reguły zakup jest wariantem tańszym i znacznie mniej czasochłonnym.
W przypadku popularnej domeny internetowej kupujący jest bardzo mało zainteresowany samą
zawartością strony czy teŜ jej technologicznym zapleczem. Metoda ta bardzo często traktowana
jest jako uzupełnienie tradycyjnych metod wyceny.
Problem wyceny firm/serwisów internetowych jest obecnie rozwaŜany przez środowiska
biznesowe i naukowe na całym świecie. Aktualność zagadnienia powoduje jednak, Ŝe brak jest
literatury zawierającej nowatorskie i jednocześnie sprawdzone procedury wyceny. Niemniej
podejmowanych jest wiele prób, których rezultaty publikowane są w artykułach (często o
charakterze naukowym) zamieszczanym w serwisach internetowych dotyczących tematyki ebiznesu. DuŜy rozgłos i popularność uzyskały badania przeprowadzone przez Michael’a
Arrington’a dotyczące wartości serwisów społecznych [14]. W swoim modelu wyceny dokonał on
zróŜnicowania geograficznego uŜytkowników serwisów społecznościowych (np. Facebook.com,
Bebo.com, LinkedIn, czy Nasza-klasa.pl) określając miejsce ich zamieszkania. Następnie dla
kaŜdego z krajów dokonał oceny wartości uŜytkownika dzieląc kwoty na wydawane na reklamę
on-line przez liczbę uŜytkowników Internetu w danym kraju. Uzyskał w ten sposób wskaźnik
określający ile wart jest uŜytkownik danego serwisu społecznościowego z danego kraju. Ogólna
wartość całego serwisu oszacowana została przez wymnoŜenie liczby uŜytkowników z danego
kraju przez ich wartość „reklamową” i zsumowanie uzyskanych wartości dla wszystkich krajów.
Kolejną interesującą propozycję wyceny duŜych serwisów internetowych (naleŜy podkreślić
dokładne sprecyzowanie grupy serwisów) zaproponował Marcin Prys.[11] Zaprezentowana metoda
opiera się podobnie jak wcześniejsze na filozofii "uŜytkocentrycznej", ale nowością jest
zastosowanie autorskiego podejścia w postaci miernika „stopnia penetracji” grupy docelowej
uŜytkowników serwisu. Stopień ten, wg Autora metody, determinuje dynamikę dalszego rozwoju
danego serwisu w obecnej jego postaci (zakresie usług, ofercie itp.). Jak słusznie zauwaŜył Autor
osiągnięcie poziomu 80 – 85% powoduje, Ŝe serwis nie będzie się rozrastał – uzyskał juŜ swój
potencjalny poziom rozwoju i jego dalsze losy zaleŜą głównie od rozbudowania oferty i szukania
nowej grupy docelowej. Oczywiście wiąŜą się z tym dodatkowe nakłady finansowe obarczone dość
wysokim ryzykiem. Bardzo dobrym załoŜeniem wydaje się takŜe przyjęcie 3-letniego horyzontu
czasowego takiej wyceny.
Internet jest środowiskiem biznesowym rozwijającym się bardzo dynamicznie – konkurencja
pojawić się moŜe w kaŜdej chwili i w bardzo krótkim okresie przejąć duŜą grupę uŜytkowników
serwisu. Do tego naleŜy jeszcze dołączyć zmiany technologiczne, społeczne, co powoduje, Ŝe
komercyjna działalność internetowa jest bardzo wymagająca i obarczona znacznym ryzykiem. Te
uwarunkowania powodują, Ŝe określenie ile wart jest dany działający serwis internetowy jest
zadaniem bardzo trudnym.
64
Tomasz Ordysiński
Metody szacowania wartości rynkowej serwisu internetowego
4. Wnioski końcowe
Wycena wartości niematerialnych jest swoistą sztuką, bowiem w zaleŜności od celu
i szczegółowych uwarunkowań wyceny istnieje mniejsze lub większe pole swobody i poszukiwań
analityka dokonującego wyceny. Rzeczoznawca zajmuje się wyceną rzeczy, które są postrzegane
zmysłami, tymczasem analityk wyceniający wartości niematerialne - z racji niematerialnego
przedmiotu wyceny - jest zmuszony do stosowania róŜnorodnych metod analitycznych.[6] Problem
wyceny serwisów internetowych wymaga znajomości specyfiki tego środowiska prowadzenia działalności komercyjnej, typów e-biznesu oraz trendów i prognoz dotyczących rynku reklamy czy
sprzedaŜy internetowej. Jest to środowisko bardzo dynamiczne pod względem gospodarczym –
liczba serwisów stale rośnie, chociaŜ wiele z nich upada. Ograniczenia gospodarcze czy geograficzne tracą na znaczeniu – liczy się pomysł, znalezienie luki na rynku, a potem konsekwencja w
działaniu.
O istotności zagadnienia wyceny mówią liczby podawane w transakcjach dotyczących portali
internetowych:
• Microsoft kupuje 1 proc. Facebook za 240 mln dolarów
• Microsoft chciał kupić Yahoo za 45 mld dolarów
• European Funders kupuje 20 proc. Naszej-Klasy za 3 mln złotych
• Spekulacje na temat kupna Bankiera.pl przez Agorę - 130 mln złotych [12]
Wydaje się, Ŝe w działalności internetowej zastosowanie znajduje pewne proste załoŜenie rynkowe
– serwis internetowy jest wart tyle, ile ktoś jest skłonny za niego zapłacić. Jednak kwota zakupu
takŜe wymaga dokonania oszacowania opłacalności inwestycji.
Podsumowując przedstawione powyŜej metody wyceny serwisów internetowych nie sposób wskazać jest jedną uniwersalną (Tabela 3). Metody wywodzące się z tradycyjnej rachunkowości charakteryzują się prostotą i przejrzystością. Jednak ich algorytmy nie potrafią wziąć pod uwagę specyfiki
działalności w Internecie. Grupy metod oparte na liczbie unikatowych uŜytkowników serwisu
uwzględniające takŜe inne czynniki powodujące wzrost wartości danego zbioru stron WWW takŜe
nie mogą być bez wahania uŜyte do wyceny dowolnego serwisu.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
65
Tabela 3. Stosowalność wybranych metod wyceny serwisów internetowych
Metoda szacowania wartości
Zastosowanie
Metoda kosztowa
wycena serwisów nowych, o małej liczbie unikatowych uŜytkowników, serwisów społecznościowych
Metoda rynkowa
wycena serwisów o wysokiej dynamice rozwoju dowolnego
typu, duŜych serwisów handlu elektronicznego oraz portali
informacyjnych
Metoda dochodowa
wycena serwisów handlu elektronicznego, portali informacyjnych o średniej liczbie unikatowych uŜytkowników
Metoda mnoŜnika zysków
netto
wycena serwisów dowolnego typu obarczona znacznym subiektywizmem wynikającym z przyjęcia wartości mnoŜnika
Metoda oparta na liczbie unikatowych uŜytkowników
wycena serwisów handlu elektronicznego, portali informacyjnych o średniej i duŜej liczbie unikatowych uŜytkowników
Metody złoŜone (oparte na
wielu czynnikach)
wycena dowolnego typu serwisów internetowych stosująca
róŜne wagi czynników w zaleŜności od rodzaju serwisu
Metody kalkulatorów on-line
brak wglądu w algorytm obliczeń, z czego wynika bardzo
szacunkowa wycena dowolnego serwisu
Źródło: opracowanie własne
ZauwaŜyć moŜna pewną tendencję w rozwoju metod szacowania wartości serwisów opartą na coraz głębszym dociekaniu kim właściwie jest jego uŜytkownik. Z praktyki gospodarczej nasuwa się
podobieństwo do załoŜeń podejścia CRM, bo przecieŜ tak jak firma nie moŜe istnieć bez klientów
tak i serwis nie ma racji bytu bez osób go odwiedzających.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
Wycena serwisu internetowego. http://grupy-dyskusyjne.money.pl/.
Wikipedia, http://pl.wikipedia.org/.
Domaszewicz Zbigniew, Web 2.0 to rewolucja w Internecie? http://gospodarka.gazeta.pl/.
Krasoń M., Stefaniak P. E-kupujemy na potęgę. Miesięcznik Manager, maj 2008.
Dochodowy handel elektroniczny, e-Gospodarka.pl.
Zarzecki D. Metody wyceny wartości niematerialnych i prawnych. http://www.erachunkowosc.pl.
G.V. Smith, R.L. Parr. Valuation of Intellectual Property and Intangible Assets. Second
Edition, John Wiley & Sons, New York, 1994.
Maravilla N. Thinking of Selling Your Web Site? How to Determine Your Web Site’s
Value. PowerHomeBiz.com.
66
Tomasz Ordysiński
Metody szacowania wartości rynkowej serwisu internetowego
9. Wycena stron internetowych. Speedtest.pl.
10. Grochowski T. Portal w potrzebie. PCkurier 11/2001.
11. Prys M. Wycena serwisów internetowych. http://serwis.magazynyinternetowe.pl/ marzec
2008.
12. Satalecki P. Jak zainwestować w spółki internetowe? http://www.money.pl/.
13. Malik O., The Return of Monetized Eyeballs. BUSINESS 2.0 Magazine,
http://money.cnn.com/magazines/business2/ 2005.
14. Arrington M. Modeling The Real Market Value Of Social Networks.
http://www.techcrunch.com/ 2008.
METHODS OF WEB SITE PRICING
Summary
In practice of Internet based business we can notice a phenomenon of trading
(selling, takeovers, accessing the stock market) in web sites. The role of Internet portals in national and international economy is constantly increasing. This is very
clearly visible in the results of e-economy research, specially connected with
e-commerce and advertisement. More and more (small and big) companies start to
operate using only Internet network, where the main resource is information placed
on their web sites. Changes in ownership or selling some shares of such a company
requires calculation of value of its Internet web sites/portals. This article presents a
set of methods, with its possible applications, which enable to price commercial web
site.
Keywords: methods of pricing website, value of Internet web site, web site types and income
sources
Tomasz Ordysinski
Instytut Informatyki w Zarządzaniu
Uniwersytet Szczeciński
Szczecin,ul. Mickiewicza 64
e-mail: [email protected]
http://tomaszordysinski.pl
http://www.wneiz.pl
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
67
MARIA JOLANTA ORŁOWSKA
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
NARZĘDZIA UŁATWIAJĄCE PRZYGOTOWANIE PLANÓW ROZWOJU GOSPODARSTW W OPINII DORADCÓW KUJAWSKO-POMORSKIEGO OŚRODKA
DORADZTWA ROLNICZEGO I WSPÓŁPRACUJĄCYCH Z NIMI ROLNIKÓW
Streszczenie
Celem opracowania było poznanie potrzeb doradców dotyczących narzędzi ułatwiających przygotowanie planów rozwoju gospodarstw oraz oczekiwań rolników
związanych z opracowaniem planu rozwoju gospodarstwa.
Wyniki przeprowadzonych badań potwierdzają, Ŝe doradcom są potrzebne narzędzia ułatwiające opracowanie planów rozwoju gospodarstw. Rolnicy oczekują od
doradców wsparcia przy przygotowaniu planu przedsięwzięcia.
Słowa kluczowe: baza wiedzy o gospodarstwach, standardowa nadwyŜka bezpośrednia, ośrodki
doradztwa rolniczego, doradcy, gospodarstwa rolne
1. Wstęp
W związku z Rozporządzeniem Rady (WE) nr 1782/2003 zobowiązującym kraje członkowskie Unii Europejskiej aby od 2007 r. kaŜde gospodarstwo towarowe miało opracowany plan rozwoju z uwzględnieniem dbałości o środowisko, dobrostan zwierząt i higienę produkcji przed doradztwem rolniczym postawione zostały nowe zadania. Opracowanie dobrego planu bowiem wymaga [Ziętara, Olko-Bagieńska 1986, Mańko 2007]:
- zgromadzenia niezbędnych danych źródłowych (opis gospodarstwa),
- dokonania krytycznej oceny stwierdzonych faktów i zaleŜności (analiza gospodarstwa),
- opracowania róŜnych wariantów planu rozwoju gospodarstwa.
Podstawą analizy i planowania są dane opisujące potencjał gospodarstwa. Zebranie danych nie
będzie trudne w gospodarstwach prowadzących zapisy rachunkowe. Jednak w Polsce większość
gospodarstw nie prowadzi rachunkowości. W gospodarstwach tych gromadzone do przygotowania
planu dane są szacunkowe. Wymagają zatem weryfikacji. Aktualnie w Polsce nie ma wielkości
referencyjnych, które byłyby podstawą do weryfikowania opisów i planów przedsięwzięć gospodarstw, nie prowadzących rachunkowości. Konieczne staje się więc określenie prostej metody oceny zasobów niezbędnej przy analizowaniu i planowaniu rozwoju gospodarstw rolniczych.
Miarą w pełni opisującą potencjał gospodarstw rolniczych z punktu widzenia zdolności produkcyjnych i dochodowych wydaje się być wielkość ekonomiczna1. Na bieŜąco uaktualniana baza
obejmująca dane dotyczące organizacji i wyników gospodarstw prowadzących rachunkowość
(FADN2), pogrupowanych według wielkości ekonomicznej i typów rolniczych, mogłaby stać się
1 miara wielkości gospodarstw będąca podstawą ich klasyfikacji
2 FADN – (ang. Farm Accountancy Data Network) – System Zbierania i Wykorzystywania Danych Rachunkowych z
Gospodarstw Rolnych.
68
Maria Jolanta Orłowska
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników
bazą referencyjną do weryfikowania opisów i planów rozwoju gospodarstw nie prowadzących rachunkowości. Warto podkreślić, Ŝe FADN jest jedynym zunifikowanym, wiarygodnym, reprezentacyjnym źródłem informacji o wynikach produkcyjno-ekonomicznych gospodarstw rolnych w
Unii Europejskiej.
Na podstawie informacji od rolnika, który nie prowadzi rachunkowości, np. o liczbie zwierząt
i powierzchni upraw, doradca wykorzystując bazę mógłby przeprowadzić symulacje skutków róŜnych wariantów planu a rolnik uzyskałby odpowiedź jak zmiana liczby zwierząt i powierzchni
upraw moŜe zmienić wielkość produkcji i uzyskiwanych dochodów. Wskazanie, moŜliwej do masowego zastosowania, prostej a zarazem dostatecznie precyzyjnej, metody oceny potencjału gospodarstw rolniczych jest warunkiem rozwoju doradztwa ekonomiczno-rolniczego w Polsce.
Podstawą prawną polskiego FADN jest Ustawa o zbieraniu i wykorzystywaniu danych rachunkowych gospodarstw rolnych z 29 listopada 2000 r. z późniejszymi zmianami , która weszła w
Ŝycie z dniem uzyskania przez Polskę statusu członka UE – 1 maja 2004 r. Ustawa ta szczegółowo
precyzuje zadania szczebla centralnego systemu, do którego naleŜą: komitet Krajowy i Agencja
Łącznikowa, której funkcję pełni Instytut Ekonomiki Rolnictwa i Gospodarki śywnościowej –
Państwowy Instytut Badawczy w Warszawie. Zbieraniem danych rachunkowych z reprezentatywnych gospodarstw rolnych zajmują się na szczeblu województwa Ośrodki Doradztwa Rolniczego
(Biura Rachunkowe). W systemie Polski FADN mogą uczestniczyć gospodarstwa towarowe. Ustalona liczebność próby Polskiego FADN liczy 12100 gospodarstw, co oznacza, Ŝe jedno gospodarstwo uczestniczące w systemie Polski FADN reprezentuje średnio prawie 62 gospodarstwa znajdujące się w polu obserwacji [ Goraj i in. 2004].
Polski FADN mógłby stanowić więc bazę wiedzy wykorzystywaną do opracowania planów
rozwoju gospodarstw. Warto podkreślić, Ŝe baza ta jest na bieŜąco uaktualniana, uŜyteczność jej
więc będzie rosła.
2. Cel i metoda badań
Celem opracowania było poznanie potrzeb doradców dotyczących narzędzi ułatwiających
przygotowanie planów rozwoju gospodarstw oraz oczekiwań rolników związanych
z opracowaniem planu rozwoju gospodarstwa.
Właściwe badania, poprzedzone badaniami pilotaŜowymi, przeprowadzono wśród 811
respondentów: doradców Kujawsko-Pomorskiego Ośrodka Doradztwa Rolniczego (K-PODR) oraz
współpracujących z nimi rolników. Były to wskazane przez doradców po trzy, cztery gospodarstwa
z kaŜdej gminy województwa kujawsko-pomorskiego o orientacji rynkowej.
W wykonanych badaniach wzięło udział 205 doradców:
-
57 specjalistów zakładowych z Ośrodka centralnego (Minikowo) i oddziałów w Przysieku
i Zarzeczewie,
- 148 specjalistów terenowych zatrudnionych w 19 Powiatowych Zespołach Doradztwa
Rolniczego.
Badania rolników przeprowadzono za pośrednictwem doradców terenowych stosując technikę
wywiadu kwestionariuszowego. Doradców objęto badaniami ankietowymi wykorzystując
wcześniej przygotowany kwestionariusz ankiety.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
69
Zebrane materiały źródłowe zostały poddane selekcji, klasyfikacji i opracowaniu
statystycznemu. Dane empiryczne poddano obliczeniom wykorzystując metody statystycznej
weryfikacji hipotez. Metody statystyczne słuŜyły do ustalenia współzaleŜności pomiędzy
udzielanymi przez respondentów odpowiedziami a wybranymi zmiennymi charakteryzującymi
analizowaną społeczność, którymi były:
‫ ־‬wśród doradców: staŜ pracy,
‫ ־‬wśród rolników: wiek, liczba lat prowadzenia gospodarstwa, wykształcenie, wielkość
obszarowa i ekonomiczna prowadzonego gospodarstwa.
Weryfikacji hipotezy o istnieniu związku pomiędzy zmiennymi dokonano przy pomocy
testu χ testując hipotezy statystyczne H0 oraz H1. Hipoteza statystyczna jest przypuszczeniem dotyczącym związku pomiędzy zmiennymi. Hipoteza zerowa (H0) – oznacza brak zaleŜności pomiędzy badanymi zmiennymi. Hipoteza alternatywna (H1) oznacza istnienie zaleŜności pomiędzy analizowanymi zmiennymi. Analizę przeprowadzano na poziomach istotności α = 0,05 i 0,013.
2
3. Wyniki badań
Analiza i planowanie wymaga zgromadzenia informacji źródłowych opisujących potencjał
gospodarstw. MoŜliwości produkcyjne i dochodowe zaleŜą bowiem od ukształtowanego potencjału
gospodarstwa. Doradca pomaga rolnikowi w zgromadzeniu i zweryfikowaniu danych źródłowych
będących podstawą oceny potencjału produkcyjnego gospodarstwa. Nie będzie to trudne w
gospodarstwach prowadzących ewidencję. Najlepszym źródłem danych są zapisy rachunkowe
[Leśniak 1997, Mańko 2007]. Dane księgowe ułatwiają trafne podejmowanie decyzji o strukturze
produkcji gospodarstwa i jej efektywności. [Bernacki 2004, Goraj, Niewiadomski 2003]. Podobna
była opinia badanych doradców. Zdaniem prawie 93% respondentów, prowadzenie rachunkowości
ułatwia określenie zasobów gospodarstw pod względem produkcyjnym i dochodowym.
Pomiar zasobów gospodarstw prowadzących rachunkowość jest zdaniem 68,8% doradców KPODR bardzo łatwy i łatwy. Jednak osoby badane najczęściej współpracowały z gospodarstwami
nie prowadzącymi rachunkowości (74,6%). Zmierzenie potencjału gospodarstwa nie
prowadzącego rachunkowości, w opinii większości badanych, jest trudne i bardzo trudne. Tak
twierdziło 76,2% badanych doradców.
Podstawą określenia potencjału gospodarstwa, zdaniem 91,2% osób badanych, powinny być
wiarygodne, moŜliwe do sprawdzenia, proste do ustalenia dane. Tylko 8,8% respondentów
twierdziło, Ŝe zmierzenie potencjału gospodarstwa moŜe odbywać się na podstawie wspólnej
z rolnikiem rozmowy polegającej na odtwarzaniu sytuacji z przeszłości bazując na pamięci rolnika.
Ocenę potencjału gospodarstwa poprzedza sporządzenie opisu analitycznego. Opis powinien
zawierać dane dotyczące stanu, funkcjonowania i osiąganych wyników gospodarstwa. Doradca
moŜe pomóc rolnikowi w zebraniu danych [Mańko 2007]. Gromadzone dane w gospodarstwach
nie prowadzących rachunkowości są szacunkowe. RównieŜ wiele informacji z gospodarstw
prowadzących rachunkowość, niezbędnych do oceny działalności, znajduje się poza ewidencją.
Zebrane dane wymagają zatem weryfikacji [Leśniak 1997]. Aktualnie doradcy nie dysponują
wielkościami referencyjnymi, które byłyby podstawą do weryfikowania opisów gospodarstw.
Przydatność danych z gospodarstw prowadzących rachunkowość unijną (FADN) do
3 www.ip.univ.szczecin.pl
70
Maria Jolanta Orłowska
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników
weryfikowania opisów gospodarstw widzi 32,2% badanych doradców. Dane powinny być
przedstawione w takiej formie, Ŝeby moŜna weryfikować liczby podane przez rolników.
W opinii 45,4% doradców K-PODR, spośród prezentowanych metod, sposobem
pozwalającym na szybkie zdiagnozowanie sytuacji ekonomicznej w gospodarstwach nie
prowadzących rachunkowości jest wielkość ekonomiczna, a tylko 14,1% twierdzi, Ŝe powierzchnia
uŜytków rolnych (rys. 1).
45,4
50,0
40,0
30,0
20,0
10,0
19,0
14,1
3,4 2,9
5,9
0,0 0,0 2,4 1,5
5,4
0,0
powierzchnia uŜytków rolnych w ha
wartość aktywów
wartość środków trwałych ogółem
wartość majątku obrotowego ogółem
liczebność stałej załogi
wielkość zastosowanych nakładów pracy
typ produkcyjny według Manteuffla
sposób oceny potencjału Rychlika
wielkość ekonomiczna wyraŜona w ESU
Ŝaden
nie wiem
Rys. 1. Sposób oceny potencjału gospodarstw nie prowadzących rachunkowości pozwalający na szybkie zdiagnozowanie sytuacji ekonomicznej w opinii doradców K-PODR
Źródło: opracowanie własne na podstawie badań ankietowych
W pracy doradczej przydatna byłaby, zdaniem 79,0% osób badanych, moŜliwość szybkiego
ustalenia sytuacji ekonomicznej gospodarstwa na podstawie prostych informacji podstawowych.
Przeszło 61% respondentów uznało, Ŝe do analizowania sytuacji gospodarstw, podobnie jak
do weryfikowania opisów, przydatne byłyby doradcom na bieŜąco uaktualniane informacje
z gospodarstw prowadzących rachunkowość. Baza taka ułatwiałaby dokonywanie analizy sytuacji
gospodarstw poprzedzającej plan rozwoju.
Zestawienie danych z gospodarstw prowadzących rachunkowość unijną, pokazujące związek
między potencjałem, organizacją a wynikami produkcyjno-ekonomicznymi dla typów rolniczych
gospodarstw, byłoby przydatne w pracy doradczej i zarządzaniu gospodarstwem. Doradca lub
rolnik mógłby porównać swoją sytuację z rezultatami uzyskiwanymi przez gospodarstwa podobne.
W opinii 77,1% badanych doradców szybkie ustalenie sytuacji ekonomicznej gospodarstwa
ułatwiałoby przygotowanie planu rozwoju.
71
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
Podobnego zdania było 70,5% badanych rolników, głównie kierujących gospodarstwami
o powierzchni uŜytków rolnych powyŜej 15 ha i wielkości ekonomicznej 8-16 ESU (rys. 2, 3).
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
23,2
20,6
13,0
2,9
13,2
13,0
10,1
6,0
11,5
10,5
3,3
10,5
7,0
5,0
11,0
30,4
35,5
38,0
26,5
20,3
30,4
36,8
41,9
40,1
39,0
do 10 ha
10,1-15 ha
15,1-30 ha
30,1-50 ha
50,1 i wiecej
Odpowiedzi udzielone przez badanych rolników:
tak
raczej tak
raczej nie
nie
nie potrafię odpowiedzieć
Rys. 2. MoŜliwość oceny aktualnej sytuacji ekonomicznej prowadzonego gospodarstwa na tle innych
podobnych w opinii badanych rolników z róŜnych grup wielkości obszarowej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
22,0
16,7
12,2
14,1
7,7
12,4
4,8
6,9
10,5
4,6
13,0
9,7
4,9
8,7
33,5
39,8
38,5
36,9
od 16 - < 40
ESU
40 ESU i >
27,6
22,0
26,9
19,5
48,3
24,4
34,6
do - < 4 ESU od 4 - < 8 ESU
od 8 - < 16
ESU
Odpowiedzi udzielone przez badanych rolników:
tak
raczej tak
raczej nie
nie
nie potrafię odpowiedzieć
Rys. 3. MoŜliwość oceny aktualnej sytuacji ekonomicznej prowadzonego gospodarstwa na tle innych podobnych w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
Zdaniem największej liczby badanych doradców sposobem oceny potencjału z punktu
widzenia moŜliwości produkcyjnych i dochodowych pozwalającym na szybkie zdiagnozowanie
72
Maria Jolanta Orłowska
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników
moŜliwości rozwojowych w gospodarstwach nie prowadzących rachunkowości jest wielkość
ekonomiczna (36,6%). Tylko 15,6% badanych w tej roli widzi powierzchnię uŜytków rolnych (rys.
4).
36,6
40,0
24,9
30,0
20,0
10,0
15,6
6,3 3,4
5,9 0,5
0,0
1,0 1,0
4,9
0,0
powierzchnia uŜytków rolnych w ha
wartość aktywów
wartość środków trwałych ogółem
wartość majątku obrotowego ogółem
liczebność stałej załogi
wielkość zastosowanych nakładów pracy
typ produkcyjny według Manteuffla
sposób oceny potencjału Rychlika
wielkość ekonomiczna wyraŜona w ESU
Ŝaden
nie wiem
Rys. 4. Sposób oceny potencjału gospodarstw nie prowadzących rachunkowości pozwalający na szybkie zdiagnozowanie moŜliwości rozwojowych w opinii doradców K-PODR
Źródło: opracowanie własne na podstawie badań ankietowych
Dobrze opracowany plan powinien ułatwić rolnikowi przeprowadzenie zmian
w gospodarstwie. Dlatego opracowywanie planu powinno odbywać się wspólnie z rolnikiem.
Rolnik podejmuje decyzje dotyczące kierunku rozwoju swojego gospodarstwa, bowiem on i jego
rodzina ponosi wszelkie konsekwencje z nią związane. Doradca moŜe pomóc w podjęciu trafnej
decyzji przedstawiając róŜne warianty planu rozwoju [Bieńkowski 1994, Leśniak 1997, Mańko
2007].
Przy przygotowaniu wariantów planu, znalazłaby równieŜ zastosowanie utworzona baza
z gospodarstw prowadzących rachunkowość unijną. Pogrupowane w odpowiedni sposób
gospodarstwa z bazy, byłyby podstawą przygotowania róŜnych wariantów planu. Według 81,0%
doradców K-PODR opracowanie planu ułatwiłaby moŜliwość szybkiego zaprezentowania
rolnikowi zmiany dochodów prowadzonego przez niego gospodarstwa w zaleŜności od zmiany
liczby zwierząt oraz róŜnych wariantów zmian liczby zwierząt i osiąganych dochodów.
Podobnie, 90,1% rolników chciałoby ocenić, jak zmiana liczby zwierząt moŜe zmienić
dochody. Przedstawianie róŜnych wariantów planu ułatwia rolnikowi wybór odpowiadającej mu
organizacji gospodarstwa. Dla badanych rolników szczególnie cenna byłaby moŜliwość zapoznania
się z róŜnymi wariantami zmian liczby zwierząt i osiąganych dochodów. Taką sposobność
chciałoby mieć 81,6% badanych rolników, prowadzących produkcję zwierzęcą i zainteresowanych
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
73
rozwojem produkcji zwierzęcej. Najbardziej zainteresowani, to rolnicy w wieku 40-49 lat i 20-29
lat i zarządzający gospodarstwami od 8-16 ESU (rys. 5, 6).
100%
90%
12,0
17,3
20,5
82,7
79,5
20-29 lat
30-39 lat
25,9
80%
70%
60%
50%
40%
88,0
74,1
30%
20%
10%
0%
40-49 lat
tak
50 i > lat
nie
Rys. 5. MoŜliwość oceny róŜnych wariantów zmian liczby zwierząt i osiąganych dochodów w opinii
badanych rolników z róŜnych grup wiekowych
Źródło: opracowanie własne na podstawie badań ankietowych
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
13,6
15,5
17,9
86,4
84,5
82,1
od 8 - <16
od 16 - <40
40 ESU i >
31,3
50,0
68,8
50,0
do - < 4
od 4 - < 8
tak
nie
Rys. 6. MoŜliwość oceny róŜnych wariantów zmian liczby zwierząt i osiąganych dochodów w opinii
badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
Około 80% doradców, w pracy z rolnikiem nad przygotowaniem planu, chętnie widziałoby
równieŜ moŜliwość, szybkiego przedstawienia rolnikowi, jak zmiana powierzchni upraw moŜe
wpłynąć na dochody gospodarstwa, oraz róŜnych wariantów powierzchni upraw i osiąganych
74
Maria Jolanta Orłowska
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników
dochodów. Podobne były oczekiwania rolników. Blisko 80% było zainteresowanych taką
moŜliwością. Szczególnie zainteresowani rolnicy pochodzili z gospodarstw o powierzchni uŜytków
rolnych 15,1-30 ha i 30,1-50 ha oraz klas wielkości ekonomicznych: średnio małych (84,8%)
i średnio duŜych (83,7%) ( (rys. 7, 8).
100%
90%
80%
70%
22,1
17,5
16,4
21,0
77,9
82,5
83,6
79,0
10,1-15 ha
15,1-30 ha
30,1-50 ha
50,1 i wiecej
36,2
60%
50%
40%
63,8
30%
20%
10%
0%
do 10 ha
tak
nie
Rys. 7. MoŜliwość oceny jak zmiana powierzchni upraw zmieni dochody w opinii badanych rolników z róŜnych grup wielkości obszarowej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
100%
24,4
80%
15,2
16,3
84,8
83,7
24,3
46,3
60%
40%
75,6
75,7
53,7
20%
0%
do - < 4
od 4 - < 8
od 8 - <16 od 16 - <40 40 ESU i >
tak
nie
Rys. 8. MoŜliwość oceny jak zmiana powierzchni upraw zmieni dochody w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
75
AŜ 79,2% badanych rolników chciałoby mieć moŜliwość zapoznania się z róŜnymi wariantami
zmian powierzchni upraw i osiąganych dochodów. Najbardziej zainteresowani kierowali
gospodarstwami o powierzchni uŜytków rolnych 30,1-50 ha i 15,1-30 ha oraz wielkości
ekonomicznej 8 - <16 ESU i 16 - <40 ESU (rys. 9, 10).
100%
80%
23,5
18,0
15,8
19,0
76,5
82,0
84,2
81,0
10,1-15 ha
15,1-30 ha
40,6
60%
40%
59,4
20%
0%
do 10 ha
tak
30,1-50 ha 50,1 i wiecej
nie
Rys. 9. MoŜliwość oceny róŜnych wariantów zmian powierzchni upraw i osiąganych dochodów
w opinii badanych rolników z róŜnych grup wielkości obszarowej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
100%
14,5
17,6
26,9
80%
43,9
23,3
60%
40%
73,1
85,5
82,4
76,7
od 8 - <16
od 16 - <40
40 ESU i >
56,1
20%
0%
do - < 4
od 4 - < 8
tak
nie
Rys. 10. MoŜliwość oceny róŜnych wariantów zmian powierzchni upraw i osiąganych dochodów
w opinii badanych rolników z róŜnych klas wielkości ekonomicznej gospodarstw
Źródło: opracowanie własne na podstawie badań ankietowych
76
Maria Jolanta Orłowska
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników
Zdaniem 41,0% badanych doradców, dane z gospodarstw prowadzących rachunkowość, na
bieŜąco uaktualniane, po zastosowaniu indeksów cen, pogrupowane według potencjału
gospodarstw i typów rolniczych, mogłyby być podstawą określania wielkości referencyjnych do
weryfikowania planów rozwoju.
4. Wnioski
Przeprowadzone badania pozwalają na sformułowanie następujących wniosków:
1.
2.
3.
4.
5.
6.
7.
8.
Doradcom potrzebna jest baza referencyjna do weryfikowania opisów gospodarstw nie
prowadzących rachunkowości, dokonywania oceny aktualnej sytuacji ekonomicznej gospodarstw poprzedzającej plan rozwoju, oraz przygotowywania i weryfikowania róŜnych
wariantów planu.
Rolnicy współpracując z doradcą chcieliby mieć moŜliwość oceny aktualnej i planowanej
sytuacji swojego gospodarstwa na tle gospodarstw podobnych. Czynnikiem róŜnicującym
wypowiedzi rolników była wielkość ekonomiczna i obszarowa kierowanych przez nich
gospodarstw. Planowaniem rozwoju swoich gospodarstw bardziej zainteresowani byli rolnicy z gospodarstw średnio małych i średnio duŜych (według klas wielkości ekonomicznej) oraz z gospodarstw o wielkości obszarowej ponad 15 ha UR.
Przeprowadzone badania potwierdziły, Ŝe w doradztwie rolniczym występuje zapotrzebowanie na wskazanie prostej, wystarczająco precyzyjnej miary potencjału. Podstawą
bowiem określenia wielkości referencyjnych do weryfikowania opisów gospodarstw
(zwłaszcza nie prowadzących rachunkowości), analizowania aktualnej sytuacji, przygotowywania róŜnych wariantów planu rozwoju oraz weryfikowania planów rozwoju moŜe
być baza danych z gospodarstw prowadzących rachunkowość unijną i prosta, wystarczająco precyzyjna miara potencjału pozwalająca na grupowanie gospodarstw podobnych
pod względem potencjału.
Wykorzystując wyniki FADN moŜna by dać doradcom narzędzie wspomagające rolników
w procesie podejmowania decyzji. Do ułatwienia analizy sytuacji i oceny planów przedsięwzięć mogą posłuŜyć informacje z odpowiednio pogrupowanych gospodarstw prowadzących rachunkowość unijną (FADN).
Podstawą grupowania moŜe być wielkość ekonomiczna i typ rolniczy.
Wielkość ekonomiczna określana jest na podstawie systematycznie aktualizowanych parametrów SGM. Obecnie są one obliczane dla potrzeb polskiego FADN. W związku
z tym Ŝe trwają prace nad zmianą kryteriów klasyfikacji gospodarstw w ramach FADN,
podstawą której ma stać się standardowa produkcja, warto byłoby kontynuować obliczanie parametrów SGM dla potrzeb doradztwa rolniczego.
Instytucją, która mogłaby zajmować się przygotowywaniem takich zestawień jest Instytut
Ekonomiki Rolnictwa i Gospodarki śywnościowej, w którego gestii leŜy gromadzenie
i przetwarzanie danych gospodarstw prowadzących rachunkowość unijną. Instytut mógłby
przygotowywać odpowiednie liczby referencyjne dla Ośrodków Doradztwa Rolniczego.
Dane z gospodarstw prowadzących rachunkowość unijną zestawione w formie poradnika
dla doradcy byłyby pomocne w opracowaniu i weryfikacji planów rozwoju.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
77
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
Bernacki A., 2004: Informatyka w gospodarstwie rolniczym. [w:] Nowoczesne techniki
informacyjne w nauce, edukacji i doradztwie dla wsi i rolnictwa. Materiały konferencyjne,
KCDRRiOW, Brwinów – Warszawa, 16-18 września, 13-21.
Bieńkowski R., 1994: Oczekiwania doradztwa rolniczego wobec nauk ekonomicznych.
Referat na I Kongres SERiA „Ekonomiści rolnictwa i agrobiznesu wobec wyzwań współczesnego rolnictwa”. Poznań s. 93-96.
Goraj L., Niewiadomski J., 2003: Rachunkowość w gospodarstwie rolnym. [w:] Cichoń
M., Goraj L., Hołdyński Cz., Janyszek S., Liro A., Metera D., Niewiadomski J.: Podstawy
wdraŜania programu rolno środowiskowego i zalesieniowego. Warszawa, 113-136.
Goraj L., Mańko S., Sass R., Wyszkowska Z., 2004: Rachunkowość rolnicza. Difin, Warszawa.
Leśniak B., 1997: Analiza i planowanie rozwoju gospodarstw rolnych jako metoda rolniczego doradztwa socjalno-ekonomicznego stosowana w krajach Unii Europejskiej. Centrum Doradztwa i Edukacji w Rolnictwie, Poznań.
Mańko S., 2007: Planowanie rozwoju gospodarstwa rolnego. [w]: Runowski H. (red.): Finanse gospodarstwa rolnego. Wyd. K-PODR. Przysiek, 46-51.
Ziętara W. ,Olko-Bagieńska T., 1986:Zadania z analizy działalności gospodarczej i planowania w gospodarstwie rolniczym. PWRiL Warszawa.
www.ip.univ.szczecin.pl.
78
Maria Jolanta Orłowska
Narzędzia ułatwiające przygotowanie planów rozwoju gospodarstw w opinii doradców
kujawsko-pomorskiego ośrodka doradztwa rolniczego i współpracujących z nimi rolników
TOOLS FACILITATING PREPARATIONS OF FARM DEVELOPMENT PROGRAMMES IN THE OPINION OF ADVISORY CENTRES OFFICERS AND FARMERS
COOPERATING WITH THEM
Summary
The aim of the paper was to recognize the needs of advisory officers concerning
tools facilitating preparations of farm development programmes and farmers expectations towards preparing plans of their farms development.
The research results confirm that the advisory officers need tools facilitating
their work concerning preparations of farm development programmes. The examined
farmers expect from the advisory offices support with preparing their venture plans.
Keywords: expertise base about farms, Standard Gross Margin, agricultural advisory centers, advisory officers, farms
Maria Jolanta Orłowska
Zakład Ekonomiki Produkcji Rolniczej
Katedra Ekonomiki i Doradztwa w Agrobiznesie
Uniwersytet Technologiczno-Przyrodniczy
85-789 Bydgoszcz, Al. Prof. Kaliskiego 7
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
79
OLGA PILIPCZUK
Politechnika Szczecińska
MODUŁ MONITOROWANIA JAKOŚCI PROCESÓW USŁUGOWYCH (PQM) JAKO
KOMPONENT ZINTEGROWANEGO SYSTEMU ZARZĄDZNIA
Streszczenie
W pracy zaprezentowano model analitycznego systemu hybrydowego (hierarchiczno-rozłącznego) opracowany w celu wsparcia procesu identyfikacji procesów
usługowych wymagających usprawnienia oparty na integracji modelowania symulacyjnego i technik sztucznej inteligencji. Pokazano rolę i miejsce tego systemu
w strukturze informatycznej przedsiębiorstwa współczesnego.
Słowa kluczowe: metoda M-A-M, system ERP, systemy hybrydowe, BPM, portal korporacyjny,
sztuczna inteligencja, zbiory przybliŜone
1. Wstęp
Problem oceny jakości procesów usługowych jest problemem bardzo trudnym do rozwiązania,
poniewaŜ charakteryzuję się wysokim stopniem niepewności i zmienności. Według Bendella
i Boultera wprowadzenie w sektorze usługowym koncepcji zarządzania jakością jest trudne
z powodu słabej systematyzacji, niejednoznacznej definicji procesów biznesu oraz malej
moŜliwości porównania procesów z procesami innych organizacji (benchmarkingu) (Bendell T.,
Boulter L., 2003).
Istnieje kilka metod oceny jakości procesów gospodarczych. Metody te róŜnią się nie tylko
róŜnostronnością spojrzenia na jakość, ale równieŜ kryteriami oceny jakości procesów.
Za podstawę do opracowania nowej metody posłuŜyło zapotrzebowanie na kompleksową
analizę jakości procesów usługowych. Taka kompleksowa analiza ma na celu diagnozę stanu
jakości kaŜdego procesu oraz ciągłe jego doskonalenie.
Procedura zaczyna się od pojawienia się potrzeby oceny jakości procesów (Rys.1). Najpierw
naleŜy przeanalizować pierwszy czynnik, czyli przeprowadzić selekcję procesów ze względu na
ich bliskość do klienta. Jakość procesów „bliskich” i procesów „średnich” oceniana jest z punktu
widzenia klienta z wykorzystaniem teorii zbiorów przybliŜonych. Tutaj równieŜ mamy moŜliwość
określenia siły wpływu kaŜdego procesu na klientów, czyli wartości tego procesu dla klienta.
Jakość procesów dalekich, które nie mają wpływu na klientów (odbiorcami końcowymi takich
procesów są pracownicy firmy), oceniana jest na podstawie stopy występowania błędów.
Jednocześnie z ustaleniem bliskości procesu do klienta określamy poziom procesu.
Gdy jakość z punktu widzenia klienta oraz poziom procesu są określone, naleŜy
przeprowadzić symulacje przebiegów procesów i ustalić moŜliwość ich udoskonalenia za względu
na czas, koszt, zasoby ludzkie itd. Analiza procesów według typowych wymagań ISO jest
skuteczna, jeŜeli modeli procesów nie są tworzone i analizowane po raz pierwszy, poniewaŜ są to
wymagania do procesów poddanych wcześniej przeprojektowaniu.
Następnym krokiem jest analiza barier i zagroŜeń dla procesów.
80
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
Rezultatem opisanych powyŜej działań powinno zostać zaklasyfikowanie kaŜdego z tych
czynników do kwantyfikatorów lingwistycznych poprzez generowanie rozkładów
prawdopodobieństwa. Po dokonaniu oceny wszystkich czynników w celu porównania procesów
wykorzystujemy metodę M-A-M.
Wynikiem porównania są oceny liczbowe kaŜdego z procesów. W rezultacie moŜna
powiedzieć, który z procesów działa najbardziej sprawnie, a który - najmniej. Jednak takie
porównanie nie daje moŜliwości określenia stopnia doskonałości kaŜdego z procesów. Dlatego
niezbędne jest utworzenie rozkładu prawdopodobieństwa zaklasyfikowania potrzeby usprawnienia
działania procesu do kwantyfikatorów lingwistycznych.
Opisana powyŜej procedura oceny jakości procesów usługowych przedstawiona na rysunku 1
w postaci diagramu EPC (łańcuchu zdarzeń i funkcji). Dokładny opis metody moŜna znaleźć
w pracach [3], [4].
Zaproponowana w pracy metoda oceny jakości procesów usługowych moŜe być
zautomatyzowana za pomocą narzędzia informatycznego: modułu monitorowania jakości.
81
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
PODJĘTO DECYZJĘ
ROZPOCZĄĆ PROCES
OCENY JAKOŚCI
^
SELEKCJA PROCESÓW
WEDŁUG
„BLISKOŚCI”
OKREŚLENIE
POZIOMU
PROCESU
×
WYBRANE
PROCESY
„DALEKIE”
WYBRANE PROCESY
„BLISKIE” KLIENTA
WYBRANE
PROCESY
„ŚREDNIE”
OCENA JAKOŚCI
WEDŁUG STOPY
BŁĘDÓW
OCENA JAKOŚCI
WZGLĘDEM KLIENTA
POZIOM
JEST
USTALONY
^
OCENA WPŁYWU
PROCESÓW
JAKOŚĆ
ZOSTAŁA
OCENIONA
^
JAKOŚĆ I WARTOŚĆ
ZOSTAŁY OCENIONE
×
SYMULACJA PRZEBIEGU
PROCESU
^
OCENA PROCESU
WEDŁUG WYMAGAŃ ISO
^
MOśLIWOŚCI
UDOSKONALENIA
USTALONE
ANALIZA BARIER I
ZAGROśEŃ
DOKONANO
ANALIZY
^
PORÓWNANIE PROCESÓW Z
WYKORZYSTANIEM METODY M-A-M
PROCESY ZOSTALY
OCENIONE
Rys.1. Procedura oceny jakości procesów usługowych
82
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
2. Miejsce systemu monitorowania jakości w strukturze informatycznej przedsiębiorstwa
współczesnego.
Dlatego, Ŝeby pokazać w jaki sposób ten system działa, najpierw naleŜy opisać jakie miejsce
zajmuje ocena jakości procesów gospodarczych w koncepcji BPM. (ang. Business Process
Management).
Quality
estimation
Rys. 2. Ocena jakości procesów gospodarczych w BPM (Źródło: Scheer, 1999)
Na rysunku 2 opisano podejście procesowe do zarządzania przedsiębiorstwem w ujęciu
informatycznym oraz pokazano miejsce oceny jakości w zarządzaniu procesami biznesowymi.
Proces zarządzania rozpoczyna się od planowania strategii biznesowych przedsiębiorstwa. Na tym
etapie określa się struktura organizacyjna, zostają zidentyfikowane procesy główne oraz procesy
dodające wartość, wybiera się strategia i narzędzia zarządzania procesami. Kolejnym krokiem jest
modelowanie procesów, ich ocena oraz porównanie do najlepszych modeli (modeli referencyjnych
oraz modeli innych organizacji). Niezbędne jest szacowanie kosztów, przeprowadzenie symulacji,
mierzenie wskaźników krytycznych oraz ocena efektywności i jakości procesów. W wyniku tych
działań zostają ocenione róŜne scenariusze w celu wybrania wariantu najlepszego. Po dokonaniu
analizy i oceny modeli procesów następuje fizyczne przeprojektowanie procesów rzeczywistych,
czyli implementacja – poziom najniŜszy. Udoskonalone procesy są ciągle monitorowane w celu
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
83
natychmiastowej reakcji na nadchodzące zmiany. Na rysunku 3 pokazane jest miejsce
monitorowania procesów w cykle BPM. W przypadku ustalenia niezgodności z normami lub jeŜeli
wyniki, które osiągają procesy są niezadowalające zostają oni znów przeprojektowane
i zaimplementowane.
Modelowanie procesów
Monitorowanie
procesów
Konfiguracja i
kontrola procesów
ERP
HR
SCM
Wykonywanie
procesów
Rys. 3. Koncepcja BPM w narzędziach informatycznych (Źródło: www.ids-scheer.com)
Na rysunku 4 zostało pokazane miejsce modułu PQM (z ang. Process Quality Monitoring) we
współczesnej organizacji „inteligentnej” zorientowanej na zwiększenie jakości działania oraz
stosującej nowoczesne metody zarządzania. Dla takiej organizacji usługowej zarządzanie
procesami biznesowymi wykracza poza granice doskonalenia procesów i jest bezpośrednio
związane z zarządzaniem wiedzą poprzez zastosowanie technik i metod sztucznej inteligencji.
Narzędziem głównym wspomagającym automatyzację procesów gospodarczych
przedsiębiorstwa jest system klasy ERP drugiej generacji, który obejmuje cały zakres
realizowanych funkcji od zarządzania finansami aŜ po elektroniczny obieg dokumentacji. Oprócz
tego system ERP posiada narzędzie (moduł) do zarządzania procesami biznesowymi (ang.
Business Process Management - BPM). System BPM ma modułową strukturę.
Moduł „Modelowanie procesów” przeznaczony jest do tworzenia diagramów, które
przedstawiają spojrzenie z perspektywy procesów, danych, struktury organizacyjnej itd.
Moduł „Analiza kosztów” stwarza moŜliwość oceny danych dotyczących procesów z punktu
widzenia rachunku kosztów, rozszerza moŜliwości systemu o zagadnienia związane z rachunkiem
84
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
kosztów ABC, kontrolingiem kosztów procesów wykonywanych w jednostce oraz zarządzanie
kosztami tych procesów.
Moduł „Symulacji” umoŜliwia wyobraŜenie zachowania się przedsiębiorstwa w dynamicznym
działaniu. Symulacje przebiegu ułoŜonych i sparametryzowanych pod względem czasów i kosztów
zadań pozwolą dowiedzieć się, jak zachowa się firma po wprowadzeniu zmian organizacyjnych lub
zmianie warunków rynkowych.
Moduł „Monitorowania efektywności procesów” słuŜy do mierzenia skuteczności wdraŜanych
procesów biznesowych, analizy kosztów procesów w oparciu o wybrane wskaźniki, analizy
wskazującej wąskie gardła w systemie, pokazującej gdzie kumulują się błędy przetwarzania, czy
przepustowość procesów jest wystarczająca itd.
Moduł „ZrównowaŜonej karty wyników” ułatwia projektowanie Strategicznej Karty
Wyników, umoŜliwia integrację tej Ŝe z mapami procesów, umoŜliwia takŜe bieŜącą kontrolę
wartości wskaźników ujętych w Karcie.
Moduł „Publikowania modeli w Intranecie” wykorzystują firmy o rozproszonych jednostkach
organizacyjnych, które muszą skutecznie przekazywać informacje o swoich procesach
biznesowych. Informacje te powinny szybko docierać do pracowników, co oznacza w praktyce
wymóg natychmiastowego dostępu do modeli procesów i innej dokumentacji. Oprócz tego
przeniesienie modeli do portalu korporacyjnego daje moŜliwość analizy danych w nich zawartych
za pomocą technik Sztucznej Inteligencji wspomagając transformację informacji w wiedzę.
System ERP II, jak i portal korporacyjny, jest w pełni zintegrowany z pakietami biurowymi w
celu wsparcia procesów pozyskiwania, analizy i przekazywania wiedzy pomiędzy tymi
narzędziami.
Portal korporacyjny w organizacji biznesowej jest miejscem szczególnie waŜnym, miejscem
integrującym rozproszone aplikacje oraz zasoby informacji i wiedzy w celu lepszego
podejmowania decyzji i usprawnienia działań organizacji.
Portal wraz z jego uŜytkownikami jest odzwierciedleniem tzw. pamięci korporacyjnej – sieci
wiedzy, która poza typowymi zasobami informacyjnymi zawiera umiejętności i doświadczenie
ludzi oraz kapitał intelektualny. Pamięć korporacyjna pełni rolę źródła, z którego uŜytkownicy
korzystają podczas podejmowania decyzji i rozwiązywania problemów. Struktura systemu
zarządzania wiedzą podzielona jest na kilka poziomów: źródła wiedzy (bazy danych, poczta
elektroniczna, strony WWW, ludzie), repozytorium wiedzy (zarządzanie informacją i procesami),
mapa wiedzy organizacyjnej. Funkcjonalność ta moŜe być w pełni wykorzystana jedynie w
połączeniu z inicjatywami organizacyjnymi z zakresu zarządzania wiedzą w takich obszarach jak
procesy operacyjne i biznesowe, rozwiązania formalne (procedury, polityki), kultura
organizacyjna, system motywacyjny itp.
Moduł „Monitorowania jakości procesów” PQM jest przeznaczony dla analizy i oceny
jakości procesów przedsiębiorstw usługowych z wykorzystaniem technik Sztucznej Inteligencji.
Moduł wymienia informacje z kilkoma innymi modułami systemu BPM oraz dostarcza informacji
o procesach do portalu korporacyjnego poprzez moduł wspomagający publikowanie modeli w celu
przeprowadzenia dogłębnej analizy oraz tworzenia zaawansowanych raportów.
Oprócz wymienionych powyŜej modułów są inne moduły wspomagające wszechstronną
analizę procesów: moduł monitorowania wskaźników kluczowych, moduł monitorowania ryzyka,
moduł dokumentacji procesów itd.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
85
Moduł monitorowania jakości procesów moŜe być równieŜ składowym elementem systemu
BPM zintegrowanego lub nie zintegrowanego z systemem ERP. Ten układ zaprezentowano na
rysunku 5.
Zarządzanie wiedzą
Business Intelligence
Portal korporacyjny
ERP II
Finanse
HR
CRM
Produkcja
Logistyka
Serwis
SprzedaŜ
Księgowość
Rozwiązania
branŜowe
Monitorowanie
ryzyka
Monitorowanie
jakości
procesów
KOSZTY
PQM
MODELE
Monitorowanie
efektywności
procesów
BPM
Symulacja
przebiegów
procesów
Analiza
kosztów
Modelowanie
procesów
Monitorowanie
wskaźników
kluczowych
…
WorkFlow
…
Analiza
zrównowaŜonej
karty wyników
Publikacja
modeli w
Intranecie
MODELE I INFORMACJE
O PROCESACH
Aplikacje biurowe
Rys. 4. Miejsce modułu PQM w strukturze informatycznej współczesnego przedsiębiorstwa (komponent systemu ERP II)
86
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
Zarządzanie wiedzą
Business Intelligence
Portal korporacyjny
ERP II
Finanse
HR
CRM
Produkcja
Logistyka
Serwis
SprzedaŜ
Księgowość
Rozwiązania
branŜowe
…
WorkFlow
BPM
Monitorowanie
efektywności
procesów
PQM
MODELE
Monitorowanie
wskaźników
kluczowych
Analiza
kosztów
Monitorowanie
ryzyka
Monitorowanie
jakości
procesów
KOSZTY
Modelowanie
procesów
…
Symulacja
przebiegów
procesów
Analiza
zrównowaŜonej
karty wyników
Publikacja
modeli w
Intranecie
MODELE I INFORMACJE
O PROCESACH
Aplikacje biurowe
Rys. 5. Miejsce modułu PQM w strukturze informatycznej współczesnego przedsiębiorstwa (komponent systemu BPM)
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
87
3. Model inteligentnego systemu hybrydowego, wspomagającego identyfikację procesów
usługowych wymagających usprawnienia - PQM.
Proces identyfikacji procesów informacyjno-decyzyjnych wymagających usprawnienia jest
procesem skomplikowanym, wymagającym nie tylko dynamicznej analizy kilku czynników, ale
równieŜ wnioskowania przybliŜonego; specyficzne cechy procesów usługowych wymagają
wprowadzenia pojęć leksykalnych. Automatyzacja takiego procesu jest moŜliwa za pomocą
analitycznego systemu hybrydowego.
W literaturze moŜna spotkać róŜne definicje systemów hybrydowych (Radosiński E., 1998),
(Radosiński E., 2001), (Radosiński E., 1997), (Orłowski C., 2006). Nazywane są one „inteligentne
systemy hybrydowe”, „analityczne systemy hybrydowe” albo po prostu „systemy hybrydowe”.
Hybrydą nazywa się twór łączący w integralną całość róŜne występujące dotąd samodzielne
gatunki, rodzaje, konstrukcje, metody itd.
System hybrydowy jest definiowany jako złoŜony system informatyczny, integrujący formy
sztucznej inteligencji, wspomagane technikami symulacyjnymi oraz logiką rozmytą (Orłowski C.,
2006).
System hybrydowy – system, który powstał w wyniku integracji technik inteligentnych oraz
modelowania symulacyjnego w ramach jednolitego środowiska informatycznego (Radosiński E.,
2001).
Rdzeniem takiego systemu jest baza wiedzy, współpracująca z oprogramowaniem
symulacyjnym, technikami logiki rozmytej, bazami danych oraz modułami wspomagającymi.
Podstawowym celem systemu hybrydowego jest rozwiązywanie problemów, z którymi nie
radzą sobie systemy ekspertowe (ES) i systemy wspomagania decyzji (DSS). Głównym
ograniczeniem technik inteligentnych jest brak moŜliwości odwzorowania zjawisk dynamicznych,
a więc przeprowadzania eksperymentów prognostycznych.
Systemy DSS w przeciwieństwie do systemów ES nie mogą przetwarzać danych
jakościowych.
Struktury hybrydowe z powodzeniem są stosowane w róŜnych dziedzinach, a najczęściej dla
odwzorowania działania przedsiębiorstwa z uwzględnieniem jak aspektów statycznych, tak
równieŜ i dynamicznych.
Domeną systemów ekspertowych jest przetwarzanie logiczno-symboliczne. Takie programy
nie nadają się do przeprowadzenia złoŜonych obliczeń numerycznych. JeŜeli strukturę systemu
ekspertowego uzupełnimy modelem symulacyjnym, to otrzymamy układ, który oprócz
przetwarzania symbolicznego będzie wykonywać takŜe przetwarzanie ilościowe, w tym
eksperymenty dynamiczne.
Jednak systemy ekspertowe mają ograniczenia strukturalne. Dlatego naukowcy i specjaliści
w dziedzinie projektowania systemów informatycznych proponują równieŜ wykorzystanie innych
technik sztucznej inteligencji, takich jak: zbiory rozmyte (FS) , sieci neuronowe (NN), algorytmy
genetyczne (AG) itd. (Rutkowska D., Piliński M., Rutkowski L., 1996).
Poszczególne struktury SM ⇔ IT moŜna wykorzystać w róŜnych celach:
SM ⇔ NN pozwala wyznaczyć funkcję dyskryminacyjną,
SM ⇔ FS wspomaga przetwarzanie informacji leksykalnej,
SM ⇔ AG pozwala znaleźć rozwiązania suboptymalne;
SM ⇔ ES reprezentacja wiedzy proceduralnej i deklaratywnej.
88
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
Ze względu na sposób zarządzania strukturą hybrydową SM↔IT wyróŜniamy 3 typy hybryd
(Radosiński E., 2001):
IT→SM – hierarchiczna,
SM→IT – hierarchiczna,
SM←→IT – rozłączna.
Istnieją równieŜ układy IT ⇔ IT hybrydy integrujące róŜne typy elementarnych technik
inteligentnych (Radosiński E., 2001):
IT→IT – hierarchiczna,
IT↕IT – homomorficzna,
IT←→IT – rozłączna.
Układ IT→IT jest układem hybrydy hierarchicznej, w której technika główna IT odpowiada za
realizacje podstawowej funkcji systemu, natomiast druga IT jest techniką uzupełniającą
wspomagającą wykonanie wybranej czynności informatycznej.
Systemy homograficzne IT↕IT pod względem funkcjonalnym wykazują cechy
charakterystyczne dla składowych technik inteligentnych.
Hybryda rozłączna IT←→IT składa się z co najmniej dwóch niezaleŜnych strukturalne
technik inteligentnych połączonych kanałami przekazu danych. Transmisja informacji następuje za
pośrednictwem operatora bądź nadrzędnego systemu sterującego. Układ taki sprawdza się w
rozwiązywaniu zadań złoŜonych, które moŜna dekomponować na subproblemy o wyraźnie
zróŜnicowanej specyfice.
Opracowany model systemu PQM odpowiada typowi hybrydy hierarchiczno-rozłącznej
IT→(IT←→SM), który zgodne z klasyfikacją hybryd hierarchicznych jest przykładem hybrydy,
w której techniką główną jest metoda M-A-M, a moduł symulacyjny i zbiory przybliŜone są
technikami uzupełniającymi (Rys.6).
IT
IT
←→
↓
SM
Rys. 6. Ilustracja ogólnej struktury hybrydowej systemu PQM
System 2-hybrydowy – złoŜony system hybrydowy, składający się z modułu nadrzędnego
(techniki sztucznej inteligencji lub techniki symulacyjnej) oraz hybrydy podrzędnej integrującej
kilka róŜnych technik inteligentnych lub techniki inteligentne i technikę symulacyjną.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
H
Y
B
R
Y
D
A
89
IT
↓
HYBRYDA
Rys. 7. Ilustracja struktury systemu 2-hybrydowego
System podwójnej hybrydy moŜna efektywne wykorzystać dla analizy zjawisk złoŜonych,
najczęściej opierających się na danych kombinowanych, pochodzących z róŜnorodnych źródeł
w celu porównania i doboru wariantu optymalnego.
M-A-M
RS
←→
↓
SM
Rys. 8. Struktura hybrydowa systemu PQM
Podstawowym zadaniem systemu jest podanie diagnozy lingwistycznej stanu sprawności
działania procesów za pomocą metody M-A-M. Techniki RS (zbiory przybliŜone) i SM (model
symulacyjny) są niezaleŜne strukturalnie i nie tylko rozwiązują róŜne problemy, a nawet
przetwarzają róŜne typy danych: numeryczne i leksykalne. W wyniku tego przetwarzania powstają
informacje, które przekazywane są do nadrzędnego modułu M-A-M. W modułu nadrzędnym
system generuje rozkłady prawdopodobieństwa, a zatem poddaje ich analizie, wyniki której
przedstawia w postaci raportu.
Na rysunku 10 przedstawiono algorytm działania systemu. Dane i informacji
o poszczególnych czynnikach procesów, niezbędne do uzyskania rozkładów prawdopodobieństwa,
przechowywane są w bazie wiedzy, skąd pobierane są przez moduł technik inteligentnych oraz
przez moduł symulacyjny w celu analizy. Moduł symulacyjny pobiera równieŜ dane z innych
modułów systemu BPM: modułu „modelowania procesów” w postaci modeli oraz modułu „analizy
kosztów” w postaci obliczonych kosztów. Rozkłady prawdopodobieństwa, uzyskane w wyniku
analizy czynników zostają przeanalizowane za pomocą metody M-A-M. W rezultacie wykonania
tych operacji otrzymujemy dane liczbowe, które później zostają przeinterpretowane w dane
lingwistyczne.
90
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
Moduł
technik kalkulacyjnych
Baza
wiedzy
Model symulacyjny
Moduł technik inteligentnych
M-A-M
Moduł technik inteligentnych
RS
Moduł
współpracy z
uŜytkownikiem
Rys.9. Struktura modułowa analitycznego systemu hybrydowego PQM (Radosiński E., 2001)
Rdzeniem systemu jest baza wiedzy, w której znajdują się:
1.
Dane o przedsiębiorstwie, niezbędne do symulacji procesów oraz do określenia barier
i zagroŜeń realizacji procesów,
2. dane o procesach, takie jak opinie pracowników o przebiegach procesów, koszt, czas realizacji, właściciel procesu, potrzebne do określenia stopy błędów i moŜliwości udoskonalenia procesu,
3. dane o otoczeniu przedsiębiorstwa, pokazują jakie czynniki zewnętrzne wpływają na realizacje procesów, powodując powstanie barier i zagroŜeń,
4. wyniki ankietowania – ocena ilościowa jakości, uzyskana na podstawie opinii klientów,
5. wyniki symulacji - wyniki dynamicznych eksperymentów symulacyjnych,
6. reguły IF…THEN, wspomagające wnioskowanie,
7. rozkłady prawdopodobieństwa,
8. diagnozy,
9. lista wymagań ISO do typowych procesów,
10. opis metody,
11. modele referencyjne procesów biznesowych i procedur oceny jakości.
Moduł symulacji umoŜliwia analizę zachowania się przedsiębiorstwa w dynamicznym
działaniu. Za pomocą symulacji modele procesów ze stanu obecnego (aktualnego) zostają
przeprojektowane w stan docelowy (poŜądany). MoŜliwości doskonalenia procesu tkwią
w skróceniu czasu i redukcji kosztów procesu. Dla oszacowania czasu procesu w pracy zostały
wykorzystane wyniki badań naukowców i doświadczenie analityków procesów biznesowych, które
dowiedli, Ŝe największe efekty daje redukcja czasu rzeczywistej realizacji czynności. Chodzi tutaj
o mierzenie zdolności przepustowej procesu.
Zdolność przepustowa = łączny czas rzeczywistej realizacji funkcji/czas przebiegu całego
procesu.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
91
JeŜeli jednak nie ma moŜliwości zwiększenia zdolności przepustowej, ale jednocześnie łączny
czas przebiegu procesu udaje się znaczne skrócić, wtedy porównujemy łączny czas przebiegu
procesu do wprowadzenia zmian i po wprowadzeniu zmian.
Rezultaty oszacowania kosztu procesów w postaci raportu są przekazywane z modułu „analizy
kosztów” do systemu PQM, gdzie odbywa się ich symulacja.
Rys.10. Algorytmizacja procesu identyfikacji procesów gospodarczych
wymagających usprawnienia
92
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
Przebieg symulacji w systemie PQM zaprezentowano na rysunku 12.
Rys. 11. Przebieg procesu symulacji w systemie PQM
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
93
Opracowany system jest przeznaczony dla kilku grup uŜytkowników:
dla firm konsultingowych:
analityków, specjalistów w dziedzinie modelowania i analizy procesów gospodarczych,
analityków, specjalistów od wdroŜenia zintegrowanych systemów zarządzania,
dla odbiorców końcowych (analityków i kierowników wyŜszego i średniego szczebla).
4. Zakończenie
Zagadnienia poruszane w pracy związane są z analizą i oceną jakości procesów usługowych w
warunkach szczególnej niepewności i niestabilności.
W przypadku badania procesów przedsiębiorstw produkcyjnych szczególną uwagę zazwyczaj
poświęca się analizie efektywności. Jednak procesy usługowe wymagają innego spojrzenia,
spojrzenia od strony jakości. Postrzeganie jakości procesu obecnie jest rozmaite. Metoda autorska
zawiera zintegrowane podejście do oceny jakości procesów usługowych.
Istniejące systemy zarządzania procesami gospodarczymi działają na bazie informacji
numerycznych. Z tego powodu duŜa ilość informacji lingwistycznych zostaje utracona.
Opracowany hybrydowy system monitorowania jakości PQM pomaga rozwiązać ten problem.
5. Literatura
1.
Bendell T., Boulter L., Benchmarking, wydawnictwo profesjonalnej szkoły biznesu, Krakow, 2003.
2. Orłowski C., Projektowanie hybrydowych systemów informatycznych do wspomagania
zarządzania, Politechnika Gdańska, Gdańsk 2006.
3. Pilipczuk O., Zastosowanie teorii zbiorów rozmytych do identyfikacji nieefektywnych
procesów gospodarczych, Ciechocinek 2007.
4. Pilipczuk O., Analiza i ocena jakości usług przedsiębiorstwa w celach reengineeringu,
Badania operacyjne i systemowe IBS PAN, Warszawa 2006.
5. Radosiński E., Systemy informatyczne w dynamicznej analizie decyzyjnej, PWN S.A.,
Warsawa-Wrocław 2001.
6. Radosiński E., Techniki inteligentne w symulacyjnej analizie firmy, materiały konferencji
„Szkoła Symulacji systemów gospodarczych”, Zakopane 1997.
7. www.ids-scheer.com.
8. Radosiński E., Inteligentne techniki hybrydowe w analizie ekonomicznej firmy, materiały
konferencji „Szkoła Symulacji systemów gospodarczych”, Zakopane 1998.
9. Rutkowska D., Piliński M., Rutkowski L., Sieci neuronowe, algorytmy genetyczne i systemy rozmyte, PWN, Warszawa 1996.
10. Scheer A.D. ARIS — Business Process Modeling , Springer-Verlag Berlin 1999.
94
Olga Pilipczuk
Moduł monitorowania jakości procesów usługowych (PQM)
jako komponent informatycznego systemu zarządzania
THE MODULE OF PROCESS QUALITY MONITORING (PQM) AS A COMPONENT OF
INTEGRATED MANAGEMENT SYSTEM IN SERVICE INDUSTRY
Summary
The article presents the model of intelligent hybrid system (hierarchicaldisconnected) worked out in purpose of supporting the process of identification of
such business processes, which have to be rebuilt. This model is based on simulation
modelling and intelligent techniques integration. The system role and place in information structure of contemporary enterprise is shown.
Słowa kluczowe: the M-A-M method, ERP system, Intelligent Hybrid System, BPM, Enterprise
Portal, Artificial Intelligence, Rough Sets
Olga Pilipczuk
Politechnika Szczecińska
Szczecin, ul. śołnierska 49
e-mail: [email protected]
http://www.wi.ps.pl/
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
95
OREST POPOV,
ANNA BARCZ,
PIOTR PIELA
Politechnika Szczecińska
DOBÓR STRUKTURY MODELI MATEMATYCZNYCH PROCESÓW W BAZIE WIEDZY DYNAMICZNYCH INTELIGENTNYCH SYSTEMÓW NAUCZANIA
Streszczenie
W artykule przedstawiono metodę tworzenia modeli matematycznych dla nieliniowych obiektów dynamicznych w przypadku braku lub znikomej informacji o badanym obiekcie. W wyniku zastosowania metod identyfikacji moŜliwe jest uzyskanie
zbioru róŜnych modeli aproksymujących badany obiekt. Z uzyskanego zbioru naleŜy
dokonać wyboru modelu o najlepszej strukturze. Zaproponowana metoda wyboru
struktury modelu opiera się na wykorzystaniu rozkładu względem wartości szczególnych (SVD) w równaniu identyfikacji.
Słowa kluczowe: model matematyczny, system nauczania, identyfikacja, rozkład SVD
1. Wprowadzenie
Wśród komputerowych systemów nauczania moŜna wyróŜnić klasę systemów zawierających
w swojej strukturze system symulacyjny (rysunek 1).
Rysunek 1. Podział komputerowych systemów nauczania
Autorzy w [12] określili takie systemy mianem dynamicznych inteligentnych systemów
nauczania (DISN). Systemy te przeznaczone są do przekazywania wiedzy deklaratywnej,
niezbędnej w procesie kształcenia operatora danego obiektu, jak równieŜ przekazywania wiedzy
proceduralnej dotyczącej działalności praktycznej pozwalającej na kształtowanie odpowiednich
nawyków i umiejętności. Dynamiczne inteligentne systemy nauczania zawierają:
• model dynamiki sterowanego obiektu,
96
O. Popov, A. Barcz, P. Piela
Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych
inteligentnych systemów nauczania
•
model informacyjny, który umoŜliwia współdziałanie ucznia z modelem obiektu dynamicznego,
• model nauczania, obejmujący reguły, metody, strukturę niezbędnych ćwiczeń skierowanych na nabycie określonych nawyków oraz pozostałe atrybuty nauczania.
Bez względu na dziedzinę przedmiotową w strukturze inteligentnego systemu nauczania
moŜemy wyróŜnić: bazy danych i wiedzy, mechanizm wnioskowania, interfejs uŜytkownika, pewne
dodatkowe elementy (np. program zapewniający moŜliwość korekty i uzupełniania bazy wiedzy)
oraz system symulacyjny, który odwzorowuje zachowanie i wygląd dynamicznego rzeczywistego
obiektu nauczania.
Podstawą systemu symulacyjnego jest matematyczny model dynamiki obiektu nauczania.
W przypadku rzeczywistych obiektów dynamicznych ich zachowanie najczęściej opisuje się przy
pomocy układów nieliniowych równań róŜniczkowych. W sytuacji, gdy nie dysponujemy wiedzą o
obiekcie rzeczywistym konieczne jest wybranie struktury modelu, a następnie określenie
parametrów tej struktury z wykorzystaniem zadań identyfikacji. Ze względu na zastosowanie
tworzonego modelu w dynamicznym inteligentnym systemie nauczania konieczne jest zapewnienie
wysokiej jakości odwzorowania dynamiki obiektu rzeczywistego.
2. Zadanie identyfikacji
Ogólnie zadanie identyfikacji rzeczywistych obiektów dynamicznych polega na określeniu
struktury i parametrów modeli matematycznych tych obiektów. W zaleŜności od informacji, jaką
dysponujemy o badanym obiekcie, moŜemy mówić o róŜnych zadaniach identyfikacji [2, 4].
W przypadku gdy brakuje informacji o obiekcie lub jest ona nieznaczna identyfikacji podlegają
zarówno struktura jaki i parametry modelu opisującego zachowanie badanego obiektu
rzeczywistego. Problem określenia struktury i parametrów modeli obiektów rzeczywistych jest
jednym z podstawowych problemów współczesnej teorii systemów. Nie da się zapewnić dobrego
jakościowo odwzorowania zachowania obiektów rzeczywistych, a co za tym idzie
przeprowadzania wiarygodnych symulacji komputerowych i komputerowego sterowania, jeśli
model matematyczny nie jest znany z dostateczną dokładnością.
Identyfikacja nieliniowych obiektów dynamicznych o nieznanej strukturze (1)
X& = F ( X ,U ),
X ∈ R n , U ∈R m
(1)
gdzie: X – wektor zmiennych stanu, U – wektor sygnałów sterujących, przebiega w dwóch
krokach. W pierwszym kroku przeprowadza się zadanie aproksymacji nieznanych nieliniowych
funkcji F(X,U) opisujących zachowanie obiektu, a w drugim – identyfikację nieznanych
parametrów przyjętej funkcji aproksymującej [5]. W pracy [7] opisano oba etapy procesu
identyfikacji nieliniowych obiektów dynamicznych o nieznanej strukturze, skupiając się na
korekcie parametrów przyjętej struktury modelu w celu zwiększenia dokładności odwzorowania
zachowania obiektu rzeczywistego. Natomiast w niniejszej pracy zaproponowano zwiększenie
dokładności odwzorowania poprzez wybór najlepszej struktury z dostępnego zbioru bez
konieczności przeprowadzania korekcji parametrów.
ZałóŜmy, Ŝe nieliniową funkcję F(X), gdzie X ∈ R 2 aproksymowano ciągiem wielomianów w
postaci:
97
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
X& = P( x1 ) + Q( x2 )
(2)
 p (x )   c x + c x 2 
P( x1 ) =  1 1  =  11 1 12 1 2  ,


 p2 ( x1 )   c21 x1 + c22 x1 
(3)
 q (x )   c x 
Q( x2 ) =  1 2  =  13 2  ,
 q2 ( x2 )   c23 x2 
(4)
Niech:
Uwzględniając równania (3) i (4) w równaniu (2) otrzymamy nieliniowy model o strukturze:
 x1 
 x&1   c11 c12 c13   2 
 ⋅  x1 ,
  = 
x& 2   c21 c22 c23   
{
1442443  x2 
123
C
X&
X& = C ⋅ Z
(5)
Z
W wyniku aproksymacji otrzymaliśmy liniowe równanie róŜniczkowe (5) o niewiadomej
macierzy C, którego rozwiązanie na podstawie metody najmniejszych kwadratów przedstawia się
następująco:
C = Rs ⋅ Ps −1
(6)
gdzie:
∑ (X&
s
Rs =
j =1
), P = ∑ Z Z
s
jZ j
T
s
j
j =1
T
j
X j
j (1, s ) , Z j =   , j – numer pomiaru, s – liczba pomiarów.
U j 
Wiadomo, Ŝe moŜliwe jest przyjęcie innych funkcji aproksymujących nieliniowe zaleŜności funkcyjne występujące w modelu dynamiki (1). Przeprowadzając zadanie identyfikacji dla kaŜdej przyjętej funkcji aproksymującej otrzymamy zbiór modeli K o róŜnych strukturach (7):
K = {C1 , C2 ,K, Ck }
(7)
gdzie: C1 – struktura modelu dla pierwszej funkcji aproksymującej, C2 – struktura modelu dla
drugiej funkcji aproksymującej, k – liczba modeli o róŜnych strukturach.
Z otrzymanego zbioru K powinniśmy wybrać najlepszy model (w sensie odwzorowania zachowania obiektu rzeczywistego). Wybór najlepszego modelu jest moŜliwy przez wykorzystanie rozkładu względem wartości szczególnych (SVD) w równaniu identyfikacji.
3. Rozkład względem wartości szczególnych (SVD) w zadaniach identyfikacji
Wiadomo, Ŝe dowolna rzeczywista macierz prostokątna W o wymiarach (n × p ) , moŜe być
przedstawiona za pomocą rozkładu względem wartości szczególnych według zaleŜności [3]:
W = Q ⋅ M ⋅ RT
(8)
98
O. Popov, A. Barcz, P. Piela
Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych
inteligentnych systemów nauczania
gdzie Q i R – macierze ortogonalne, macierz Q ma rozmiar (n × n ) , natomiast macierz R rozmiar
( p × p ) . Jeśli
n < p , to prostokątna macierz M posiada następującą formę:
 µ1 0 0

M =  0 ... 0
0 0 µ
n

0

0
0 
(9)
Rozmiar macierzy M wynosi (n × p ) . Niezerowe elementy tej macierzy {µ1 , µ 2 ,K, µ n } stanowią
wartości szczególne macierzy W. Są one uszeregowane w kolejności nierosnącej, czyli
µ1 ≥ µ2 ≥ L ≥ µ n > 0 .
(10)
RozwaŜmy wielkość będącą odwrotnością wskaźnika uwarunkowania macierzy M:
∆
ξ=
µ
1
= n
Cond 2( M ) µ1
(11)
Wartość ξ moŜe zmieniać się w granicach 0 ≤ ξ ≤ 1 . Dla ξ = 0 macierz M jest osobliwa,
natomiast dla ξ = 1 macierz M jest idealnie uwarunkowana. W związku z powyŜszym
współczynnik ξ stanowi miarę bliskości od granicy przekształcenia nieosobliwej macierzy M do
macierzy osobliwej. W pracach [6, 11] pokazano, Ŝe wartość współczynnika ξ jest wygodnym
parametrem ilościowych miar sterowalności, obserwowalności i identyfikowalności systemu
dynamicznego.
Rozkład SVD moŜna przeprowadzić równieŜ dla macierzy Ps występującej w równaniu
identyfikacji (6):
(12)
Ps = G ⋅ Q ⋅ H T
gdzie G i H – macierze ortogonalne odpowiedniej wymiarowości, macierz Q zbudowana jest
analogicznie jak macierz M .
Wyboru najlepszej struktury modelu ze zbioru modeli K będziemy dokonywali na podstawie
analizy współczynnika ξ wyznaczanego dla kaŜdej macierzy Ps otrzymanej w procesie
identyfikacji dla poszczególnych modeli ze zbioru K. Modelem o najlepszej strukturze w sensie
odwzorowania zachowania obiektu rzeczywistego będzie ten model, dla którego współczynnik ξ
osiągnie największą wartość.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
99
4. Wybór struktury modelu z wykorzystaniem rozkładu SVD w równaniu identyfikacji przykład
Obiektem badań będzie układ dwóch zbiorników z cieczą o odpływie swobodnym pokazany
na rysunku 2. Wszelkie opory i parametry charakteryzujące ciecz zostały pominięte
(na podstawie [13]).
Rysunek 2. Badany obiekt - układ dwóch zbiorników z cieczą oraz przebieg zmiennych stanu
obiektu
Po uwzględnieniu przyjętych załoŜeń, model moŜna opisać za pomocą układu równań róŜniczkowych w postaci:
 dh
S wy1 ⋅ ϕ1 ⋅ 2 g (h1 − h2 )
Q
 1 = we −
 dt
S1
S1
(13)

S
⋅
ϕ
⋅
2
g
(
h
S wy 2 ⋅ ϕ 2 ⋅ 2 gh2
wy1
1
1 − h2 )
 dh2
−
 dt =
S2
S2

gdzie:
h1 – poziom cieczy w zbiorniku 1, h2 – poziom cieczy w zbiorniku 2, S1 – powierzchnia zbiornika 1, S2 – powierzchnia zbiornika 2, S wy1 – przekrój poprzeczny odpływu ze zbiornika 1, S wy 2 –
przekrój poprzeczny odpływu ze zbiornika 2, ϕ1 – współczynnik wypływu, ϕ 2 – współczynnik
wypływu, Qwe – dopływ cieczy, g – przyspieszenie ziemskie.
Na rysunku 2 pokazano przebieg zmiennych stanu h1 i h2 dla pewnych warunków początkowych
h1 (0) = 4 , h2 (0) = 2 , S1 = 1 , S 2 = 2 , S wy1 = S wy 2 = 0.2 , ϕ1 = ϕ 2 = 1 , Qwe = 0.2 . Przebiegi te
uznano za wzorcowe i potraktowano je jako ilustrację zachowania obiektu rzeczywistego.
W dalszych rozwaŜaniach załoŜono, Ŝe struktura i parametry obiektu (13) są nieznane:
100
O. Popov, A. Barcz, P. Piela
Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych
inteligentnych systemów nauczania
H& = F (H ) , gdzie H ∈ R 2 .
(14)
W celu zaprezentowania opisywanej metody przyjęto trzy postacie funkcji aproksymujących
(tabela 1). Otrzymano zbiór modeli postaci K = {C1 , C2 , C3 } . Zadanie identyfikacji parametrów
poszczególnych modeli przeprowadzono zgodnie z opisem podanym w punkcie 2.
Tabela 4. Struktury modeli w zaleŜności od przyjętej funkcji aproksymacyjnej
Nr modelu
Struktura modelu
1
 h&1   c11 c12
 =
 h&   c
 2   21 c22
2
 h&1   c11 c12
 =
 h&   c
 2   21 c22
3
 h&1   c11 c12
 =
 h&   c
 2   21 c22
c13
c23
c13
c23
c13
c23
 h1 
 
c14   h12 
⋅
,
c24   h13 
 
h 
 2
H& 1 = C1 ⋅ Z1
 h1 
 
c14   h12 
⋅
,
c24   h2 
 
 h2 
 2
H& 2 = C2 ⋅ Z 2
 h1 
 
c14   h2 
 ⋅  2 ,
c24  h2
 
 h3 
 2
H& 3 = C3 ⋅ Z 3
Dane pomiarowe potrzebne do identyfikacji otrzymano w wyniku symulacji modelu
nieliniowego (13) dla ustalonych danych początkowych. Eksperyment identyfikacyjny trwał 20s.
Pomiary wykonywano co 0.01s. W trakcie trwania procedury identyfikacyjnej dla kaŜdego modelu
wyznaczono macierz Ps , dokonano rozkładu tej macierzy względem wartości szczególnych
i obliczono współczynnik ξ . Tabela 2 przedstawia wartości współczynnika ξ dla poszczególnych
modeli zbioru K.
Tabela 5.Wartość współczynnika ξ dla poszczególnych modeli
Nr modelu
Wartość współczynnika ξ
1
2
3
2.16 ⋅ 10 −6
1.8 ⋅ 10 −5
6.15 ⋅ 10 −5
Największą wartość współczynnika ξ posiada model oznaczony numerem 3. Oznacza to, Ŝe
ten model w zbiorze K najlepiej odwzorowuje zachowanie obiektu rzeczywistego. Na rysunku 3
przedstawiono przebiegi zmiennych stanu modelu wzorcowego i modelu nr 3.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
101
Rysunek 3. Przebiegi zmiennych stanu modelu wzorcowego i modelu nr 3
5. Podsumowanie
Dokładność odwzorowania zachowania obiektów rzeczywistych ma kluczowe znaczenie
w przypadku wykorzystania ich modeli w dynamicznych inteligentnych systemach nauczania, co
wielokrotnie było podkreślane w pracach autorów, na przykład w [1, 8, 9, 10, 12].
Zwiększanie dokładności odwzorowania zachowania obiektów rzeczywistych moŜna
przeprowadzać poprzez zmianę parametrów modelu lub poprzez zmianę struktury modelu.
W niniejszej pracy pokazano algorytm wybory najlepszej struktury modelu z dostępnego zbioru
modeli uzyskanych w procesie identyfikacji metodą najmniejszych kwadratów.
Zaproponowany algorytm wyboru struktury z wykorzystaniem rozkładu względem wartości
szczególnych w równaniu identyfikacji jest uniwersalny i moŜna go stosować w róŜnych zadaniach,
w których konieczne jest opracowanie wysokiej jakości modeli rzeczywistych obiektów
dynamicznych.
6. Literatura
1.
2.
Barcz A., Popov O., Verification of the processes’ mathematical models in the computerbased tutoring system using the sensitivity analysis. Materiały 10 Międzynarodowej Konferencji Advanced Computer Systems – ACS 2003, Międzyzdroje, 2003.
Bielińska E., Finger J., Kasprzyk J., Jegierski T., Ogonowski Z., Pawełczyk M., Identyfikacja procesów, Wydawnictwo Politechniki Śląskiej, Gliwice, 2002.
102
O. Popov, A. Barcz, P. Piela
Dobór struktury modeli matematycznych procesów w bazie wiedzy dynamicznych
inteligentnych systemów nauczania
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
Kiełbasinski A., Schwetlick H., Numeryczna algebra liniowa. Wprowadzenie do obliczeń
numerycznych. Wydanie drugie. Wydawnictwa Naukowo Techniczne, Warszawa, 1992.
Ljung L., System Identification Theory for the User. Prentice Hall PTR, Upper Saddle
River, New York, 1999.
Popov O. Elementy teorii systemów – systemy dynamiczne. Wydawnictwo Uczelniane Politechniki Szczecińskiej, Szczecin 2005.
Popov O., Investigation of structural qualities and informative density of dynamic processes. The metod of quantitative estimations. International Conference of Control Problems, IPU, Moskwa, 1999.
Popov O., Barcz A., Piela P., Weryfikacja i walidacja modeli matematycznych procesów
w bazie wiedzy dynamicznych inteligentnych systemów nauczania, Studia i Materiały Polskiego Stowarzyszenia zarządzania wiedzą, tom 14, pod red. W. Bojar, Polskie Stowarzyszenie Zarządzania Wiedzą, Bydgoszcz, 2008.
Popov O., Barcz A., Piela P., Sobczak T., Problem of the flight simulation in computerbased training systems for civil aviation. Proceedings of the 6th International Conference
Intelligent Tutoring Systems, Workshop Simulation Based Training, Biarritz, 2002.
Popov O., Barcz A., Piela P., Tretyakov A., Some problems of design of computer-based
training systems for civil aviation pilots, methods of their solving. 16th IFAC Symposium
on Automatic Control in Aerospace – ACA 2004, St. Petersburg, 2004.
Popov O., Piela P., Reconfiguration dynamic systems’ models in a computer-based tutoring system, Proceedings of the 10th International Multi-Conference on Advanced Computer Systems, Międzyzdroje 2003.
Popov O., Tretyakov A., Structural properties and informative density of dynamic processes: The method of quantitative estimation at the control, management and identification
problems. Proceedings of the 5th International Conference Advanced Computer Systems,
part II, p. 216 – 224, Szczecin 1998.
Popov O., Tretyakova T., Barcz A., Piela P., Komputerowe systemy nauczania dla operatorów obiektów dynamicznych. Badania Operacyjne i Systemowe 2006. Akademicka Oficyna Wydawnicza EXIT, Warszawa, 2006.
Szacka K., Teoria układów dynamicznych. Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa, 1999.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
103
SELECTION OF STRUCTURE OF MATHEMATICAL MODELS OF PROCESSES IN
KNOWLEDGE BASE OF DYNAMIC INTELLIGENT TUTORING SYSTEM
Summary
In the article the method of creating the mathematical models of nonlinear dynamic in case of lack or slight information about object is proposed. As a result of
using the identification methods it is possible to obtain the set of various models that
bring closer the considered object. From the obtained set it is necessary to select the
model with the best structure. The suggested method for selecting the structure of
model is based on using the singular value decomposition in identification equation.
Keywords: mathematical model, tutoring system, identification, singular value decomposition
Orest Popov
Anna Barcz
Piotr Piela
Wydział Informatyki
Politechnika Szczecińska,
71 – 210 Szczecin ul. śołnierska 49
e-mail: [email protected]
e-mail: [email protected]
e-mail: [email protected]
104
Izabela Rojek
Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową
IZABELA ROJEK
Uniwersytet Kazimierza Wielkiego
HYBRYDOWY SYSTEM KLASYFIKUJĄCY
W INTELIGENTNYM WSPOMAGANIU ZARZĄDZANIA SIECIĄ WODOCIĄGOWĄ1
Streszczenie
W artykule przedstawiono badania dotyczące systemów klasyfikujących wbudowanych w system inteligentnego wspomagania zarządzania siecią wodociągową.
Pierwsze badania dotyczyły opracowania klasyfikatorów pojedynczych, później klasyfikatorów wielokrotnych, aby w ostatnim etapie pokazać hybrydowy system klasyfikujący. System hybrydowy nie tylko zawiera typowe przykłady klasyfikujące oraz
wyjątki dla awarii i nieprawidłowości w sieci, ale równieŜ preferencje uŜytkowników
i odbiorców systemu. Pozwala to na optymalną klasyfikację wartości ciśnienia i
przepływu wody w sieci wodociągowej, bo te wartości są bardzo waŜne z punktu widzenia zarządzania siecią wodociągową. Modele klasyfikujące pozwalają kontrolować bieŜące wartości i reagować na nieprawidłowości w sieci wodociągowej.
Słowa kluczowe: zarządzanie miejską siecią wodociągową, hybrydowy system klasyfikujący, inteligentne wspomaganie
1. Wprowadzenie
Przedsiębiorstwo wodociągowe w zakresie sieci wodociągowej powinno zajmować się dystrybucją wody dobrej jakości w ilości gwarantującej zaspokojenie potrzeb odbiorców, poprawną eksploatacją sieci wodociągowej zapewniającą właściwe ciśnienie w węzłach odbiorczych, sprawnym
usuwaniem awarii oraz planowaniem i wykonywaniem prac związanych z konserwacją, modernizacją i rozbudową sieci [1]. Zarządzanie siecią wodociągową jest trudnym i kompleksowym procesem, ze względu na dynamikę i stochastyczność zmian zachodzących w sieci. Tego typu zmiany
wymuszają zastosowanie metod inteligencji obliczeniowej.
Problemy zarządzania siecią wodociągową dotyczą optymalizacji jej struktury i parametrów,
energooszczędnej eksploatacji zapewniającej poprawną dystrybucję wody o odpowiedniej jakości,
optymalizacji prac projektowych przy rozbudowie sieci, wykrywania i lokalizacji stanów awaryjnych, opracowywania planów remontów sieci z uwzględnieniem jej awaryjności, kosztów inwestycyjnych i eksploatacyjnych.
W szczególności, waŜnym problemem jest energooszczędne zarządzanie pompami w sieci
oraz kontrolowanie poziomu wody w zbiornikach retencyjnych.
Na początku prowadzone były badania dotyczące analizy, czy ciśnienie i przepływ wody
w sieci wodociągowej mieszczą się w normie, czy teŜ nie. W tym celu opracowano modele klasyfikujące kontrolujące, czy te wartości są w normie, czy teŜ nie. W przypadku, gdy wartości były poza normą system ekspertowy sygnalizował potrzebę uruchomienia pomp. Opracowane modele klasyfikujące były opracowane w postaci klasyfikatorów pojedynczych i wielokrotnych. Modele zo1 Artykuł napisany w ramach realizacji projektu rozwojowego Ministerstwa Nauki i Szkolnictwa WyŜszego R11 001 01.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
105
stały przetestowane na danych rzeczywistych z miejskiego przedsiębiorstwa wodnokanalizacyjnego.
Jednak dalsze badania wykazały potrzebę budowy klasyfikatora hybrydowego, który w swojej
postaci łączy oprócz typowych przypadków, wyjątków dotyczących awarii dodatkowo preferencje
uŜytkownika i odbiorcy systemu.
2. Modele klasyfikujące
Przeanalizowano róŜne metody analizy danych [2,3]. Specyfika wiedzy dotyczącej sieci wodociągowej wykazała, Ŝe szczególnie interesującą metodą analizy danych jest klasyfikacja. Klasyfikacja jest problemem, w którym określa się przynaleŜność obiektów do znanych kategorycznych
klas. Proces przydziału danych do klas (klasyfikowanie) wykorzystuje tzw. klasyfikator. Klasyfikator jest pewnym modelem, którego parametry identyfikowane są w procesie uczenia pod nadzorem,
w którym do celów uczenia dostępny jest treningowy zbiór danych (obiektów) oraz ich klas. Model
ten jest po zakończeniu procesu uczenia wykorzystywany do klasyfikacji nowych danych.
Opracowano szereg modeli klasyfikacyjnych w postaci: klasyfikatorów pojedynczych (drzew
decyzyjnych) i klasyfikatorów wielokrotnych złoŜonych z drzew decyzyjnych. Obecnie dodano
nowy klasyfikator hybrydowy, który przeprowadzi indukcję reguł na podstawie typowych przykładów, wyjątków i preferencji.
Modele porównywane są dla uzyskania optymalnej klasyfikacji. Modele zostały przetestowane
na danych rzeczywistych z miejskiego przedsiębiorstwa wodno-kanalizacyjnego. Opracowane klasyfikatory pozwolą na kontrolowanie w czasie rzeczywistym, czy przepływ i ciśnienie wody w sieci wodociągowej są w normie. W przypadku nieprawidłowości zostaną uruchomione odpowiednie
procedury dotyczące pracy pomp.
Bazując na modelach klasyfikacji inteligentny system wspomagania pozwala na tworzenie
scenariuszy dla zarządzania siecią wodociągową. Dlatego wbudowane modele ulepszają zarządzanie siecią wodociągową.
Przygotowanie danych dla modeli klasyfikacji
Z punktu widzenia monitorowania działania sieci wodociągowej najwaŜniejsze są dwa parametry, tj. ciśnienie i przepływ wody. Parametry te w celu poprawnego działania sieci wodociągowej muszą mieścić się w określonej normie. W zbiorze uczącym i testującym naleŜy określić, czy
mierzona wartość parametru mieści się w normie, czy teŜ nie. Dlatego metoda klasyfikacji jest
w przypadku rozwiązania tego problemu najbardziej przydatna.
Do budowy pliku uczącego i testującego wykorzystano pomiary ciśnienia i przepływu z bazy
danych monitoringu sieci wodociągowej. Dane pomiarowe zostały zebrane z trzech węzłów pomiarowych. Plik uczący i testujący ma następującą budowę:
−
atrybuty wejściowe: dzień tygodnia, dzień miesiąca, miesiąc, czas, przepływ, ciśnienie,
−
atrybuty wyjściowe: decyzja, czy wartość pomiaru mieści się w normie, czy teŜ nie.
W pierwszym etapie badań do utworzenia modeli wykorzystano dane zawierające pomiary
z okresu jednego miesiąca, od 20 października do 19 listopada 2006 roku. W sumie dawało to
204370 rekordów. Uzyskane dane podzielono na dwa pliki. Pierwszy uczący, zawierający 90%
pomiarów oraz drugi testowy złoŜony z 10% pomiarów. PoniewaŜ oba pliki zawierają bardzo podobne dane, więc do pełniejszego przetestowania otrzymywanych modeli utworzono drugi plik
testowy zawierający 100 rekordów z wartością atrybutu decyzyjnego o wartości „0” symulujących
106
Izabela Rojek
Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową
błędne pomiary lub sygnalizujące awarię. W danych rzeczywistych wartość ciśnienia wahała się
pomiędzy 3 a 3,6 [bar], a wartość przepływu od 0 do około 1500 [m3/h].
Model pojedynczego klasyfikatora
Metoda indukcji drzew decyzyjnych pozwala na przybliŜenie funkcji klasyfikacyjnych o dyskretnych wartościach wejściowych odnoszących się do pewnych pojęć, klas decyzyjnych.
Dzisiaj drzewa decyzyjne stanową podstawową metodę indukcyjnego uczenia się maszyn.
Spowodowane jest to duŜą efektywnością, moŜliwością prostej programowej implementacji, jak
i intuicyjną oczywistością dla człowieka. Ta metoda pozyskiwania wiedzy opiera się na analizie
przykładów, przy czym kaŜdy przykład musi być opisany przez zestaw atrybutów, gdzie kaŜdy
atrybut moŜe przyjmować róŜne wartości.
Drzewo decyzyjne jest to skierowany graf acykliczny, przy czym krawędzie takiego grafu nazywane są gałęziami, wierzchołki, z których wychodzi, co najmniej jedna krawędź, nazywane są
węzłami, a pozostałe wierzchołki - liśćmi. Ponadto przyjmuje się, Ŝe w takim grafie istnieje tylko
jedna ścieŜka między róŜnymi wierzchołkami. Konstrukcję drzewa na podstawie zbioru przykładów, najprościej przedstawić w postaci algorytmu rekurencyjnego uruchamianego dla kaŜdego
węzła w drzewie.
Pierwszym krokiem algorytmu jest podjęcie decyzji, czy rozpatrywany węzeł powinien stać się
liściem końcowym drzewa wg kryterium stopu albo węzłem-rozgałęzieniem.
Zaklasyfikowanie węzła jako liść końcowy drzewa spowoduje zakończenie algorytmu. Podjęcie decyzji, Ŝe dany węzeł staje się rozgałęzieniem spowoduje wybór atrybutu (z dostępnej puli
atrybutów) wg kryterium wyboru atrybutu. Następnie na podstawie wartości, jakie przyjmuje wybrany argument, z zestawu przykładów tworzone są kolejne węzły drzewa. Algorytm uruchamiany
jest rekurencyjnie. Odpowiednia technika wyboru argumentu ma kluczowy wpływ na wygląd
drzewa decyzyjnego, gdyŜ właśnie od kolejności wyboru atrybutów zaleŜy w głównej mierze głębokość i stopień rozbudowy drzewa.
Wywołania rekurencyjne algorytmu tworzącego drzewo naleŜy kiedyś zakończyć, odpowiada
za to właśnie "kryterium stopu". Określa ono czy dany węzeł drzewa powinien być traktowany jako
końcowy liść drzewa zawierający w swoim opisie etykietę klasy-decyzji.
Natomiast Kryterium wyboru atrybutu jest to w zasadzie najwaŜniejsza część algorytmu, to od
niej zaleŜy kolejność wyboru atrybutów do zbudowania testu, na którego podstawie nastąpi w węźle podział zbioru przykładów. W znaczącym stopniu wpływa to na późniejszy wygląd drzewa.
MoŜna stwierdzić, Ŝe "dobrym" testem jest ten, którego uŜycie w węźle spowoduje skrócenie
ścieŜki prowadzącej przez ten węzeł do liści wskazujących klasę decyzyjną.
Wybór odpowiedniego atrybutu ze zbioru atrybutów jest dokonywany dzięki wprowadzeniu
systemu ocen. System ocen atrybutów opiera się na załoŜeniu, iŜ najbardziej "bezuŜytecznym"
atrybutem jest taki, w którym rozkład częstości występowania kolejnych klas-wyboru jest taki sam
przed i po podziale zbioru danych przykładów wg ocenianego atrybutu.
Do tworzenia drzewa zostało wykorzystane kryterium wyboru na podstawie miary przyrostu
informacji, które jest powiązane z pojęciem miary entropii (1) wywodzącej się z teorii informacji.
Niech S będzie zbiorem uczącym zawierającym przykłady naleŜące do jednej z k klas decyzyjnych oznaczonych przez K1,...,Kk. Niech n będzie liczbą przykładów z S oraz ni niech oznacza
liczebność klasy Ki. Entropia związana z klasyfikacją zbioru S jest zdefiniowana jako:
107
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
k
Ent ( S ) = −∑ pi lg 2 pi
(1)
i =1
gdzie pi jest prawdopodobieństwem, Ŝe losowo wybrany przykład z S naleŜy do klasy Ki, estymowanym jako ni/n. Podstawa logarytmu jest równa 2, poniewaŜ entropia mierzy oczekiwaną
liczbę bitów do zakodowania informacji o klasyfikacji losowo wybranego przykładu ze zbioru S.
W sytuacji analizowania klasyfikacji binarnej (k=2) entropia przyjmuje wartości z przedziału
[0, l]. Maksymalna wartość równa l będzie osiągana wtedy tylko wtedy, gdy dla p1=p2=0,5, czyli
przypadek taki wystąpi dla przykładów o równomiernym rozkładzie klas. Minimalną wartość entropii, równą 0, osiągnie się, gdy wszystkie przykłady naleŜą do tej samej klasy. Wartość entropii
moŜna interpretować następująco: im wartość entropii jest mniejsza, tym w zbiorze S występuje
większa przewaga przydziału przykładów do jednej z klas nad pozostałymi klasami. Z miarą entropii związana jest miara przyrostu informacji i wybiera się atrybut, dla którego wyliczono największy przyrost informacji.
W trakcie powstawania drzewa decyzyjnego istnieje ryzyko nadmiernego dopasowania do
przykładów trenujących. Drzewo decyzyjne skonstruowane w sposób opisany powyŜej moŜe okazać się zbyt złoŜone i odzwierciedlać przypadkowe zaleŜności 'występujące w zbiorze przykładów,
zwłaszcza, jeśli jest on "zaszumiony" (zawiera małą ilość błędnych danych), dlatego oprócz samej
konstrukcji drzewa uŜywa się teŜ sposobów słuŜących do uproszczenia drzewa w taki sposób, aby
zachować jak największą spójność ze zbiorem przykładów i zminimalizować błąd rzeczywisty
(powstający podczas testowania obiektami nie naleŜącymi do zbioru przykładów). Takie algorytmy
noszą potocznie nazwę algorytmów przycinania.
Narzędzia wspomagające analizę za pomocą drzew decyzji generują diagram drzewa decyzji
oraz statystyki klasyfikacji. Liczony jest łączny błąd klasyfikowania (2). Jest on zdefiniowane jako:
ε ov =
nw
.
ntest
(2)
nw – liczba błędnie sklasyfikowanych przykładów testowych, ntest – liczba przykładów testowych
Klasyfikator jest dobry, jeśli
ε ov
jest najniŜszy. Jeśli my chcemy analizować głębiej to mo-
Ŝemy uŜyć tzw. MC (ang.: confusion matrix), czyli tablicy, w której pokazane są wyniki klasyfikacji wraz z rzeczywistymi kategoriami przypadków ze zbioru testowego [3]. Weryfikację przeprowadza się w odniesieniu do zbioru przykładów testowych, które nie były częścią zbioru uczącego.
Przykłady testowe są klasyfikowane za pomocą klasyfikatora powstałego ze zbioru uczącego. Ponadto dla przykładu testowego znana jest jego rzeczywista klasyfikacja. Pozwala to na porównanie
proponowanej przez klasyfikator decyzji z rzeczywistą i stwierdzenie, czy decyzja klasyfikatora
jest poprawna, czy błędna.
Na podstawie klasyfikatora w postaci drzewa mogą zostać automatycznie wygenerowane reguły decyzyjne, które zostaną umieszczone w bazie wiedzy systemu ekspertowego.
Eksperymenty związane z tworzeniem modeli drzew decyzyjnych były parametryzowane
dwoma parametrami: minimalną liczbą przykładów tworzących liść drzewa oraz przycinaniem
drzewa decyzyjnego.
108
Izabela Rojek
Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową
Pierwszy parametr minimalna liczba przykładów tworzących liść drzewa związana jest z własnością algorytmów uczenia się drzew decyzyjnych, w których poszczególne gałęzie drzewa są
rozbudowywane tak głęboko, aŜ przykłady w węźle zostaną zaklasyfikowane do pojedynczej klasy
decyzyjnej, czyli pojedynczego liścia. Strategia rozbudowywania gałęzi drzewa w celu jednoznacznego rozróŜnienia przykładów z róŜnych klas prowadzi do bardzo złoŜonych drzew decyzyjnych. Dlatego moŜna określić parametr, który zatrzymuje dalszą rozbudowę gałęzi drzew decyzyjnych. W eksperymencie parametr minimalna liczba przykładów w liściach przyjmował wartości:
1,2,5,10,25.
Natomiast drugi parametr przycinanie drzewa pozwala redukować rozmiary drzewa. Idea postępowania polega na tym, Ŝe w pełnym drzewie decyzyjnym usuwa się pewne fragmenty (poddrzewa) o niewielkim znaczeniu dla klasyfikacji obiektów. W eksperymencie ten drugi parametr
przyjmował wartości w zakresie: bez przycięcia, 80%, 40%, 25%,15% , 5%, 2%.
Dla obu parametrów rozpatrywano procentowe wartości błędnie zaklasyfikowanych rekordów
z pliku testowego. Najlepsze rezultaty otrzymano w drzewach zawierających jeden przykład w liściu, czyli reguły tworzone dla kaŜdego przykładu, oraz o parametrze przycięcie drzewa równym
40%. Procentowa wartość błędnie zaklasyfikowanych rekordów wyniosła 0,61% [4].
Na podstawie drzewa decyzyjnego zostały automatycznie wygenerowane reguły decyzyjne,
które następnie umieszczone zostały w bazie wiedzy systemu wspomagania decyzji. W marę przybywania danych z kolejnych miesięcy reguły będą aktualizowane.
Model klasyfikatora wielokrotnego
W ostatnich latach obserwuje się rosnące zainteresowanie tworzeniem złoŜonych systemów
klasyfikujących. Idea ta polega na integracji wielu pojedynczych algorytmów uczenia się w jeden
system klasyfikujący. Celem takiej integracji jest przede wszystkim osiągnięcie lepszej trafności
klasyfikacji od otrzymanej w rezultacie uŜycia oddzielnie pojedynczych klasyfikatorów wchodzących w skład systemu [3].
W latach dziewięćdziesiątych powstało wiele prac dotyczących złoŜonych systemów klasyfikujących. Wyniki eksperymentalne potwierdzają wzrost trafności klasyfikowania dla proponowanych systemów. Integracja jednorodnych lub róŜnorodnych klasyfikatorów (lub algorytmów uczenia się) moŜe być przeprowadzona róŜnymi sposobami.
Jedną z dwóch głównych kategorii złoŜonych systemów klasyfikujących są systemy wielokrotne. Pojęcie systemu wielokrotnego (odpowiednik terminu angielskiego multiple model, multiple
classifier lub ensemble of classifiers) odnosi się do zbioru pojedynczych klasyfikatorów, których
odpowiedzi są zagregowane do jednej odpowiedzi całego systemu. Klasyfikatory składowe mogą
być jednorodne (homogeniczne) lub róŜnorodne (heterogeniczne). W pierwszym przypadku klasyfikatory uczone są na zróŜnicowanych danych. Zasadnicze pytanie dotyczy sposobów budowania
złoŜonych systemów, tak aby pozwalały na osiągnięcie wyŜszej trafności klasyfikacji niŜ klasyfikatory składowe działające oddzielnie.
Agregacja odpowiedzi pojedynczych klasyfikatorów w globalną odpowiedź systemu dokonywana jest w sposób grupowy albo specjalizowany. W pierwszym sposobie wszystkie klasyfikatory
biorą, udział w wypracowaniu decyzji końcowej dla nowego obiektu. W drugim sposobie wyznacza się te klasyfikatory, których specjalizacja obejmuje charakterystykę klasyfikowanego obiektu.
Sama agregacja realizowana jest najczęściej poprzez głosowanie proste (głos kaŜdego klasyfikatora ma równy priorytet) lub waŜone.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
109
Istnieje wiele sposobów tworzenia złoŜonych systemów klasyfikujących. Część z nich polega
na modyfikowaniu danych uczących dla poszczególnych jednorodnych klasyfikatorów, inne zakładają róŜnicowanie samych modeli klasyfikujących.
Systemy wielokrotne dzielą się na klasyfikatory oparte na:
− zróŜnicowanych klasyfikatorach
o Generalizacja stosowa (Stacking) - Jest to model hierarchicznego, wielowarstwowego
klasyfikatora złoŜonego zaproponowany przez Wolperta. Klasyfikatory składowe
pierwszej warstwy uczone są na oryginalnych danych, a ich odpowiedzi są danymi
wejściowymi do kolejnej warstwy. W ostatniej warstwie umieszczony jest pojedynczy klasyfikator wypracowujący ostateczną decyzję. Klasyfikatory wyŜszych warstw
starają się minimalizować błędy popełniane przez klasyfikatory z niŜszych warstw.
− jednorodnych klasyfikatorach
o Technika bagging - Model wprowadzony przez Breimana wykorzystuje ideę powielania zbioru uczącego za pomocą wielokrotnego próbkowania techniką "bootstraping". KaŜdy powielony zbiór ma tę samą wielkość, co oryginalny, lecz w wyniku
próbkowania niektóre przykłady uczące są kopiowane, podczas gdy inne nie mogą się
wielokrotnie powtórzyć. Z kaŜdego z tych zbiorów generuje się klasyfikator tym samym algorytmem uczącym. Odpowiedzi klasyfikatorów są agregowane poprzez proste głosowanie.
o Technika "boosting" - Podana została poprzez Freunda i Schapirego. Idea metody polega na skojarzeniu z kaŜdym obiektem uczącym wagi, której wartość odzwierciedla
jego istotność. Algorytm uczenia się uruchamiany jest iteracyjnie nad modyfikowanym zbiorem uczącym. Modyfikacje dotyczą zmiany wag w kolejnych kopiach zbioru uczącego, które skupiają działanie algorytmu uczącego wokół tzw. trudnych przykładów, dla których klasyfikatory popełniały błędy w poprzednich iteracjach. Odpowiedź końcowa systemu opiera się na waŜonym głosowaniu (tutaj wagi głosujących
klasyfikatorów uzaleŜnione są od błędów popełnianych przez odpowiednie klasyfikatory składowe).
Kolejno opracowano klasyfikatory wielokrotne w celu poprawienia dokładności klasyfikacji.
UŜyto następujących klasyfikatorów wielokrotnych: AdaBoost, LogitBoost, RacedIncrementalLogitBoost, FilteredClassifier, Bagging, Stacking, AttributeSelectedClassifier, OrdinalClassClassifier, RandomCommittee.
Do oszacowania skuteczności klasyfikatorów wykorzystano technikę 10-krotnej oceny krzyŜowej.
Porównano wybrane klasyfikatory wielokrotne ze względu na:
−
prawidłowo zaklasyfikowane przykłady,
−
nieprawidłowo zaklasyfikowane przykłady,
−
prawidłowo zaklasyfikowane przykłady w %,
−
nieprawidłowo zaklasyfikowane przykłady w %,
−
średni błąd absolutny,
−
pierwiastek błędu średniokwadratowego,
−
wraŜliwość,
−
specyficzność.
110
Izabela Rojek
Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową
Porównanie klasyfikatorów pojedynczych z wielokrotnymi wykazało lepsze cechy klasyfikowania u klasyfikatorów wielokrotnych. Najlepszym klasyfikatorem okazał się RandomCommittee,
który prawidłowo klasyfikował w 100%.
3. Hybrydowy system klasyfikujący
Z punktu widzenia inteligentnego wspomagania zarządzania siecią wodociągową naleŜało dodatkowo opracować preferencje uŜytkownika i odbiorcy systemu [5], a później naleŜało je dodać
do hybrydowego systemu klasyfikującego.
Motywacje dla tworzenia systemów hybrydowych wynikają z obserwacji, Ŝe dla kaŜdego algorytmu uczącego istnieje pewna klasa problemów, dla których jest skuteczny. Dla pozostałych problemów algorytm moŜe być mniej skuteczny od innych algorytmów. Ponadto niektóre dane uczące
mogą mieć złoŜoną strukturę wymagającą modelowania więcej niŜ jedną formą reprezentacji wiedzy. W tych sytuacjach moŜna tworzyć system hybrydowy, który przybliŜa róŜne obszary danych
za pomocą róŜnych reprezentacji. W rezultacie synergii połączonych modeli cały system ma działać skuteczniej. Badania nad tworzeniem róŜnych systemów hybrydowych zapoczątkowano juŜ w
latach osiemdziesiątych. Istnieje wiele propozycji łączących np. paradygmaty uczenia się drzew
decyzyjnych czy reguł decyzyjnych z uczeniem się na wcześniej zapamiętanych przypadkach lub
z uczeniem się sieci neuronowych [3].
Motywacje do zbudowania systemu hybrydowego łączącego w sobie typowe przypadki, wyjątki oraz preferencje wynikają z obserwacji i oczekiwań odbiorców systemu.
ZałoŜeniem jest, aby system inteligentnego wspomagania uczył się jak i wspomagał podejmowanie właściwej decyzji i działania juŜ z uwzględnieniem nie tylko typowych przypadków, czy tez
nieprawidłowości zachodzących w sieci traktowanych jako wyjątki, ale teŜ preferencje operatora
sieci jak i odbiorcy wody. W ten sposób system będzie miał moŜliwość generowania scenariuszy
zarządzania siecią wodociągową w optymalny sposób, z uwzględnieniem preferencji odbiorców
i uŜytkowników systemu juŜ na etapie najwcześniejszym działania systemu, z moŜliwością przewidywania jak i reagowania na sytuacje nietypowe.
Na rys. 1 przedstawiona została propozycja hybrydowego systemu klasyfikującego. Nowe
przykłady przybywają i są gromadzone w zbiorze przykładów. Te przykłady gromadzone są na
podstawie monitoringu sieci wodociągowej. Następnie zbiór przykładów naleŜy podzielić na wyjątki, typowe przykłady i preferencje. Zbiór preferencji powstaje na podstawie przewidywania obciąŜenia sieci wodociągowej i poboru wody. Podział zbioru przykładów moŜe wynikać z sugestii
eksperta, czy analizy statystycznej (np. moŜe być rezultatem analizy skupień). Po dokonaniu podziału zbioru przykładów naleŜy przeprowadzić indukcję reguł typowych przykładów, wyjątków
oraz preferencji, wykorzystując najlepszy opisany wcześniej algorytm indukcji drzew decyzyjnych.
Nowy przykład klasyfikowany jest jako wyjątek, typowy przypadek lub preferencja i następnie
uruchamiane są procedury działania z odpowiednim priorytetem.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
111
Rys. 1. Hybrydowy system klasyfikujący
4. Uwagi końcowe
Proponowany hybrydowy system klasyfikujący pozwala na optymalną klasyfikację pomiarów
zbieranych z sieci wodociągowej. Klasyfikuje on nie tylko typowe przykłady klasyfikacyjne, wyjątki dotyczące awarii, ale równieŜ preferencje uŜytkowników i odbiorców systemu inteligentnego
wspomagania zarządzania siecią wodociągową. Opracowanie takiego systemu klasyfikującego
moŜliwe było dzięki przeprowadzeniu wcześniej badań dotyczących opracowania modeli klasyfikacyjnych w postaci pojedynczych i wielokrotnych klasyfikatorów, modeli predykcji i modeli preferencji. Wykorzystanie inteligencji komputerowej pozwala automatyzować wiele procesów zachodzących w sieci wodociągowej, a przez to zmniejsza udział czynnika ludzkiego w tych czynnościach, czyli udział operatora sieci.
Kolejny etap rozbudowy systemu będzie dotyczył opracowania metod i modeli reagowania na
awarie w miejskiej sieci wodociągowej, w szczególności na wycieki. W przypadku sygnalizacji
alarmu, system powinien wskazać przyczynę awarii i uruchomić odpowiednią procedurę działania.
112
Izabela Rojek
Hybrydowy system klasyfikujący w inteligentnym wspomaganiu zarządzania siecią wodociągową
5. Literatura
1.
2.
3.
4.
5.
Studziński J., Bogdan L.: Informatyczny system wspomagania decyzji do zarządzania,
sterowania operacyjnego i planowania miejskiego systemu wodno-ściekowego. W: Studziński J., Drelichowski L., Hryniewicz O. (Red.): Rozwój i zastosowania metod ilościowych i technik informatycznych wspomagających procesy decyzyjne, Instytut Badań Systemowych Polska Akademia Nauk, Badania Systemowe 49, Warszawa 2006.
Michalski R.S., Bratko I., Kubat M.: Machine learning and data mining, John Wiley&Sons, 1998.
Stefanowski J.: Algorytmy indukcji reguł decyzyjnych w odkrywaniu wiedzy, rozprawa
habilitacyjna, Wydawnictwo Politechniki Poznańskiej, seria Rozprawy, nr 361, Poznań
2001.
Rojek I.: Inteligentny system wspomagania decyzji dla sterowania siecią wodociągową,
materiały konferencyjne II Krajowej Konferencji Naukowej „Technologie przetwarzania
danych”, wydawnictwo Politechniki Poznańskiej, Poznań 2007, 186-194.
Rojek I., Inteligentne zarządzanie preferencjami poboru wody w sieci wodociągowej, red.
Arkadiusz Januszewski, Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, ISSN 1732-324X, vol. 14 , Bydgoszcz 2008, 67-74.
HYBRID SYSTEM OF CLASSIFICATION IN INTELLIGENT SUPPORT OF MANAGEMENT OF WATER NETWORK
Summary
Research concerning classification systems embedded in system of intelligent
support of management of water network present in the paper. The first research
concerned description of simple classifiers, next multiple classifiers. Last research
shows hybrid system of classification. Hybrid system includes typical classification
examples, exceptions of failures and preferences users and consumers of system. The
system allows on optimal classification of values of pressure and water flow in water
network. The classification models allow controlling current values and responding
on failures in water network.
Keywords: management of water network, hybrid system of classification, intelligent support
Izabela Rojek
Instytut Mechaniki Środowiska i Informatyki Stosowanej
Uniwersytet Kazimierza Wielkiego
85-064 Bydgoszcz, ul. Chodkiewicza 30
e-mail: [email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
113
PIOTR SULIKOWSKI,
RYSZARD BUDZIŃSKI
Politechnika Szczecińska
METODA KLASYFIKACJI KLIENTÓW OPERATORA TELEFONII KOMÓRKOWEJ
W ANALIZIE ZJAWISKA REZYGNACJI1
Streszczenie
Rezygnacja klientów stanowi powaŜny problem dla kaŜdego operatora telefonii
komórkowej. Wystarczająco wczesna identyfikacja potencjalnych rezygnujących mogłaby pozwolić utrzymać ich w sieci danego operatora. Proponuje się wieloetapową
procedurę badawczą, umoŜliwiającą identyfikację czynników wpływających na odejścia, a następnie opracowanie klasyfikacyjnego modelu badanego zjawiska osobno
dla kaŜdego segmentu klientów. Opisana metoda pozwala uwzględniać zarówno
zmienne liczbowe, jak i lingwistyczne, a takŜe element czasu charakteryzujący dane
z róŜnych okresów z przeszłości.
Słowa kluczowe: eksploracja danych, zbiory przybliŜone, churn, CRM, telefonia komórkowa
1. Wprowadzenie
Według GSM World Association, czyli organizacji, która zrzesza operatorów GSM [ang.
Global System for Mobile communication] i regulatorów telekomunikacyjnych z całego świata,
pod koniec roku 2007 w technologii GSM aktywnych było niemal 2,9 miliarda kart SIM [ang.
Subscriber Identity Module] w ponad 220 krajach i terytoriach. Stanowiło to ponad 86% cyfrowej
komunikacji mobilnej na świecie [1]. Z badań ankietowych, których wyniki podano w [2] wynika,
Ŝe ok. 3/4 Polaków ma telefon komórkowy, przy czym 10-11% posiada więcej niŜ jedną komórkę.
Według Urzędu Komunikacji Elektronicznej na koniec 2007 roku w Polsce aktywnych było 34
mln kart SIM, a zatem wskaźnik penetracji kształtował się na poziomie ok. 90%. Telefonia
mobilna to niezwykle konkurencyjny sektor rynku, gdyŜ operatorzy usilnie zabiegają o klientów –
ich liczba bezpośrednio przekłada się przecieŜ na wielkość przychodów [3].
Odsetek klientów rezygnujących z dotychczasowej sieci telefonii mobilnej w Europie
i Stanach Zjednoczonych wynosi przeciętnie 24-36% rocznie [4] i jego zmiany wykazują tendencję
wzrostową. Według danych Urzędu Komunikacji Elektronicznej polscy operatorzy znajdują się w
ścisłej „czołówce” – odsetek klientów odchodzących w zaleŜności od sieci wynosił od 32,5% do
37,2% w samym tylko roku 2007, w którym to odłączono w sumie aŜ 13,5 mln (!) kart SIM.
Osoby, które przestają być klientami danej firmy np. na rzecz jej bezpośredniej konkurencji
mogą w istotny sposób decydować o kształcie rynku. Jest to szczególnie widoczne w przypadku
przedsięwzięć, w których koszty pozyskania klienta są niewspółmiernie wysokie do kosztów jego
1 W artykule przedstawiono wybrane elementy pracy mgra inŜ. Piotra Sulikowskiego napisanej pod kierunkiem promotora
prof. dra hab. inŜ. Ryszarda Budzińskiego. Przygotowanie odnośnej pracy moŜliwe było m.in. dzięki uczestnictwu w
międzynarodowym programie konkursowym SAS® Fellowship Program oraz współpracy z operatorami telefonii komórkowej.
114
Piotr Sulikowski, Ryszard Budziński
Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji
utrzymania. Problem odejść jest najbardziej dotkliwy, gdy dotyczy grupy najwaŜniejszych,
najbardziej dochodowych klientów, tych o wysokiej wartości Ŝyciowej LTV [ang. lifetime value].
Dogłębne poznanie problemu i wiedza o tym, kim są klienci, których nie udało się zatrzymać
moŜe przyczynić się do przewagi konkurencyjnej danej firmy. Dopiero pod koniec ubiegłego wieku wiedzę taką zaczęto wykorzystywać, analizując dane i tworząc modele, które z większym lub
mniejszym powodzeniem pozwalały wskazywać rezygnujących klientów [5]. Co istotne, kiedy potencjalnych odchodzących uda się juŜ poprawnie zidentyfikować, koszt działań zapobiegawczych
wcale nie musi być wysoki – często wystarczy nawiązanie bezpośredniego kontaktu z klientem, np.
przeprowadzenie ankiety czy zwykłej rozmowy telefonicznej, wypytanie klienta o poziom jego
satysfakcji itp.
Powstaje jednak problem, w jaki sposób klasyfikować klientów jako potencjalnie pozostających lub odchodzących, aby móc przedsięwziąć kroki zmierzające do zmniejszenia odsetka rezygnacji. Rozwiązanie mogą przynieść róŜnego rodzaju metody eksploracji danych i odkrywania
wiedzy. Dzięki wykorzystaniu danych, które są standardowo gromadzone w bazach operatora (tzn.
nawet bez trudniej dostępnych danych o sytuacji na rynku czy satysfakcji klienta) moŜna próbować
opracować wystarczająco dokładny klasyfikacyjny model odejść, a następnie przenieść odkryte
reguły rządzące zjawiskiem dla badanych klientów w przeszłości na przyszłość.
W toku badań wykorzystywano pakiet oprogramowania SAS®, pozwalający na zautomatyzowaną realizację pewnych standardowych zadań analitycznych. Zastosowany język programowania
to SAS® 4GL [ang. 4th Generation Language]. Ponadto korzystano z programu ROSE2, udostępnianego dla celów naukowych przez Zakład Inteligentnych Systemów Wspomagania Decyzji Instytutu Informatyki Politechniki Poznańskiej [6].
2. Utrzymanie i rezygnacja
Zagadnienia omawiane w niniejszym artykule naleŜy umieścić w kontekście jednej z ogólnych
filozofii działania przedsiębiorstwa, jakim jest zarządzanie relacjami z klientami – CRM [ang. Customer Relationship Management]. Mówi ona, Ŝe w kaŜdej dziedzinie i na kaŜdym etapie funkcjonowania firmy preferencje, wymagania i przyzwyczajenia klienta oraz umiejętne budowanie relacji
z nim są najwaŜniejsze. Filozofia CRM-u uwzględnia fakt, Ŝe kaŜdy klient jest indywidualną jednostką, wskazując, iŜ kaŜdego trzeba traktować nie w sposób masowy, ale taki, jakiego by sobie
Ŝyczył [7]. W informatyce CRM-em nazywany jest system informatyczny, który w istotny sposób
przyczynia się do realizacji zarysowanej powyŜej strategii.
Utrzymanie (retencja, zatrzymanie) klienta odnosi się do powtórnego zakupu produktów lub
ponownego skorzystania z usług danego dostawcy przez danego klienta. Retencja jest oczywiście
zjawiskiem pozytywnym dla firmy, chyba Ŝe dotyczy pewnej grupy osób przynoszących firmie
straty lub szkody. Zwykle jednak im większa baza wartościowych klientów, tym większe przychody i zyski firmy. Ponadto osoby wielokrotnie korzystające z oferty danego przedsiębiorstwa (tzw.
klienci stali) są zazwyczaj mniej wraŜliwi na wzrost cen; wiele osób skłonnych jest płacić wyŜszą
cenę za produkty firmy, która jest juŜ im znana, i którą darzą zaufaniem [8].
Pojęciem przeciwstawianym utrzymaniu jest rezygnacja, lub inaczej odejście, często określane
teŜ jako churn [czyt. czern]. Oznacza ono całkowite zaprzestanie nabywania pewnych produktów/usług lub tylko zmianę dostawcy. NaleŜałoby się odnieść do dwóch głównych typów churnu:
▪ przymusowego [ang. involuntary churn],
▪ i dobrowolnego [ang. voluntary churn].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
115
W literaturze nie ma zgodności co do interpretacji ww. typów odejść; według autora moŜna
powyŜsze rozumieć tak, Ŝe „rezygnacja pierwszego rodzaju spowodowana jest okolicznościami,
zazwyczaj niespodziewanymi, na które dostawca nie ma bezpośredniego wpływu, choćby zmianą
miejsca zamieszkania konsumenta poza obszar świadczenia usług, jego złą sytuacją finansową czy
teŜ względami zdrowotnymi. Odejście drugiego typu wynika [zaś] z przyczyn, na które dostawca
ma wpływ lub na które moŜe skutecznie reagować, np. braku satysfakcji z produktu, jego trudnej
dostępności, dotychczasowych złych doświadczeń z nim, wzrostu opłat lub braku czytelności
cennika, niskiej jakości obsługi” [9].
Stosowanych jest co najmniej kilka róŜnych miar zjawiska. Najczęściej stosowanym
miernikiem jest tzw. wskaźnik rezygnacji CR [ang. churn rate], inaczej wskaźnik odejść, wskaźnik
utraty klienta lub wskaźnik churnu. WyraŜa on „średni roczny odsetek utraconych klientów” [8].
NaleŜy wyjaśnić jednak, Ŝe wskaźnik utraty klienta moŜe dotyczyć okresów innych niŜ rok
kalendarzowy. Ogólnie zatem określa wielkość grupy klientów, która nie dokonuje kolejnego
zakupu w danej firmie w ściśle określonym czasie (najczęściej wynikającym ze specyfiki
przedsiębiorstwa i cyklu zakupowego) względem całej bazy klientów:
CR =
nc
⋅100% ,
n
gdzie nc – liczba klientów, którzy nie dokonali powtórnego zakupu, n – liczba wszystkich klientów.
Wydaje się, Ŝe rzeczywistą skalę zjawiska opisuje wskaźnik, w którym liczba wszystkich
klientów w mianowniku dotyczy początku analizowanego okresu. Warto dodać, Ŝe menedŜerowie
firm dla uzyskania jak najlepszych wartości wskaźnika często preferują tzw. wskaźnik odejść netto,
w którym uwzględniane są równieŜ nowe osoby, zasilające bazę klientów firmy w analizowanym
okresie.
NaleŜy pamiętać, Ŝe zjawisko odchodzenia klientów w specyficznych przypadkach nie musi
być niekorzystne, podobnie jak utrzymywanie klientów nie zawsze jest opłacalne. Oczywiście
w zaleŜności od polityki budowania lojalności w danej organizacji moŜna podejmować działania
zmierzające do zmiany klienta, którego nie warto utrzymywać, w takiego, który stanie się klientem
wartościowym i rentownym.
MoŜna zauwaŜyć, iŜ rezygnacja jest problemem niezwykle złoŜonym. Dlatego powszechne
jest sformułowanie „zarządzanie churnem”, określające zestaw działań związanych
z utrzymywaniem klientów i przeciwdziałaniem ich rezygnacjom. Przykładową strukturę procesu
zarządzania rezygnacjami zaprezentowano na rys. 1. W bazie danych pokazanej na tym rysunku
przechowywane są m.in. dane z biura obsługi klienta, dane dot. faktur i wykonanych operacji, dane
benchmarkowe czy teŜ dane z przeprowadzonych badań klientów dot. poziomu deklarowanej przez
nich satysfakcji. Na ich podstawie następuje identyfikacja potencjalnych odchodzących oraz
obliczanie Ŝyciowej wartości klientów, co z kolei wykorzystywane jest do ich klasyfikacji. Klienci
nierentowni powinni być sprawdzani pod kątem moŜliwości ich transformacji w klientów
rentownych. Jeśli okaŜe się to niemoŜliwe, firma prawdopodobnie powinna rozwaŜyć rezygnację
z nich i uznać za kandydatów do odejścia przymusowego. Klienci rentowni lub mający chociaŜ
odpowiedni potencjał w tej kwestii zasługują natomiast na wysiłki firmy zmierzające do ich
utrzymania. Efekty tych wysiłków, podobnie jak wyniki analiz bazy, wykorzystywane są do
przewidywania moŜliwych zachowań klientów. To z kolei moŜe pozwolić na udoskonalenie całego
procesu i próbę eliminacji niektórych przyczyn rezygnacji. Warto prócz tego zauwaŜyć, Ŝe
116
Piotr Sulikowski, Ryszard Budziński
Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji
wspomniana wcześniej identyfikacja potencjalnych odchodzących, której w głównej mierze
dotyczy niniejszy artykuł, znajduje się w centralnym miejscu opisywanego procesu [4].
baza
danych
kandydaci
do odejścia
przymusowego
eliminacja
przyczyn
churnu
identyfikacja
potencjalnych
odchodzących
predykcja
przyszłych
zachowań
klienci
nierentowni
obliczanie
LTV
klienta
transformacja
w klienta
rentownego
klienci
rentowni
tworzenie
i realizacja
strategii
utrzymania
Rys. 1. Proces zarządzania churnem
Źródło: opracowanie własne na podst. [4]
3. Problem identyfikacji rezygnujących
MoŜna zatem powiedzieć, Ŝe kluczowym elementem zarządzania churnem jest identyfikacja
rezygnujących. Choć przewaŜnie trudno zbadać, co dokładnie jest przyczyną odejścia konkretnego
klienta, niezwykle wskazane byłoby, Ŝeby operator potrafił zidentyfikować sytuację wysokiego
ryzyka, w której abonent zaczyna zastanawiać się nad odejściem lub teŜ jest wysokie
prawdopodobieństwo, iŜ przestanie wywiązywać się z płatności, co będzie skutkować jego
odłączeniem. W obu przypadkach, gdyby operator potrafił przewidzieć takie sytuacje, mógłby
spróbować zapobiec odejściom i maksymalizować swój zysk aktualny, jak i przyszły. Przykładowo
moŜe zaproponować specjalną ofertę lojalnościową (w pierwszym przypadku) czy teŜ zasugerować
przejście z systemu abonamentowego na bezabonamentowy (w drugim przypadku).
Sygnałem wskazującym na ryzyko rezygnacji klienta z usług moŜe być np. kontakt z działem
obsługi klienta, gdzie uŜytkownik sieci dowiaduje się o skutki przedwczesnego zerwania umowy
lojalnościowej. Innym niepokojącym sygnałem moŜe być zmiana zachowania uŜytkownika sieci
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
117
dot. np. czasu trwania rozmów, wysokości opłat za połączenia, docelowych numerów połączeń czy
odległości pomiędzy rozmówcami [10].
Dla celów identyfikacji potencjalnych rezygnujących moŜna zatem badać cechy i zachowania
klientów. Badanie takie słuŜyć moŜe odkrywaniu reguł rządzących zjawiskiem odejść – pomocne
są tu metody eksploracji danych [ang. data mining] i odkrywania wiedzy w bazach danych KDD
[ang. Knowledge Discovery in Databases]. Według definicji wiodącej agencji badawczokonsultingowej Gartner eksploracja danych to „proces odkrywania znaczących powiązań, wzorców
lub tendencji poprzez dokładne badanie duŜych ilości danych przechowywanych w repozytoriach.
Data mining wykorzystuje techniki rozpoznawania wzorców, jak teŜ metody statystyczne
i matematyczne ” [11, tłum. własne]. Eksploracja jest nazywana takŜe zgłębianiem, drąŜeniem,
ekstrakcją lub wydobywaniem danych2.
Jednym z moŜliwych podejść do eksploracji danych i odkrywania wiedzy w analizie
rezygnacji jest to wykorzystujące teorię zbiorów przybliŜonych. Godną odnotowania ciekawostką
jest, Ŝe sam twórca wspomnianej teorii, czyli Z. Pawlak, w [12] omawia metodę jej wykorzystania
na przykładzie właśnie odejść klientów w telekomunikacji, co moŜna w pewnym sensie uznać za
fakt znamienny. W analizach opartych na tej teorii zazwyczaj uwzględnia się dane za jeden
wybrany okres lub teŜ jednakowo traktuje się dane z róŜnych okresów. Ewentualnie te same
czynniki dla róŜnych okresów traktuje się jako de facto róŜne czynniki. Pewną wadą tych podejść
jest to, Ŝe albo w niewystarczający sposób uwzględniają uwarunkowania czasowe gromadzonych
danych, albo teŜ nie pozwalają róŜnicować danych pochodzących z róŜnych okresów w czytelny
sposób. Wydaje się, Ŝe czas, jak wiadomo ma bardzo istotne znaczenie dla postrzegania
rzeczywistości [13] i dobrze byłoby móc uwzględniać jego znaczenie w prowadzonych analizach.
4. Procedura analityczna
Opisywana dalej procedura badawcza została wypracowana przez autora dla celu predykcji
rezygnacji klientów, a takŜe poznania reguł dot. cech i zachowań klientów w kontekście tego
zjawiska. Jej wstępny zarys przedstawiono wcześniej m.in. w [14]. NaleŜy zaznaczyć, Ŝe
proponowana procedura, w zgodzie z załoŜeniami popularnej metodologii CRISP-DM [ang.
Cross-Industry Standard Process for Data Mining], pozwala na interwencję analityka na kaŜdym z
etapów, a takŜe powrót do faz wcześniejszych, tak aby uzyskać jak najlepsze wyniki.
Co waŜne, w opisywanej procedurze autor zakłada wykorzystanie danych z n okresów ti (i={n+1,..., 0}): ostatniego okresu poddawanego analizie (t0), ale takŜe – dodatkowo – okresów
wcześniejszych (t-1, t-2 itd.), róŜnicując ich wpływ na tworzony regułowy model.
Etapy tej procedury prezentują się następująco:
1. Określenie załoŜeń i przygotowanie danych.
2. Przeglądowa analiza danych.
3. Segmentacja klientów.
4. Analiza korelacji.
5. Badanie współliniowości.
6. Regresja logistyczna z metodą wyboru krokowego.
7. Odkrywanie reguł z uwzględnieniem uwarunkowań czasowych.
2 Autorowi wydaje się, Ŝe dwa ostatnie określenia nie są jednak najbardziej trafne, gdyŜ mogą sugerować zwykłe pobieranie danych z bazy, a nie ich twórczą analizę.
118
Piotr Sulikowski, Ryszard Budziński
Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji
Na początku pierwszego etapu naleŜy przede wszystkim ustalić, jaki dokładnie rodzaj
rezygnacji podlegać będzie analizom i jak definiowane będzie zdarzenie odejścia. Ponadto trzeba
zdecydować, co będzie jednostką analiz – czy będzie to pojedyncza karta SIM czy teŜ kaŜdy
klient, który to moŜe mieć więcej aktywnych kart i telefonów. MoŜna na przykład przyjąć, Ŝe
analizowane będą karty SIM aktywne na początku okresu i na podstawie statusu ich aktywności na
koniec badanego okresu wartość zmiennej zaleŜnej przyjmować będzie wartość 0 (gdy karta nie
pozostaje aktywna, czyli klient rezygnuje) lub 1 (w przeciwnym wypadku).
Zakłada się, Ŝe badane są przynajmniej 2 kolejne równe co długości okresy z przeszłości (czyli
t0, t-1), poprzedzające pewien określony moment czasu. Ze względu na charakter analizowanego
zjawiska wydaje się logiczne, Ŝe zachowania klientów w ostatnim okresie (t0) powinny być
najbardziej istotne dla odkrywania reguł, które rządzą churnem i wykrywania zmiennych z nim
powiązanych. W związku z tym przyjmuje się, Ŝe okres t0 ma zatem charakter priorytetowy i w
pewnym sensie nadrzędny w stosunku do wszystkich okresów wcześniejszych. Ze względu m.in. na
cykl zmian ofertowych w sieciach komórkowych, proponuje się rozpatrywanie okresów
półrocznych lub trzymiesięcznych.
W ramach kaŜdego z analizowanych okresów ti uwzględniana będzie odpowiednia liczba
miesięcznych okresów rozliczeniowych (billingowych). Jeden z nich uznawany jest za miesiąc
bazowy, względem którego prowadzone są pewne obliczenia dynamiki itp., i po którym dla danego
klienta nie uwzględnia się juŜ kolejnych miesięcy. Dla klientów nierezygnujących jako miesiąc
bazowy moŜna przyjmować ostatni z miesięcy kaŜdego z analizowanych okresów. Dla klientów
rezygnujących lepiej jednak przyjmować miesiąc wcześniejszy, tzn. taki, w którym proces
decyzyjny klienta dot. odejścia jeszcze się nie zakończył. NaleŜy uwzględnić takŜe pewne
uwarunkowania techniczne operatora, gdyŜ często zdarza się, Ŝe po odejściu klienta przez pewien
czas, np. 2 miesiące, figuruje on jako obiekt aktywny w systemie billingowym. Taką sytuację
naleŜałoby zidentyfikować, aby właściwie określić bazowy miesiąc rozliczeniowy. Z drugiej strony
oczywiście trzeba uwaŜać, aby nie sięgać zbyt daleko wstecz dla danego okresu ti, gdyŜ moŜna
natrafić na czas kiedy klient nie myślał jeszcze o rezygnacji. Przydatna jest tu oczywiście pewna
wiedza dziedzinowa.
Na tym etapie poza tym warto popracować nad dobrym zrozumieniem danych źródłowych
i ich reprezentacją docelową. Z tego względu bardzo często jest to etap najbardziej pracoi czasochłonny; wymaga duŜej wiedzy dot. zarówno modelowania, jak i wiedzy dziedzinowej.
W duŜej mierze od właściwego przygotowania danych zaleŜeć moŜe ostateczna uŜyteczność
opracowywanego modelu.
Na kolejnym etapie procedury dokonuje się przeglądowej analizy danych, zwłaszcza dla
okresu uznawanego za priorytetowy, czyli t0. Dobrze jest np. dokładnie rozpoznać typy cech,
określanych przez zmienne w badanym zbiorze. W ramach przeglądowej analizy danych dobrze
jest dokonać syntetycznego opisu statystycznego badanej zbiorowości, przeanalizować rozkłady
empiryczne zmiennych, czy teŜ zwrócić uwagę na to, jakie ewentualne czynniki badanego zjawiska
nie zostały uwzględnione w posiadanym zbiorze danych.
W następnym kroku wskazana jest segmentacja klientów na tzw. grupy względnie jednorodne.
Trudno bowiem przyjąć, Ŝe identyczne reguły rządzą zachowaniami klientów np. abonamentowych
i bezabonamentowych, czy teŜ indywidualnych i biznesowych. Pewne względnie homogeniczne
grupy przez samych operatorów nawet traktowane są zazwyczaj w róŜny sposób, co wpisuje się
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
119
zresztą w popularną strategię tzw. działań zróŜnicowanych, określaną jako „tworzenie odrębnych
strategii marketingowych dostosowanych dla potrzeb i oczekiwań róŜnych grup klientów” [15].
RóŜnice między poszczególnymi grupami dotyczyć mogą takŜe zakresu zmiennych, jakimi opisać
moŜna klientów. JeŜeli analityk uzna to za celowe, moŜna pokusić się o jeszcze dalej idącą
segmentację, np. w oparciu o tzw. taksonomię rozmytą. Sugeruje się, aby następne etapy procedury
realizować osobno dla kaŜdej z grup.
Analiza korelacji przeprowadzana jest w kolejnym etapie. Stosuje się róŜnego rodzaju miary
korelacji. NaleŜy jednak pamiętać, Ŝe nie kaŜdą miarę da się zastosować dla kaŜdego typu
zmiennych. Dobrze teŜ, gdy wybrane współczynniki korelacji lub ich pochodne są między sobą
porównywalne, tak Ŝe moŜna próbować uszeregować potencjalne predyktory według ich wpływu
na zmienną zaleŜną. Warto stosować tzw. grupę miar typu PRE [ang. Proportion/Percentage
Reduction in Error], które są na poziomie ilorazowym, co pozwala podejmować próby
wnioskowania nt. względnej waŜności poszczególnych zmiennych objaśniających.
PoniewaŜ wstępny model badanego zjawiska tworzony będzie przy pomocy regresji
logistycznej, pewien problem stanowi współliniowość [ang. collinearity], która występuje, kiedy
moŜna zaobserwować silne związki liniowe pomiędzy zmiennymi objaśniającymi. Jeśli pewne
zmienne są silnie współliniowe, trudno uzyskać dobre oszacowanie ich wpływu na zmienną
objaśnianą. JeŜeli pewna zmienna objaśniająca będzie mocno powiązana z inną zmienną
objaśniającą, a nie będzie mocno związana ze zmienną zaleŜną, przyjmuje się, Ŝe wówczas jedna
z pary zmiennych niezaleŜnych będzie wyłączona z analizy regresji. Gdy jednak nie para
zmiennych jest silnie skorelowana, lecz w zaleŜności między sobą uwikłanych jest wiele
zmiennych, opisane podejście moŜe nie być wystarczające. Warto wówczas skorzystać
z odpowiednich statystyk diagnozujących tzw. wielowspółliniowość [ang. multicollinearity]:
tolerancji i czynnika inflacji wariancji VIF [ang. Variance Inflation Factor].
Do wstępnego modelowania badanego zjawiska na podstawie danych z okresu t0 proponuje się
zastosować metodę wielokrotnej binarnej regresji logistycznej, metody bardzo popularnej i chętnie
stosowanej w badaniach marketingowych. PoniewaŜ pod uwagę brane są obserwacje nt. róŜnych
klientów z tylko jednego okresu, moŜna przyjąć, Ŝe załoŜenie o niezaleŜności obserwacji jest tu
spełnione.
Na tym etapie procedury dokonuje się równieŜ wyboru zmiennych do końcowego modelu.
Mniejsza liczba zmiennych ułatwia badaczowi objęcie umysłem zaleŜności opisywanych przez
model. Trzeba takŜe pamiętać, Ŝe kaŜda kolejna zmienna w równaniu regresji powodować moŜe
wzrost oczekiwanych błędów predykcji. Do wyboru zmiennych do modelu proponuje się
wykorzystywać tzw. metodę wyboru krokowego stepwise z poziomem istotności dla wejścia
α=0,16 [16] i poziomem istotności dla wyjścia β=0,10. Ponadto wydaje się, Ŝe wskazane jest, aby
analityk dysponował odpowiednią wiedzą teoretyczną lub tą wynikającą z wcześniejszych
doświadczeń dot. analizowanego zjawiska. Dzięki temu mógłby korygować ewentualne wnioski
wynikające z samych danych, w tym listę uwzględnianych w końcowym modelu zmiennych.
W końcu generowany jest regułowy model badanego zjawiska uwzględniający i róŜnicujący
dane pochodzące z róŜnych okresów z przeszłości. Do odkrywania reguł metodą zbiorów
przybliŜonych proponuje się wykorzystywać próbę zrównowaŜoną, tj. o równej lub zbliŜonej
liczbie obiektów naleŜących do kaŜdej z dwóch klas zmiennej decyzyjnej, czyli klientów
pozostających i rezygnujących. Odpowiednio duŜe próby losowe powinny zostać wygenerowane
dla kaŜdego z okresów ti.
120
Piotr Sulikowski, Ryszard Budziński
Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji
Proponuje się uwzględniać tylko te zmienne objaśniające, które dobrano w poprzednich
etapach i bez konieczności dalszego redukowania zbioru atrybutów. Sugeruje się podział tabeli
informacyjnej dla okresu t0 w stosunku 2:1 na część uczącą (2m obiektów) i część testową (m
obiektów). Dodatkowo dla okresu t0 proponuje się spośród pozostałych obiektów w zbiorze
wylosować m przykładów o proporcjach przynaleŜności do poszczególnych konceptów
decyzyjnych odpowiadających rzeczywistości (próba nie zrównowaŜona). Dla wcześniejszych
okresów ti losuje się zrównowaŜone próby po 2m obiektów kaŜda.
Następnie zdyskretyzować naleŜy wartości zmiennych, chyba Ŝe analizowany zbiór jest juŜ
w pełni zdyskretyzowany, np. zawiera tylko zakodowane wartości lingwistyczne. Przyjmuje się, Ŝe
normy dyskretyzacji wyznaczane są na podstawie ostatniego okresu t0, a następnie aplikuje się je
dla okresów wcześniejszych. MoŜna zdecydować się na wybór kilku metod dyskretyzacji
i porównać, jakie efekty przynoszą dla badanego zbioru danych.
Ze względu na moŜliwe zmiany dzielące poszczególne okresy wydaje się, Ŝe naleŜy
róŜnicować wpływ danych z poszczególnych okresów ti na odkrywaną wiedzę regułową.
Realizacja tego postulatu w proponowanej metodzie odbywa się poprzez pośrednie wpływanie na
wsparcie odkrywanych reguł decyzyjnych. Przyjmuje się, Ŝe w analizowanym zbiorze obserwacje
z okresu poprzedniego mogą być łączone ze zwielokrotnionymi obserwacjami z okresów
następnych. Proces zwielokrotnienia autor nazywa dalej równieŜ klonowaniem. Kwestią istotną dla
wnioskowania jest tutaj ustalenie, jakie zmiany dzielą poszczególne okresy w stosunku do
nadrzędnego okresu t0. Wprowadza się współczynnik klonowania cc [z ang. cloning coefficient].
Dla kaŜdego z analizowanych okresów ti współczynnik cci ustalany jest przez eksperta
dziedzinowego na podstawie zmian dzielących okresy. Niech cci ∈ C (i={-n+1,..., 0}przy n
analizowanych okresów). W najprostszym przypadku, gdy analizie poddawane są tylko 2 okresy: t0
oraz t-1, ekspert określałby, o ile większy wpływ na generowane reguły miałyby mieć zachowania
klientów z ostatniego okresu w stosunku do okresu poprzedniego. Przykładowo, jeŜeli cc0 = 2,
a cc-1 = 1, wówczas dane z ostatniego okresu uwaŜane są za dwa razy bardziej istotne niŜ te
z okresu poprzedniego. Dla większej liczby badanych okresów ti ciąg wartości cci moŜe
odzwierciedlać zarówno liniowy jak i nieliniowy charakter zaleŜności między kolejnymi okresami.
Warto zauwaŜyć, Ŝe ekspert moŜe takŜe wyłączać wybrane okresy z analiz (np. ze względu na
zbyt duŜe zmiany, jakie je dzielą w stosunku do t0). Wówczas dla tych okresów ti określi
odpowiednie cci = 0. Po przygotowaniu końcowego zbioru dokonuje się indukcji reguł. Warto
następnie przeanalizować powstałe reguły pod kątem miar je opisujących, np. siły, pewności,
pokrycia itp. Dla analityka zainteresowanego zrozumieniem badanego zjawiska szczególnie cenne
mogą być reguły o największej sile. Warto teŜ rozwaŜać reguły nie w kategoriach
deterministycznych, lecz probabilistycznych, przybliŜonych, tzn. uwzględniać reguły nie do końca
pewne, ale pozwalające przyporządkować analizowane obiekty z większym prawdopodobieństwem
do jednej klasy niŜ innej.
5. Podsumowanie
Problem zjawiska rezygnacji jest niezwykle istotny dla funkcjonowania wielu firm.
Szczególne miejsce zajmują pośród nich operatorzy telefonii komórkowej. Umiejętność wskazania,
którzy klienci mogą planować np. przejście ze swoim numerem do operatora konkurencyjnego,
zadecydować moŜe o przewadze konkurencyjnej operatora. Skuteczna klasyfikacja pozwala na
przedsięwzięcie środków zaradczych, które mogą doprowadzić do utrzymania klienta, a co za tym
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
121
idzie zapewnić firmie trwałe zyski. Niewątpliwie jest to jedna z przyczyn, dla których
zainteresowanie metodami eksploracji danych i odkrywaniem wiedzy w biznesie nieustannie
rośnie.
Zaproponowana procedura pozwala na zautomatyzowany wybór predyktorów i bogatą
moŜliwą interpretację związków między nimi a zmienną objaśnianą. Uwzględnianie czasu pozwala
róŜnicować dane pochodzące z róŜnych okresów i w lepszy sposób czerpać z nich wiedzę niŜ
gdyby traktowane były one identycznie. Proponowane podejście uwzględniające dane z przeszłości
bardziej odległej niŜ okres t0 nabiera ponadto szczególnego znaczenia dla analiz, w których
dysponuje się przekrojowym zbiorem danych nt. pewnej stosunkowo niewielkiej liczby
przykładów, ale z wielu okresów z przeszłości. Wówczas ograniczanie się tylko do okresu
ostatniego moŜe nawet uniemoŜliwiać odkrycie reguł, zwłaszcza przy odpowiednio duŜej liczbie
atrybutów. Z drugiej strony jednakowe traktowanie danych z róŜnych okresów moŜe zupełnie nie
mieć sensu, gdyŜ ignorowałoby de facto pojęcie czasu i zmian, jakie w nim zachodzą. Co istotne,
proponowana metoda pozwala takŜe na interwencje eksperta i analityka niemal w kaŜdym
momencie.
Na zakończenie warto dodać, Ŝe metodę zastosowano do opracowania klasyfikacyjnego
modelu rezygnacji klientów abonamentowych dla jednego z operatorów komórkowych. Uzyskane
wyniki okazały się bardzo zadowalające. Ze względu na ograniczenie miejsca zostaną one
szczegółowo zaprezentowane w następnych planowanych publikacjach.
7. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
GSM World News – Statistics [online]. GSM World Association, 2008-02-06 [dostęp 21
maja
2008].
Dostępny
w
Internecie:
<
http://www.gsmworld.com
/news/statistics/index.shtml>.
T. Świderek: Aktywnych kart SIM jest o 7,5 mln mniej niŜ według GUS. W: „Gazeta
Prawna” [online]. 2008-04-07 [dostęp 21 maja 2008]. Dostępny w Internecie:
<http://biznes.gazetaprawna.pl/artykuly/12942,aktywnych_kart_sim_jest_o_7_5_mln_mni
ej_niz_wedlug_gus.html>.
Sulikowski P., Budziński R.: Zastosowanie teorii zbiorów przybliŜonych do definiowania
reguł zachowania się klientów operatora telefonii komórkowej. W: Drelichowski L. (red.):
Studia i materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, t. 4. Bydgoszcz:
PSZW, 2005, s. 193- 204.
Strouse K.G.: Customer-Centered: Telecommunications Services Marketing. Norwood,
MA: Artech House, 2004.
Dyché J.: CRM. Relacje z klientami. Gliwice: HELION, 2002.
Laboratory of Intelligent Decision Support Systems of the Poznan University of
Technology: ROSE2 2.2 (build 25.02.2004) [online]. Poznań: Politechnika Poznańska,
2004 [dostęp 10 lutego
2008]. Dostępny w Internecie: <http://wwwidss.cs.put.poznan.pl/site/rose.html>.
Langford-Wood N., Salter B.: CRM in a week. London: Hodder & Stoughton, 2002.
Rudawska E.: Lojalność klientów. Warszawa: Polskie Wydawnictwo Ekonomiczne, 2005.
Sulikowski P.: Zastosowanie teorii zbiorów przybliŜonych w analizie lojalności jako
element systemu zarządzania relacjami z klientami (CRM). W: Kiełtyka L. (red.):
122
Piotr Sulikowski, Ryszard Budziński
Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie zjawiska rezygnacji
10.
11.
12.
13.
14.
15.
16.
Multimedia w biznesie i edukacji. Białystok: Fundacja Współczesne Zarządzanie, 2005,
t.II, s. 60-66.
Todman Ch.: Projektowanie hurtowni danych. Zarządzanie kontaktami z klientami
(CRM). Warszawa: Wydawnictwa Naukowo-Techniczne, 2003.
The Gartner Glossary of Information Technology and Acronyms and Terms [online].
[Stamford, CT]: Gartner Inc., 2004 [dostęp: 10 maja 2008]. Dostępny w Internecie:
<http://www.gartner.com/6_help/glossary/Gartner_IT_Glossary.pdf>.
Pawlak Z.: Rough set theory and its applications. „Journal of Telecommunications and
Information Technology” 2002, Nr 3, s. 7-10.
Budziński R.: Komputerowy system przetwarzania danych ekonomiczno-finansowych w
przedsiębiorstwie. Warszawa-Szczecin: Wydawnictwo Naukowe Uniwersytetu
Szczecińskiego, 2000, Seria Badania Systemowe, t.24, Instytut Badań Systemowych
PAN.
Sulikowski P.: Mobile Operator Customer Classification in Churn Analysis. In:
Proceedings of the SAS® Global Forum 2008 Conference, 16-19.03.2008, San Antonio,
Texas. SAS Institute Inc., Cary, NC, 2008, Paper 344-2008.
Drelichowski L.: Elementy teorii i praktyki zarządzania z technikami informacyjnymi
w przedsiębiorstwie. Bydgoszcz: Wydawnictwa Uczelniane Akademii TechnicznoRolniczej, 2000.
Shtatland E.S., Kleinman K., Cain E.M.: Stepwise Methods in Using SAS® PROC
LOGISTIC and SAS® Enterprise Miner™ for Prediction. In: Proceedings of the 28th
Annual SAS Users Group International Conference, Seattle, WA, March 30 – April 2,
2003. Cary, NC: SAS Institute Inc, 2003, Paper 258-28.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
MOBILE OPERATOR CUSTOMER CLASSIFICATION METHOD
IN CHURN ANALYSIS
Summary
Customer churn is a grave problem for all mobile operators. Early identification of potential churners could help retain them in the operator’s network. A multistage research procedure is proposed. It allows the identification of significant
churn factors and then the establishing of a classification model of the phenomenon
for each customer segment. The method outlined in the paper relies on both qualitative and quantitative data as well as takes into account the element of time, which
characterises data from different periods.
Keywords: data mining, rough sets, churn, CRM, mobile telephony
Piotr Sulikowski
Katedra Systemów Informatycznych Zarządzania
Instytut Systemów Informatycznych
Ryszard Budziński
Dyrektor Instytutu Systemów Informatycznych
Wydział Informatyki Politechniki Szczecińskiej
Szczecin, ul. śołnierska 49
http://www.wi.ps.pl
e-mail: [email protected]
e-mail: [email protected]
http://www.wi.ps.pl
123
124
Jarosław Wątróbski, Monika Stolarska
Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych
JAROSŁAW WĄTRÓBSKI,
MONIKA STOLARSKA
Politechnika Szczecińska
MODEL OCENY JAKOŚCI UśYTKOWEJ SYSTEMÓW KLASY CRM
W ORGANIZACJACH WIRTUALNYCH
Streszczenie
W artykule przedstawiono autorski modelu oceny jakości uŜytkowej systemów
CRM. W kolejności dokonano analizy kryteriów merytorycznych warunkujących
funkcjonowanie systemów w organizacji wirtualnej, przedstawiono załoŜenia metodyczne modelu oceny oraz przedstawiono wyniki przeprowadzonych serii eksperymentów symulacyjnych. Całość kończą wnioski przeprowadzonych badań.
Słowa kluczowe: zarządzanie relacjami z klientami, CRM, organizacja wirtualna, ocena jakości
uŜytkowej, metoda AHP, wielokryterialne wspomaganie decyzji
1. Wprowadzenie
Orientacja na klienta jest podejściem charakterystycznym dla większości współczesnych
przedsiębiorstw. W organizacji wirtualnej nabiera jednak szczególnego znaczenia, poniewaŜ jest
ona tworzona okazjonalnie, w odpowiedzi na potrzeby konkretnego klienta, w konkretnym czasie
i ma na celu realizację z góry ustalonych zadań. Taka koncepcja elastycznego, zmiennego
przedsiębiorstwa zapewnia rozwój i podniesienie efektywności działań. Dodatkowymi korzyściami
są redukcja kosztów i czasu realizacji zamówień, zmniejszenie ryzyka oraz zapewnienie
moŜliwości działalności na rynku globalnym. Sytuacyjny i chwilowy dobór partnerów w takich
organizacjach gwarantuje pracę w zespole liderów, a co za tym idzie wysoką jakość usług
i towarów [1,2,3,4].
Zarządzanie relacjami z klientami odgrywa kluczową rolę w funkcjonowaniu organizacji
wirtualnej. Z uwagi na środowisko w jakim ona funkcjonuje i cel jaki jest przed nią postawiony
powinna przykładać ogromną wagę do wyboru najlepszego dla siebie rozwiązania klasy CRM.
Internet tworzy nowe warunki i wymagania w zakresie zarządzania klientami. Wirtualny sposób
komunikacji wymaga innego podejścia do klienta organizacji wirtualnej [5]. Zanikanie barier
komunikacyjnych, większy profesjonalizm i wiedza pracowników stanowi o ogromnej przewadze
przedsiębiorstw wykorzystujących Sieć nad tradycyjnymi [6]. P.B.Seybold wskazuje, Ŝe
podstawowe czynniki warunkujące relacje z klientami w organizacji wirtualnej, to: dostarczenie
klientowi informacji o przedsiębiorstwie, zagwarantowanie obsługi i umoŜliwienie wzajemnych
kontaktów, obsługa elektroniczna transakcji oraz dbałość o indywidualne traktowanie klienta [7].
Współczesny rynek oferuje wiele rozwiązań klasy CRM. Rozwiązania proponowane przez
liczących się na rynku producentów mają zarówno mocne jak i słabe strony. Zaprojektowanie
systemu, który będzie charakteryzował się spójnością oprogramowania i dostępem do róŜnych
kanałów komunikacji, jest zadaniem trudnym do zrealizowania. Zachowanie skalowalności
systemów oraz potrzeba ich kastomizacji powoduje, Ŝe nie ma rozwiązań uniwersalnych. Wybór
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
125
systemu musi być ściśle dostosowany do indywidualnych potrzeb i moŜliwości konkretnego
przedsiębiorstwa [8].
Dostępne obecnie rozwiązania są niestety często drogie i mało wydajne. Pojawiają się błędy
podczas wdroŜeń, spowodowane brakiem kompetencji lub niedopasowaniem oprogramowania do
warunków i potrzeb przedsiębiorstwa. Problemem staje się równieŜ uzyskanie pełnych informacji o
dostępnych systemach. Mimo iŜ, w publikacjach, raportach, na konferencjach, targach handlowych
czy na seminariach dostawców prezentowane są rozwiązania CRM utrudnione jest pozyskanie
informacji do analizy przedwdroŜeniowej, która ułatwi podjęcie decyzji odnośnie wyboru systemu.
Zatrudnienie firmy analitycznej lub konsultingowej, która specjalizuje się w tematyce CRM
i pozwoli dostosować najlepsze rozwiązanie dla konkretnego przedsiębiorstwa wymaga od firmy
dodatkowych nakładów finansowych [9]. Podobnie wiele raportów dostępnych jest jedynie
komercyjnie za opłatą.
Wybór systemu informatycznego jest procesem złoŜonym i wieloetapowym. Ocena jakości
uŜytkowej systemów CRM wymaga uŜycia odpowiedniego aparatu badawczego. W literaturze
przedmiotu wskazuje się na moŜliwość wykorzystania metod wielokryterialnego wspomagania
decyzji w doborze systemu. Badania w tym zakresie prowadzone są przez M.J.Blin i A.Tsoukias
[10] oraz T.Hong i E.Kim [11]. Wskazując dostępne metody wielokryterialnego wspomagania
decyzji w zakresie oceny jakości uŜytkowej oprogramowania, za M.Sikorskim [12], naleŜy
wyróŜnić:
- „funkcję uŜyteczności”- wynika ona z projekcji oczekiwanych korzyści, opiera się na
porównywalności wariantów, umoŜliwia agregację preferencji w oparciu o modele kompensacyjne
(poprawa wartości jednego z kryteriów warunkuje pogorszenie innego) i niekompensacyjne.
Wśród nich jako jedną z odmian wskazuje się metodę AHP (AHP - ang. Analytic Hierarchy
Process) czyli „hierarchiczną analizy problemu”– decydent formułuje swoje preferencje przy
wyborze wariantu decyzyjnego, określa cele nadrzędne, główne i szczegółowe; metoda AHP
uwzględnia psychologiczne procesy wartościowania;
- „relację przewyŜszania” (ang.outranking) – analiza decyzyjna w sytuacjach
nieporównywalności lub większej liczby (do kilkunastu) wariantów; wynikiem jest graf
porządkujący warianty od najlepszego do najgorszego.
2. Proponowane rozwiązanie
Problem oceny oprogramowania jest szczególnie złoŜony z uwagi na ilość, róŜnorodność,
a czasem nawet nieporównywalność kryteriów jakie naleŜy rozwaŜyć. Podjęcie odpowiedniej
decyzji wymaga oparcia na odpowiednim aparacie badawczym. Metodologia wielokryterialnego
wspomagania decyzji (MCDA – ang. Multiple-Criteria Decision Aid) stosowana jest w sytuacjach
gdy rozwiązanie problemu, podjęcie ostatecznej i najlepszej decyzji zaleŜy od wielu kryteriów
[13].
Metodologia wielokryterialnego wspomagania decyzji wyróŜnia wiele metod i technik
stosowanych w zakresie modelowania preferencji i agregacji danych.
Do określenia struktury problemu decyzyjnego jak teŜ modelowania preferencji i eksploatacji
modelu przyjęto metodę AHP jako metodę badawczą. Metoda AHP [14,15,16] umoŜliwia analizę
oraz rozwiązanie złoŜonego problemu decyzyjnego jakim jest wybór systemu CRM [17].
Gwarantuje decydentowi znalezienie systemu moŜliwie najbardziej zbieŜnego z określonymi przez
niego oczekiwaniami. Decydent określa cele, warianty, kryteria, wskazuje jednoznacznie, które
126
Jarosław Wątróbski, Monika Stolarska
Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych
cechy jakościowe systemu mają dla niego największe znaczenie. Dzięki takiemu przejrzystemu
modelowi wspomagania decyzji moŜliwe jest szybkie wyeliminowanie tych rozwiązań, które nie
spełniają oczekiwań.
Na rynku CRM działa obecnie ponad 1000 dostawców systemów oferujących zaawansowane
technologicznie i kompleksowe rozwiązania. Wybór najlepszego systemu zarządzania relacjami
z klientami, dostosowanie rozwiązań informatycznych do potrzeb przedsiębiorstwa wirtualnego
i wypracowanie czytelnych rekomendacji decydenta wymaga zastosowania odpowiedniego aparatu
badawczego. Zastosowanie metody AHP do oceny jakości uŜytkowej oprogramowania do
zarządzania relacjami z klientami znajduje według A.Gospodarowicza [18] uzasadnienie z uwagi
na moŜliwość mierzenia jakości za pomocą skali opisanej liczbowo.
3. Model oceny jakości uŜytkowej systemów klasy CRM
Prace badawcze nad oceną jakości uŜytkowej rozwiązań CRM przeprowadzono
w następujących etapach. Dla potrzeb oceny wybrano 60 systemów i oceniono je według
hierarchicznego zbioru kryteriów (przedstawionych na Rysunku 1). Tak zdefiniowany układ
kryteriów merytorycznych podyktowany jest wyodrębnieniem jedynie kryteriów warunkujących
przydatność wymienionych systemów w organizacji wirtualnej. Pierwotny zbiór rozwiązań (60
systemów) został zredukowany do grupy 21 systemów. Proces ten podyktowany był koniecznością
pozostawienia dla potrzeb oceny i agregacji danych jedynie tych systemów dla których informacje
preferencyjne miały charakter pełny. W pozostałej grupie dokonano podziału na 3 podgrupy:
systemy ekonomiczne, skalowalne i z dostępną wersją internetową. KaŜda klasa systemów
oceniona została według tej samej grupy kryteriów globalnych i cząstkowych.
Kryteria wyboru systemu
CRM
K1
Funkcjonalność
K2
Docelowy
odbiorca
K 2.1
K 2.2
Dedykowana
wielkość firmy
Dedykowany
segment rynku
K3
Skalowalność
K 2.3
K4
Technologia
K 4.1
Wersja
branŜowa
Bazy danych
K5
Moduły
K 4.2
K 4.3
K 6.1
K 6.2
Wersja
internetowa
Urządzenia
mobilne
Customizacja
na Ŝyczenie
klienta
Customizacja
samodzielna
Rys. 1. Kryteria wyboru systemu CRM
Źródło: Opracowanie własne
K7
Integracja z systemami
zewnętrznymi
K6
Klient
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
127
Konstrukcję modelu oceny jakości uŜytkowej [19] systemów CRM dla organizacji wirtualnej,
zgodnie z załoŜeniami metody AHP, przeprowadzono w następujących etapach. Na wstępie
zidentyfikowano hierarchiczną rodzinę kryteriów wyboru systemów CRM (Rys. 1), kolejno
wyznaczono wektory priorytetów, wektory preferencji lokalnych kaŜdorazowo kontrolując wartość
współczynników losowych zgodności (CR). Taka organizacja eksperymentu badawczego
pozwoliła na wyeliminowanie nieprzechodniości i niespójności w opiniach ekspertów.
Wyznaczone w ten sposób zbiory wartości stanowiły podstawę do obliczenia wartości uŜyteczności
cząstkowych dla poszczególnych wariantów decyzyjnych jak i końcowych wartości funkcji
uŜyteczności ocenionych systemów klasy CRM. Tym samym otrzymano czytelny dla decydenta
ranking systemów. W kaŜdej grupie został jednoznacznie wskazany najlepszy i najgorszy wybór
systemu.
W grupie systemów ekonomicznych najlepszy wybór to system A4 czyli ITCube (ICsolutions
s.c.), najgorszy zaś to A6 czyli recentCRM (Connect Distribution Sp. z o.o). Koszt ITCube to
około 500 zł, recentCRM dostępny jest od 139 euro. Najlepszy wybór wśród systemów
skalowalnych to system A5 czyli PeopleSoft CRM (PeopleSoft Inc.), najgorszy - A6 czyli Cerem
(Janko Soft System). Najlepszym rozwiązaniem CRM pośród tych oferujących wersję internetową
okazał się system A6 czyli GoldMine Business Contact Manager (FrontRange Solutions),
najgorszym A2 czyli bs4-CRM (BS4 INTERNET).
Przeprowadzone kolejno badania eksperymentalne nad oceną systemów CRM stanowią próbę
odpowiedzi na pytanie: co stanie się w przypadku zmian wag kryteriów przez decydenta.
Przeprowadzone zostały one w dwóch etapach. Pierwszy etap modelowania obejmował zmiany
wartości uŜyteczności cząstkowej kryteriów lokalnych i ich wpływ na pierwotnie otrzymany
ranking systemów. Dla kaŜdego z kryteriów globalnych obserwowane były zmiany, w przypadku
gdy jedno z podkryteriów drugiego poziomu silnie dominowało pozostałe. Wyniki przedstawione
zostały w formie wykresów zawartych w tabelach 3.1, 3.2 oraz 3.3. W kolejnym etapie
modelowania uwzględniono wpływ zmian w zakresie kryteriów globalnych na rozkład
uŜyteczności cząstkowej oraz syntetyczną wartość uŜyteczności wariantów decyzyjnych. Decydent
określił, które kryteria są najwaŜniejsze dla organizacji wirtualnej. Na tej podstawie powstały
modele oceny, macierze oceny waŜności kryteriów i końcowe rankingi systemów.
128
Jarosław Wątróbski, Monika Stolarska
Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych
Tabela 3.1 Etapy modelowania systemów ekonomicznych – zmiany wartości uŜyteczności cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu
Podkryterium 1
Dedykowana wielkość firmy
Podkryterium 2
Dedykowany segment firmy
Podkryterium 3
Wersja branŜowa
1
1
1
0,4
0,4
0,4
0,3
0,3
7
0,3
7
7
2
2
2
0,2
0,2
0,2
0,1
0,1
0,1
K2
0,0
0,0
0,0
6
6
6
3
3
3
5
5
5
4
Bazy danych
Wersja internetowa
1
0,3
0,3
2
2
7
2
0,2
0,2
0,1
0,1
0,1
0,0
0,0
5
0,0
6
3
3
5
4
Kastomizacja na Ŝyczenie
4
6
3
5
4
Kastomizacja samodzielna
1
1
0,4
0,4
0,3
0,3
7
2
2
0,2
0,2
0,1
0,1
0,0
0,0
6
3
5
0,3
7
0,2
6
K6
1
0,4
0,4
7
7
Urządzenia mobilne
1
0,4
K4
4
4
4
6
3
5
4
Źródło: opracowanie własne
Przeprowadzona seria eksperymentów badawczych wskazuje, Ŝe zmiana preferencji
w obszarze kryteriów lokalnych wpływa znacząco na ranking systemów ekonomicznych.
W zaleŜności od kryterium lokalnego, które jest aktualnie najwaŜniejsze dla decydenta zmienia się
ranking systemów, bez względu na stopnie dominacji pozostałych kryteriów. Najlepszym wyborem
dla decydenta jest system A2, najgorszym - system A6.
129
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
Tabela 3.2 Etapy modelowania systemów skalowalnych – zmiany wartości uŜyteczności cząstkowej
w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu
Podkryterium 1
Dedykowana wielkość firmy
Podkryterium 2
Dedykowany segment firmy
1
1
0,5
0,4
0,3
0,2
0,1
0,0
7
K2
5
0,5
0,4
0,3
0,2
0,1
0,0
6
2
0,2
0,1
0,0
6
3
5
4
Kastomizacja samodzielna
1
3
4
0,5
0,4
0,3
0,2
0,1
0,0
7
2
6
5
0,4
0,3
7
4
1
0,5
0,4
0,3
0,2
0,1
0,0
K6
2
5
Kastomizacja na Ŝyczenie
7
1
0,5
3
4
4
Urządzenia mobilne
6
3
5
5
0,5
0,4
0,3
0,2
0,1
0,0
7
3
4
1
2
2
6
Wersja internetowa
1
0,5
0,4
0,3
0,2
0,1
0,0
7
3
4
Bazy danych
K4
2
6
3
5
1
0,5
0,4
0,3
0,2
0,1
0,0
7
2
6
7
Podkryterium 3
Wersja branŜowa
2
6
3
5
4
Źródło: opracowanie własne
Przeprowadzone badania wskazują jednoznacznie, Ŝe zmiana preferencji w obszarze kryteriów
lokalnych nie wpływa na ranking w grupie systemów skalowalnych. Bez względu na kryterium
lokalne, które jest aktualnie najwaŜniejsze dla decydenta ranking systemów nie zmienia się.
130
Jarosław Wątróbski, Monika Stolarska
Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych
Tabela 3.3 Etapy modelowania systemów z wersją internetową – zmiany wartości uŜyteczności
cząstkowej w zaleŜności od zmian wektora priorytetów dla podkryteriów drugiego poziomu.
Podkryterium 1
Dedykowana wielkość firmy
Podkryterium 2
Dedykowany segment firmy
Podkryterium 3
Wersja branŜowa
1
1
0,4
0,4
0,3
0,3
1
0,4
7
K2
7
2
2
0,2
0,2
0,1
0,1
0,0
0,0
3
5
4
5
3
5
Wersja internetowa
4
Urządzenia mobilne
1
1
0,4
0,4
0,3
0,3
7
2
2
0,3
7
0,2
0,2
0,2
0,1
0,1
0,1
0,0
0,0
6
3
5
3
4
2
0,0
6
5
Kastomizacja na Ŝyczenie
4
6
3
5
4
Kastomizacja samodzielna
1
1
0,4
0,4
0,3
2
0,3
7
0,2
2
0,2
0,1
0,1
0,0
0,0
6
3
5
6
4
0,4
K6
0,0
3
1
7
0,1
6
Bazy danych
K4
2
0,2
6
7
0,3
7
4
6
3
5
4
Źródło: opracowanie własne
Zmiana preferencji w obszarze kryteriów lokalnych nie wpływa na ranking końcowy systemów
klasy CRM z wersją internetową.
Przeprowadzone badania modelowe pozwoliły w duŜym stopniu zbadać odporność pierwotnie
wybranego rankingu rozwiązań - systemów CRM dostosowanych dla organizacji wirtualnych.
W pierwszym etapie zmieniano wartości uŜyteczności cząstkowej kryteriów lokalnych i zbadano
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
131
ich wpływ na pierwotnie otrzymany ranking systemów. Dla kaŜdego z kryteriów globalnych (K2,
K4, K6) obserwowano zmiany, w przypadku gdy jedno z podkryteriów drugiego poziomu silnie
dominowało pozostałe.
W drugim etapie modelowania uwzględniono wpływ zmian w zakresie kryteriów globalnych
na rozkład uŜyteczności cząstkowej oraz syntetyczną wartość uŜyteczności wariantów
decyzyjnych. Decydent określił 3 grupy kryteriów najwaŜniejszych dla organizacji wirtualnej.
W pierwszym wypadku badano zmiany w rankingu systemów, gdy kryteriami dominującymi dla
decydenta były technologia (K4), moŜliwość samodzielnej modyfikacji systemu przez klienta (K6.1)
oraz skalowalność (K3). Następnie decydent za najwaŜniejsze wskazał moŜliwość integracji
z systemami zewnętrznymi (K7), moduły (K5) i funkcjonalność systemu (K1). W ostatnim
przypadku najwaŜniejszymi kryteriami były skalowalność (K3), funkcjonalność (K1) i dostępność
wersji branŜowej (K2.3). Na tej podstawie powstały nowe modele oceny, nowe macierze oceny
waŜności kryteriów i rankingi systemów. Kolejno wskazano, Ŝe zmiany wag kryteriów globalnych
i lokalnych mają istotny wpływ na wyniki rankingu systemów. W przypadku grup systemów
sklasyfikowanych jako ekonomiczne i posiadające wersję internetową zaobserwowano największe
róŜnice. Dla systemów ekonomicznych wykazano, Ŝe najlepszym wyborem jest A4 (ITCube) lub A2
(OKAY CRM), najgorszym A5 (Qmax) lub A6 (recentCRM). Dla drugiej grupy systemów
najlepszym rozwiązaniem jest system A5 (CRM Case Manager 3.0) lub A6 (VICOM TAKTKOS),
najgorszym A2 (bs4-CRM). W przypadku systemów skalowalnych zaobserwowano, Ŝe istnieją dwa
systemy, które bez względu na zmiany wag priorytetów decydenta silnie dominują pozostałe
systemy. Bezkonkurencyjnie najlepszym systemem w rankingu jest A5 (PeopleSoft CRM),
najniŜszą wartość w rankingu uzyskuje zaś system A6 (CeReM).
4. Uwagi końcowe
W artykule podjęto próbę konstrukcji modelu oceny jakości uŜytkowej systemów klasy CRM.
Przeprowadzone badania potwierdzają poprawność zastosowanego aparatu matematycznego.
Przeprowadzone eksperymenty symulacyjne wprowadzają dodatkowo do materiału badawczego
systemowe aspekty analizy odporności na zmiany preferencji w ustalonych rankingach rozwiązań,
jak równieŜ stanowią rzetelne wprowadzenie do pełnej analizy wraŜliwości zbioru rozwiązań.
PowyŜsze rozwaŜania pozwalają twierdzić zatem, Ŝe celowe jest zastosowanie metody AHP do
oceny jakości uŜytkowej oprogramowania do zarządzania relacjami z klientami.
W trakcie przeprowadzonych badań zaobserwowano, Ŝe istnieją moŜliwości ewolucji
proponowanego rozwiązania. Wśród niedostatków modelu wskazać naleŜy konieczność posiadania
pełnej informacji preferencyjnej (wszystkich szczegółowych ocen systemów CRM) czy
niemoŜliwość uwzględnienia grupowych opinii ekspertów. Wskazane problemy stanowią
jednocześnie wytyczne dla dalszych badań. W kolejności dalszych studiów wymagają:
- zastosowanie metody AHP w wersji rozmytej, niwelując tym samym niedostatek związany
z wspomaganiem decyzji w środowisku wielu ekspertów,
- uwzględnienie niedeterministycznej wersji metody AHP pozwalającej na realizację
eksperymentów w środowisku z brakującymi danymi.
132
Jarosław Wątróbski, Monika Stolarska
Model oceny jakości uŜytkowej systemów klasy CRM w organizacjach wirtualnych
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
Perechuda K.: Organizacja wirtualna, Ossolineum, Wrocław 1997.
W.M.Grudzewski i Hejduk I.K.: Przedsiębiorstwo przyszłości, Difin, 2001 r., s.164.
Gach D., Nowak O.: Firma wirtualna-model przyszłościowy, Przegląd Organizacji, 1997,
nr 12, s.23.
Grajewski P.: Organizacja procesowa, Polskie Wydawnictwo Ekonomiczne, Warszawa
2007, s.35.
Małachowski A.: Internet w zarządzaniu przedsiębiorstwem, Wydawnictwo Akademii
Ekonomicznej im.Oskara Langego we Wrocławiu, Wrocław 2003, s.136.
Dobiegała-Korona B., Doligalski T., Korona B.: Konkurowanie o klienta e-marketingiem,
Difin, Warszawa 2004, s.40-41.
Seybold P.B.: KLIENCI.com Jak stworzyć skuteczną strategię biznesową dla Internetu
i nie tylko, IFC PRESS, Kraków 2001, s.74.
Burnett K.: Relacje z kluczowymi klientami. Analiza i zarządzanie, Oficyna Ekonomiczna, Kraków 2002, s.292.
Dyche J.: CRM Relacje z klientami, Gliwice, Wydawnictwo Helion, 2002 , s.190-191.
Blin M.-J., Tsoukias A.: Evaluation of COTS using multicriteria methodology, in Proceedings of the 6th European Conference on Software Quality, 1999.
Hong T., Kim E.: The Selection of CRM Systems in Financial Institutes Using the Analytic Hierarchy Process, Proceedings of the 13th Asia Pacific Management Conference,
Melbourne, Australia, 2007, 296-302.
Sikorski M.: Zarządzanie jakością uŜytkową w przedsięwzięciach informatycznych, Wydawnictwo Politechniki Gdańskiej, Gdańsk 2000, s.28-30.
Blin M.-J., Tsoukias A.: Multicriteria Methodology Contribution to Software Quality
Evaluations, Springer Netherlands, Software Quality Journal, volume 9, number 2, June
2001.
Saaty T.L., The analytic hierarchy process: Planning, Priority Setting, Resource Allocation, Pittsburgh, PA RWS Publications, 1997.
Downarowicz O., Krause J., Sikorski M., Stachowski W.: Zastosowanie metody AHP do
oceny i sterowania poziomem bezpieczeństwa złoŜonego obiektu technicznego, Politechnika Gdańska, Gdańsk 2000.
Kwiesielewicz M., Analityczny hierarchiczny proces decyzyjny. Nierozmyte i rozmyte
porównanie parami, IBS PAN, Warszawa 2002.
Hong T., Kim E.: The Selection of CRM Systems in Financial Institutes Using the Analytic Hierarchy Process, Proceedings of the 13th Asia Pacific Management Conference,
Melbourne, Australia, 2007, 296-302.
Gospodarowicz A.: Metody analizy i oceny pakietów programowych, Wydawnictwo
Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, Wrocław 1997
Kobyliński A.: ISO/IEC 9126 – Analiza modelu jakości produktów programowych w:
Systemy Wspomagania Organizacji 2003, red. T. Porębska-Miąc, H. Sroka, Prace Naukowe AE w Katowicach, Katowice, 2003 r.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 16, 2008
CRM SYSTEMS EVALUATION MODEL IN VIRTUAL ORGANIZATIONS
Summary
The purpose of this paper is an attempt to apply the AHP method in evaluation
of CRM systems in virtual organizations. The article presents a recapitulation of research conducted hitherto on the evaluation of CRM systems. Respectively, the concept of multi-dimensional methods was presented and an evaluation model of the
functional quality of Customer Relationship Management systems applying the AHP
method was constructed. Conclusion table from the research conducted ends the
study.
Keywords: Customer Relationship Management, Analytic Hierarchy Process
Jarosław Wątróbski
Monika Stolarska
Instytut Systemów Informatycznych Zarządzania
Politechnika Szczecińska
Szczecin, ul. śołnierska 49
e-mail: [email protected]
e-mail: [email protected]
http://www.wi.ps.pl
133
134
Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski
A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF
COOPERATION FROM ANALYST
RYSZARD BUDZIŃSKI,
ZBIGNIEW PIOTROWSKI,
JAROSŁAW WĄTRÓBSKI
Politechnika Szczecińska
A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF COOPERATION FROM ANALYST
Summary
Cooperating between an analyst and a decision maker is difficult in situations
with dispersed sources of decision information. Furthermore, required cooperation
with an analyst makes automatic gathering of decision alternatives impossible. The
paper proposes building a software agent where the decision logic is extended with
selected functions of decision analysis. The suggested approach is based on decision
rules built from an organisation’s historic data about results of implementing previous decisions. Applying decision rules based on notation/terminology used in an organisation allows making decisions in dispersed environment where a decision
maker elaborates a description of a decision situation using the natural language.
The conclusions of the papers presents a SWOT analysis of applying the proposed
solution in enterprises.
Keywords: MCDA, decision aiding, software agents
1. Course of the decision process
Roy [1] defines decision aiding as taking actions according to the resultant influence of a Decision Maker’s (DM) value system, where the DM is a single person or a committee. The decision
process includes a set of activities grouped at four levels as follows:
1. determining criteria of identifying possible actions and the goal of decision making,
2. consequence analysis and modelling judgements,
3. identifying global preferences and techniques of judgements aggregation,
4. choosing a decision problematic and creating a recommendation.
Applying a formalised decision approach requires to align the structure of the description of
a decision situation made by a DM, to a form which fits to a chosen methodology. Adapting actions are performed as an analytical task, where an analyst moderates a dialog with a DM. An analyst uses his domain knowledge along with the technical knowledge about courses of the decision
process with various techniques. The dialog is lead in a direction which allows further building
a decision model according to the requirements of a selected process. The Source: based on [2]
presents a sample course of a decision process found in the literature.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
Fig. 1 The course of the decision process
Source: based on [2]
135
136
Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski
A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF
COOPERATION FROM ANALYST
2. Applying mobile agents in decision aiding
The boundary between the terms: „program” and „agent” is blurred. Various definitions of the
mentioned terms exist. Moreover, the same piece of software can be classified as an agent or a program, depending on a definition used. In the paper, the term agent refers to an “autonomous agent”
according to the definition from [3]:
An autonomous agent is a system situated within and a part of an environment that senses
that environment and acts on it, over time, in pursuit of its own agenda and so as to effect what it
senses in the future.”
While the design of the proposed solution was carried on, the definition of the agent’s autonomy was extended with mobility. In the remaining part of the paper, mobility is recognised as
a natural outcome of an agent’s autonomy which enables freedom of movement.
Using a mobile agent allows to aid decisions in situations where the analysis of decision alternatives is done in the same location as a data source. Such an approach is based on an assumption
that the client-server paradigm is replaced by a more efficient approach. All computations are done
in the location where data are stored. The advantage of such an approach is transmitting only results or performance values, in case of a decision agent. Hence, the load of transmission channels is
lower. Additional advantage of using an autonomous entity (with its own goals) is the ability of
independent searching and discovering data sources [4].
The paper [5] presents a decision aiding agent, which decomposes the decision process into
components. Moreover, a decision problem is divided into subproblems, which are assigned to
different agents. Namely it is a multi-agent system. The described solution for aiding decisions is
designed to solve a fixed structure of decision problems with varied input data. Decomposition of
a decision problem into specific task uses expert knowledge.
3. Issues of achieving mobility in decision aiding
Analysing a decision situation allows to isolate a spectrum of consequences, which is represented as a set of dimension of individual actions. Choosing an appropriate level of completeness
when creating a spectrum of consequences is an analytical task, which cannot be automated [1].
Analytic activities are done by a decision maker and an analyst cooperating as a team. A DM
elaborates his view on a decision situation, then an analyst adds his knowledge about formalisation
techniques which can be applied in a given context of a decision process.
Structuring the description of a decision situation requires not only the knowledge about a situation itself, but also about its environment and considered alternatives. Therefore, a dispersed
decision process, where formulating a problem is preceded by a time consuming process of gathering decision alternatives (a searching various physical data sources, acquiring proposals from business partners) requires involving an analyst in the process at least twice.
The outcome of an analyst’s assistance is a specification of informational requirements and rejecting criteria for decision alternatives. Formalised form of a decision problem allows to search
decision alternatives which meet minimal requirements for implementing them. Automating this
stage of the process is a very difficult task, due to the unstructured description of a problem presented by a DM. The difficulty is a result of the fact that usually a DM is not an expert in knowledge modelling.
Searching for decision alternatives can be a time dispersed activity. Time consuming nature of
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
137
the process is the result of gathering decision alternatives from various locations. Lack of ability to
estimate the time required to build a complete set of decision alternatives makes designing an efficient process difficult. Furthermore, this is a reason why an idle phase comes after identifying all
decision alternatives (and the decision process takes more time), where the process has to be suspended until consultation with an analyst is possible. Additional time of the decision process depends on an analyst’s availability, and can bring additional costs for a decision maker (cost of improving availability of an analyst by offering him additional remuneration).
The second task for an analyst is to use information provided by a DM together with descriptions of decision alternatives to choose the best multicriteria technique to transform gathered judgements into a preference system which allows to identify mutual relations between considered
alternatives. In the last phase of the process, the identified global preferences allow to create a recommendation according to a decision maker’s request (decision problematic).
4. Suggested expert system analysing a decision situation
An approach for building a software agent presented in [5] is based on expert knowledge about a particular decision situation, which makes applying the agent limited to situations covered by
the knowledge base. However, aiding decisions where there is no knowledge base, requires consultation with an analyst to build a decision model. Hence, the mobile approach in situations, where
the input set is not known a priori is limited. Inability to early determine all premises of a decision
situation makes consultation with an analyst inefficient.
As a solution addressing the issue introduced in the previous paragraph an expert system is
proposed. The novelty of the proposed system is analysing the meta-data layer of the description of
a decision situation. The task of analysing a situation was presented in the introduction of the paper. Such a task requires consultation with a decision maker, followed by synthesis: gathered opinions, input data of the process and experience of an expert (analyst). The model automating the
mentioned process is given on the Fig. 2.
138
Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski
A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF
COOPERATION FROM ANALYST
Fig. 2 The expert system analysing a decision situation
The analysis process presented on the Fig. 2. assumes using an expert system and an expert
knowledge base. The strength of such a system depends strongly on completeness of the knowledge base. The proposed expert system evaluates a given decision situation based on the description provided by a DM and it considers decision aiding methods (multicriteria methods) which are
included in a set of methods implemented in the agent’s code. The agent’s work requires transferring its code to multiple hosts in order to search for decision alternatives which fulfil DM’s requirements (potential alternatives). Descriptions of decision alternatives as well as characteristics
of data sources consist partially of meta data of the process. The complete definition of a problem
along with the meta-description of the context of a decision situation are used by the agent for in
reasoning. The outcome of the reasoning process is a decision model built with DM’s data, gathered input data and the structure resulted from an activated subset of decision rules. Afterwards,
the decision model is solved and the results are used to make a recommendation for a DM.
5. Creating rules based on historical data
The phase of building the knowledge base requires participation of an analyst which goes beyond only aiding a DM. The assistance of an analyst needs to be extended to make use of provided
information not only according to the conventional meaning of the process. Hence, knowledge gain
from an analyst’s assistance should be utilised as a source of a process of supervised learning of
a software agent. Building a knowledge based is based on the description of a decision situation,
which consist of the two main dimensions:
• dimension of the definition of a decision situation (decision problem),
• dimension of the meta-description of a decision situation (environmental context).
Designing rules for the dimension of the definition of a decision situation requires using his-
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
139
torical knowledge from decisions made in the past. It is crucial to include the context of previous
decisions by tracking progress of the dialog between an analyst and a DM. The data gathered in
such interaction would allow to create rules which can be used when solving future decision situations in similar contexts.
Giving to much autonomy to an agent witch its own set of rules can arise a threat of making
unwanted decisions. Such a situation may happen when incorrect rules are activated. It may happen
because people don’t follow a one schema which can be encoded once. Moreover, changes in a structure of data gathered from sources of decision information may occur. Each change of the data
structure creates a requirement of rebuilding data gathering modules [6].
6. Concluding remarks
Filling the knowledge base gives an opportunity to use the meta-description of a decision
situation gathered during interaction with a DM. The dialog leading to define a decision problem
(user interface functionality, a program to set up an agent) still requires participation of an analyst
when structuring informal form of the description of a decision situation elaborated by a DM.
Nonetheless, the context information, in accordance to the structure of rules included into the
knowledge base, makes possible to initiate the reasoning process after obtaining a satisfactory
(complete) set of descriptions of decision alternatives. The completed reasoning process results in
choosing an approach suitable for aiding the decision in a given situation. Choosing a method
along with the aiding process itself are done during the autonomous phase of the agent’s operation.
Hence, only a single interaction with an analyst is required. Gathering decision alternatives descriptions, choosing an appropriate aiding technique, computations of the decision process resulting and finally drawing a recommendation are all automatic phases of the process.
Analysis of historic data requires identifying dependencies between data. As a method of
identifying dependencies, the frequent sets analysis, along with associations discovery using Apriori algorithm [7] were chosen. The APRIORI software [8], which was created and is developed at
the University of Magdeburg was used. The algorithm of the mentioned software is included in the
complex data-mining solution SPSS Clementine.
Sample frequent sets which were discovered when analysed chosen positions from scientific
literature are presented below. The numbers in parentheses are the support ratio and the absolute
number of occurencies of the set.
Sample frequent sets:
• Method_1 K5_0 K8_0 K6_0 K3_1 K4_1 (14.3/3)
• K7_1 K9_0 K5_0 K8_0 K3_1 K4_1 (19.0/4)
• K9_0 K5_0 K8_0 K3_1 K4_1 (28.6/6)
• K9_0 K5_0 K6_0 K3_1 K4_1 (28.6/6)
• Method_1 K7_1 K9_0 K8_0 K4_1 (14.3/3)
• Method_1 K7_1 K9_0 K6_0 K4_1 (14.3/3)
• Method_1 K5_0 K6_0 K3_1 (19.0/4)
• Method_1 K5_0 K6_0 K4_1 (28.6/6)
• K4_0 K3_1 (19.0/4)
• Method_3 K7_2 (14.3/3)
Rules discovered with the identified frequent sets are encoded in the “conclusion <- deter-
140
Ryszard Budziński, Zbigniew Piotrowski, Jarosław Wątróbski
A DECISION AIDING SOFTWARE AGENT UNDER CONDITION OF LACK OF
COOPERATION FROM ANALYST
minants” form and a set of sample decision rules is presented below.
Sample decision rules:
• Method_1 <- K7_1 K5_0 K8_0 K6_0 K4_1 (9.5/2, 66.7)
• Method_1 <- K7_1 K5_0 K6_0 K3_1 K4_1 (14.3/3, 75.0)
• Method_3 <- K2_0 K6_0 K4_1 (14.3/3, 60.0)
• Method_4 <- K9_1 K5_0 K8_0 (9.5/2, 66.7)
• Method_1 <- K3_0 (14.3/3, 60.0)
• Method_2 <- K8_1 K9_0 (9.5/2, 66.7)
In the analysis the following encoding schema was utilised: literals are described as “name_value”, in example: “Method_1” means that the value “1” is assigned to the “Method” variable, and the literal “K3_1” describes assigning the value “1” to the determinant K3.
The introduced approach eliminates the necessity of waiting for consultation of an analyst
after descriptions of decision alternatives are gathered. The lack of the need of synchronising the
decision process with an analyst’s schedule (the availability issue) results in time savings and cost
cuts of the process. The Table 1 presents an analysis of applying the proposed approach in an economical organisation (an enterprise). The results of the analysis is presented as the SWOT table.
Table 1 SWOT analysis of the agent for aiding decisions using context information
Strengths
• Lack of the necessity of waiting for a second interaction with an analyst
• Automated choice of a multicriteria method
allows to autonomous solving of a decision
model
• Possibility of performing calculations in a
data source
Opportunities
• Text-mining analysis of documents accompanying the decision process would allow
discovering decision alternatives from unstructured sources
• Dispersed information sources would gain
benefits from applying software agents
• Formalised structure of management information in enterprises (ISO norms, widely applied data warehouses) allow to use
existing information structures when defining decision situations (lower requirement
for an analyst’s assistance)
Weaknesses
• Reasoning is reliable only for situations
described in the knowledge base
• Assistance of an analyst is still required in
formalising the description of a decision situation
• Requires structured form of descriptions of
decision alternatives
Threats
• Data used to build the knowledge base may
not fit to real operations of an organisation
• Changes of the environment can depreciate
the knowledge base
The described approach allows to automate the task of choosing a multicriteria approach suitable for a given decision situation. Despite automating only a part of the decision process, such
a task gives significant benefits in the time and the cost of the decision process.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
141
7. Literature
1.
2.
3.
4.
5.
6.
7.
8.
B. Roy, Wielokryterialne wspomaganie decyzji, Wydawnictwa Naukowo-Techniczne,
Warszawa, 1990.
Y. Siskos, E. Grigoroudis and N. F. Matsatsinis, UTA Methods, Multiple Criteria Decision Analysis: State of the Art Surveys, 2005.
S. Franklin and A. Graesser, Is It an agent, or just a program?: A taxonomy for autonomous agents, Intelligent Agents III Agent Theories, Architectures, and Languages, 1997,
pp. 21-35.
P. Vu Anh and A. Karmouch, Mobile software agents: an overview, Communications
Magazine, IEEE, 36 (1998), pp. 26-37.
T. Bui and J. Lee, An agent-based framework for building decision support systems, Decision Support Systems, 25 (1999), pp. 225-237.
H. Chalupsky, Y. Gil, C. A. Knoblock, K. Lerman, J. Oh, D. V. Pynadath, T. A. Russ and
M. Tambe, Electric Elves: Applying Agent Technology to Support Human Organizations,
Proceedings of the Thirteenth Conference on Innovative Applications of Artificial Intelligence Conference, AAAI Press, 2001, pp. 51-58.
C. Borgelt and R. Kruse, Induction of association rules: Apriori implementation, Proceedings of the 15th Conference on Computational Statistics (2002), pp. 395?400-395?400.
http://www.borgelt.net/apriori.html.
Ryszard Budziński
Zbigniew Piotrowski
Jarosław Wątróbski
Instytut Systemów Informatycznych
Wydział Informatyki
Politechnika Szczecińska
71-210 Szczecin, ul. śołnierska 49
e-mail: [email protected]
e-mail: [email protected]
e-mail: [email protected]
142
Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski
MODULE FOR MANAGEMENT OF STUDENT PAYMENTS
ROBERT BUDZYŃSKI,
ARKADIUSZ ORŁOWSKI,
WALDEMAR KARWOWSKI
SGGW Warszawa
MODULE FOR MANAGEMENT OF STUDENT PAYMENTS
Summary
In the paper payments module of integrated software system, dedicated for the
Bogdan Jański Academy, is described. The main aim is to show how payments module of the system was designed and implemented using only open source tools, and
how module was integrated with commercial bank system. The first section describes
importance of settlement of students accounts at non public university. In the next
section general view of the Students Service System is presented with particular focus on module for management of student payments. Next technological issues are
presented, chosen software tools for system development are listed. Moreover integration with Trans-Collect bank system is described and general equipment requirements. The fourth section includes description of user interface. At the end
conclusions and remarks from system realization are presented.
Keywords: information technology, information system, PostgreSQL
1. Introduction
During the past decade scholarisation level has substantially grown in Poland. Students of non
public universities have to pay for their study. Payment management is relatively simple when the
number of students does not exceed a few hundreds what was exactly the case at the beginning of
Bogdan Janski Academy. All ambiguities related to individual payments could directly be explained by involved students during simple visit in any accounts department. As the Academy grew
up increasing the number of the external branches each branch had to posses its own account department. Such a situation was quite inconvenient generating additional costs. Now, thanks to
a new information system, all external branches of the Janski Academy make use of one central
accounts department. Students do not have to personally visit accounts department and do not have
to provide any additional information to obtain, e.g. a certificate for military service, because all
necessary information is already incorporated into the system. This dramatically shortened the time
spent by students on removing burocratical obstacles and save a lot of work of administrative staff
of the Academy. Before introducing the information system developed by one of the authors of the
present paper the Academy actually purchased another system called Socrates. However, for some
reasons it was not successfully implemented. We suspect that the reason for that was the failure of
training process. It seems to us that the subsequent success of the system we described in the present article could be attributed to the multiple-stage methodology. The system was built in stages.
After each phase any particular fragment of the system was implemented and discussed with the
most interested staff of the Academy. The concentration on the most important features of the system enabled us to spend enough time to thoroughly consult the involved staff and prospective users
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
143
of the system. Thanks to such an interaction we could achieve desirable look and content of windows with menu commands and space for inserting data. Simplicity of windows reduce the necessity of training the staff. Picking up the browser as the software on the client side (well known to
the average user) minimized time spent by professionals on helping users.
2. Students Service System
Student Service System is a client-sever internet application with centralized database. It supports everyday work of BJA Dean Offices in 6 cities (Warszawa, Chełm, Kraków, Opole, Zabrze
and Elbląg), but open architecture makes possible to deal with unlimited number of offices. Currently more than 8000 students data are managed trough the system, this number is limited only by
capacity of hard drives. Server is located in Warszawa - BJA headquarter, client software consists
of standard web browser, and as we mentioned earlier, access to the Internet is necessary. Whole
system is built using technologies with open specification and free license. There are Java language
together with servlets and Java Server Pages technology (JSP) used in Eclipse IDE. For presentation layer were used HTML, XML, XSLT, Apache Cocoon and XSP. As a database PostgreSQL
was utilized with SQL language and its procedural extension plpgsql. On the server side Linux operating system is installed and database together with Cocoon engine run on it. Such tools are connected with limited financial resources for implementation but they turned out to be a very good
and stable solution. Relational database supporting most popular standard – SQL, makes system
open for integration with other systems and for future developing. Any authorized person can connect with database for reading and writing, adding new tables is easy. Internet browser is the simplest and cheapest user interface software, and in practice do not need upgrading if new versions of
the system appear. Such solution with commonly used Internet connection, without dedicated private network and specialized client application, saves money but causes data security problem.
Stored data are personal data and cannot be disclosure, additionally there are information connected with finances, unauthorized access could destroy whole academy activity. To solve problem, system supports users roles with assigned access to limited parts of the system, and strong
data encoding are implemented. Authorization is performed with SSL protocol, all information
about users like: name, position, role and level of privileges are stored in the database; user login
and password are stored in encoded form. After user is logged on, new session is started which
supports user identification during work with the system. If user finishes activity she/he should log
out, but if after a defined time no action is performed log out is made automatically. Information
about time of logging and user computer are registered in log file. Similarly most important operations like entering student, adding payments etc. are registered too, and they are possible to review
only by administrator. We have to mention that students itself cannot use the system which is dedicated only to BJA staff, it is less comfortable for students but safety level is higher.
Now we present software and hardware specification of Student Service System which is currently in use in BJA. We start with software.
• Operating system: Linux Fedora Core 4.
• Database: PostgreSQL version 8.0.7
• Servlet container - application server for Cocoon: Jetty 4.2.23
• Application platform: Cocoon 2.1.9
• Programming language: Java version 1.5.0
All software necessary for the system is available on GNU license and can be use without
144
Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski
MODULE FOR MANAGEMENT OF STUDENT PAYMENTS
payment. Because Java, PostgreSQL and Jetty can be installed not only on Linux platform it is
possible to use other operation systems for example Microsoft Windows. Every software element
can be installed on separate machine if bigger computing power will be needed.
Current server configuration is the following (all mentioned parameters are recommended).
• Processor – two processors Opteron 246.
• Mainboard – TYAN Thunder K8WE
• RAM – two pieces of 1GB 400MHz dual channnel DDR Kingstone
• Hard drive - two 160GB Samsung SATAII (HD160JJ NCQ)
• Recorder - DVD RAM
• Power supplier - Termaltake W0049 PurePower 680W
Recommended configuration of client Workstation - any working computer with internet
browser (Firefox version 1.5.0 or above is recommended), Acrobat Reader (version 5.05) for viewing PDF files or MS Office package or OpenOffice – 2.0.
General parameters of Student Service System.
Number of system users: unlimited.
Quantity of data stored in the database: limited only by hard drive capacity.
Operation speed: almost all queries to the database in above configuration are performed in
time less than 1 second, in practice operation speed depends on internet transfer.
3. Modules of Students Service System
Student Service System offers set of functions important for effective Dean Office functionality. System has modularized architecture, it consists of many separate and relatively independent
modules, such as Dean Office management, Documents, Reports, Support of financial accounting
plan, Student data, Payments management, Student grants, Groups, Lecturers, Plans of study, and
Schedule. On the figure 1. is presented general view of modules and dependency between them.
Fig.1. System modules
Source: Own preparation
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
145
We shortly characterize particular modules with special focus on module functionality. System
was developing during three years, module after module. Dean office management is kind of supervising module which coordinates using of many other modules. First of them is student data
module, it deals with student identification number, personal data, address and information about
bank accounts. User using this module enters student data into system. Next we have Payments
management, it is very important and historically whole system started from them. BJA is a nonpublic university and strongly depends on students fees, need of managing and clearing student
accounts, lays at the beginning of application. At academy’s bank account, every student has its
own subaccount for fee payments. Payments management module is integrated with bank system,
and can stores dues and fees brings up to date every day. Module can export all student balances
into accounting program. This module makes available presentation of delayed fees, additionally
some corrections are possible to be done by hand. Following module is Student grants, it gives
possibility to register grant proposals and after confirmation generates documents with grant payments for accounting department. Module is integrated with banking program Multicash which
generates money transfers. Next group of modules are connected with didactic process. They were
added to the system relatively late, when dean office workers realized that computer system can
support their work not only with financial issues but can help in student groups management and
lectures planning. Groups module gives possibility to attach students into particular group, and
generates appropriate lists, protocols etc. Lecturers module consists professors and teaching assistants data together with connected information. Scheduling module enables planning courses timetable using defined courses template and is strictly connected with study plans. It makes possible
verification if number of hours filled in schedule corresponds to number of hours from study plan.
Plan of study includes a list of “study plan positions” that is a list of all courses with defined number of lectures and exercises hours for every semester together with additional information about
exams (it may happen that course is continued trough two semesters with one final exam). Finally
we have three independent modules. All reports are gathered in one module, there are defined several dozen of them, mainly for financial operations. Among others it includes reports for Government Statistical Office. Documents module makes possible for example generation of calls for
payment. Support for financial accounting has functions for checking realization of didactic tasks
by lecturers and many other functions.
4. Design and implementation of payments management module
As we mentioned in the previous section Payments management module is most important and
whole idea of the system started from it. Payments module is integrated with bank system interface
called Trans-Collect. Payments data are imported from bank system and stored in the database.
Process of checking fees is easy. System can trace automatically all student dues and fees then prepare reports and generate demands for delayed payments etc. Every document is prepared in
Adobe Reader, Open Office or Microsoft Office format depending on user need. It is easy to read
or print it. Payments management gives possibility to supervise fee payment process and export
financial data to accounting application.
Of course every module is strictly connected with a set of database tables. Tables connected
with payments are presented on the figure 2.
146
Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski
MODULE FOR MANAGEMENT OF STUDENT PAYMENTS
.
Fig. 2. Database tables connected with payments
We have to note that every student has its own subaccount in BJA bank accounts which includes number of student book registration and digits connected with year of first registration, department and type of fee. Student subaccount number is generated according to NRB standard, algorithm was adopted to needs of BJA.. Parts of students subaccount number are presented on the
figure 3. Such construction of subaccount number easies payment attachment to particular student,
because part of the number is student identifier.
Fig. 3. Method of student account generation
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
147
Generation process is implemented in plpgsql language and presented below:
CREATE FUNCTION generuj_konto_bankowe(character varying, character varying,
character varying, character varying) RETURNS character varying
AS $_$
DECLARE
numer varchar;
id_o varchar;
id_w varchar;
rok varchar;
indeks varchar;
typ varchar;
koncowka varchar;
konto varchar;
konto_ck varchar;
wynik int4;
a1 int8;
a2 int8;
a3 int8;
a4 int8;
ck int8;
BEGIN
konto='10600018';
typ='9';
koncowka='252100';
rok=$2;
indeks=$1;
select into id_o idc_oddzial from id_rachunku where oddzial=$3 and
wydzial=$4;
select into id_w idc_wydzial from id_rachunku where oddzial=$3 and
wydzial=$4;
konto_ck=id_o||id_w||rok||indeks||typ;
if length(konto_ck)<>15 then
return null;
end if;
wynik=0;
for i in 1..15 loop
if i%4=1 then wynik=wynik+int4(substring(konto_ck,i,1)); end if;
if i%4=2 then wynik=wynik+int4(substring(konto_ck,i,1))*3; end if;
if i%4=3 then wynik=wynik+int4(substring(konto_ck,i,1))*7; end if;
if i%4=0 then wynik=wynik+int4(substring(konto_ck,i,1))*9; end if;
end loop;
wynik=wynik%10;
numer=konto||konto_ck||wynik||koncowka;
a1=int8(substring(numer,1,10));
a2=int8(substring(numer,11,8));
a3=int8(substring(numer,19,8));
a4=int8(substring(numer,27,4));
ck=98-(((((((a1%97)*100000000+a2)%97)*100000000+a3)%97)*10000+a4)%97);
if ck<10 then
numer='0'||ck||' '||konto||' '||id_o||' '||id_w||rok||indeks||typ||wynik;
else
numer=ck||' '||konto||' '||id_o||' '||id_w||rok||indeks||typ||wynik;
end if;
return numer;
END;
$_$
LANGUAGE plpgsql;
Data supported trough Trans-Collect interface are imported as packages of all payments bo-
148
Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski
MODULE FOR MANAGEMENT OF STUDENT PAYMENTS
oked during previous day. To import file, dedicated user has to log on at bank web page using
standard browser, and downloads it. This process is separated from the System, only dedicated user
knows login and password for bank web page. Process is not done automatically from security reasons. Finally dedicated user imports file into Student Service System. Name of imported file is not
precisely defined, but is unique, and consists of 8 digits and txt extension. First two digits are connected with department, next six represent date in YYMMDD format. System stores names of all
previously downloaded files, it means that duplication is not allowed. Data received from bank are
in text format with comma separated values, first line includes information about total sum of all
payments and is used as verification checksum. Following lines contain individual payments. During importing mentioned checksum is verified. List of all payments files are available to review and
data can be exported in MS Excel format if user needs it.
5. User Interface for Payments Module
From the main window menu user can chose Payments module. After than user is moved to
Students payments window. On that window it is possible searching of particular student, according to family name, PESEL number, BJA identification number or group. If wanted student is
found, window with proper student information is displayed (see figure 4). User can generate proper document if needed or view plan of payments.
Fig.4. Student payments window
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
149
In the window current balance is presented. Student balance is generated automatically when
window is opened and it is one of the most important information for dean office staff. If student
for example wants to stamp identity card or receive any document, non negative balance is necessary. Lack of positive balance causes sending demand for payment or ultimately removing permanent debtor from BJA.. By default only financial operations occurred during current academic year
are displayed, but it is possible to display all historical financial data if needed. Of course if student
wants information in paper form, dean office staff can easily print list of operations.
System administrator generates every month debit list (figure 5.) because typically payments
are made monthly. I everything is correct process is performed automatically, staff activity is needed only if payments are made yearly, one time at the beginning of the semester or if some incompatibility appears. Debit lists are exported to accounting system after 20 day of each month..
Fig.5. Window for debit generation
6. Concluding remarks
The Students Service System is fully functional information system. Payments modules are
first part of the system and have been working for 3 years. Whole system is in use one year.
During that time, there were not bigger problems. More than 8000 students are registered in the
system. Every day 51 registered staff members use system to perform their tasks. Functionality of
the module has been changed several times to meet changing users expectations. As a result of
payments module success, other modules were developed around it. Although system works
perfectly there are still many new user demands. Module architecture is very helpful in regular
updating of the system.. Tools and technologies used for system implementation proved to be very
useful and flexible. Independent database makes data available to other applications through JDBC
and ODBC what gives chance for other programmers to integrate with other systems. To
150
Robert Budzyński, Arkadiusz Orłowski, Waldemar Karwowski
MODULE FOR MANAGEMENT OF STUDENT PAYMENTS
summarize, experience gained during the payments module of Students Service System project
shows, that open source tools with proper system design, are possible to respond to user
requirements.
7. Literature
1.
2.
3.
4.
5.
Budzyński R., Budowa i wdroŜenie Systemu Obsługi Studenta w Szkole WyŜszej im.
Bogdana Jańskiego. Master thesis (in Polish), Warszawa 2007.
Cocoon website: http://cocoon.apache.org/
Ellis, S. (2006). Fedora Core 5 Installation Guide. From http://docs.fedoraproject.org
/fedora-install-guide-en/fc5/
Fortis Bank Polska. (2007). IBAN. From http://www.fortisbank.com.pl/services/ planet/
PlanetFAQIBANPL.html
PostgreSQL Global Development Group. (2007). PL/pgSQL - SQL Procedural Language.
From http://www.postgresql.org/docs/7.4/interactive/plpgsql.html
Robert Budzyński
Arkadiusz Orłowski
Waldemar Karwowski
Katedra Informatyki
Wydział Zastosowań Informatyki i Matematyki
Szkoła Główna Gospodarstwa Wiejskiego
02-776 Warszawa, ul. Nowoursynowska 159
e-mail: [email protected]
e-mail: [email protected]
e-mail: [email protected]
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
151
ZBIGNIEW PIOTROWSKI,
JAROSŁAW WĄTRÓBSKI
Politechnika Szczecińska
CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT
OF A DECISION SITUATION
Summary
Decision situations are related to various aspects of operations in an organisation. Hence the content of information included in a decision maker’s expectations
goes beyond defining criteria and setting a decision problematic. Finding a suitable
approach is a task for an analyst who assists a decision maker in the decision process. The following paper synthesises premises used in analysing decision situations,
which result in a choice of a multicriteria method to perform calculations. The concluded guidelines can be used as a vocabulary of analytical knowledge which allows
to select a multicriteria method suitable for a given context of a decision situation.
Keywords: information technology, internet usage, cluster analysis
1. Decision situations in operations of an economic organisation
Managing an economic organisation is filled with reactive actions against external stimulae.
System theory defines an organisation as an open system, which goal is to reach stability in the
environment with destabilising influence of disrupting factors. Considering an organisation more
detailed than using the „black-box” approach defined by the system theory, a system interconnected subsystems and business processes emerges. Each process consists of communicating actions, information processing and decisions.
Decision situations exist in every business process and in almost every business procedure.
Significant importance to decisions should be given in interactive processes, based on interaction
with humans. The common trend of automating all economic operations (processes) covers only
simple and repetitive tasks. Whereas, the mentioned tasks include decision situations, in most cases
those decisions are well described and codified. Hence it is possible to encode them as a singlecriterion decision algorithm. Moreover, simple intra-procedural decisions are mostly binary
(yes/no) decisions.
A difficulty arises when a decision involves choosing or grading (ranking) a number of available alternatives. Such situations are encountered at the operational level, the tactical level as well
as at the strategic level. Moreover, those situations are difficult to codify and to encode into an algorithm. Modelling decision processes in the mentioned situations is done by creating general
guidelines for decisions and specifying desired outcomes of the implementation of a chosen decision. The decision process itself is a manual operation of a business process and a burden of carrying tasks included in the process is on a person responsible for executing a given instance of a
process.
152
Zbigniew Piotrowski, Jarosław Wątróbski
CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF
A DECISION SITUATION
2. Expressing a decision situation as a criteria definition and a decision problematic
A decision problem according to B. Roy’s definition [1] is a representation of an element of a
global decision. The literature distinguishes a number of types of decision alternatives. In the context of this paper, the essential division is the division on realistic alternatives (corresponding to a
project, which implementation is feasible) and on unrealistic alternatives (which can include contradictory goals and can be only used for the discussion). The difficulty when solving multicriteria
decision problems is the requirement of including alternatives’ judgements (choice alternatives)
from various points of view, which refers to multicriteria judgements [2].
According to the outline presented above, the definition of a decision problem consists of a
two-elements set presented below:
(C, Φ ) ,
where: C – a set of criteria, and Φ – a set of meta-data of a decision situation.
The C set describes relations between properties of decision alternatives and preference levels
of considered alternatives in respective aspects of consecutive elements of the description. The
meta-data set consists of decision maker’s expectations about a decision situation. Determining
decision criteria requires elaborating all properties of a desired post-implementation outcome of
making the considered decision. An analytic task which is given to an analyst (an analyst and a
decision makers states for roles and in practice can be assigned to a single person) is to reflect particular aspects of considered implementation on characteristics describing possible options (decision alternatives).
The fundamental element of the meta-data set Φ is choice of a problematic of a decision situation according to the division proposed in [1]:
a) problematic α – the choice problematic (finding a subset of the A set which includes only
the best solutions),
b) problematic β – the sorting problematic (assigning alternatives to defined categories),
c) problematic γ – the ordering problematic (constructing a ranking of alternatives in the set
A from the best one to the worst one).
Fig. 3 Reference problematics (respectively choice α, ranking γ, and assignment β) in multicriteria decision aiding
Source: based on [1]
Determining a decision problematic is a very important, however not the only one determinant
of a technique of carrying on the decision process. A problematic of a considered decision situation
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
153
depends on decision maker’s expectations for the process, as well as on characteristics of an analysed decision. The following sample contexts determining the decision problematic are described
in [4]: comparison (prioritise) of various technologies of energy production – problematic γ, choice
of an investment plan – problematic α, creating a set of projects – problematic β.
3. Participation of an analyst in determining meta-data of a decision situation
Available tools for computer aided decision support are directed on calculating preference levels of
considered decision alternatives using provided descriptions. Such an approach allows to automate
only a part of the decision process. Applying multicriteria methods to analyse a decision situation
requires making a deliberate choice of a method suitable for a given decision situation. The goal of
the mentioned choice is to find the multicriteria transformation F which fulfils:
F ( C , Φ ) → max u
where u is an indicator of a decision maker’s satisfaction measured by his preferences.
Choosing a multicriteria method suitable for a given decision problem is made by an analyst who
uses his knowledge about the environment of the problem and about characteristics of multicriteria
methods. Particularly, in the aggregation phase, the way of dealing with differences between attributes’ values is crucial. Nonetheless the impact of dispersion of those values on mutual preferences
between decision alternatives shall not be neglected.
The purpose of the exploitation phase is to make an representation of the global preference
which is the outcome of a decision maker’s expectations (meta-data) and mutual local preferences
between particular decision alternatives.
4. Premises of the reality considered when analysing a decision situation
The environment of a decision situation is a factor which is not included in the decision process (a
constant factor when compared to decision alternatives). The environment’s characteristics however, have impact on judgements of decision alternatives and on outlining the preferred alternatives. Particularly, factors connected with the completeness of the description of a decision situation included in a problem specification are the determinants of the mentioned completeness. An
additional factor, which is important when choosing a suitable decision making approach, is the
reality domain covering an analysed problem. Particular domains of decision situations are characterised by known dependencies among properties of actions and outcomes of their implementations.
While researching guidelines for choosing a multicriteria approach for a decision situation, the paper focused on explanations provided by the scientific literature. The positions [2, 3, 4, 5, 6, 7, 8,
9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19] describe solving decision situations using one of the following methods: PROMETHEE I/II, TOPSIS, ELECTRE III or AHP. The use of multicriteria
methods for considered problems and claims supporting choices made were analysed. The conclusions drawn after analysing the literature were used to determine the structure of contextual information, which was used to analyse impacts of particular factors.
According to the mentioned above, a set of contextual determinants was created as the K set presented below:
K = {K1 , K 2 , K 3 , K 4 , K 5 , K 6 , K 7 , K 8 , K 9 } ,
154
Zbigniew Piotrowski, Jarosław Wątróbski
CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF
A DECISION SITUATION
where:
K1 - Category of the subject of a decision, describes whether a decision is about an object, an action or a localisation (nominal variable)
K 2 - Discipline of a decision, describes whether a decision is described by technical, social or
economic determinants (nominal variable)
K 3 - Describes whether conflicting criteria exist in a decision situation (binary variable)
K 4 - Describes whether criteria covers the whole picture of a decision situation (binary variable)
K 5 - Describes a number of criteria (ordinal variable)
K 6 - Describes a number of alternatives (ordinal variable)
K 7 - Describes a decision maker’s awareness level of a decision situation (ordinal variable)
K8 - Describes the scale of an analysed decision (ordinal variable)
K 9 - The goal of a decision (nominal variable)
It is suggested to consolidate the K set into the meta-data set Ф of a decision situation as an integral part of the decision process. The next step of the impact analysis of the outlined determinants was to discover significances of determinants in choosing a multicriteria method suitable for
a given decision situation.
5. Impact of identifying environmental factors on the results of decision aiding
Analysing the impact of the factors mentioned above was done using decision trees. The SAS Enterprise Miner software was used, and decision trees were induced using functions implemented
into SAS Enterprise Miner. The entropy minimisation method was chosen. The following settings
were used for inducing decision trees:
• minimum number observations in a leaf: 2,
• observations required for a split search: 10,
• maximum number of branches from a node: 2 (binary tree),
• splitting rules saved in each node: 5.
The analysis was performed for two types of the output: choosing a multicriteria method and
choosing a decision aiding “school” (as a property dividing methods in two classes). The results of
the analysis for choosing a particular method are presented on the Fig. 4. The naming was aligned
to the format required by the LaTeX document preparation system, and was done as follows:
• $P_T$ - PROMETHEE I/II,
• $T_P$ - TOPSIS,
• $A_H$ - AHP,
• $E_3$ - ELECTRE III.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
155
Fig. 4 Decision tree for choosing a method based on the context of a decision situation
The correct classification rate for the decision tree choosing a multicriteria method equals 0,667.
The induction process isolated the following subset of determinants which are sufficient in the aspect of the analysed process:
K ' = {K 2 , K6 , K7 } .
It turned out that important factors of the context of a decision situation are: a decision discipline, a
number of alternatives, and a decision maker’s awareness level of a decision situation.
Choosing a school of decision aiding is presented on the decision tree on the Fig. 5. Value 1 de-
156
Zbigniew Piotrowski, Jarosław Wątróbski
CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF
A DECISION SITUATION
scribes an approach based on the European school (outranking approach) and the value 2 describes
the American school (utility value approach).
Fig. 5 Decision tree for choosing a decision aiding school based on a context
of a decision situation
The correct classification rate for the decision tree choosing a decision aiding school method
equals 0,714. The induction process isolated a single determinant which is sufficient in the aspect
of the analysed process. Therefore the selected subset contains a single element, which is presented
below:
K '' = { K 8 } .
It turned out that the scale of an analysed decision is the only significant factor.
6. Guidelines for improving reliability of the decision process
The paper proposes including the context of a decision situation in decision aiding tools. It was
suggested to build a tool which would allow to define a set of parameters characterising environmental factors of a decision situation. A piece of software supporting multicriteria decisions was
developed at the Szczecin University of Technology. The program allows to define not only criteria parameters, but also the meta-description of a decision situation. Users can define own properties (meta-properties) describing a decision situation., which are used to make an assessment of the
meta-information of a decision situation. A sample screenshot of a control defining an environmental factor in the program’s dictionary is presented on the Fig. 6.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
157
Fig. 6 Definition of an environmental factor
The defined set of parameters describes the context of a decision situation using a dictionary
of acceptable values. Two approaches are possible when using information gathered in the process.
The first approach is to collect learning information in order to build a set of decision rules. The
second approach is to use context information to activate rules in the knowledge base in order to
choose a multicriteria method which is the most suitable for a given decision situation.
6. Concluding remarks
The choice of a multicriteria method based on the context of a decision situation allows to apply
the same approach, which was used in the past with success. A chosen set of data gathered from
scientific literature was used to discover four significant factors which are sufficient to describe
suitability of a method to a decision situation. The isolated determinants are:
• the discipline of a decision,
• a number of alternatives,
• a decision maker’s awareness level of a decision situation,
158
Zbigniew Piotrowski, Jarosław Wątróbski
CHOOSING A MULTICRITERIA APPROACH BASED ON ANALYSIS OF A CONTEXT OF
A DECISION SITUATION
• the scale of an analysed decision.
The expected outcome of the program consists of marking methods suitable to solve a given decision situation. During the research it was observed that that the more appropriate approach is to
indicate a set of methods which is supported by a significant number of observations (above a minimal level of support), along with the level of its support.
The Fig. 7 shows the list of methods included in the software with the suitable method checked.
Fig. 7 Choosing a multicriteria method to solve a decision problem
It is crucial to notice that some methods don’t include the full set of input information, which can
be specified by a decision maker. For example the TOPSIS method doesn’t account veto, preference and indifference thresholds. Hence, the research shall be continued on including a set of input
information provided by a decision maker, in order to a better fir of a chosen multicriteria method
to a given problem. Furthermore an available set of multicriteria methods should include a complete set of methods applied in situations which nature is similar to situations which are common in
the organisation. Such an approach would allow making a choice of a method guided by real premises, not by limitations of available tools.
5. Literature
1.
2.
3.
4.
5.
6.
B. Roy, The outranking approach and the foundations of ELECTRE methods, Theory and
Decision, 31 (1991), pp. 49-73.
C. E. Escobar-Toledo, The Use of Multicriteria Decision Aid System in the Information
Technology (IT) Allocation Problem, European Journal of Operational Research,
5/2(2005).
C. Araz and I. Ozkarahan, Supplier evaluation and management system for strategic sourcing based on a new multicriteria sorting procedure, International Journal of Production
Economics, 106 (2007), pp. 585-606.
J. P. Brans and P. Vincke, A PREFERENCE RANKING ORGANISATION METHOD,
Management Science, 31 (1985), pp. 647-656.
J. P. Brans, P. Vincke and B. Mareschal, How to select and how to rank projects: The
PROMETHEE method, European Journal of Operational Research, 24 (1986), pp. 228238.
J.-J. Wang and D.-L. Yang, Using a hybrid multi-criteria decision aid method for information systems outsourcing, Computers & Operations Research, 34 (2007), pp. 3691-3700.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
159
M. Goumas and V. Lygerou, An extension of the PROMETHEE method for decision
making in fuzzy environment: Ranking of alternative energy exploitation projects, European Journal of Operational Research, 123 (2000), pp. 606-613.
A. Kangas, J. Kangas and J. Pykaelaeinen, Outranking Methods As Tools in Strategic
Natural Resources Planning, Silva Fennica, 35 (2001), pp. 215-227.
G. Ozerol and E. Karasakal, A Parallel between Regret Theory and Outranking Methods
for Multicriteria Decision Making Under Imprecise Information, Theory and Decision.
R. Rao and J. Davim, A decision-making framework model for material selection using a
combined multiple attribute decision-making method, The International Journal of Advanced Manufacturing Technology, 35 (2008), pp. 751-760.
D.-F. Li, Compromise ratio method for fuzzy multi-attribute group decision making, Applied Soft Computing, 7 (2007), pp. 807-817.
M.-T. Chu, J. Shyu, G.-H. Tzeng and R. Khosla, Comparison among three analytical methods for knowledge communities group-decision analysis, Expert Systems with Applications, 33 (2007), pp. 1011-1024.
C.-C. Wei, C.-F. Chien and M.-J. J. Wang, An AHP-based approach to ERP system selection, International Journal of Production Economics, 96 (2005), pp. 47-62.
C.-H. Cheng, K.-L. Yang and C.-L. Hwang, Evaluating attack helicopters by AHP based
on linguistic variable weight, European Journal of Operational Research, 116 (1999), pp.
423-435.
T. L. Saaty, How to make a decision: The analytic hierarchy process, European Journal of
Operational Research, 48 (1990), pp. 9-26.
T. L. Saaty, The Analytic Hierarchy and Analytic Network Processes for the Measurement of Intangible Criteria and for Decision-Making, Multiple Criteria Decision Analysis:
State of the Art Surveys, 2005.
M. r. Augusto, J. o. Lisboa, M. Yasin and J. R. Figueira, Benchmarking in a multiple criteria performance context: An application and a conceptual framework, European Journal
of Operational Research, 184 (2008), pp. 244-254.
J. Hokkanen and P. Salminen, ELECTRE III and IV Decision Aids in an Environmental
Problem, Journal of Multi-Criteria Decision Analysis, 6 (1997), pp. 215-226.
M. Augusto, J. Lisboa, M. Yasin and J. R. Figueira, Benchmarking in a multiple criteria
performance context: An application and a conceptual framework, European Journal of
Operational Research, 184 (2008), pp. 244-254.
Zbigniew Piotrowski
Jarosław Wątróbski
Instytut Systemów Informatycznych
Wydział Informatyki
Politechnika Szczecińska
71-210 Szczecin ul. śołnierska 49
e-mail: [email protected]
e-mail: [email protected]
160
Jacek Unold
GENERIC ANALYSIS OF AN E-COMMERCE FIELD
JACEK UNOLD
Uniwersytet Ekonomiczny we Wrocławiu
GENERIC ANALYSIS OF AN E-COMMERCE FIELD
Summary
Electronic commerce (EC) involves conducting transactions electronically.
There are many different categories of EC, including B2B, B2C, C2C, collaborative
commerce, etc. These different approaches are realized in different business models,
e.g., “name your price”, “affiliate marketing”, etc. There are numerous benefits of
EC to organizations, consumers, and society, which prove that EC is here to stay
and cannot be ignored. There are some limitations of EC, as well, but, as time
passes, they should diminish significantly.
Keywords: electronic commerce (EC), e-business modeling, transactions typology
1. Introduction
The world of business has been experiencing one of the most important and visible changes so
far. This is a reflection of the move to the Internet-based society. The major concern of many
companies today is how to transform themselves in order to take part in the digital economy, where
electronic business is the norm. Electronic commerce describes the manner in which transactions
tale place over networks, mostly the Internet.
This paper revisits the notion and basic characteristics of electronic commerce, and points to
the fact, that this new and dynamic phenomenon is the most recent and promising practical
application in the area of human-computer interaction.
2. Definition and basic perspectives of electronic commerce
Electronic commerce (EC) is a relatively new concept that describes the process of buying,
selling, or exchanging products, services, and information via computer networks, including the
Internet.
The term commerce is defined as describing transactions conducted between business partners,
so the term electronic commerce may be found to be fairly narrow. Thus, many use the term ebusiness, which refers to a broader definition of EC. E-business is not just buying and selling of
goods and services, but also servicing customers, collaborating with business partners, and
conducting electronic transactions within an organization. Usually, however, these two terms are
used interchangeably.
The form e-commerce can take depends on the degree of digitization of the product (service)
sold, the process, and the delivery agent (or intermediary). These components can be physical or
digital. Pure physical organizations are referred to as brick-and-mortar organizations, pure EC
organizations are referred to as virtual organizations. Click-and-mortar organizations conduct
some e-commerce activity, yet their primary business is done in the physical world.
EC can be defined from different perspectives (Schneider 2006; Turban et al. 2006):
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
1.
2.
3.
4.
5.
6.
161
A communications perspective. EC is the delivery of goods, services, information or
payments over computer networks or by any other electronic means.
A business process perspective. EC is the application of technology toward the automation of business transactions and work flow.
A service perspective. EC is a tool that addresses the desire of firms, consumers, and
management to cut service costs while improving the quality of goods and increasing the
speed of service delivery.
An online perspective. EC provides the capability of buying and selling products and information over the Internet and other online services.
A collaborations perspective. EC is a framework for inter- and intra-organizational collaboration.
A community perspective. EC provides a gathering place for community members, to
learn, transact, and collaborate.
3. Modeling e-commerce for business purposes
Electronic commerce enables the creation of new business models. A business model is a
method of doing business by which a company can generate revenue to sustain itself (Turban et al
2006, p. 6). There are many types of EC business models The following list includes some of the
most common or visible models (Timmers 2001; Applegate 2001).
Name your price. This model allows a buyer to set the price he is willing to pay for a specific
product or service. Customers may submit several bids before they get the product. It was
pioneered by Priceline.com, and most of Priceline.com’s products and services are travel-related.
Find the best price. A consumer specifies his needs and then the company locates the lowest
price for that service or product (e.g., hotwire.com).
Dynamic brokering. In this model, customers can specify requirements and these are
Webcasted to service providers in an automatic invitation to tender. Bids can be automatically
offered, amended, and considered, all without any additional input from the customers (e.g.,
GetThere.com).
Affiliate marketing. A marketing partner has an arrangement with a company to refer
customers to the company’s Web site so that a customer can purchase a service or a product. The
marketing partner receives a 3 to 15 percent commission on the purchase price. This is a virtual
commissioned sales force (Amazon.com has close to 500,000 affiliates).
Group purchasing. Discounts are usually available for quantity purchasing. In the concept of
electronic aggregation a third party finds the individuals or small, medium size enterprises
(SMEs), aggregates orders, and then negotiates for the best deal (e.g., aphs.com; etrana.com).
Electronic tendering systems. Large buyers usually make their purchases through a tendering
(bidding) system, which nowadays can be done online (e.g., gegxs.com).
Online auctions. It was pioneered by eBay.com, and now there are several hundred other
companies which conduct online auctions, including Amazon.com and Yahoo.com.
Customization and personalization. Although these are not new models, what is new is the
ability to quickly perform them at prices not much higher than their non-customized counterparts.
Electronic marketplaces and exchanges. There were electronic marketplaces before, but
they existed in isolated applications, like stock exchanges. Today there are thousands of them, and
162
Jacek Unold
GENERIC ANALYSIS OF AN E-COMMERCE FIELD
they introduce efficiencies to the marketplace. Of special interest are vertical marketplaces
(vertical portals, vortals), which concentrate on one industry (e.g., e-steel.com).
Supply chain improvers. The improvement of supply chain management is one of the main
contributions of EC in the world of business.
The initial analysis of the list above points to the main characteristics of business models for
electronic commerce:
• digitize as much as you can; eliminate paper and other physical transactions,
• digitize at the beginning of the transaction process,
• change the supply chain from a linear model to hub-based model,
• aggregate many business partners into one place,
• savings are in cost, cycle time, quality, and customer service (Turban et al. 2006, p.9).
4. Classification of the EC field
The EC field is a comprehensive one, and it involves many activities, organizational units, and
technologies. Successful EC implementation depends on five major areas: people, public policy,
marketing and advertisement, business partners, and support services. These basic components are
bonded by management (Shaw 1999).
The most common classification of EC is by the nature of transaction. The following types of
transactions are distinguished (Turban et al. 2006; Unold 2005):
• business-to-business (B2B), which is the most EC today;
• business-to-consumer (B2C), also called e-tailing,
• consumer-to-consumer (C2C), e.g., individuals selling residential property, cars, and so
on in classified ads,
• people-to-people (P2P), which is a special type of C2C, where people exchange CDs, videos, software etc. (e.g., napster.com),
• consumer-to-business (C2B), e.g., Priceline.com,
• intra-business (organizational) EC, including all internal organizational activities, usually
performed on intranets or corporate portals,
• business-to-employees (B2E), a subset of intra-business category, where the organization
delivers services, information, or products to individual employees,
• government-to-citizens (G2C) and to others,
• exchange-to-exchange (E2E), a formal system that connects exchanges,
• collaborative commerce (c-commerce), an application of inter-organizational information
systems (IOS) for electronic collaboration between business partners and between organizational employees,
• mobile commerce (m-commerce), electronic commerce in a wireless environment.
As an example of the phenomenal growth of the volume of transactions in cyberspace, in 2007
Canadian people spent 62.7 billion dollars online - 62 % in B2B and 32 to 38 % in B2C. This is 26
percent increase over the preceding year (Canadian 2008).
5. The benefits of EC
Many potential benefits of EC to organizations, individuals, and society, result from the global
nature of the technology, its interactive nature, the variety of possibilities for its use, the
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
163
resourcefulness and rapid growth of its supporting infrastructures, especially the Web. According
to Clinton and Gore (1997) the EC revolution is just as profound as the change that came with the
industrial revolution.
Turban et al. (2006) list some of the major benefits of EC to organizations. Electronic
commerce expands the marketplace to national and international markets. A company can easily,
quickly, and with minimal capital outlay, locate more customers, the best suppliers, and the best
business partners worldwide. For example, online retail powerhouse Amazon posted a strong first
quarter of earnings. For the quarter ending March 31, 2008, Amazon reported $4.13 billion in net
revenue, toward the high end of its own guidance and ahead of analysts' consensus of $4.08 billion.
Quarterly revenue was a 37 percent jump from the same period a year before (Corbin 2008).
EC decreases the cost of creating, processing, distributing, storing, and retrieving paper-based
information. By introducing an electronic procurement system, a company can cut purchasing
administrative costs by as much as 85 percent.
EC can minimize supply chain inefficiencies (excessive inventories or delivery delays). This
benefit is based on the concept of pull-type production, which begins when an order is placed.
The approach mentioned above allows for inexpensive customization of products and services
and provides a competitive advantage for a company (e.g., a pull-type processing applied
successfully by Dell Computer Corp.).
EC allows for the introduction of many innovative business models that provide strategic
advantages and increase profits.
EC allows for a high degree of specialization that is not economically feasible in the physical
world.
EC reduces the time between the outlay of capital and the receipt of products and services.
EC lowers telecommunications costs.
EC enables efficient e-procurement that can reduce administrative costs by 80 percent,
reducing purchasing prices by 5 to 15 percent, and reducing cycle time by more than 50 percent.
There are many other examples of savings. It costs a bank $1.08 to perform a simple teller
transaction at a branch. On the Web, the same transaction costs only $0.10. The cost of issuing an
airline ticket on the Web is $1, whereas with a physical system the transaction costs $8.
EC promotes better CRM and increases customer loyalty by enabling companies to interact
more closely with customers.
Turban et al. (2006) identify basic benefits of EC to consumers, as well. EC allows consumers
to perform transactions 24/7 and year round, from any location.
EC provides consumers with much more choices, and in some cases, especially with digitized
products, allows for quick delivery.
EC provides consumers with less expensive products and services by allowing them to shop in
many places and conduct quick comparisons.
They can locate relevant and detailed product information in seconds, rather than days or
weeks.
EC enables the participation in virtual auctions.
EC allows customers to interact with other customers in electronic communities, exchange
ideas, and compare experiences.
EC facilitates competition, which results in substantially lower prices.
Basic benefits to society, according to Turban et al. (2006), are also significant. More individu-
164
Jacek Unold
GENERIC ANALYSIS OF AN E-COMMERCE FIELD
als can work at home.
Some merchandise can be sold at lower prices, allowing less affluent people to buy more and
increase their standard of living.
People in less developed countries and rural areas have access to products and services that
otherwise are unavailable. Of special importance is the access to distant learning.
Public services can be delivered at a reduced cost and improved quality.
Other benefits include (What 2008):
• Instant product updates, including descriptions and pricing
• 24-hour store visibility to anyone with an Internet connection
• Large portals enable large product bases, manufacturers and prices
• Search utilities far surpasses the speed used to find products through catalogs
• Encourages competition between small and large online retailers
6. The limitations of EC
Major limitations of EC belong to two main groups: technical and nontechnical. Technical
limitations have many aspects (Turban et al. 2006). One of the issues is that system security,
reliability, standards, are still evolving. So are software development tools.
In many areas, telecommunications bandwidths are insufficient. Very often it is difficult to
integrate the Internet and EC software with some existing applications and databases.
Vendors may need special Web servers, network servers, and other infrastructure
developments. Some EC software might not fit with some hardware, or it may be incompatible with
certain operating systems or components.
Turban also identifies main nontechnical limitations of EC. Internet access is still expensive
and inconvenient for many potential customers. The cost of developing EC in-house can be very
high and mistakes made due to lack of experience may result in delays. As a discipline, EC is still
evolving and changing rapidly. EC does not have enough support services. Many legal issues are as
yet unresolved. As a result, many people are looking for EC to stabilize before they enter into it.
Customers think the issues of security and privacy are very important. At the same time,
customers do not trust an unknown, faceless seller, paperless transactions, and e-money. The EC
sector has a difficult task of convincing customers that online transactions are, in fact, very secure.
There are other psychological issues involved. Some customers like to touch items, so they
know exactly what they are buying. Some people fear that as EC reduces face-to-face social
interactions, there could be a breakdown in human relationships.
In many areas there is not enough critical mass for EC to be successful, there may be not
enough sellers and buyers for profitable EC operations in many areas.
7. Conclusions
The driving forces of EC are multidimensional. Market (economics), technological, and
societal pressures force organizations to respond to new business pressures. Traditional responses
may not be sufficient because of the magnitude of the pressures and the frequent changes involved.
Therefore, organizations must innovate and reengineer their operations. In many cases, EC is the
major facilitator of those organizational responses.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
165
Electronic commerce, which involves conducting transactions electronically, is the most recent
and cutting-edge application within the area of human-computer interaction. Electronic
marketplaces, called marketspaces, allow for the selling and buying of products electronically,
which can be realized in many different modes, B2B, B2C, C2C, etc. The applications of EC, and
there are many of them, are based on infrastructures and supported by people, public policies,
technical standards, advertising, logistics, and business partners – all bonded by proper
management.
There are still some limitations of EC, and they can be categorized as technological and nontechnological. As time passes, these barriers should have less and less meaning, as capacity,
security, accessibility continue to improve through technological innovations. On the other hand,
there are numerous benefits of EC to organizations, consumers, and society. Because these benefits
are substantial, it proves that EC is here to stay and cannot be ignored.
8. Literature
1.
Applegate L., M., E-business Models, in: Information Technology for the Future Enterprise, ed. G. W. Dickson and G. DeSanctis, Prentice Hall, Upper Saddle River, 2001.
2. Canadian e-commerce: bashful steps ahead (2008). [In:] E-Commerce Journal,
www.ecommerce-journal.com/news/canadian_e_commerce_bashful_steps_ahead,
retrieved May 28, 2008.
3. Clinton W.,J., Gore A, A Framework for Global Electronic Commerce,
iitf.nist.gov/eleccomm/ecomm.htm, 1997.
4. Corbin K.: Amazon Tops Expectations on Soaring Sales. In: InternetNews.Com.
http://www.internetnews.com/bus-news/article.php/3742706/Amazon+Tops+
Expectations +on+Soaring+Sales.htm Retrieved May 28, 2008..
5. Schneider G., Electronic Commerce, Course Technology, 2006.
6. Schaw M., J., Electronic Commerce: Review of Critical Research Issues, “Information
Systems Frontiers” no. 1, 1999.
7. Timmers P., Electronic Commerce, Wiley, New York, 2001
8. Turban E., King D., Lee J., Warkentin M., Chung H.M., Electronic Commerce: A Managerial Perspective. Prentice Hall, 2006.
9. Unold J., Marketing Information Systems (in Polish). The Wroclaw University of Economics Press, Wroclaw, 2005.
10. What are the benefits and limitations of E-commerce? [In:] Aplus.net Knowledge Base:
http://www.apluskb.com/scripts/What_are_the_Benefits_and_answer709.html, Retrieved
May 28, 2008.
Jacek Unold
Uniwersytet Ekonomiczny
50-345 Wroclaw ul. Komandorska 118/120
[email protected]
166
Jacek Winiarski
COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS
IN IT PROJECTS
JACEK WINIARSKI
Uniwersytet Gdański
COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS
IN IT PROJECTS
Summary
The paper is targeted at the comparative analysis of practical applications of
risk assessment methods of projects in IT industry. The study was based on an IT
Project comprising 349 activities, wherein 8 were selected which were the most
likely not to comply with the scheduled time, scope and budget resources. Next, four
techniques were described and apply to provide the assessment of the same part of
the project: 2x2 Matrix Method, Probability and Effects Matrix Method, Heeg’s
Method, Failure Mode Effects Analysis. The obtained results were discussed and on
the basis thereof, conclusion were formulated to select the method depending on the
specificity of an IT Project.
Keywords: IT projects, risk management, risk assessment techniques
1. Introduction
IT projects implementation as described in software development methodologies is usually distributed into several stages. It begins with requirements specifications and ends with operation and
maintenance of the implemented product [1]. Throughout the course of software development cycle the events affecting its course may take place. In practice, they are described by probability of
their occurrence and the potential scope of damage they may create in the implemented project.
The product of these quantities is defined as the risk measure [3]. It is used for forecasting negative
impacts on the course of the implemented individual activities within the task or the entire project.
Project management is the approach oriented at the accomplishment of the set objectives within the
assumed time and budget [4]. It is an art of maintaining the project failure risk at a possible lowest
level throughout the entire project cycle. Risk management is one of many elements of the project
management process. In principle, it is distributed into the following stages [2]: identification and
distribution of risk sources, identification of exposed project tasks, risk assessment, planning of
response to the risk and risk and risk monitoring in the course of project implementation.
2. Failures in implementation of IT projects
There are scores of institutions acting in the field of risk analysis in IT projects. These are
mainly academic centres but there are also many organizations associating experts with know-how.
One of the most often cited publications are reports called The CHAOS Chronicles, published
regularly by The Standish Group International, an American institution dealing with monitoring of
IT projects implemented in the USA. The analysis of documents published on the Web fosters detailed specification of the results of IT projects monitoring in the form of statistics.
According to the data publish on The Standish Group International web pages, approximately
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
167
2/3 of IT projects fail to end in a full success. Throughout their implementation (according to the
statistics in every second project), there are deviations from time schedule or budget assumptions,
failure to develop all the designed functions of the programme or abandonment of the entire project. The main objective of the risk assessment at the planning and implementation stages of IT
projects is to reduce the number of projects which are likely to exceed the scheduled resources or
be eventually terminated [9].
The risk assessment techniques presented in the paper compel the IT Project Managers to continuously update the information on potential hazards. One of the frequent mistakes made by IT
Project Managers is to assume that the risk of successful accomplishment of the project remains the
same throughout the entire project of its implementation [6]. It is to the contrary. The risk is incessantly variable, thus constant monitoring as per a carefully designed schedule is of essence. As
shown in practice, the meticulousness and thoroughness of the risk assessment contribute considerably to the end success of the project.
3. Characteristics of the selected IT project
The study was based on a project of system development aimed at servicing the Lending Library of Higher Education School. The undertaking in question was designed as a set of 349 tasks
to be carried out by a group of 5 IT Specialists within 64 days. The accomplished and implemented
software is to facilitate students’ access to the book catalogue by means of web browsers.
Table 1. Selected risk-prone projects tasks
ID
Probability of non-compliance with the
scheduled resources
Implementation
costs [PLN]
0,4
4500
3 days
30 days
5 days
10 days
30 minutes
10 days
0,3
0,5
0,6
0,5
800
10 300
4 400
7 300
0,3
500
0,3
5 500
2 days
0,2
4 800
Task name:
Duration
14 days
43
52
67
104
Requirements Specification
Definition of classes
Code development
Code testing
Code adjustment
109
Software installation
40
110
111
Preparation of user
documentation
User training
Source: own computations
The detailed comparative analyses were based on eight tasks from the entire project exposed to
the risk of failure, taking into account the scheduled time, scope and budget (Table 1).
4. Examples of application of risk assessment techniques in the selected IT Project – case
study
The popular risk assessment methods applied to IT Projects comprise: 2x2 matrix method,
probability and effects matrix method, Heeg’s method, failure Analysis of failure effects. Less
popular techniques encompass: sensitivity analysis, spot techniques, probability analysis (using
e.g. Monte Carlo simulation), flow diagrams (e.g. critical path analysis) or decision tree analysis
168
Jacek Winiarski
COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS
IN IT PROJECTS
(e.g. PERT, VERT, GERT analyses).
4.1 2x2 Matrix Method
One of the primary tools fostering risk management process in project works is the so-called
2x2 matrix. It defines risk as the probability function for the occurrence of harmful event and the
effect thereof [7].
Table 2. Risk assessment using 2x2 Matrix method
Impact
Probability
Large
Small
Small
Large
Quarter 1
Quarter 2
Quarter 3
Quarter 1
40’
40
40’’
Source: own computations
2x2 Matrix should be completed following the previous identification of potential hazards and
preparation of the list thereof. Next, they are filled (depending on the probability of occurrence and
the scope of potential loss they may cause) in their respective matrix quarters. The parts of the table specify [2]:
• Quarter 1 represents the area of hazards of high probability of occurrence and inconsiderable negative effects for the project,
• Quarter 2 represents the area of hazards of high probability of occurrence and simultaneously substantial negative effects for the project implementation process,
• Quarter 3 represents the area of hazards of small probability of occurrence and inconsiderable negative effects for the project implementation process. This is the least risk-prone
area.
• Quarter 4 represents the area of hazards of small probability of occurrence and considerable negative effects for the project,
If the 2x2 table is not completed with hazards but with the tasks exposed to the risk of noncompliance with the scheduled resources, then after the analysis of the possibility of reallocation
thereof along the directions recommended by the technique in question, precautions will be developed with the view of diminishing the risk for the accomplishment of particular tasks and thus the
entire project.
Task 40 – requirements specification was placed in the 2nd quarter by the project risk manager.
Next, the Project Manger suggested that Task 40 should be performed in compliance with the
forms adopted in PRINCE2 method. The suggestion caused the task to be moved to the first quarter 40’ (prim variant). Next, another Project Manager decided to carry out additional audit of the
prepared requirements specification by an external expert. This decision caused the task 40’’ to be
moved to the third quarter 40’ (bis variant). All project tasks may be examined individually in the
same manner.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
169
4.2 Method of Matrix of probability and effects
Another more complex tool is the so-called matrix of probability and effects. It is an elaboration of the 2x2 matrix concept. It is more detailed as far as the probability of estimates and the effects of hazard occurrence are concerned. Like previously, particular hazards are filled in the respective fields in the extended version of the table. After all hazards identified in the project have
been filled, preventive measures are designed to eliminate the risk sources allocated in the second
quarter [2]. The ultimate objective of the risk management process is the reallocation of the most
probable and most perilous hazards top other areas of the matrix. The measures provide the basis
for the risk management in the project planning process.
The table used for the method in question may upon its modification serve for calculation of the
measurable total scope of project risk. The aforesaid modification provides for allocation to particular cells of hazard weights representing the scope of probability of occurrence of a given hazard
and the potential effects thereof (Table 3).
Each identified hazard, which may occur during performance of the project shall be allocated to
particular cells of the table. As a next step, the weight of a given cell should be multiplied by the
number of hazards allocated thereto and sum up all the achieved numbers. The sum shall be divided by the total number of hazards in the analysed project. The end result is a measurable quantity of the total project risk.
Table 3. Risk Assessment Method of Matrix of Probability and Effects
Probability
Minimal
Extremely high (0.8 – 1)
43
Low (0.2 – 0.4)
Extremely low (0 – 0.2)
Effects
Minimal
Minimal
67
(8,0)
Minimal
(7,0)
(8,0)
(5,0)
(7,0)
(3,0)
(4,0)
(5,0)
(1,5)
(3,0)
(4,0)
40
(2,0)
(3,5)
52’
High (0.6 – 0.8)
Average (0.4 – 0.6)
Minimal
(1,5)
43’
(1,2)
40’, 104’
(1,0)
110’,109’, 111’
(0,5)
(2,0)
67’
(1,8)
110, 109
(1,5)
111
(1,0)
(7,0)
52
(5,0)
104
(4,0)
(9,0)
Source: own computations
With respect to the project, the entire introductory risk of the project was 3.31. After the preventive measures have been recommended and applied, the total project-related risk was reduced
to 1. The presented example, like 2x2 matrix method was based on the study of risk-prone tasks
and not the tasks themselves.
4.3 Heeg’s method
The method recommended by Heeg in [2] comprises three stages. These include:
• risk identification,
• risk assessment,
• selection.
The presented method is based on the identification of project-specific hazards. According to
170
Jacek Winiarski
COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS
IN IT PROJECTS
the author of the method, the risk sources may be the identified in several ways. One of the commonly used techniques is the analysis of task packages described by means of e.g. Work Breakdown Structure - WBS. It may be presented in the form of a table 4.
Table 4. Risk assessment using Heeg’s method
ID
40
43
52
67
10
4
10
9
11
0
11
1
Probability
of occurrence
Costs
of neutralization
[PLN]
Probable
costs [PLN]
Task name
Potential risks
Requirements
Specification
Definition of classes
Code development
Code testing
Omission of required
functionalities
Incomplete classes
Syntactic errors
Data transfer errors
0,4
8000
3200
0,2
0,01
0,3
1000
500
4000
200
5
1200
Code adjustment
Semantic errors
0,04
300
12
Software installation
Incompatibility
0,1
2000
200
Preparation of user
documentation
Deadline
0,01
3000
30
User training
Deadline
0,01
1500
15
Source: own computations
Following identification of the risk-prone tasks and detailed specification of potential risk
sources, which may affect the implementation process, it is necessary to determine the probability
of occurrence of detailed hazards (Table 4, Column 4). Next, the planned costs related to elimination of potential losses are to be estimated (Table 4, Column 5). The last column of Table 4 comprises probable costs i.e. product of probability and foreseen costs of loss compensation (Table 4,
Columns 4 and 5).
Thus computed quantities of probable costs must be sorted in descending order and the group
of tasks for which the sum of quantities in Column 4 Table 4 will be 75% of the total probable
costs of the analysed project [2] must be specified (starting from the highest values). In the example in question, these include tasks 40 and 67 (amounting to 90.5% of the total costs). Thus identified set of task groups shall be given a particular attention from the Project Managers. The possibility to undertake protective measures for these groups must be taken into consideration. The sum
of total probable costs shall be 4862 PLN.
4.4 Failure Mode Effect Analysis
Failure mode effect analysis was proposed by Maylor and described in [1]. This method analyzes three parameters describing all tasks within the project. Each of these parameters must be
expresses as a number on a scale from 0 to 10. The author adopts one point scale for all parameters. The requested quantities include:
• meaning of failure of implementation of a given task (failure),
• probability failure oversight,
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
171
• probability of failure occurrence during performance of a particular task.
Each of the parameters must be examined individually. The objective of the presented analysis
is to calculate a given total risk task constituting a function dependant on the aforementioned parameters. The risk is calculated on the basis of the following dependence:
Risk = failure significance * probability of failure omission
* probability of failure occurrence
The higher the risk values, the more serious hazard is related to a particular task. With respect
to activities exposed to the highest risk, additional measures alleviating potential losses should be
proposed.
Table 5. Risk Assessment Through Failure Effects Analysis
ID
40
43
52
67
104
109
110
111
Task name
Requirements
Specification
Definition of
classes
Code development
Code testing
Code adjustment
Software installation
Preparation of user
documentation
User training
Failure significance
Probability of failure
oversight
Probability of failure
occurrence
Risk
8
3
4
96
3
2
3
18
7
8
7
1
2
2
5
6
5
35
96
70
5
1
3
15
4
7
3
83
5
1
2
10
Source: own computations
For each task examined in the project by Failure Mode Effect Analysis, two additional parameters must be provided. These include: failure significance and failure oversight probability. Having
performed the calculations illustrated in Table 5, one may discern that the highest risk pertains to
tasks 40 and 67, while the least to the tasks no. 109 and 18. The total project risk is the sum of values in the last column, which is 423.
5. Comparative analysis of applications of risk measurement methods in IT projects
Applications of the results obtained by means of 2x2 Matrix Method are not vast. This method
is suitable for presentation of risk mitigation issues, since it clearly illustrates the required trends of
preventive measures. IT project risk assessment based on this method may occur vague, general
and eventually not yielding satisfactory results for the Managers. The concept of 2x2 matrix is focusing on risks, not the risk-prone tasks, which definitely affects the profile of the analyses being
carried out. 2x2 matrix does not allow risk quantification, with respect either to a part or the entire
project. This technique is an easy-to-use tool for risk assessment in small projects. Its application
supports the strategy of compensating potential effects of identified risks.
If 2x2 matrix is completed with risk-prone tasks instead of identified risks, then after the main
172
Jacek Winiarski
COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS
IN IT PROJECTS
assumptions of the method have been applied, the effect of its use shall consist in development of
preventive measures plan targeted at reduction of risks for individual tasks, hence for the entire
project. Thus applied 2x2 matrix method will facilitate the assessment of the proposed preventive
measures (after twice risk quantity measurement, before and after the preventive measures have
been taken). Those who wish to use this technique shall be good experts in risk management, as
this technique is based on the intuition, which determinant for the usability of the obtained results.
Probability and effects matrix is the extended version of 2x2 matrix method. It has two advantages, which differentiate it significantly from the original pattern. One advantage is the fact that it
fosters calculation of risk for individual tasks, task groups or the entire project, before and after the
preventive measures have been taken. The other advantage is the clarity of results, not only for
small but also for medium-sized IT projects.
Heeg’s method is the first from among the presented techniques, which assigns individual risks
to the planned project tasks. Each of the tasks may be assigned more than one risk. This technique
requires specification of the probability of occurrence of all identified risks. It is an interesting parameter, since within the framework of the risk definition another quantity is searched for, which is
the probability of task non-performance [5]. In Heeg’s method it is indispensable to specify potential costs of the reduction of effects of the identified risk occurrence. In practice, both quantities are
identified on the basis of experience and intuition of the researchers. The method facilitates a detailed identification and analysis of risk sources, which may occur during the implementation of the
project. By means of these method, the sources may be easily identified and assigned to particular
tasks. This possibility is an essential advantage of the method in question. Unfortunately, this
method also employs heuristic quantities in final risk assessment.
In failure mode effects analysis it is necessary to specify further parameters. These parameters
are not required in any other risk assessment techniques. It is indispensable to determine: failure
significance, failure oversight probability as well as failure occurrence probability. The last parameter is identical to the scope of risk of a non-performed task taking into consideration scheduled time resources, scope and budget. The person managing the risk must express all these values
on a scale from 0 to 10.
Failure mode effects analysis does not employ mathematical tools facilitating objectivity of data
use for calculations. Like the aforementioned methods, the values used are based on the intuition.
It will prove, however, in comparative analyses. From among the presented methods, this one allows the largest number of details to be used in the study. It occurs that Managers value the possibility of taking into account the probability of failure oversight. Failure mode effects analysis may
be easily used for the risk assessment in large and middle-sized IT projects.
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
173
Table 6. Comparative applications of risk assessment applications IT projects
Easiness of application
Time involvement
Precision
Usability
2x2 Matrix Method
Method of Matrix of Probability and Effects
Heeg’s Method
Failure Mode Effect Analysis
Duration of implementation
Method name
Results
Costs
Required resources
l
l
l
l
s
s
s
s
e
e
m
d
s
m
h
m
l
m
m
h
l
m
h
h
Key: low (l), medium (m), high (h), short (s), easy (e), difficult (d)
Source: own computations
6. Summary
The paper depicted four methods of risk assessment methods applied in IT projects
implementation. The same part of the IT project was examined through a comparative analysis.
The obtained results foster concept that matrix techniques focus predominantly on the analysis of
identified risks. They only indirectly examine the project tasks, for which it is probable, not comply
with the scheduled time resources, scope or budget. As a consequence, although these methods
mark out the directions of preventive measures aimed at reduction of the risk, they seem not to be
useful for large or complex IT projects. They are suitable for rough analyses in small projects.
Further two methods foster a more detailed risk assessment. Based on the identified potential
risks assigned to particular project tasks, Heeg’s Method specifies probable costs, the company
will have to incur in case of an anticipated risk. This project does not foster total risk calculation.
This technique is suitable for comparative analyses for several variants of implementation of the
same task, while it is not appropriate for the entire IT projects.
The last presented technique – Failure Mode Effect Analysis introduces two additional
(crucial) parameters: failure significance and failure oversight probability. Thanks to these
parameters, the method enables calculation of risk for implementation of all individual tasks as
well as the entire project. This technique is commonly used in IT project risk management as the
calculations involving two new parameters are very useful.
The Project Manager’s ultimate decision on the choice of the method for risk assessment in
planning and implementation of an IT project will depends first and foremost on the specificity of
project requirements (scope and innovativeness), funds and selected implementation methods.
174
Jacek Winiarski
COMPARATIVE ANALYSIS OF APPLICATION OF RISK ASSESSMENT METHODS
IN IT PROJECTS
7. Literature
1.
Chapman Ch., Ward S. (1997): Project risk management processes, techniques and insights, J Wiley & Sons, Chichester.
2. Chong Y,Y, Brown M.E. (2001): Zarządzanie ryzykiem projektu, Oficyna Ekonomiczna,
Dom wydawniczy ABC, Kraków.
3. Frączkowski K. (2003): Zarządzanie projektem informatycznym, Oficyna Wydawnicza
Politechniki Wrocławskiej, Wrocław.
4. Kaczmarek T.T. (2005): Ryzyko i zarządzanie ryzykiem. Ujęcie interdyscyplinarne, Difin, Warszawa.
5. Knight F. (1933): Risk, uncertainty and profit, London.
6. Pańkowska M. (2001): Zarządzanie zasobami informatycznymi, Difin, Warszawa.
7. Pritchard C.L. (2002): Zarządzanie ryzykiem w projektach. Teoria i praktyka, WIG –
PRESS, Warszawa.
8. Stabryła A. (2006): Zarządzanie projektami ekonomicznymi i organizacyjnymi, Wydawnictwo Naukowe PWN, Warszawa.
9. Szyjewski Z. (2004): Metodyki zarządzania projektami informatycznymi, Wydawnictwo
PLACET, Warszawa.
10. Winiarski J. (2007): Analiza metod zarządzania ryzykiem w pracach projektowych z dziedziny informatyki, Pieniądze i Więź, Nr 2 (35), Gdańsk.
Jacek Winiarski
Uniwersytet Gdański
81-824 Sopot, ul. Armii Krajowej 119/121
e-mail: [email protected]
http://ekonom.ug.gda.pl/
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
175
MACIEJ ADAMSKI
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH
CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION
Summary
The paper constitutes a proposal for quantitative research method in investigating culture change. The proposal outlines steps to be taken in order to assess source
usefulness: Identifying categories in culture studies, creating lists of source availability, listing representation of sources, deciding on source usefulness, further research or supplementary data collection.
Keywords: car culture, knowledge management, quantitative methods in culture research
1. Introduction
Throughout the recent centuries culture has been shaped not only by non-material phenomena
and achievements of artistic nature but also by products of human inventiveness and science. The
examples of the process are cars and computers that made a huge impact on the development of
civilisation. Car culture is one of the particular notions that gave way to research in many
countries. The context of knowledge creation constitutes a promising environment for material
culture exploration. The aim of this paper is to propose the method for author’s classification and
categorisation of literature concerning the influence of motoring on culture change in the UK
obtained so far. The question of knowledge importance and its prospects in business and social life
have been thoroughly investigated beginning from classical concepts of knowledge proposed as
early as in ancient times and most recent implementations of knowledge management at enterprises
(Drelichowski 2004). The presentation of the whole research problem in knowledge environment
has been proposed at the conference of the Polish Association for Knowledge Management
(Adamski 2008).
Car culture has been defined from different perspectives. Car culture studies include general
considerations concerning the phenomenon of car in modern societies (Gierczak 1994), particular
aspects of culture where a car is a dominant motif (Thoms, Holdem, Claydon 1998) , (Wollen,
Kerr 2002). Besides, modern car research includes also proposals for car culture research (Miller
2001 in: Miller 2001). In general, a car has become an indispensable element of our everyday life.
Regardless of the place around the world, a car is primarily perceived as the means of transport.
Cars replace even public transport in such a way that buses or trains journeys are cancelled.
However, by the increase in car use, the traffic is heavier and some roads are almost always
jammed. But a car gives a chance for comfortable, independent travelling and moving in the space
according to personal preferences, plans, schedules. Travelling by car gives a possibility of
arranging travelling time, direction or company at own discretion the only limitation lying in the
load of belongings one can carry in the car. A car can be compared to a silent servant and friend
being an aide in daily chores. In broader terms, a car is an element of architecture and organizes
the space around us. On the other hand, analogies were drawn to show that cars as examples of
176
Maciej Adamski
SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH
CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION
mobile architecture may serve as a model for erecting immovable components of architecture –
buildings. Another question of the car phenomenon in our contemporaries concerns personal
emotions connected with the “automotive life”. It is said that physical and emotional distances
between people travelling together in one car are shortened. Moreover, car travelling is connected
with sensual perceptions of pleasure, danger, let alone sensual media of sight (visual perception of
the interior, road, et), sense of hearing (perception of sounds coming from the mechanical parts or
from the traffic), sense of smell (the smell of interior or petrol). What is more, a car is an extension
of home. Car as such is not only an extension but also may be called a satellite of home. Care
directed towards car’s technical condition, long journeys taken in some countries and a strong
emotional tie with the family car resemble such relations to a considerable extent. Car use is also
related with compensation feelings (travelling to the country compensates urban inconveniencies).
Finally the need for speed and freedom are embodied by cars and fast travelling. The feelings
connected with pleasure or discomfort connected with speed vary from one person to another
(Gierczak 1994). The classification of human activity and social processes, works art, gender roles
are visible in the collections of essays devoted to car cultures. Researchers, very often from
different countries, present particular aspects of car impact on societies, i.e. impressions from
German car production plant, motoring in the Soviet Union or car use in Havana(Wollen, Kerr
2002). Motoring in Britain in humanistic aspect has been explored by O’Connell (1998) but only in
the period of 1896-1939. The subject of the monograph is the role a car played in shaping British
society in the 20th century. The author concentrates on the interrelation between car, motoring and
gender. Popular culture connected with cars in Britain was explored in a collection of essays
(Thoms, Holdem, Claydon 1998). Researchers focus on motor car ownership in Britain, British
sports cars phenomenon or war and the car. Besides, the relations in British car industry are also
presented as a very important input into industrial culture change.
The above-mentioned presentation of sources concentrating on car cultures is only a sample of
the car culture research undertaken in various fields. The research in car culture in Britain and the
impact of car on British culture can be discussed on the basis of the sources gathered.
2. Research method for categorisation of sources
The above-mentioned presentation of sources concentrating on car cultures is only a sample of
the car culture research undertaken in various fields. The research in car culture in Britain and the
impact of car on British culture can be discussed on the basis of the sources gathered. New
knowledge creation or knowledge perspective requires the identification of material available for
research. In order to create a representative portfolio of material for further research, it is
indispensable first to come up with subject research areas that will constitute headings under which
sources will be ascribed. A primary set of headings includes:
1.
2.
3.
4.
5.
6.
7.
Input of British motoring into general progress of motoring
Social issues
Motoring in British literature
British motoring in visual art
British motoring and journalism
British motoring and the law
British motoring and marketing
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
177
British motoring and film
British culture
The culture of technology
Philosophy of technology
British motor sport
History of British motor industry
British motoring and the Internet
British motoring and music
Psychology and the car
Heritage and British motoring
Other
The set of headings has an impressionistic nature. It was the choice of the researcher that
decided upon the inclusion of headings. Of course, it is possible that the list is not exhausted. The
aim of the table with headings is to provide a picture of the research sources and materials gathered
so far.
Each heading carries a broader meaning behind in terms of capacity of subject matter. (1)
refers to events and developments in general progress of motoring (inventions, new ideas and
concepts). (2) consists of the materials related to the British society and its history in the context of
motoring, e.g. men and women and their cars, cities and countryside shaped by the advance of
motoring, etc. (3) comprises the motifs of cars and motoring in English literature. (4) provides
elements of visual art in Britain where the main theme was a car, driver or motoring or motor
sports as such. (5) includes motoring journalism and motoring journalists in Great Britain, either
motoring journalism for the elite or for the masses (such a distinction can be drawn). (6) explores
legal issues connected with motoring in Britain as a part of the social development (legal
regulations for drivers, crimes connected with driving a car, etc.). Marketing and selling cars (7)
concerns advertisement methods, language and visual aids employed to sell cars to Britons. (8) is
in a way connected with English literature because the sources for film adaptation lies very often in
literature but here the car as a member of cast will be investigated (either an English car or any car
in an English film. British culture (9) in a culture-driven research is indispensable for creating
a background of the whole work. The culture of technology (10) presents technology, a nonhumanistic domain, as an inherent part of culture and constitutes another plane for background
material (cf. (9)). The same background information lies under the philosophy of technology
heading (11). (12) evokes rich traditions of British motor sports and British sports cars. (13)
constitutes the skeleton of the whole work providing explanation for the emergence, rise and
decline of the British motor industry. (14) shows the presence of cultural aspects of British
motoring on the Internet – promotion, raising awareness and protecting the national motoring
heritage. (15) investigates the motifs of an English car in music. (16) gives an overview of attitudes
towards car ownership and use in Britain, including emotions connected with driving. (17) refers to
the motoring heritage that is widely present in Britain (e.g. National Motor Museum). (18) includes
some cross-boundary issues not included under any other headings. The excerpt of the table with
sources looks as follows:
178
Maciej Adamski
SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH
CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION
Table. 1. Cultural categories representation in sources
Category
Item
x
1
2
3
4
5
6
7
8
9
10
Input of
British
motoring
into general progress of
motoring
1
Social
issues
Motoring in
British
literature
British
motoring
In visual
art
British
motoring
and
journalism
British
motoring
and the
law
2
3
4
5
6
+
+
+
+
+
+
+
+
+
+
In the context of the analysis of influence of British motoring and the presentation of sources
of knowledge enabling to investigate and identify the most important motoring impact on a wide
range of cultural conditions of the United Kingdom, various sources of knowledge can be identified. These are direct and indirect sources. In scholarly environments it is often said that a given
culture can be best explored and described by a stranger because of their objectivity in assessment.
It is particularly true in the case of Norman Davies, a British historian who wrote a very popular
book covering history of Poland – God’s Playground. However, this opinion may face objection
because such an exploration can be prevented by such factors as great distance, problems with access to the sources of knowledge and financial constraints. In the case of the thesis the principal
goal concerned finding a place where it would be possible to get information connected with British motoring history. It was not possible to assimilate with the British motoring environment for
a longer period of time to experience motoring phenomena in the form as they really are.
The sources gathered so far facilitate the preparation of main sections of the dissertation
(Adamski 2007). The sources that are discussed in this chapter will serve only as example of possible and already available sources of information and knowledge for the said dissertation. Printed
and online sources cover the important aspects of the provisional outline presented below. The
sources of knowledge are of various kinds – ranging from historical books on the history of motoring in general: Dzieje samochodu by Witold Rychter published in 1983. However old the source
may seem, it was prepared meticulously by one of the greatest Polish motoring historians. Another
item is The rise and decline of the British motor industry by Roy Church is a critical analysis of
a complex event of the motoring industry collapse. The historical background is necessary for further presentation of cultural implementations of the motoring motifs. A completely different source
of information are diaries of motoring enthusiast journalists and creators of motoring centres in the
UK – Drive On! A social history of the motor car by L. J. K. Setright: “a Wittgenstein of the motoring press. A separate place will be granted to “gutter” motoring press practiced by Jeremy
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
179
Clarkson, the host of a popular TV program on motoring. Next important source are British motoring magazines: Top Gear (paper version of Clarkson’s TV series) and some past issues of Autocar
and Motor from the late 1940s (purchased in Internet auctions). Of course, the latest issues of British motoring magazines will be used as a source for information about the condition of the contemporary British motoring journalism (Car of the 1990s and 2000s). With respect to the car ads in
Great Britain, it is possible to get sources from newspapers but also from a series of postcards with
old car ads. The presentation of sources available to the author shows only an exemplary part of
materials gathered till now, the library that is being supplemented constantly includes also other
materials connected for example with art (catalogues of auto work of arts sold by auction houses –
Auto Art) and studies of motoring influences on British literature (The car in British society. Class
gender and motoring 1896-1939) by Sean O’Connell).
3. Quantitative data
The list of sources and the number of sources in table form facilitates the process of finding
“blank spaces”. These are the categories where the representation of sources is insufficient for
meticulous analysis of a given research problem. The method of source listing seems particularly
useful for multi-aspect research problem. Furthermore, if a given category turns out to be
represented insufficiently, it may be necessary to cross out a given category due to the lack of
sources gathered. The 18 categories represented in sources may overlap in the categorization, i. e.
one reference source may fall into several categories.
Table 2. List of categories and amount of sources
Category
1. Input of British motoring into gen2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
eral progress of motoring
Social issues
Motoring In British literature
British motoring in visual art
British motoring and journalism
British motoring and the law
British motoring and marketing
British motoring and film
British culture
The culture of technology
Philosophy of technology
British motor sport
History of British motor industry
British motoring and the Internet
British motoring and music
Psychology and the car
Heritage and British motoring
Other
Total
4
10
3
9
31
2
3
2
4
1
0
3
13
0
1
1
12
0
180
Maciej Adamski
SOURCE QUANTITY AND QUALITY FOR RESEARCH PROBLEM – CAR IN BRITISH
CULTURE IN THE CONTEXT OF KNOWLEDGE CREATION
Another categorization that can be conducted involves the divisions of reference genres. The
division includes monographs, collections of essays, diaries, papers downloaded from the Internet
and magazines. The groups, in turn, can be divided into primary and secondary sources. Primary
sources include publications by the actors of British industry and car culture (e.g. Lord Montagu of
Beaulieu: Wheels within Wheels. An Unconventional Life, Jeremy Clarkson: Motorworld). Next
group, with very scarce representation, is the group with real life automobilia, this group could
include also old prints – magazines from the first half of the 20th century (Your Driving Test. How
to Prepare for It. How to Pass It. Ministry of Transport dated 1963; The Autocar – June 17 1949).
Secondary sources include essays or papers in which references to other reference material are
made. These are papers on various aspects of British cars and British motoring or general car
culture (e.g. Mimi Scheller: Automotive Emotions: Feeling the Car.).
The representation of sources in genres can be presented in the table:
Table 3. Representation of source genres
Papers (online)
Press magazines
14
31
Collections of
essays/papers
4
Printed
automobilia
5
Monographs
34
Total: 88
The table presents the overall amount of sources available so far. 88 items at hand divided into
5 groups give an overview of source availability and the distribution of the material gathered in
various source genres. The scarce representation of automobilia does not have to mean that the
source genre is not useful and should be excluded from the analysis. Such a representation results
from the fact of local unavailability of such sources – thus, they may serve as artefacts and
examples of the past motoring life and may constitute some material for further analysis and
discussion.
4. Quantitative analysis shaping qualitative decisions
The quantitative method applied here facilitates taking decisions about usefulness of
categories and sources in the research. The usefulness assessment can be assessed according to the
following scheme:
Source representation in
culture studies
1.
Sufficient for
further research
2.
Insufficient or
unobtainable
3.
Insufficient
and obtainable
Fig. 1 Decision tree in research category assessment
POLISH ASSOCIATION FOR KNOWLEDGE MANAGEMENT
Series: Studies & Proceedings No. 16, 2008
181
In the paper the following method of analysis was proposed:
1.
2.
3.
4.
5.
Identifying categories in culture studies
Creating matrices of sources availability
Listing representation of sources
Deciding on source usefulness
Further research or supplementary data collection
The method as such can aid a structured and systematic analysis of cultural issues and may
constitute an objective tool for checking accuracy of judgements in humanities. However, in some
cases, the source availability may be a decisive factor in including or excluding a given category
from the research scope.
5. Literature:
1.
2.
3.
4.
5.
6.
7.
Adamski, M., 2008. Knowledge Creation – Car In British Culture. Polish Association for
Knowledge Management. Series: Studies and Proceedings No. 15. Bydgoszcz., pp. 5-11.
Drelichowski, L., 2004. Podstawy inŜynierii zarządzania wiedzą. Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą. Bydgoszcz., pp. 13-22.
Gierczak, J., 1994. Fenomen auta w przestrzeni. Oficyna Wydawnicza Politechniki Wrocławskiej. Wrocław., pp. 4-155.
O’Connell, S., 1998. The car in British Society: Class, Gender and Motoring, 1896-1939.
Studies in Popular Culture. Manchester University Press. Manchester., pp. 5-133.
Miller, D. (ed.), 2001. Car Cultures. Materializing Cultures. Berg. Oxford.
Thomas, D, Kolden, L., Claydon, T., Claydon, T., (eds.), 2002 The Motor Car and Popular Culture in the 20th Century. Ashgate. Aldershot.
Wollen, P., Kerr, J., 2002. Autopia. Cars and Culture. Reaktion Books. London.
Maciej Adamski
Katedra Filologii Angielskiej,
Instytut Neofilologii i Lingwistyki Stosowanej
Uniwersytet Kazimierza Wielkiego w Bydgoszczy
85-601 Bydgoszcz, ul. Grabowa 2
e-mail: [email protected]

Podobne dokumenty