Tom 19v6

Transkrypt

Tom 19v6
STUDIA I MATERIAŁY
POLSKIEGO STOWARZYSZENIA
ZARZĄDZANIA WIEDZĄ
Redaktor tomu: dr Arkadiusz Januszewski
Komitet Redakcyjny:
dr hab. inŜ. Waldemar Bojar prof. UTP
prof. dr hab. Ryszard Budziński
prof. dr hab. Andrzej Straszak
Polskie Stowarzyszenie Zarządzania Wiedzą
www.pszw.edu.pl
Bydgoszcz 2009
2
Recenzenci:
prof. dr hab. inŜ. Ryszard Budziński
prof. dr hab. Witold Chmielarz
prof. dr hab. inŜ. Ludosław Drelichowski
prof. dr hab. Olgierd Hryniewicz
prof. dr hab. Janusz Kacprzyk
dr hab. inŜ. Jan Studziński
Opracowanie redakcyjne i korekta:
inŜ. Waldemar Kępa
ISSN 1732-324X
Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc
3
Spis treści
MIROSŁAW BEREZIŃSKI, JERZY HOŁUBIEC, DARIUSZ WAGNER
Hierarchiczna struktura poznania – piramida wiedzy ................................................................... 5
JADWIGA BIZON-GÓRECKA, JAROSŁAW GÓRECKI ...............................................................
Piramida ryzyk w przedsiębiorstwie ........................................................................................... 18
RYSZARD BUDZIŃSKI, LESZEK MISZTAL.................................................................................
Zastosowanie algorytmu maszyny wektorów wspierających do klasyfikacji podatników
z wykorzystaniem bazy danch Oracle 11G ................................................................................. 28
WITOLD CHMIELARZ ....................................................................................................................
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 r ........................................................................................................................ 38
LUDOSŁAW DRELICHOWSKI.......................................................................................................
Koncepcje zarządzania wiedzą w warunkach występowania zjawiska kryzysu finansowego
gospodarki .................................................................................................................................. 50
JERZY HOŁUBIEC, GRAśYNA SZKATUŁA, DARIUSZ WAGNER,
ANDRZEJ MAŁKIEWICZ ................................................................................................................
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza ................................................ 57
STANISŁAW GAWŁOWSKI ...........................................................................................................
Kierunki przekazywania gospodarstw w ramach programu rent strukturalnych 2004 – 2006 ... 68
JAROSŁAW JANKOWSKI, KAMILA GRZĄŚKO..........................................................................
Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów
wyszukiwawczych....................................................................................................................... 78
ANNA KEMPA..................................................................................................................................
Weryfikacja skuteczności sztucznych systemów immunologicznych w ocenie zdolności
kredytowej klientów indywidualnych ......................................................................................... 87
MAGDALENA KRAKOWIAK .........................................................................................................
Analizator wnioskowania w rozmytym języku zapytań .............................................................. 96
ANNA LENART ................................................................................................................................
Kapitał informacyjny warunkiem zarządzania wiedzą w dobie kryzysu finansowego ............. 106
RAFAŁ MAZUR, LEONID WOROBJOW .......................................................................................
Zarządzanie wiedzą w przedsiębiorstwie jako warunek rozwoju innowacyjnego..................... 117
KRZYSZTOF MICHALAK ...............................................................................................................
Integracja technologii procesowych w systemach Business Intelligence ................................. 126
4
PAWEŁ MICKIEWICZ .....................................................................................................................
Wpływ dopłat bezpośrednich na zmiany zachodzące w strukturze agrarnej w rolnictwie
województwa zachodniopomorskiego ...................................................................................... 136
GRAśYNA OWCZARCZYK-SZPAKOWSKA................................................................................
Zarządzanie przez podatki ........................................................................................................ 145
MARIA PARLIŃSKA, MARCIN ADAMCZYK ..............................................................................
Aspekty ekonomiczne zarządzania wiedzą w organizacji na bazie „Distance Seminar” .......... 155
JAN STUDZIŃSKI ............................................................................................................................
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę......... 165
JAN STUDZINSKI, ANDRZEJ ZIÓŁKOWSKI ...............................................................................
Komputerowe wspomaganie zarządzania projektami badawczymi .......................................... 177
PIOTR SULIKOWSKI, TOMASZ ZDZIEBKO................................................................................
Analiza zachowań klientów a wzrost konkurencyjności przedsiębiorstw ................................. 187
JAROSŁAW WĄTRÓBSKI, MONIKA STOLARSKA ....................................................................
Model oceny gotowości informacyjnej w systemach klasy SIK ............................................... 195
ANDRZEJ STRASZAK
Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów ............................................ 207
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
5
MIROSŁAW BEREZIŃSKI,
JERZY HOŁUBIEC,
DARIUSZ WAGNER
Instytut Badań Systemowych PAN
HIERARCHICZNA STRUKTURA POZNANIA – PIRAMIDA WIEDZY
Streszczenie
Współczesna nauka przeŜywa głęboką zapaść spowodowaną częściowym zanegowaniem klasycznego znaczenia takich wartości, jak obiektywność, realizm, racjonalność, prawda naukowa itd.. Osłabia to zdolność prognostyczną nauki, a w szczególności zdolność przewidywania sytuacji kryzysowych. Przeprowadzono krytyczną
analizę rozmaitych wersji piramidy wiedzy – które zostały zaproponowane w kilku
ostatnich dekadach – jak równieŜ sposobów uzasadniania ich metodologicznej poprawności. Przypomniano, Ŝe idea przedstawiania procesu poznania w formie piramidy ma w filozofii i nauce europejskiej tradycję liczącą ponad dwa tysiące lat. Jeśli
więc mówi się o planach uczynienia z Europy lidera nowej fali rozwoju, której wyróŜnikiem ma być racjonalne wykorzystanie indywidualnego i zbiorowego (społecznego) kapitału intelektualnego, to trzeba przede wszystkim osadzić te plany w ramach europejskiej myśli filozoficznej. W artykule zaproponowano przyjęcie za podstawę badań nad strukturą procesu poznania oraz strukturą wiedzy arystotelesowskiej triady „doświadczenie – wiedza - mądrość”.
Słowa kluczowe: społeczeństwo wiedzy, kryzys nauki, proces poznania, hierarchiczna struktura
wiedzy, piramida poznania, triada arystotelesowska
1. Kryzys obiektywizmu, realizmu i racjonalności w nauce
Cywilizacja zachodnioeuropejska przeŜywa okres głębokiego kryzysu toŜsamości kulturowej,
który objął wszystkie sfery materialnej i duchowej działalności człowieka. Od kilku dziesięcioleci
zwracają na to uwagę najwybitniejsze autorytety polityczne, naukowe i moralne Europy. Jednym
z wyjątkowo groźnych przejawów tego kryzysu jest wciąŜ pogłębiający się rozdźwięk między
obecną nauką a zachodnioeuropejską tradycją naukową i filozoficzną. Wyrazem tego jest – między
innymi – odchodzenie od koncepcji, wartości oraz ideałów poznania naukowego, ukształtowanych
przez pokolenia, które w ciągu wieków rozwijały naukę w ścisłym sprzęŜeniu z rozmaitymi i wciąŜ
ścierającymi się ze sobą nurtami filozoficznymi (zob., np.: [13], [20], [21], [24], [33]). Swoistym
znakiem czasu w nauce stało się zjawisko określane mianem kryzysu racjonalności (zob., np.: [8],
[14], [30]). Jego istotę najlepiej oddaje programowe hasło „farewell to reason” – „poŜegnanie z rozumem”, sformułowane mniej więcej w połowie 20. wieku przez austriackiego filozofa, P.K. Feyerabenda (1924-1994). Głosi ono – między innymi – potrzebę odejścia od tradycyjnego rozumienia
pojęć obiektywności, prawdy oraz racjonalności naukowej i uznania, Ŝe wszelkie oparte na nich
ujęcia poznania naukowego są w znacznej mierze błędne, a więc i szkodliwe ([10], [11], [12]). Ta
koncepcja filozoficzna znalazła w światowej nauce wielu zwolenników. Podjęto próby konstru-
6
Mirosław Bereziński, Jerzy Hołubiec, Dariusz Wagner
Hierarchiczna struktura poznania – piramida wiedzy
owania nowych bądź przebudowania wielu starych teorii w taki sposób, by w jak największej mierze były z nią zgodne. Zaczęto negować ideę realizmu, wedle której obiekty będące przedmiotem
rozwaŜań w danej dziedzinie badawczej oraz ich własności istnieją niezaleŜnie od procesu poznawczego i – wobec tego – nie są przez umysł badacza tworzone, lecz odkrywane. Jako stanowisko przeciwstawne realizmowi sformułowano antyrealizm, który w nauce występuje pod nazwą
instrumentalizmu (wszelka wiedza i działalność ludzka nie są niczym więcej, jak tylko instrumentami, słuŜącymi przystosowywaniu się do otoczenia i opanowywaniu go). Realizm pojęciowy zaczął być wypierany przez nominalizm, realizm psychologiczny – przez epifenomenalizm, realizm
aksjologiczny – przez emotywizm itd. Negatywne skutki tego procesu są nauce aŜ nadto widoczne.
Jednym z nich jest fakt, Ŝe mimo niezaprzeczalnie wielkich osiągnięć współczesna nauka w duŜej
mierze utraciła zdolność przewidywania, zwłaszcza w odniesieniu do sytuacji wymagających
uwzględniania czynników ryzyka i nieokreśloności przyszłości. Powszechnie uwaŜa się, Ŝe gwarantem poprawności decyzji strategicznych jest oszacowanie ryzyka w procesie decyzyjnym,
zwłaszcza ryzyka wielowymiarowego. Nagminnie zapomina się, Ŝe istotny wpływ na ich jakość
równieŜ ma nieokreśloność przyszłości, której miarą nie jest ryzyko. Niestety, badania nad rolą
tego czynnika w podejmowaniu decyzji strategicznych, dynamicznie rozwijane w latach 70. dwudziestego wieku, zostały niemal całkowicie przerwane. Lansuje się pogląd, Ŝe próby naukowego
przenikania przyszłości są nierealne i nieracjonalne z uwagi na jej poznawczą niedostępność, Ŝe
przypisywanie prognozom predykatów w rodzaju „dobra” lub „zła” jest wyrazem przenoszenia na
nie emocjonalnych reakcji badacza, Ŝe prognoza jako ogólna kategoria pojęciowa realnie nie istnieje, bowiem nie odpowiada jej Ŝaden konkretny obiekt itd. Gdyby uznać te poglądy za w pełni
prawdziwe, to naleŜałoby w ogóle zrezygnować z badań naukowych nad kształtowaniem rozwoju
systemów ekonomicznych, społecznych, technicznych i innych, zwłaszcza w długich horyzontach
czasowych. Bezsens i szkodliwość takiego postulatu są aŜ nadto oczywiste: świat nie był przygotowany na moŜliwość niespodzianego wystąpienia kryzysu finansowego i znalazł się w pułapce.
Brak globalnych i lokalnych realistycznych alternatywnych scenariuszy rozwoju – uwzględniających czynniki ryzyka i nieokreśloności – zmusił do podejmowania decyzji spontanicznych, które
wprawdzie przynoszą doraźną poprawę sytuacji, ale ze strategicznego punktu widzenia mogą w
przyszłości okazać się decyzjami z gruntu nietrafnymi.
Ten przykład unaocznia potrzebę przywrócenia nauce europejskiej rangi napędowego czynnika rozwoju kulturowego i cywilizacyjnego oraz uczynienie z niej na powrót obiektywnego, racjonalnego i realistycznego narzędzia wspomagającego kształtowanie przyszłości. Dopóki nie dokona
się zasadniczego zwrotu w tym kierunku, dopóty nie moŜna spodziewać się istotnego postępu w
przewidywaniu sytuacji kryzysowych w dalekosięŜnych horyzontach czasowych i przygotowywaniu strategii ich pokonywania. Aby to zrobić, trzeba przede wszystkim krytycznie, ale zarazem racjonalnie, realistycznie i konstruktywnie nawiązać do przeszłości. Pamiętając o tym, Ŝe przyszłość
nie jest i nie moŜe być zwykłą ekstrapolacją przeszłości nie wolno równieŜ zapominać o tym, Ŝe
jednym z warunków skuteczności prognozowania ewolucji systemów o celowym działaniu jest
przestrzeganie historycznie ukształtowanych zasad logiki ich rozwoju. Jest to logika systemowa.
Jeśli więc mówi się o planach uczynienia z Europy lidera nowej fali rozwoju, której wyróŜnikiem
ma być racjonalne wykorzystanie indywidualnego i zbiorowego (społecznego) kapitału ludzkiego,
to trzeba przede wszystkim osadzić te plany w ramach europejskiej myśli filozoficznej. Nie naleŜy
więc bezkrytycznie przejmować i propagować w krajach europejskich teorii kapitału ludzkiego
opracowanych w innych warunkach kulturowych i cywilizacyjnych, lecz podjąć trud opracowania
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
7
teorii zgodnej z ideami i ideałami, które dotychczas kształtowały i kształtują naszą cywilizację.
2. Potrzeba retrospektywnego spojrzenia na proces poznawczy i system wiedzy
Naukowe poznawanie i przewidywanie moŜliwych ścieŜek ewolucji systemów o celowym
działaniu prowadzi do moŜności świadomego kształtowania ich przyszłości. Aby móc zastanawiać
się nad przyszłością systemu trzeba posiadać odpowiednią wiedzę o nim i jego otoczeniu, aby zaś
podejmować decyzje kształtujące jego przyszłość, trzeba umieć przewidywać – i naleŜy to robić
metodami naukowymi. Jak juŜ powiedzieliśmy, u źródeł niemocy, która w ostatnich dziesięcioleciach dotknęła teorię naukowego przewidywania sytuacji kryzysowych, leŜy zerwanie ciągłości jej
rozwoju, spowodowane – przede wszystkim – zanegowaniem metodologicznej poprawności tradycyjnego paradygmatu obiektywności, realności i racjonalności nauki. W międzyczasie pojawiły się
nowe pokolenia badaczy zajmujących się prognozowaniem, nie znające bogatego i konstruktywnego dorobku przeszłości, opartego na solidnych podstawach aksjologicznych i epistemologicznych.
Panuje co prawda powszechne przekonanie o potędze indywidualnej wiedzy człowieka oraz zbiorowej wiedzy społeczności i społeczeństw, ale jednocześnie dostrzega się teŜ wyraźną bezradność,
jeśli chodzi o metodologię, metodykę i metody efektywnego kształtowania wiedzy. Jednym z powodów tego stanu rzeczy jest ignorowanie dorobku osiągniętego w tym zakresie przez wcześniejsze pokolenia. W szczególności, zdając sobie sprawę z tego, Ŝe proces poznania naukowego nie
moŜe biec w sposób Ŝywiołowy, wkłada się olbrzymi wysiłek w poszukiwanie schematów odtwarzających elementarną logikę procesu poznania i strukturę wiedzy. UwaŜa się to za zadanie nowe,
wynikające z koncepcji społeczeństwa informacyjnego. Krytykując to stanowisko D. Conway
zwrócił lakonicznie uwagę, Ŝe w istocie prowadzi ono do ponownego odkrywania tego wszystkiego, co o procesie poznania jest juŜ znane [8]. Istotnie, problem logiki procesu poznania i hierarchicznej strukturalizacji wiedzy zaprząta umysły myślicieli europejskich juŜ od ponad dwóch tysięcy lat. Nie moŜna lekcewaŜyć uzyskanego przez nich dorobku. NaleŜy na ten dorobek spojrzeć
krytycznie, ale z szacunkiem w kontekście współczesnych potrzeb i uwarunkowań. Przede wszystkim jednak trzeba przywrócić pamięć o tym, Ŝe poznanie jest z samej swej natury procesem rozumowym i rozumnym, wieloaspektowym, wielokontekstowym, wielocelowym oraz hierarchicznie
ustrukturalizowanym. Poszukując sposobów czytelnego odwzorowania jego struktury warto więc
odwrócić się od hasła poŜegnania z rozumem i świadomie skorzystać z dorobku przeszłości. Niestety, myśl o konieczności dokonania tego zwrotu przebija się niezwykle opornie. Zamiast tego od
co najmniej trzech dekad nieustannie podejmuje się – nierzadko wręcz niepowaŜne – próby odwzorowania struktury wiedzy w postaci odpowiednio skonstruowanej piramidy oraz znalezienia
pierwowzoru tej koncepcji (zob., np.: [1], [5]. [7], [29], [31]). Z jednej strony świadczą one o coraz szerszym i głębszym uświadamianiu sobie przez obecne pokolenia badaczy niekonstruktywności hasła „farewell to reason” oraz potrzeby osadzenia procedur poznawczych we współczesnej
nauce na solidnych podstawach metodologicznych, z drugiej zaś – są wyrazem bezradności wynikającej z rozluźnienia w ostatnich kilku dziesięcioleciach sprzęŜenia zwrotnego między nauką i filozofią. Koncepcja hierarchizacji procesów poznawczych nie jest bowiem nowa. Powstała w kręgu
staroŜytnej cywilizacji greckiej jako wypadkowa filozoficznych rozwaŜań nad istotą i sensem procesu ludzkiego poznania. Od tego czasu – przechodząc róŜne koleje losu – trwała i rozwijała się w
symbiozie z filozofią europejską, stanowiąc przez przeszło dwa tysiące lat główną oś działalności
poznawczej na kontynencie. Kierunek tej osi był wyznaczony przez rozumowe i racjonalne dąŜenie
do poszukiwania obiektywnej prawdy, poznawania jej i zdobywania mądrości osobistej i zbioro-
8
Mirosław Bereziński, Jerzy Hołubiec, Dariusz Wagner
Hierarchiczna struktura poznania – piramida wiedzy
wej. S. Kamiński [18] przypomina, Ŝe związki między elementami teorii bywały określane w rozmaity sposób, przy czym – w ślad za Arystotelesem – idealną strukturę teorii naukowej przedstawiano w postaci ściętej piramidy. Z nielicznych załoŜeń, których symbolem była krótsza podstawa
piramidy, naleŜało stopniowo wydedukować i idąc w kierunku dłuŜszej podstawy, wszystkie coraz
bardziej ogólne twierdzenia naukowe. Potem modyfikowano tylko sposób akceptacji naczelnych
przesłanek. Pozytywiści odwrócili piramidę arystotelesowską. Przyjęli bowiem, Ŝe podstawowymi
przesłankami teorii naukowej są zdania obserwacyjne, z których naleŜy indukować prawa, a z nich
– dedukować przewidywania.
Istnieje potrzeba przypominania kolejnym pokoleniom badaczy zajmujących się problematyką
wiedzy i społeczeństwa informacyjnego tej koncepcji procesu poznania, która w przeszłości wytyczała ścieŜki rozwoju europejskiej myśli naukowej i refleksji filozoficznej. Nie chodzi jednak o to,
by bezkrytycznie na nie powrócić i ślepo nimi podąŜać. Byłoby to zgubne dla nauki. Chodzi
przede wszystkim o to, by formułując nowe koncepcje rozwoju nauki nie zapominać o jej korzeniach i odniesieniach filozoficznych, które w przeszłości kształtowały jej toŜsamość i pochopnie
nie zastępować ich wzorcami zaczerpniętymi z innych kręgów kulturowych oraz cywilizacyjnych.
Trzeba przede wszystkim pamiętać o:
1. Pochodzącej od Platona i Arystotelesa obiektywistycznej koncepcji nauki, wedle której nadrzędnym celem nauki jest poznanie prawdy dla samej prawdy [2], [3], [32].
2. Pochodzącej od F. Bacona (1561-1626) a rozwiniętej przez R. Descartesa (15961650) uŜytecznościowej koncepcji nauki, głoszącej, Ŝe celem nauki nie jest poznawanie prawdy dla samej prawdy, lecz poznawanie prawdy uŜytecznej, którą moŜna by
spoŜytkować w formie wynalazków [4], [9], [32].
3. Sformułowanej przez I. Kanta (1724-1804) subiektywistycznej koncepcji nauki, uznającej, Ŝe źródłem prawd naukowych nie jest świat realny lecz rozum podmiotu poznającego i Ŝe z tego powodu prawdy te mają charakter subiektywny [16, [17], [32].
4. Zaproponowanej przez A. Comte’a (1798-1857) koncepcji logicznego pozytywizmu,
wedle której początkiem wiedzy naukowej jest poznanie zmysłowe a zadanie nauki
naleŜy ograniczyć wyłącznie do badania rzeczy realnie istniejących, o których moŜna
uzyskać wiedzę ścisłą i pewną w sensie fizyczno-matematycznym, przy czym krytyka
naukowa powinna mieć charakter konstruktywny [25], [32].
5. Przedstawionej przez K. Poppera (1902-1994) koncepcji krytycznego racjonalizmu,
stojącej w opozycji do pozytywistycznej koncepcji Comte’a i opartej na zasadzie falsyfikowalności, jako kryterium weryfikacji poprawności teorii naukowej [26], [27],
[28].
Przede wszystkim w łonie tych koncepcji ukształtowały się w przeszłości – między innymi –
realizm (jako kierunek filozoficzny i metoda poznania naukowego stojące w opozycji do idealizmu) oraz racjonalizm (jako kierunek filozoficzny i metoda poznania naukowego przeciwstawne
empiryzmowi). Istotą realizmu było przekonanie, Ŝe rzeczywistość istnieje obiektywnie czyli realnie, a więc niezaleŜnie od człowieka. Racjonalizm głosił natomiast pogląd o moŜliwości czysto
rozumowego poznania świata na drodze wnioskowania dedukcyjnego, wykorzystującego z góry
ustalone systemy aksjomatów. Uprzytamnia ono, Ŝe nie moŜna pochopnie tworzyć koncepcji alternatywnych w stosunku do tych, które przez ponad dwa tysiąclecia wyznaczały kierunki rozwoju
kultury i cywilizacji europejskiej. Odrywanie nauki europejskiej od jej korzeni i tradycji filozoficznych niszczy jej toŜsamość i grozi zaprzepaszczeniem jej wielkiego dziedzictwa materialnego
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
9
oraz duchowego, które – wzbogacone przez obecną generację – powinno być przekazane w spuściźnie następnym pokoleniom. Zamiast więc bezkrytycznie i z brakiem pokory wobec przeszłości
oraz odpowiedzialności wobec przyszłości ulegać hasłu Ŝegnania się z rozumem, warto ponownie
zastanowić się nad stosunkiem nauki do rzeczywistości oraz nad modelem zmian w stylu uprawiania nauki. W szczególności naleŜy pamiętać, Ŝe nauka europejska zawsze była otwarta na dorobek
materialny i duchowy uzyskiwany w innych kręgach cywilizacyjnych i – co jest szczególnym powodem jej dumy – otwarcie dzieliła się z nimi dorobkiem własnym, wnosząc tym samym niekwestionowany wkład w naukę światową. Pieczołowicie pielęgnowała, rozwijała i utrwalała swoją toŜsamość, zakorzenioną w dawnej greckiej filozofii racjonalnego działania, opartej na zasadzie
współjedności poznania teoretycznego, praktycznego i twórczego. Postępując drogą oświetloną
przez czysto racjonalną wiedzę filozoficzną traktowała poznanie jako podstawowe ludzkie działanie, występujące w porządku zmysłowym i intelektualnym, kierujące postępowaniem człowieka
oraz jego twórczym wysiłkiem – w szczególności pracą naukową. Niebezpieczeństwem dla nauki
europejskiej nie jest więc jej otwarcie na prądy i koncepcje pochodzące z innych obszarów kulturowych i cywilizacyjnych, lecz bezkrytyczne zastępowanie nimi ukształtowanych w ciągu dziejów
własnych wzorców aksjologicznych i epistemologicznych, które stały się znamionami naszej toŜsamości.
3. Struktura procesu poznania i hierarchizacja wiedzy
U podstaw wszelkiej praktycznej działalności człowieka leŜy poznanie, czyli świadomie przez
niego prowadzony proces uzyskiwania prawdziwej i obiektywnej wiedzy o rzeczywistości. PoniewaŜ człowiek jest bytem cielesno-duchowym, więc proces poznania przebiega w dwóch róŜnych,
lecz wzajemnie sprzęŜonych ze sobą porządkach: zmysłowym i intelektualnym. Jest to proces niematerialny, którego źródłem jest ludzki intelekt, zaś istotą – zrozumienie rzeczywistości. Dokonuje
się ono poprzez akty poznawcze, których efektem jest powstanie w umyśle badacza pojęć reprezentujących najistotniejsze aspekty rozpatrywanego obiektu rzeczywistego. W pojęciach tych wyraŜa się sposób zrozumienia obiektu przez badacza. Posiadanie pojęcia pozwala badaczowi na refleksję nad obiektem badań.
Rys. 1. Podstawowa struktura procesu poznania
Na rys. 1 jest przedstawiony schemat ideowy struktury procesu poznania. Istnieje wiele teorii
opisujących tę strukturę (zob., np.: [8], [32]). Jedną z najbardziej spójnych a zarazem syntetyzującą całokształt europejskiego dorobku w tej dziedzinie począwszy od epoki arystotelesowskiej do
czasów dzisiejszych, przedstawił M.A. Krąpiec (1921-2008). Opisał on proces poznania jako następującą sekwencję działań [ 21]:
1. Zakłada się, Ŝe rozpatrywany obiekt materialny jest zanurzony w pewnym otoczeniu, na które oddziałuje za pomocą właściwych sobie bodźców, przy czym sam
podlega wpływowi otoczenia.
2. Bodźce odebrane przez aparat poznawczy człowieka oddziałują na jego organy
zmysłowe, wywołując w nim odpowiednie wraŜenia fizjologiczne.
10
Mirosław Bereziński, Jerzy Hołubiec, Dariusz Wagner
Hierarchiczna struktura poznania – piramida wiedzy
3.
WraŜenia fizjologiczne są w organizmie ludzkim przekształcane we wraŜenia poznawcze, a następnie róŜne wraŜenia poznawcze są scalane w jedno wraŜenie poznawanego przedmiotu za pomocą tzw. zmysłu wspólnego. Zmysł ten ma zdolność
kojarzenia i scalania w jedno wraŜeń odbieranych przez róŜne zmysły.
4. WraŜenia wspólne sprawiają, Ŝe w umyśle człowieka powstaje wyobraŜenie rozpatrywanego obiektu. Jest ono zapamiętywane i moŜe być w kaŜdej chwili wywołane,
nawet w nieobecności tego obiektu.
5. KaŜde wyobraŜenie jest przez człowieka analizowane i zrozumiane. Proces rozumienia dokonuje się przede wszystkim przez tworzenie pojęć (tj. pojęciowanie) i
rozumowanie.
6. Pojęcia, poprzez które widzi się i rozumie przedmiot poznania są w umyśle ludzkim przetwarzane, przy czym w wyniku róŜnych form rozumowania powstają sądy,
którym nieustannie towarzyszy refleksja.
Na przestrzeni wieków róŜnie patrzono na proces powstawania i rozwoju teorii naukowych
oraz na ich rolę w kreowaniu wiedzy. Dominowało przekonanie, Ŝe uprawianie nauki jest jednym
z najdoskonalszych sposobów poznania i zbliŜania się do filozoficznego ideału prawdy absolutnej
oraz mądrości. Oderwanie nauki – i to nie tylko europejskiej – od jej filozoficznych korzeni pociągnęło za sobą radykalną zmianę spojrzenia na cel badań naukowych. Nadal wprawdzie głoszono
i głosi się, Ŝe przedmiotem poznania naukowego jest prawda, ale zrelatywizowano sens tego pojęcia. Odrzucono istnienie prawdy absolutnej. Przyjęto, Ŝe pojęcie prawdy jest względne, tzn. Ŝe to,
czy jakiemuś poglądowi moŜna przypisać atrybut prawdziwości zaleŜy od osoby, która go wypowiedziała oraz od okoliczności, w jakich został wypowiedziany. Doprowadziło to do zrelatywizowania pojęcia autorytetu naukowego, jako społecznie uznawanej powagi w jakiejś dziedzinie wiedzy. Skutki tego są aŜ nadto widoczne. Wybitny polski filozof i logik, J.M. Bocheński (19021993), pisał o tym tak: „Istnieje wiele nieszczęśliwych nauk, jak: ekonomia polityczna, filozofia,
teologia, nauka wojenna, Ŝe nie wspomnę o futurologii, o których wszyscy mówią, jakby coś o nich
wiedzieli, chociaŜ w tych dziedzinach są kompletnymi ignorantami. Mawia się o tych ludziach jako
o kawiarnianych ekonomistach, kawiarnianych strategach itd. i z jakim ‹autorytetem› mówią o oni
o jedynym sposobie przezwycięŜenia inflacji, usunięcia wszelkiego zła społecznego (…)! Wszystko to byłoby śmieszne, gdyby nie było tak bezrozumne, i dlatego, tak smutne. Bo najsmutniejsze
jest, kiedy człowiek zachowuje się jak istota bezrozumna” ([6], s. 230]). Te gorzkie słowa skłaniają do zastanowienia się nad przyczynami takiego stanu rzeczy. Jedną z nich jest bez wątpienia oderwanie się współczesnej nauki od jej tradycyjnych podstaw aksjologicznych i epistemologicznych.
Wskutek tego uległ niebezpiecznemu zatarciu i znacznemu zapomnieniu ostry niegdyś obraz poznania i wiedzy. Mniej więcej na przełomie lat 70. i 80. dwudziestego wieku zaczęto więc od nowa
tworzyć koncepcję struktury procesu poznania i systemu wiedzy, jednak bez jakichkolwiek odniesień do koncepcji istniejących w przeszłości. Jako punkt wyjścia przyjęto schemat piramidy wiedzy
zaproponowany przez wybitnego amerykańskiego specjalistę z dziedziny badań operacyjnych
i systemowych, R.L. Ackoffa, który wyróŜnił pięć następujących poziomów poznania: dane → informacja → wiedza → zrozumienie → mądrość [1].
Autorytet R.L. Ackoffa w jego podstawowej dziedzinie sprawił, Ŝe nawet nie dopuszczono
myśli o niepoprawności tego schematu, mimo jego oczywistej sprzeczności z logiką procesu poznania. Dopiero po pewnym czasie zaczęto dostrzegać mankamenty koncepcji Ackoffa i nieśmiało
ją modyfikować. Wskutek tego powstało wiele wariantów piramidy, róŜniących się liczbą, kolejno-
11
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
ścią bądź interpretacją poszczególnych poziomów. W międzyczasie nagromadziło się równieŜ wiele niejasności co do pochodzenia samej koncepcji piramidy oraz jej autorstwa. Dyskusja na ten
temat wciąŜ trwa, ale przypomina błądzenie po bezdroŜach. Aby ją właściwie ukierunkować trzeba
przede wszystkim wyjaśnić, Ŝe Ackoff nie jest autorem pojęcia piramidy wiedzy. Istniało ono juŜ
wcześniej w literaturze przedmiotu (zob., np.: [7], [31]). Trzeba teŜ stwierdzić wprost, Ŝe podany
przez Ackoffa schemat piramidy jest metodologicznie niepoprawny. Rozumienie poznawanej rzeczywistości jest bowiem nierozerwalnie związane z kaŜdym ogniwem łańcucha poznawczego i nie
moŜe być uwaŜane za odrębny poziom piramidy. Bellinger, Castro i Mills [5], którzy zwrócili na to
uwagę, zmodyfikowali schemat podany przez Ackoffa w następujący sposób: przyjęli, Ŝe łańcuch
poznawczy ma cztery ogniwa i przedstawili go w postaci następującej sekwencji: dane
→ inzrozumienie
formacja
→
zrozumienie
wiedza
→
mądrość. Zwrócili takŜe uwagę na to, Ŝe w miarę wzrostu zro-
zrozumienie
zumienia poznawanej rzeczywistości rośnie teŜ stopień kojarzenia przez człowieka powiązań między odrębnymi faktami. Jednak i ten schemat nie jest poprawny, bo sugeruje istnienie w procesie
poznawczym ogniw, w których wyłączona jest praca umysłu. Prawdą jest, na przykład, Ŝe aby
z danych wydobyć informację trzeba zrozumienia ich sensu, istoty i treści, ale nie jest prawdą, Ŝe
w ogniwach „dane” i „informacja” proces rozumienia jest zawieszony. Markus [23] zaakceptował
wersję piramidy, którą podali Bellinger, Castro i Mills oraz zaproponował wykorzystanie idei tego
schematu do obrazowania hierarchicznych struktur rozmaitych procesów i systemów rozpatrywanych w dziedzinie zarządzania wiedzą. Rowley [29] teŜ przyjął schemat piramidy podany przez
Bellingera, Castro i Millsa i podjął próbę zdefiniowania podstawowych pojęć związanych z jej
wykorzystaniem w tej dziedzinie. M. Zeleny [34] zaproponował wyróŜnienie w tej piramidzie jeszcze jednego poziomu, umieszczonego bezpośrednio nad mądrością. Poziom ten ma – wedle niego
– przypominać o ostatecznym celu ludzkiego poznania, którym jest dochodzenie do istoty prawdy,
dobra i zła. Poziomowi temu nadał nazwę „Oświecenie”. Poszukiwania schematu, któryby poprawnie odwzorowywał hierarchiczną strukturę wiedzy wciąŜ trwają i nierzadko prowadzą do ciekawych, ale niekonstruktywnych stwierdzeń. Na przykład, zdaniem H. Clevelanda [7], koncepcja
hierarchicznej struktury wiedzy narodziła się w poezji i po raz pierwszy została wyraŜona przez
anglo-amerykańskiego poetę, T.S. Elliota, który w jednym ze swoich poematów z 1934 r. snuł taką
refleksję: „Where is the Life we have lost in living? Where is the wisdom we have lost in knowledge? Where is the knowledge we have lost in information?” (Gdzie jest śycie, które utraciliśmy
Ŝyjąc? Gdzie jest mądrość, którą utraciliśmy w wiedzy? Gdzie jest wiedza, którą utraciliśmy
w informacji?). N. Sharma uwaŜa, Ŝe o poetyckich korzeniach koncepcji piramidy wiedzy świadczą równieŜ następujące słowa amerykańskiego instrumentalisty, wokalisty oraz autora tekstów, F.
Zappy, który w 1979 r. napisał: „Information is not knowledge, Knowledge is not wisdom, Wisdom is not truth, Truth is not beauty, Beauty is not love, Love is not music: and Music is The Best”
(Informacja nie jest wiedzą, wiedza nie jest mądrością, mądrość nie jest prawdą, prawda nie jest
pięknem, piękno nie jest miłością, miłość nie jest muzyką: a najlepsza jest muzyka) [31]. Nie moŜna zaprzeczyć, Ŝe oba te teksty wyraŜają w piękny poetycki sposób ideę hierarchii ludzkiego poznania. Ale nie moŜna teŜ twierdzić, Ŝe to w nich właśnie po raz pierwszy została przedstawiona
koncepcja tej hierarchii.
Taki pogląd świadczy o głębokim niezrozumieniu istoty procesów poznawczych, wynikającym
z rozdźwięku między współczesną nauką a filozofią. Pitagoras uwaŜał, Ŝe istotą filozofii jest umi-
12
Mirosław Bereziński, Jerzy Hołubiec, Dariusz Wagner
Hierarchiczna struktura poznania – piramida wiedzy
łowanie mądrości. Mówi się jednak o piramidach wiedzy i mądrości bez jakiegokolwiek odniesienia do filozofii, mimo Ŝe właśnie w sferze poznania rola filozofii jest nie do przecenienia. S. Kamiński i J. Herbut piszą: „Najgłębsze i trafne merytorycznie poznanie świata oraz hierarchii wartości jest nieodzowne dla ludzkiego działania kulturotwórczego. Filozofia winna tu słuŜyć za przewodnika, gdyŜ wskazuje i w porządku ontycznym ostatecznie uzasadnia, dlaczego naleŜy preferować określone zachowania wartościotwórcze, oraz jednolicie rozwiązuje problemy wykraczające
poza poszczególne dziedziny kultury (…), a wreszcie dostarcza środków do zrozumienia jej przemian i kryteriów oceny jej osiągnięć. Filozofia stanowi przeto jakby samoświadomość kultury,
przenika ją całą, lecz nie redukuje się do Ŝadnej z jej dziedzin, które harmonizuje tak, aby człowiek
mógł się równomiernie i w pełni doskonalić …” ([19], s. 201-202). Trzeba więc przyjąć, Ŝe poznanie jest świadomie wykonywanym przez człowieka procesem uzyskiwania informacji o realnej rzeczywistości, a podstawowym celem i kryterium jakości tego procesu jest prawda. Skoro tak, to
proces ten zawsze wiąŜe się z wysiłkiem poznawczym człowieka i wymaga wykonania przez jego
umysł określonej pracy intelektualnej. Prawdziwością i zasadnością ludzkiego poznania zajmuje
się dział filozofii zwany teorią poznania, gnozeologią lub epistemologią. Teoria ta wyrosła w ramach filozofii, która jest wytworem i chlubą myśli europejskiej i która od przeszło dwóch i pół
tysiąca lat stanowi oś rozwoju naszej cywilizacji. Teorie wiedzy i zarządzania wiedzą nie mogą
być bowiem sprzeczne z postulatami teorii poznania. Przyjmowanie za ich metodologiczną podstawę koncepcji piramidy wiedzy zaproponowanej przez R.L. Ackoffa byłoby sprzeczne z naturą
i filozofią procesu poznania.
Przedstawianie struktury procesu poznania w postaci piramidy jest głęboko zakorzenione w
dorobku kulturowym i cywilizacyjnym Europy. Znane jest ono bowiem od czasów Arystotelesa,
który wyodrębnił trzy wzajemnie ze sobą powiązane poziomy poznania ludzkiego: doświadczenie
→ wiedza → mądrość (rys. 2).
Rys. 2. Arystotelesowska piramida wiedzy (D –doświadczenie, W – wiedza, M – mądrość)
Arystoteles [2] wprowadził rozróŜnienie między „wiedzą wytwórczą” oraz „wiedzą naukową”
i zwrócił uwagę na to, Ŝe „… wiedza naukowa i umiejętności praktyczne wypływają u ludzi z doświadczenia” (s. 4). U szczytu procesu poznania postawił mądrość. Pisał: „Mądrość powstaje
z wiedzy i z poszukiwania rzeczy, które filozofia umoŜliwia nam objąć. (…) Musimy stać się filozofami, jeŜeli chcemy dobrze rządzić państwem i poŜytecznie przeŜyć Ŝycie (…), bo tylko filozofia
zawiera w sobie prawdziwe sądy i bezbłędną mądrość zlecającą, co naleŜy czynić, a czego nie naleŜy” ([3], s. 4-5). Uczył, Ŝe mądrość jest najwyŜszym i najbardziej poŜytecznym dobrem, które
człowiek powinien starać się posiąść. Jest ona bowiem „dobrem samym w sobie, nawet gdyby
z niej nic poŜytecznego nie wynikało dla ludzkiego Ŝycia” (s. 16). Niestety, współczesna nauka
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
13
i technika do tego stopnia rozluźniły swoje więzi z filozofią, Ŝe czynnikiem wyznaczającym kierunki ich rozwoju stała się nie tyle działalność rozumowa, co bezpośrednia praktyczna uŜyteczność
odkryć naukowych i wynalazków. J.M. Bocheński ostrzega: „największym niebezpieczeństwem,
które nam dzisiaj grozi, jest coraz powszechniejsze odwracanie się człowieka od rozumu”. (…)
MoŜna by sądzić, Ŝe naukowcy powinni być stróŜami i nauczycielami rozumu. Zadziwiające jednak, jak dalece ci sami naukowcy mogą być irracjonalni (…) MoŜna by zebrać całą bibliotekę nonsensów wypowiedzianych przez naukowców na temat zagadnień filozoficznych. (…) Jest więc jasne, Ŝe naukowcy jako tacy nie mogą pomimo racjonalności w ich własnych dziedzinach, uchodzić
za nauczycieli i obrońców rozumu u ludzi. (…) Jedyną siłą, która tę funkcję mogłaby spełnić jest
filozofia. I nie kaŜda filozofia, lecz ta, która otwarcie, w teorii i praktyce, przyznaje się do rozumu,
do racjonalności: filozofia analityczna” ([6]. s. 48-49). Niedocenianie znaczenia badań teoretycznych jest wyrazem niewiary w potęgę ludzkiego rozumu i negatywnie odbija się na sferze praktyki.
Obszaru badań naukowych nie moŜna ograniczać jedynie do sfery bezpośrednio odczuwanych potrzeb. Posługiwanie się zasadą wąskiego praktycyzmu prowadzi bowiem do zuboŜenia wiedzy teoretycznej i degeneracji sfery jej zastosowań. Poszukiwanie we wszelkiej wiedzy wyników róŜnych
od niej i Ŝądanie, aŜeby była uŜyteczna, nie jest stanowiskiem konstruktywnym. Nie moŜna więc
bezkrytycznie przyjmować coraz inaczej przedstawianych wariantów piramidy wiedzy, choćby
pochodziły one nawet od najwybitniejszych autorytetów - tym bardziej, Ŝe odwzorowywana przez
nią hierarchia wiedzy leŜy u podstaw teorii wiedzy i zarządzania wiedzą. Aby właściwie ustawić
i poprawnie odczytywać relacje zachodzące między doświadczeniem, wiedzą i mądrością trzeba
odwołać się do filozofii. A. Grzegorczyk, polski matematyk, jeden z czołowych współczesnych
specjalistów z dziedziny logiki formalnej i filozofii wiedzy, pisze: „OdróŜnienie spraw mniej lub
bardziej istotnych oraz pojęć mniej lub bardziej ogólnych prowadzi do pewnej filozoficznej refleksji nad strukturą ludzkiej wiedzy. W ramach filozofii europejskiej juŜ w staroŜytności powstało
mianowicie wyobraŜenie wiedzy ludzkiej jako struktury hierarchicznej w kształcie piramidy. Na jej
szczycie znajdują się wiadomości najogólniejsze, dotyczące najszerszego zakresu wiedzy. Potem
następują wiadomości coraz bardziej szczegółowe, wiedza przy tym coraz bardziej rozczłonkowuje
się na róŜne dziedziny. Wizja ta uzyskała miano logicznej struktury wiedzy” ([14], s.20). Zwornikiem tej hierarchicznej struktury jest mądrość, czyli – najogólniej mówiąc – wrodzona lub nabyta
zdolność człowieka, wskazująca mu właściwy kierunek Ŝycia i pomagająca mu zapewnić sobie
pomyślność, a nawet szczęście. NaleŜy pamiętać, Ŝe filozoficzne określenia mądrości są zrelatywizowane do kierunków filozoficznych (zob., np.; [21], [22], [32]).
Wiedza i mądrość są pojęciami wieloznacznymi. Nie tej samej wiedzy i mądrości potrzeba
człowiekowi do Ŝycia i do godziwego Ŝycia. Nie tej samej wiedzy i mądrości potrzeba mu do podejmowania decyzji i do podejmowania dobrych decyzji. Czasem moŜna zadowolić się praktyczną
wiedzą i mądrością, ale w zdecydowanej większości sytuacji trzeba posiadać wiedzę naukową
i zdobyć się na refleksję filozoficzną. Od momentu zaistnienia aŜ do chwili śmierci człowiek nieustannie zdobywa wiedzę. Dokonuje się to w toku procesu racjonalnego poznania intelektualnego,
którego istotą jest świadome pogrąŜanie się umysłu w rzeczywistości: poprzez czynności pojęciowania, wnioskowania i rozumowania umysł człowieka zdąŜa od niewiedzy do wiedzy, od wiedzy
powierzchownej do głębokiej, od wiedzy potocznej do naukowej, od wiedzy szczegółowej do
ogólnej ([2], [3], [6], [14], [18], [21]).
Są róŜne rodzaje wiedzy, przy czym poszczególne jej typy zestawia się zwykle w pary, których człony posiadają przeciwstawne cechy (ze względu na sposób dotarcia do przedmiotu pozna-
14
Mirosław Bereziński, Jerzy Hołubiec, Dariusz Wagner
Hierarchiczna struktura poznania – piramida wiedzy
nia – wiedza bezpośrednia i pośrednia; ze względu na stosowaną metodę – wiedza dedukcyjna
i indukcyjna; ze względu na sposób zdobywania wiedzy – wiedza systematyczna i niesystematyczna; ze względu na dogłębność dociekań – wiedza szczegółowa i ogólna; ze względu związek z aktywnością człowieka – wiedza czysta, zaangaŜowana i zawodowa; ze względu na rodzaj przedmiotów – wiedza o świecie wewnętrznym, o przedmiotach świata zewnętrznego, o przedmiotach logicznych i matematycznych; ze względu na cel przedmiotowy – wiedza teoretyczna i praktyczna).
Zasadnicze typy czynności poznawczych nazywa się źródłami wiedzy. Tradycyjnie wyróŜnia się
następujące źródła wiedzy: percepcyjne, introspekcyjne, pamięciowe, indukcyjne i aprioryczne
[21]. WaŜny jest podział wiedzy na potoczną (przednaukową) i naukową. Wiedza potoczna ma
charakter zdroworozsądkowy i stanowi racjonalną podstawę wiedzy naukowej. Pod pojęciem wiedzy naukowej rozumie się ścisły, logicznie dowiedziony, usystematyzowany na podstawie określonych zasad teoretycznych, praktycznie uzasadniony, metodycznie zorganizowany, racjonalny system wiedzy o świecie rzeczy i osób.
4. Zakończenie i wnioski
Współczesna nauka przeŜywa głęboką zapaść spowodowaną częściowym zanegowaniem klasycznego znaczenia pojęć obiektywności, realizmu, racjonalności i prawdy naukowej. Osłabia to
zdolność prognostyczną nauki, w szczególności zdolność przewidywania sytuacji kryzysowych.
W pracy zwrócono uwagę na aksjologiczną i epistemologiczną sprzeczność hasła „farewell to reason” z tradycjami filozofii i nauki europejskiej. Przeprowadzono krytyczną analizę skonstruowanych w ostatnich kilku dekadach rozmaitych wersji tzw. piramidy mądrości oraz sposobów uzasadniania ich metodologicznej poprawności. Przypomniano, Ŝe idea przedstawiania procesu poznania
w formie piramidy, a ściślej biorąc trapezu, ma w filozofii i nauce europejskiej tradycję liczącą
ponad dwa tysiące lat. Zaproponowano przyjęcie za podstawę analizy struktury procesu poznania
arystotelesowską hierarchiczną triadę „doświadczenie – wiedza - mądrość”. Wskazano, Ŝe jednym
z podstawowych mankamentów w literaturze poświęconej teorii wiedzy jest uŜywanie przez wielu
autorów pojęć „dane”, „informacja” i „wiedza” w sensie synonimicznym. Tymczasem kaŜde z tych
pojęć ma odmienne i właściwe sobie znaczenie: posiadanie danych nie musi świadczyć o posiadaniu informacji, moŜna posiadać informację a nie mieć wiedzy itd.
Teoria wiedzy jest dziedziną interdyscyplinarną. UwaŜamy, Ŝe jednym z głównych kierunków
badawczych powinno stać się szerokie wykorzystanie metod fizyki, cybernetyki, teorii systemów,
matematyki, ekonomii, socjologii i psychologii do skonstruowania formalnych podstaw tej teorii.
Powinna to być teoria probabilistyczno-statystyczna, ale nie ograniczająca się tylko do klasycznego
rozumienia pojęcia prawdopodobieństwa teoretycznego i empirycznego. W procesie poznania występują bowiem róŜne rodzaje i róŜne stopnie determinizmu bądź niedeterminizmu i kaŜdy z nich
powinien być opisywany za pomocą odpowiedniej teorii stochastycznej (teoria prawdopodobieństwa nieaddytywnego, teoria prawdopodobieństwa intuicyjnego, teoria prawdopodobieństwa subiektywnego i inne). Wydaje się, Ŝe punktem wyjścia do prac badawczych powinno być skonstruowanie modelu wiedzy na trzech wskazanych przez fizykę poziomach: mikroskopowym (odwzorowujący indywidualnego zdobywania wiedzy przez jednostkę), makroskopowym (odwzorowującym zbiorowy proces zdobywania wiedzy) i mezoskopowym (stanowiącym ogniwo pośrednie między poziomami mikro i makro).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
15
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
Ackoff R.L. (1989). From data to wisdom. Journal of Applied Systems Analysis, 16, 3-9.
Arystoteles (1984). Metafizyka. Państwowe Wydawnictwo Naukowe, Warszawa.
Arystoteles (1988). Zachęta do filozofii. PWN, Warszawa.
Bacon F. (1961). Eseje. PWN, Warszawa.
Berlinger G., Castro D., Mills A. (2004). Data, information, knowledge and wisdom.
http.//www.systems-thinking.org/dikw/dikw.htm.
Bocheński J. (1993). O filozofii analitycznej. W: J. Bocheński, Logika i filozofia. PWN,
Warszawa, 35-49.
Cleveland H. (1982). Information as resource. The Futurist, 16, 34-39.
Conway D. (2000). The rediscovery of wisdom: From here to antiquity in quest of
“Sophia”. St. Martins Press, New York.
Descartes R. (1981). Rozprawa o metodzie. PWN, Warszawa.
Feyerabend P.K. (1978). Science in a free society. New Left Books, London.
Fayerabend P.K. (1987). Farewell to reason. Verso Books, London.
Feyerabend P.K. (1993). Against method: outline of an anarchistic theory of knowledge.
Kluwer, Dordrecht.
Gadamer H.G. (1992). Dziedzictwo Europy. Państwowe Wydawnictwo Naukowe,
Warszawa.
Grzegorczyk A. (1989). Mała propedeutyka filozofii naukowej. Instytut Wydawniczy
PAX, Warszawa.
Judycki S. (2007). Realizm a idealizm. www.kul.lublin.pl/files/108/Realizm_
i_idealizm.pdf.
Kant I. (1986). Krytyka czystego rozumu. PWN, Warszawa.
Kant I. (2004). Krytyka praktycznego rozumu. Wydawnictwo Naukowe PWN, Warszawa.
Kamiński S. (1992). Nauka i metoda. Pojęcie nauki i klasyfikacja nauk. Wydawnictwo
Towarzystwa Naukowego KUL, Lublin.
Kamiński S. Herbut J. (1997). Filozofia. J. Herbut, red., Leksykon filozofii klasycznej.
Wydawnictwo Towarzystwa Naukowego KUL, Lublin, 198-202.
Kociuba M. (2002). ToŜsamość kulturowa cywilizacji europejskiej. O potrzebie
aksjologicznej „metanoi”. Annales Universitatis Mariae Curie-Skłodowska, 27, 37-61.
Krąpiec M.A. (1992). Elementy filozofii poznania. W: M.A. Krąpiec, S. Kamieński, Z.J.
Zdybicka i P. Jaroszyński, Wprowadzenie do filozofii. Redakcja Wydawnictw KUL,
Lublin, 207-268.
Krąpiec M.A. (1997). Ludzka wolność i jej granice. Wydawnictwo Tadeusza Radjusza
„Gebethner – Print”, Warszawa.
Markus B. (2005). Learning Pyramids. W: Proceedings of the FIG Working Week and 8th
International Conference on the Global Spatial Data Infrastructure, Cairo 1/11-11/11.
Michalski K., red. (1990). Europa i co z tego wynika. Rozmowy w Castel Gandolfo.
Instytut Nauk o Człowieku, Wiedeń.
Miś A. (2006). Filozofia współczesna. Główne nurty. Wydawnictwo Naukowe Scholar,
Warszawa.
16
Mirosław Bereziński, Jerzy Hołubiec, Dariusz Wagner
Hierarchiczna struktura poznania – piramida wiedzy
26. Popper K. (1992). Wiedza obiektywna. Ewolucyjna teoria epistemologiczna. PWN,
Warszawa.
27. Popper K. (1999). Droga do wiedzy. Domysły i refutacje. Wydawnictwo Naukowe PWN,
Warszawa.
28. Popper K. (2002). Logika odkrycia naukowego. Wydawnictwo Naukowe PWN,
Warszawa.
29. Rowley J. (2007). The wisdom hierarchy: representations of the DIW hierarchy. Journal
of Information Sciences, 33, 163-180.
30. Sztajer S. (2005). Europa wobec kryzysu racjonalności. Problemy i wyzwania. W. Z.
Drozdowicz, red., Europa wspólnych wartości. Wydawnictwo Fundacji Humaniora,
Poznań, 21-34.
31. Sharma N. (2008). The origin of the „Data information knowledge wisdom” hierarchy.
http.//www-personal.si.urnich.edu/~nsharma/dikw_origin.htm
32. Tatarkiewicz W. (2005). Historia filozofii. T. I. Wydawnictwo Naukowe PWN.
33. Wierzbicki A. (2007). Modelowanie systemowe jako sposób organizacji wiedzy. W: P.
Kulczyki, O. Hryniewicz i J. Kacprzyk, red., Techniki informacyjne w badaniach
systemowych. WNT, Warszawa, 3-29.
34. Zeleny M. (1987). Management support systems: towards integrated knowledge
management. Human Systems Management, 7, 59-70.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
HIERARCHICAL KNOWLEDGE STRUCTURE – PYRAMID OF KNOWLEDGE
Summary
Modern science is experiencing a deep crisis caused by a partial denial of the
classic sense of such notions as objectivity, realism, rationality, scientific truth etc. It
weakens prognostic ability of science and in particular its ability to anticipate various crisis situations. A critical analysis of various versions of knowledge pyramid –
that have been proposed within last decades – as well as of their methodological
correctness. If a new wave of development of European countries, characterized by
rational use of individual and social intellectual capitals is to be accomplished, then
this development has to be based on the European philosophy. It is emphasized that
idea of presenting cognition process in the form of a pyramid has in the European
philosophy and science two-millennial tradition over. In the paper it is proposed to
accept the Aristotelian triad ”experience – knowledge – wisdom” for base of research on the structure of cognition process as well as and knowledge system.
Key words: knowledge society, crisis of science, cognition process, knowledge hierarchical
structure, knowledge pyramid, Aristotelian triad
Mirosław Bereziński
Jerzy Hołubiec
Dariusz Wagner
Instytut Badań Systemowych PAN
01-447 Warszawa, ul. Newelska 6
e-mail: Mirosław.Bereziń[email protected]
[email protected]
[email protected]
17
18
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
JADWIGA BIZON-GÓRECKA,
JAROSŁAW GÓRECKI
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
PIRAMIDA RYZYK W PRZEDSIĘBIORSTWIE1
Streszczenie
Probabilistyczny charakter zjawisk występujących w przedsiębiorstwie i jego
otoczeniu powoduje, Ŝe decyzje menedŜerskie obciąŜone są ryzykiem. Uwzględnianie
perspektywy ryzyka w zarządzaniu jawi się jako swoiste panaceum na zapewnienie
organizacji gospodarczej trwania i rozwoju. Przewidywania przyszłych warunków
funkcjonowania przedsiębiorstwa winny uwzględniać zagroŜenia, jakimi mogą być
obciąŜone planowane działania. Konieczne jest nie tylko określenie prawdopodobieństwa ich wystąpienia, ale teŜ skutków, jakie mogą implikować w przedsiębiorstwie. W artykule zaproponowano konstruowanie piramidy ryzyk, stanowiącej wizualizację zagroŜeń funkcjonowania przedsiębiorstwa. Piramidalną postać ryzyk
w przedsiębiorstwie kształtuje wiele czynników. Znaczącą ich grupę stanowią czynniki specyficzne dla branŜy, w której operuje przedsiębiorstwo.
Słowa kluczowe: piramida ryzyk, przedsiębiorstwo, zarządzanie
1. Wprowadzenie
Ryzyko, postrzegane jako potencjalna zmienność zdarzeń, odnosi się do moŜliwości odstępstwa od sytuacji załoŜonej i tego konsekwencji. Jest ono wynikiem nieoczekiwanych wydarzeń.
Związane jest zawsze z niepewnością odnośnie przyszłych wyników. MoŜe być ono rezultatem
braku poŜądanych przyszłych zdarzeń, lub wystąpienia odchyleń od planowanych, przyszłych stanów. Ryzyko naleŜy przede wszystkim postrzegać jako kombinację prawdopodobieństwa wystąpienia jakiegoś zdarzenia oraz jego konsekwencji dla przedsiębiorstwa. Jako ryzyko naleŜy zatem
rozumieć dwie sytuacje podejmowania działań:
1. niebezpieczeństwo, Ŝe zdarzenia i akcje mające miejsce zarówno wewnątrz przedsiębiorstwa (wadliwe procesy wewnętrzne, zła komunikacja), jak i w jego otoczeniu, poprzez
swoje oddziaływania mogą utrudniać bądź uniemoŜliwiać osiągnięcie strategicznych
i operacyjnych celów organizacji. Z tego punktu widzenia wartość ryzyka określa stratę,
która znajduje odzwierciedlenie w konsumpcji kapitału,
2. szansę, Ŝe tzw. „czarne scenariusze” się nie spełnią i w wyniku powstania odchyleń od
planowanych wartości wystąpi moŜliwość osiągnięcia korzyści, które będą miały dla
przedsiębiorstwa pozytywne skutki. W takiej sytuacji ryzyko staje się impulsem do podejmowania działań.
Działalność przedsiębiorstwa, związana z osiąganiem celów na konkurencyjnym rynku, jest
ściśle powiązana z powstającą niepewnością co do przyszłych warunków jego funkcjonowania.
1
Praca naukowa finansowana ze środków na naukę w roku 2009 jako projekt badawczy własny Nr N N115 048635
Jadwiga Bizon-Górecka, Jarosław Górecki
Piramida ryzyk w przedsiębiorstwie
19
Podjęcie ryzyka staje się szansą osiągnięcia dodatkowych zysków, będących wynagrodzeniem
za jego akceptację. Jednak alternatywą dla potencjalnych zysków jest moŜliwość poniesienia straty, która jest następstwem niekorzystnych dla firmy zdarzeń zachodzących w otoczeniu, czy wadliwości jej procesów wewnętrznych.
Źródła ryzyka są często określone w sposób nieprecyzyjny. Wielu menedŜerów jest skłonnych
zwracać większą uwagę na grupy oczywistych zagroŜeń, które powstają wewnątrz organizacji
w granicach jej struktury i obszaru, w którym jest zlokalizowana.
Ryzyka, zagroŜenia i niebezpieczeństwa moŜna określać w sposób skwantyfikowany. Najpierw moŜna dokonać prostej analizy ryzyka (określanej jako identyfikacja ryzyka) a następnie
moŜna przejść do ilościowego mierzenia tych ryzyk (ocena ryzyka).
Identyfikacja ryzyka polega na sporządzeniu wykazu potencjalnych ryzyk i ich źródeł. Proces
obejmuje klasyfikację źródeł ryzyka według ich źródeł lub podobieństwa potencjalnych konsekwencji.
Niezbędną informację dla identyfikacji ryzyka moŜna uzyskać integrując dane z róŜnych źródeł. Źródła te mogą zapewnić dane w róŜnej formie – od jakościowej (opis słowny – np. ocena
obaw róŜnych osób), do ilościowej (częstotliwość i prawdopodobieństwo występowania).
W procesie identyfikacji moŜna wykorzystać metodę burzy mózgów, uzupełnioną o oceny ekspertów i badania ankietowe. Następnie moŜna zebrać dane statystyczne dotyczące potencjalnych
negatywnych zdarzeń. Audyt organizacji moŜe z kolei ujawnić inne źródła ryzyka. KaŜda ocena
ryzyka powinna stanowić zrównowaŜone połączenie ilościowych i jakościowych metod, w ich ramach badane są źródła i natura ryzyk z punktu widzenia osób zainteresowanych (tzn. tych grup,
które współpracują z organizacją, włączając członków organizacji, uŜytkowników wytwarzanych
dóbr i usług, inwestorów, dostawców, klientów i tych, którzy ponieśli straty w wyniku działalności
organizacji). Ocena ryzyka bez uwzględnienia aspektów jakościowych prowadzić moŜe do iluzji
rynkowej poprawności (obiektywności) a takŜe łatwo wówczas pominąć (zgubić z pola widzenia)
problem wizerunku organizacji i opinii otoczenia.
2. Struktura piramidy ryzyk w przedsiębiorstwie
Ryzyka, obejmujące zjawiska mające wpływ na sprawność funkcjonowania przedsiębiorstwa,
mogą mieć charakter: techniczny, ekonomiczny oraz ekonomiczno-techniczny.
Wśród ryzyk o charakterze technicznym moŜna wyróŜnić: ryzyko niezawodności funkcjonowania urządzeń technicznych i linii technologicznych, ryzyko jakości wyrobów (w tym: ryzyko
bezpieczeństwa wyrobów, ryzyko niezawodności funkcjonowania wyrobów w fazie uŜytkowania),
itp.
Ryzyka o charakterze ekonomicznym to m.in: ryzyko wiarygodności danych planistycznych,
ryzyko mechanizmów rynkowych, ryzyko pozycji konkurencyjnej, ryzyka finansowe (trafności
ceny ofertowej, ryzyko szacowania kosztów, ryzyko płynności finansowej, ryzyko inflacji, ryzyko
kursowe, ryzyko zdolności kredytowej, ryzyko stóp procentowych, ryzyko giełdowe, ryzyko udzielanych gwarancji, ryzyko inwestycyjne).
Do ryzyk o charakterze ekonomiczno-technicznym moŜna zaliczyć m.in.: ryzyko technologiczności rozwiązań projektowych wyrobów, ryzyko kwalifikacji pracowników w całym cyklu powstawania wyrobu (związane z relacją: poziom kwalifikacji a koszty wynagrodzeń), ryzyko harmonizacji procesów realizacyjnych, ryzyko logistyczne, a takŜe ryzyko innowacyjne.
20
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Wszystkie podane wyŜej grupy ryzyk wpływają na efektywność działań w obrębie procesów
realizowanych w przedsiębiorstwie i osiąganie ich celów. Winny być ujmowane w sposób komplementarny. Nie moŜna teŜ optymalizować pojedynczych procesów w organizacji, gdyŜ takie podejście moŜe prowadzić do suboptymalizacji całego systemu i mimo, Ŝe np. osiągniemy najniŜsze
koszty logistyczne w sferze zaopatrzenia, moŜemy wygenerować duŜe straty w organizacji, spowodowane niską jakością surowców i materiałów.
Jak wskazuje R. Kendall [3] najlepszą metodą na radzenie sobie z ryzykiem jest czujność
i świadomość jego istnienia. Zatem zasadne jest porządkowanie problemów ryzyka w obszarze
ludzkiej działalności. Ryzyko w przedsiębiorstwie winno być identyfikowane na trzech poziomach:
organizacji, procesu oraz stanowiska pracy, których piramidalny schemat obrazuje rys. 1.
Rys. 1. Schemat piramidy ryzyk w przedsiębiorstwie
Źródło: Opracowanie własne
Dla stanowisk pracy najistotniejszymi obawami są niebezpieczeństwa związane z pracą bezpośrednio produkcyjną, np. ryzyko zawodowe, ryzyka związane z niewykonaniem zadań i brakiem
doświadczenia pracowników. Średni szczebel charakteryzuje rosnące zainteresowanie ryzykiem
innowacji technologicznych. Szczebel najwyŜszy charakteryzuje zajmowanie się ryzykami niekorzystnych zmian na rynku walutowym oraz związanymi z konkurencją na rynku.
Zgodnie z rosnącą odpowiedzialnością na poszczególnych szczeblach, wachlarz ryzyk dotyczący danego szczebla rozszerza się. I tak kierownictwo wyŜsze ponosi większą odpowiedzialność
za ryzyka związane z długoterminowymi i finansowymi decyzjami aniŜeli kierownictwo operacyjne, które ma nikły wpływ na takie decyzje.
Etapy zarządzania ryzykiem w przedsiębiorstwie scharakteryzować moŜna następująco:
Etap I: Identyfikacja czynników ryzyka w przedsiębiorstwie
Identyfikacja czynników ryzyka polega na określeniu, jakimi rodzajami ryzyka i w jakim zakresie zagroŜone jest przedsiębiorstwo. Konieczna jest tu analiza poszczególnych procesów
z punktu widzenia zagroŜenia ryzykiem, a następnie ich klasyfikacja. Szczegółowej analizie podlegają zarówno zdarzenia zewnętrzne, które zagraŜają przedsiębiorstwu z zewnątrz oraz te, które
Jadwiga Bizon-Górecka, Jarosław Górecki
Piramida ryzyk w przedsiębiorstwie
21
mogą powstać na terenie przedsiębiorstwa.
Etap II: Oszacowanie ryzyka
Oszacowanie ryzyka polega na określeniu moŜliwości powstania szkody (prawdopodobieństwo i rozmiar utraty). Prawidłowo przeprowadzona ocena ryzyka pozwala na podjęcie przedsięwzięć zmniejszających stopień naraŜenia przedsiębiorstwa na utratę jego aktywów.
Etap III: Sterowanie ryzykiem
Podstawowym celem sterowania ryzykiem jest określenie środków prewencji eliminujących
lub ograniczających ryzyko. KaŜdorazowo wybór odpowiednich środków jest rezultatem szczegółowej analizy skuteczności oraz kosztów ich wprowadzenia. Koszty ograniczenia ryzyka nie mogą
przewyŜszać wartości szkody, która moŜe się wydarzyć (szkody w znaczeniu materialnym i niematerialnym). Sterowanie ryzykiem polega na podejmowaniu działań ograniczających ryzyko
do załoŜonych dopuszczalnych rozmiarów.
W ramach sterowania ryzykiem mogą być podejmowane dwa rodzaje działań:
• Działania oddziałujące na przyczyny występowania ryzyka, których celem jest ograniczanie ryzyka - są one określane jako aktywna strategia przeciwdziałania ryzyku. W ramach strategii aktywnej przedsiębiorstwo m.in. unika ryzyka, poprzez nieangaŜowanie się
w ryzykowne przedsięwzięcia.
• Działania oddziałujące na skutki występowania ryzyka, których celem jest zmniejszenie negatywnego wpływu niespodziewanych strat na pozycję organizacji, polegające
na zwiększaniu rezerw kapitałowych - są one określane jako pasywna strategia przeciwdziałania ryzyku.
Etap IV: Finansowanie ryzyka
Wszystkie ryzyka, które nie są eliminowane za pomocą środków prewencji, muszą być sfinansowane.
Podstawowe formy finansowania ryzyka to:
• Zachowanie ryzyka na udziale własnym:
-bez stosowania środków prewencji,
-z zastosowaniem środków prewencji;
• Przeniesienie ryzyka na inne podmioty (np. dostawcy, odbiorcy, podwykonawcy, towarzystwa ubezpieczeniowe):
- całkowite,
- częściowe (z franszyzą, limitem odpowiedzialności, wyłączeniami przedmiotu i zakresu ubezpieczenia itd.).
Etap V: Kontrola działań podejmowanych w zakresie zarządzania ryzykiem
Ostatnim etapem zarządzania ryzykiem jest kontrola podejmowanych działań, której celem
powinno być zbadanie efektywności działań zmierzających do ograniczania negatywnych skutków
ryzyka innowacyjnego. DuŜą rolę w kontroli i ograniczaniu ryzyka odgrywają procedury kontroli
wewnętrznych.
Ryzyko towarzyszące prowadzeniu działalności gospodarczej wpływa równieŜ na zachowania
dostawców kapitału. Śledząc zaleŜność pomiędzy poziomem ryzyka danego biznesu, a oczekiwaniami inwestorów odnośnie stopy zwrotu, identyfikuje się następującą zaleŜność: im bardziej ryzykowne przedsięwzięcie biznesowe, tym wyŜsza, oczekiwana przez inwestorów premia za podejmowane ryzyko. Wysoki poziom ryzyka znajduje równieŜ odzwierciedlenie w oczekiwaniach pozostałych partnerów biznesowych, co przekłada się globalnie na wzrost kosztów prowadzenia dzia-
22
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
łalności gospodarczej.
Zarządzanie ryzykiem w przedsiębiorstwie trzeba prowadzić zgodnie z przyjętym planem, który powinien zawierać:
- listę osób i zakres ich odpowiedzialności za ryzyko,
- metody monitorowania ryzyka,
- budŜet przeznaczony na zarządzanie ryzykiem,
- sposoby nadzorowania i dokumentowania zarządzania ryzykiem.
3. Role kadry kierowniczej według piramidy ryzyk w przedsiębiorstwie
W ramach badań nad ryzykiem w przedsiębiorstwie, zaobserwowano zróŜnicowane zainteresowanie róŜnymi rodzajami ryzyka kierowników poszczególnych szczebli zarządzania, co szerzej
opisano w pracy [1].
Na rys. 2 przedstawiono wyniki pilotaŜowego badania ankietowego kadry kierowniczej
3 przedsiębiorstw przemysłowych średniej wielkości, pod kątem zainteresowania jej poszczególnymi rodzajami ryzyk. Przedsiębiorstwa te miały wdroŜone zarządzanie procesowe (posiadały system ISO serii 9000). W badaniu wzięło udział 32 kierowników, w tym: 12 kierowników szczebla
operacyjnego, 16 kierowników szczebla średniego, 4 przedstawicieli najwyŜszego kierownictwa.
Największym ryzykiem, którego świadomi są kierownicy wszystkich szczebli zarządzania
są nieszczęśliwe wypadki przy pracy. Kolejnym zagroŜeniem, który zauwaŜają menedŜerowie kaŜdego szczebla jest moŜliwość niewykonania zaplanowanych wcześniej zadań oraz brak doświadczenia pracowników. Liczba ryzyk wzrasta wraz ze szczeblem zarządzania. W porównaniu do operacyjnego, średni i najwyŜszy szczebel musi dodatkowo zmagać się z ryzykiem walutowym, konkurencji na rynku, utraty płynności finansowej i danych, nieznajomości prawa, czy teŜ błędnej interpretacji przepisów branŜowych.
Kierownicy operacyjni, odpowiedzialni za pracę na stanowiskach pracy, mają bardzo duŜy
wpływ na sprawy związane bezpośrednio z pracownikami, tj. ich absencje, choroby, wypadki wynikające z warunków pracy, względnie nieprzestrzegania przepisów BHP. Ich decyzje, o charakterze krótkoterminowym, dotyczą teŜ zapotrzebowań materiałowych, sprzętowych, usługowych itp.
problemów wpływających bezpośrednio na przebieg pracy. Najmniejszy wpływ mają oni
na kształtowanie ryzyk, związanych z perspektywą długookresową, m.in. w obrębie zarządzania
finansami przedsiębiorstw. Kierownicy średniego szczebla, jako liderzy procesów, takŜe posiadają
wpływ na ryzyko związane bezpośrednio z wykonywaną pracą, w tym z bezpieczeństwem pracowników i innymi sytuacjami związanymi z zasobami ludzkimi, w tym doświadczeniem pracowników. Jednak ich wpływ na przebieg pracy ma poziom przeciętny, gdyŜ podejmowane decyzje mają
charakter średniookresowy. Poczucie odpowiedzialności za finanse przedsiębiorstwa jest w tej
grupie kierowników znacznie wyŜsze niŜ u kierowników szczebla operacyjnego. NajwyŜsze kierownictwo przedsiębiorstwa, odpowiedzialne za jego trwanie i rozwój, równieŜ docenia ryzyka
związane z bezpieczeństwem pracowników oraz zagroŜeniami wykonania zadań, a takŜe doświadczeniem pracowników i wdraŜaniem innowacji technologicznych. Jednak ich decyzje mają charakter długofalowy, kreujący politykę przedsiębiorstwa i wpływający na zachowanie płynności finansowej. PowyŜsze rozwaŜania ukazują, Ŝe w przedsiębiorstwie zarządzanym procesowo, praca kierowników poszczególnych szczebli zarządzania, skupia się na problemach specyficznych
dla danego szczebla zarządzania, jednak kierownicy wyŜszych szczebli nie tracą z pola widzenia
problemów szczebla niŜszego. ZauwaŜają wzajemne oddziaływanie skutków decyzji, podejmowa-
Jadwiga Bizon-Górecka, Jarosław Górecki
Piramida ryzyk w przedsiębiorstwie
23
nych na kolejnych szczeblach zarządzania przedsiębiorstwem.
Rys. 2. Struktura zainteresowania ryzykiem kierowników poszczególnych szczebli zarządzania
Źródło: Badania własne
4. Poziomy ryzyka w organizacji na przykładzie branŜy budowlanej
Analiza ryzyka w przedsiębiorstwie, jak wskazano w pracy [2], musi obejmować problemy jego otoczenia oraz uwarunkowań funkcjonowania wewnętrznego tkwiących w duŜej mierze
w specyfice branŜy, w której operuje przedsiębiorstwo.
Szczególny wpływ specyfiki branŜy na działalność podmiotów gospodarczych moŜna zaobserwować w budownictwie. Procesy budowlane, realizowane przez przedsiębiorstwa budowlane
stanowią zespół technologicznie powiązanych ze sobą robót, które wykonuje się na placach budowy oraz w zapleczu. Celem procesów budowlanych jest wytworzenie określonych produktów budynków i budowli. Dla procesów wielokrotnie powtarzalnych opracowuje się ich technologię,
organizuje zespoły robocze, dobiera odpowiednie maszyny, określa pozostałe zasoby i środki osiągania celów.
24
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Dla kaŜdego przedsiębiorstwa naleŜy precyzyjnie zdefiniować portfel ryzyk, które mogą wpływać negatywnie na wyniki finansowe. Podstawą do tego są zawsze klasycznie zdefiniowane ryzyka, w sposób ogólny dotyczący szeregu obszarów aktywności gospodarczej. Ryzyka moŜna klasyfikować według róŜnych przekrojów oraz dzielić analizując okres, którego dotyczą, na ryzyko długoterminowe oraz krótkoterminowe.
Rynek budowlany jest dla przedsiębiorstw budowlanych stosunkowo trudnym rynkiem i pozostaje w ścisłej zaleŜności z ogólną sytuacją gospodarczą kraju. Rozwój przedsiębiorstw budowlanych jest uwarunkowany właściwym zarządzaniem, w tym głównie zwróceniem uwagi na obecność
ryzyka finansowego. To ryzyko ma w budownictwie, z uwagi na jego specyfikę, bardzo rozległe
obszary, co pokazano na rys. 3.
Rys. 3. Wycinek analizy przyczyn podwyŜszonego ryzyka finansowego w przedsiębiorstwie
budowlanym (wykres Ishikawy)
Źródło: Opracowanie własne
Przedstawiona, za pomocą wykresu Ishikawy, analiza przyczynowo-skutkowa pokazuje, Ŝe na
podwyŜszone ryzyko finansowe przedsiębiorstwa budowlanego mają wpływ zarówno czynniki egzogeniczne (środowisko naturalne, polityka finansowa, koniunktura gospodarcza) jak teŜ czynniki
endogeniczne. Przyjęta organizacja procesu inwestycyjnego, a takŜe zastosowane rozwiązania
technologiczne to procesowe czynniki ryzyka. Jakość funkcjonowania stanowisk produkcyjnych
moŜna rozpatrywać z perspektywy zasobów pracy, ujmowanych wokół robocizny, materiałów
i sprzętu.
Przebieg realizacji procesów budowlanych na poszczególnych stanowiskach niesie szereg zagroŜeń natury technicznej, ekonomicznej i techniczno-ekonomicznej. Praca na stanowiskach pracy
w budownictwie, wykonywana przez ludzi i maszyny, wiąŜe się z szeregiem ryzyk. Wymienić tutaj
trzeba ryzyko wypadków przy pracy, które w tej branŜy jest duŜe, a co za tym idzie koszty ubez-
Jadwiga Bizon-Górecka, Jarosław Górecki
Piramida ryzyk w przedsiębiorstwie
25
pieczeń są wysokie. Rosnąca złoŜoność robót budowlanych, o charakterze biotechnicznym, stawia
coraz wyŜsze wymagania kwalifikacyjne pracownikom i implikuje ryzyko trafności doboru kadr do
wykonywania zadań na stanowiskach pracy. Ma to bezpośrednie przełoŜenie na wydajność i jakość
robót budowlanych, których obniŜenie moŜe być powodem ponoszenia dodatkowych kosztów.
Znaczący wpływ na finanse przedsiębiorstwa mają zakupy duŜych ilości róŜnorodnych materiałów,
zuŜywanych w budownictwie. Wymagają one skutecznych zabiegów marketingowych oraz starannego przygotowania procesów logistycznych. Maszyny i urządzenia budowlane, uŜywane w robotach budowlanych, determinują w duŜej mierze efektywność procesów budowlanych. Trafność
doboru oraz organizacja pracy maszyn i urządzeń, z uwagi na wysokie koszty eksploatacyjne, są
źródłem zagroŜeń dla wyników ekonomicznych robót budowlanych.
Procesy budowlane realizowane są najczęściej na wielu stanowiskach, a przyjęte rozwiązania
technologiczno-organizacyjne determinują sprawność ich funkcjonowania. Przebieg pracy na poszczególnych stanowiskach, obsługujących dany proces, a takŜe stopień harmonizacji ich zadań
mają wpływ na efektywność procesów. Na przykład w robotach ziemnych nietrafne rozwiązanie
układu „koparka-wywrotki”, pod względem rodzaju i liczebności dobranych maszyn, moŜe implikować ryzyko przestojów, prowadzących do obniŜenia wydajności procesu wykonania wykopów
oraz wzrostu kosztów robót. Przykład ten obrazuje jak na ryzyka stanowiskowe – operatora koparki i kierowców wywrotek samochodowych – nakłada się ryzyko ich synchronizacji.
PodwyŜszone ryzyko finansowe przedsiębiorstwa budowlanego jest więc efektem trudności
w rozwiązywaniu problemów funkcjonowania stanowisk pracy i procesów organizacyjnych. Trzeba teŜ zwrócić uwagę, Ŝe na poziomie przedsiębiorstwa kumulują się wszystkie ryzyka procesów
wytwórczych, pomocniczych i wspomagających oraz dodatkowo procesów zarządzania organizacją. W branŜy budowlanej naleŜy podkreślić znaczenie procesów zarządczych na poziomie całej
organizacji, wynikające z faktu angaŜowania się przedsiębiorstw w zewnętrzne projekty inwestycyjno-budowlane. Przyjęty do realizacji portfel projektów, a w szczególności harmonogramy przebiegu prac budowlanych, mają duŜy wpływ na równomierność wykorzystania zasobów przedsiębiorstwa i tym samym ich produktywność oraz wyniki finansowe działalności gospodarczej.
PowyŜsze ukazuje ścisłe relacje pomiędzy problemami na poziomie stanowisk, procesów i całej organizacji. Uzasadnia to piramidalny charakter ryzyk w przedsiębiorstwie ukazany na rys. 1.
Jednocześnie potwierdza fakt, Ŝe kadra kierownicza, skupiając się na rozwiązywaniu problemów
adekwatnych do swojego szczebla zarządzania, musi jednocześnie brać pod uwagę ryzyka występujące na niŜszym poziomie organizacyjnym. Zachowania takie ukazują wyniki badań zaprezentowane na rys. 2.
Klasyfikacja ryzyk, w zaleŜności od prawdopodobieństwa i ogólnego oszacowania ich skutków, jest pierwszym krokiem w porządkowania problemów ryzyka w przedsiębiorstwie. BieŜący
monitoring systematycznych i przypadkowych czynników ryzyka wraz z analizą ich natęŜenia jest
niezbędny w planowaniu działań. SłuŜy teŜ formułowaniu polityki ryzyka i doboru strategii reakcji
na ryzyko, ograniczających niekorzystny wpływ zakłóceń na funkcjonowanie przedsiębiorstwa.
26
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
5. Uwagi końcowe
Określenie ryzyka oraz umoŜliwienie zarządzania jego wielkością ma zawsze na celu doprowadzenie do takiej wartości podejmowanego ryzyka, która jest akceptowalna dla przedsiębiorstwa,
a przez to do zabezpieczenia takiej wielkości wyniku finansowego, która jest wymagana przez właścicieli firmy.
Zbierane przez kadrę menedŜerską doświadczenia pozwalają na budowanie, adekwatnych dla
prowadzonej działalności, strategii stabilizujących pozycję rynkową firmy. Stabilizacja ta jest
w duŜej mierze zaleŜna od relacji z konkurencją. Na miejscu konkurencji pojawia się koopetycja,
jako nowa strategia biznesu. Oznacza ona w skrócie kooperatywną konkurencję, współpracującą
dla obopólnych korzyści. W szczególności trzeba rozpoznać współbieŜne procesy realizowane
w organizacjach biorących udział we wspólnych projektach.
Podkreślić teŜ trzeba permanentną zmienność otoczenia przedsiębiorstw, co wymaga dostrzeŜenia ryzyk natury egzogenicznej. Zatem naleŜy monitorować zagroŜenia, występujące zarówno
wewnątrz przedsiębiorstwa jak teŜ w jego otoczeniu.
WdroŜenie zarządzania ryzykiem w organizacji najlepiej rozpocząć od analizy wszystkich
procesów, tj. procesów zarządzania, podstawowych technologicznych procesów wytwórczych,
procesów pomocniczych, obsługowych, informacyjnych, kontrolnych i innych. Kolejno moŜna
przejść do analizowania przebiegu zadań na poszczególnych stanowiskach roboczych i dokonać
diagnozy problemów mogących wywoływać sytuacje ryzykogenne. W definiowaniu ryzyk na poziomie organizacji, obok zagroŜeń tkwiących w procesach zarządzania przedsiębiorstwem, trzeba
wziąć pod uwagę ryzyka na poziomie stanowisk i procesów oraz określić charakter relacji ryzyk na
wszystkich poziomach.
Opracowując reakcję na ryzyko naleŜy wyznaczyć maksymalne wartości moŜliwych do wystąpienia szkód na wszystkich szczeblach piramidy ryzyka w przedsiębiorstwie: stanowiska, procesu i
organizacji. Pozwoli to na dokonanie wyboru środków prewencji z uwzględnieniem optymalizacji
programu zabezpieczeń przed skutkami ryzyka.
6. Literatura
1.
2.
3.
Bizon-Górecka J.: Praca kierownicza w przedsiębiorstwie zarządzanym procesowo.
W: Problemy pracy kierowniczej we współczesnym przedsiębiorstwie (Krzakiewicz K.,
Red.) TNOiK Oddział Poznań, Poznań 2008, s.135-142.
Bizon-Górecka J.: Modelowanie struktury systemu zarządzania ryzykiem
w przedsiębiorstwie – ujęcie holistyczne, TNOiK Oddział Bydgoszcz, Bydgoszcz 2007.
Kendall R.: Zarządzanie ryzykiem dla menedŜerów. Praktyczne podejście do
kontrolowania ryzyka, Wydawnictwo K.E. Liber, 2001.
Jadwiga Bizon-Górecka, Jarosław Górecki
Piramida ryzyk w przedsiębiorstwie
RISK PYRAMID IN THE ENTERPRISE
Summary
A probabilistic character of phenomena taking place both inside and outside the
enterprise causes that managerial decisions are saddled with risk. Taking into consideration a risk perspective in the management can be a cure for a declaration of
existing and development of the organization. A prediction of the future functioning
conditions for an enterprise should take account of threats to planned actions. It is
necessary to estimate not only their probability but also the results that can appear
in the enterprise. In the article, it was proposed to build a risk pyramid that can be a
visualization of the threats to functioning the enterprise. Pyramidal form of the risks
in the enterprise is created by many factors. A significant group is factors that are
specific for a branch which is occupied by an enterprise.
Keywords: risk pyramid, enterprise, management
Jadwiga Bizon-Górecka
Jarosław Górecki
Uniwersytet Technologiczno-Przyrodniczy im. J.J. Śniadeckich w Bydgoszczy
e-mail: [email protected]
[email protected]
27
28
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
RYSZARD BUDZIŃSKI,
LESZEK MISZTAL
Zachodniopomorski Uniwersytet Technologiczny
ZASTOSOWANIE ALGORYTMU MASZYNY WEKTORÓW WSPIERAJĄCYCH DO
KLASYFIKACJI PODATNIKÓW Z WYKORZYSTANIEM BAZY DANCH ORACLE 11G
Streszczenie
Zastosowanie wydajniejszych systemów informatycznych spowodowało implementację algorytmów eksploracji danych oraz moŜliwość zastosowania ich w rozwiązywaniu rzeczywistych problemów. Dotyczy to równieŜ algorytmu maszyny wektorów wspierających w klasyfikacji. W opisanym rozwiązaniu zastosowano MWW
z liniową funkcją jądra do klasyfikacji podatników ze względu na pozytywny lub negatywny wynik kontroli przy uwzględnieniu specyficznych cech ich opisujących. Odpowiedni dobór danych, budowa modelu oraz jego uŜycie umoŜliwiło osiągnięcia
w/w celu ze zwiększoną dokładnością w stosunku do „intuicyjnego” wyboru. Dzięki
temu moŜliwe staje się bardziej dokładne typowanie podatników, których naleŜy
poddać kontroli. Tym samym zwiększa się skuteczność egzekwowania prawa podatkowego.
Słowa kluczowe: bazy danych, eksploracja danych, maszyna wektorów wspierających,
klasyfikacja
1. Wprowadzenie
Eksploracja danych jest procesem odkrywania nowej wiedzy w duŜych wolumenach danych,
która moŜe zostać wykorzystana w celu osiągnięcia celów biznesowych danej organizacji. Techniki eksploracji danych wykorzystują modele utworzone na podstawie zebranych danych oraz z wykorzystaniem określonego algorytmu.
Algorytm maszyny wektorów wspierających jest techniką tzw. uczenia nadzorowanego, gdzie
wykorzystywane istniejące dane zawierające zbiory atrybutów wejściowych oraz atrybut wyjściowy zawierający interesujący nas poszukiwany element. Na podstawie istniejących danych algorytm
uczy się rozpoznawać określone zestawy danych przynaleŜące do określonego atrybutu wyjściowego. W ten sposób tworzy się model, który moŜna zastosować do istniejących juŜ danych [2].
Celem naszego zadania jest odnalezienie w grupie podatników, osób które uchylają się od
płacenia lub teŜ zmniejszają wartości płaconego podatku z wykorzystaniem MWW jako algorytmu
klasyfikującego, czyli takiego który wykonuje proces uczenia modelu opisującego róŜne klasy danych [3]. Na podstawie istniejących danych wejściowych zawierające dane opisujące „klientów”
oraz znanego atrybutu wyjściowego informującego o problemach z prawem podatkowych, będzie
stworzony model, którego późniejsze zastosowanie na nowej grupie danych wejściowych umoŜliwi
zawęŜenie oraz określenie z dokładniejszą precyzją poszukiwanych osób mających problemy
z prawem.
Ryszard Budziński, Leszek Misztal
Zastosowanie algorytmu maszyny wektorów wspierających do klasyfikacji podatników
z wykorzystaniem bazy danch Oracle 11G
29
2. Przedstawienie algorytmu
Algorytm MWW jest wykorzystywany w zadaniach klasyfikacji, regresji jak równieŜ do wykrywania anomalii. Algorytm wykonuje transformację zbioru danych reprezentowanego przez N
atrybutów do punktów w N-wymiarowej przestrzeni. Następnie podejmowana jest próba podzielenia uzyskanych punktów w podzbiory z określoną wartością poprzez atrybut wyjściowy (docelowy). Podział ten jest realizowany za pomocą hiperprzestrzenni w przypadku zastosowania liniowej
funkcji jądra, lub teŜ w wykorzystaniem nie liniowego separatora dla nie liniowej funkcji jądra.
MWW odnajduje wektory wsparcia, które definiują separatory dające największą separację pomiędzy klasami danych.
Zakładając, Ŝe posiadamy następujący zbiór danych:
D = {(xi, yi) dla xi ∈ R, yi ∈ {-1, 1}, 1 ≤ i ≤ n
gdzie xi – wektor danych wejściowych, yi – przynaleŜność do klasy
Wówczas wzór dla przestrzeni separującej moŜna zapisać jako:
w*x+b=0
gdzie w – wektor wsparcia
Przy czym dla separacji liniowej wybieramy dwie przestrzenie marginalne, pomiędzy którymi nie
ma Ŝadnych punktów, oraz maksymalizujemy odległość pomiędzy nimi (dobieramy w i b w celu
maksymalizacji marginesu).
w*x +b=1
w * x + b = -1
Następnie dodajemy ograniczenie, które uniemoŜliwia znalezienie się punktów w wyznaczanym
marginesie:
w * xi + b ≥ 1
dla xi w pierwszej klasie
w * xi + b ≤ -1
dla xi w drugiej klasie
Co moŜna zapisać jako:
yi (w * xi + b) ≥ 1, dla 1 ≤ i ≤ n
Ostatecznie otrzymujemy do rozwiązania ostateczną postać [1]:
min ||w||2/2, dla yi (w * xi + b) ≥ 1, dla 1 ≤ i ≤ n
PoniŜej znajduje się rysunek reprezentujący graficzną reprezentację działania algorytmu dla przestrzeni dwuwymiarowej, oraz binarnego klasyfikatora.
30
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Rys.1 Graficzna reprezentacja funkcjonowania MWW z maksymalną separacją
W naszym przypadku zostanie wykorzystana funkcja klasyfikacji dla algorytmu. Oznacza to
taką funkcję, która przypisze kolekcję danych wejściowych do wyjściowych kategorii lub klas.
Celem jest jak najdokładniejsze przewidzenie klasy wyjściowej dla kaŜdego przypadku danych
wejściowych. Realizacja tego zadania odbywa się z wykorzystaniem nauki z nauczycielem (tzn.
nauczanie nadzorowane), która została opisana na wstępie.
3. Algorytm maszyny wektorów wspierających w ODM
Algorytm zastosowany w bazie danych Oracle (w tym przypadku Oracle 11g) dysponuje kilkoma interesującymi cechami [5]:
• wsparcie dla liniowej oraz nieliniowej funkcji jądra (funkcja Gaussa),
• wybór funkcji jądra oraz jej parametrów moŜe być wykonywany automatycznie, jest
równieŜ moŜliwość ręcznego doboru oraz parametryzowania,
• zastosowanie mechanizmu aktywnego nauczania - metodę optymalizacji słuŜącą do kontroli przyrostu modelu oraz zredukowania czasu budowy modelu. Takie rozwiązanie
wymusza na algorytmie MWW na wykorzystaniu najbardziej reprezentatywnego zbioru
danych, zamiast wykorzystania wszystkich danych. Najczęściej model uzyskany w ten
sposób ma dokładność porównywalną z modelem bazującym na standardowym modelu,
• wsparcie dla binarnych oraz wieloklasowych atrybutów wyjściowych,
• wsparcie dla przygotowania danych, które zostaną poddane badaniu tzn.: wsparcie dla
próbkowania danych wejściowych, podział danych na dane do budowy oraz testów, eliminacja danych będących poza zakresem, uzupełniania brakujących wartości, normalizacja danych np. do zakresu z przedziału 0 do 1.
• dostęp do funkcji algorytmu ODM, poprzez interfejs programowy PL/SQL, interfejs programowy Java API, dostęp do funkcji z narzędzia Oracle Data Miner
W przypadku manualnego doboru parametrów, aby wykorzystać moŜliwości narzędzia, naleŜy skonfigurować parametry dla funkcji realizujących budowę modelu MWW. PoniŜej znajduje się
Ryszard Budziński, Leszek Misztal
Zastosowanie algorytmu maszyny wektorów wspierających do klasyfikacji podatników
z wykorzystaniem bazy danch Oracle 11G
31
tabela z funkcjami:
Tabela 1. Opis parametry funkcji dla algorytmu MWW
Parametr
Jądro
Nazwa w funkcjach
SVMS_KERNEL_FUNCTION
Opis
Funkcja liniowa lub Gausa. Algorytm automatycznie uŜywa funkcji jądra, która jest
najbardziej adekwatna do danych.
MWW wykorzystuje jądro liniowe, gdy jest
więcej niŜ 1000 atrybutów w danych do nauki, w pozostałych przypadkach uŜywa jądro
Gausa.
Odchylenie
standardowe dla
jądra z funkcją
Gausa
SVMS_STD_DEV
Wielkość
pamięci podręcznej dla jądra z
funkcją Gausa.
Aktywne
nauczanie
SVMS_KERNEL_CACHE_SIZE
Czynnik złoŜoności
SVMS_COMPLEXITY_FACTOR
SVMS_ACTIVE_LEARNING
Liczba atrybutów nie odpowiada liczbie kolumn w danych do nauki. MWW przekształca
atrybuty zawierające kategorie na binarne,
numeryczne wartości. Dodatkowo ODM
interpretuje kaŜdy wiersz w zagnieŜdŜonych
kolumnach jak oddzielny atrybut.
Kontroluje rozpiętość dla jądra z funkcją
Gausa.
MWW wykorzystuje metodę uzaleŜnioną od
danych, która odnajduje wartość standardowego odchylenia, która jest na tym samym
poziomie, jak odległości pomiędzy typowymi
przypadkami w danych.
Ilość pamięci zaalokowanej dla jądra z funkcją Gausa, w celu poprawienia czasu budowy
modelu.
Wykorzystanie opcji aktywnego uczenia.
Szczególnie waŜne dla modelu nieliniowego
z funkcją Gausa.
Domyślnie aktywne nauczanie jest włączone.
Ustawienia regulujące balans pomiędzy złoŜonością modelu, a prędkością modelu.
4. Przebieg procesu eksploracji danych w narzędziach Oracle
Etapy rozwiązywanie problemów eksploracji danych z wykorzystaniem narzędzia ODM są
następujące:
• definicja problemu z punktu widzenia eksploracji danych i celów zadania
• zebranie danych oraz ich przygotowanie
• budowa modelu, a następnie jego ocena
• uruchomienie procesu produkcyjnie
32
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Opis w/w etapów:
Definicja problemu z punktu widzenia eksploracji danych i celów zadania
Cel zadania musi być dobrze zdefiniowany oraz określony z punktu widzenia funkcjonalności
oraz moŜliwości systemu eksploracji danych. W naszym przypadku jesteśmy zainteresowani klasyfikacją podatników z punktu widzenia moŜliwych uszczupleń dochodów budŜetowych. Oznacza to
większe zainteresowania osobami, które zostaną dodane do grupy potencjalnie ograniczających,
opóźniających lub ukrywających płatności podatkowe, celem zmotywowania ich do postępowania
zgodnie z ordynacją podatkową.
Zebranie danych oraz ich przygotowanie
Ogólną zasadą w procesie eksploracji danych jest zebranie moŜliwie największej ilości informacji o kaŜdej jednostce, co umoŜliwi podczas procesu eksploracji danych wykrycie danych,
które mogą być wykorzystane. Nie powinno się eliminować atrybutów w danych, które potencjalnie uwaŜamy za mało istotne lub nie istotne, poniewaŜ algorytmy istotności atrybutów mogą wykazać ich przydatność. NaleŜy poddać dane równieŜ procesowi czyszczenia oraz normalizacji, niezbędnymi dla poprawności działania algorytmu klasyfikującego [4].
W przypadku naszej klasyfikacji będziemy wykorzystywali dane dotyczące danych demograficznych „klientów” oraz danych związanych z kwotami deklarowanymi na składanych przez nich
deklaracjach. Określone zostanie równieŜ metoda określenia problemów z płatnościami, która będzie powodować dodanie kolumny z określeniem problemów (tak/nie).
Budowa modelu, a następnie jego ocena
Narzędzie ODM umoŜliwia automatyzowanie wielu złoŜonych zadań podczas budowy oraz
testowania modelu z wykorzystaniem algorytmu MWW. NaleŜy jednak uwzględnić fakt, Ŝe praktycznie Ŝaden model nie jest perfekcyjny. NaleŜy równieŜ zauwaŜyć, Ŝe czasami model z największą dokładnością nie jest tym właściwym, w praktyce naleŜy uwzględnić jakie poziomy błędów są
akceptowalne z punktu widzenia naszego zadania.
Uruchomienie procesu produkcyjnie
Po ocenie modelu oraz uznaniu jego akceptowalnej jakości moŜna uruchomić model na danych produkcyjnych, aby uzyskać wyniki dla pełnego zakresu danych. W wyniku tego uzyskami
listę sklasyfikowanych „klientów”, którzy potencjalnie wykazują lub nie wykazują problemów
z płatnościami. UmoŜliwi to działania na mniejszej grupie podmiotów, które mają na celu ich zweryfikowanie oraz zmotywowanie do przestrzegania prawa podatkowego.
NaleŜy jednak pamiętać, Ŝe uzyskane wyniki są na określonym, ulepszonym poziomie dokładności w stosunku do dotychczasowej wiedzy, jednak nie stanowią niezbitego dowodu na przynaleŜność do tej grupy.
5. Wykorzystanie algorytm maszyny wektorów wspierających
Problem polega na sklasyfikowaniu podatników za pomocą MWW, posiadających określone
cechy/atrybuty, którzy mogą mieć problemy podatkowe związane z uszczuplaniem dochodów budŜetowych na podstawie zebranych wyników kontroli podatkowych. Dane zostały zebrane oraz
przekształcone z systemów podatkowych za pomocą narzędzi imp, exp oraz języka SQL i PL/SQL,
opisane w [7]. Tablica do budowy modelu przyjmuje następującą postać (język SQL):
Ryszard Budziński, Leszek Misztal
Zastosowanie algorytmu maszyny wektorów wspierających do klasyfikacji podatników
z wykorzystaniem bazy danch Oracle 11G
33
CREATE TABLE PODATNIK
(
ID
NUMBER,
MIASTO
VARCHAR2(40),
IMIE
VARCHAR2(20),
NAZWISKO
VARCHAR2(40),
STATUS_M
CHAR(1),
PLEC
CHAR(1),
WIEK
NUMBER,
DOCHOD
NUMBER,
ODLICZENIA_POD NUMBER,
WYN_KONTROLI NUMBER
)
gdzie,
DANE WEJŚCIOWE:
ID – identyfikator podatnika w bazie danych
MIASTO – miasto płacenia podatków
IMIE, NAZWISKO – imię i nazwisko podatnika
STATUS_M – w stanie małŜeńskim, lub odwrotnie
PLEC – płeć podatnika
DOCHOD – dochód roczny podatnika
ODLICZENIA_POD – wielkość odliczeń podatkowych
ATRYBUT WYJŚCIOWY:
WYN_KONTROLI – wynik kontroli podatkowej (neg., poz.)
Następnie budujemy model, korzystając z narzędzia ODM, zgodnie z opisami w [6]. Wykonujemy
następujące kroki:
• wybór algorytmu (SVM) oraz metody klasyfikacji
• wybór tablicy z zebranymi danymi (poniŜej obraz)
• wybór docelowej wartości atrybutu wyjściowego (1 – wynik kontroli pozytywnej) oraz
nazwy modelu – w naszym przypadku PODATNIK_SVM_M1
• wybór podziału danych (60% - dane do budowy, 40% dane do weryfikacji)
• dla przygotowania danych: sposób postępowania z danymi poza zakresem – maksymalna
wielkość nie większa niŜ 3 standardowe odchylenia od średniej, zastąpienie brakujących
wartości średnią atrybutu lub najczęściej występującą wartością, normalizacja danych
w zakresie od 0 do 1.
34
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Rys. 2. Wybór danych poddanych badaniem SVM
•
ustalenie parametrów jądra dla algorytmu MWW tzn. liniowa funkcja jądra, wartość tolerancji na poziomie 0.001, automatyczny dobór i optymalizacja czynnika złoŜoności, wykorzystanie aktywnego nauczania (poniŜej obraz):
Rys. 3. Wybór parametrów jądra dla SVM
Ryszard Budziński, Leszek Misztal
Zastosowanie algorytmu maszyny wektorów wspierających do klasyfikacji podatników
z wykorzystaniem bazy danch Oracle 11G
35
Następnie zostaną przygotowane dane wejściowe zgodnie z ustawieniami, oraz nastąpi budowa
modelu z liniową funkcją jądra, który następnie zostanie przetestowany na wybranych wcześniej
danych. Zbudowany model charakteryzuje się następującą dokładnością:
Rys. 4. Tabela z dokładnością przewidywań
Oznacza to, Ŝe podatnicy z pozytywną kontrolą zostali przewidywani z dokładnością 82,86%,
natomiast z negatywną z dokładnością 67,78%. RównieŜ ogólna ocena modelu została oceniona
jako dobra z dokładnością przewidywań o 50,63% większą w porównaniu z losowym wybieraniem
(predictive confidence opisane w .[6]).
PoniewaŜ zastosowany model cechuje się dobrą dokładnością, moŜna zastosować go do danych rzeczywistych z brakiem atrybutu docelowego, celem dokonania klasyfikacji. Wynikiem jest
tabela z identyfikatorem podatnika, prawdopodobieństwem wyniku pozytywnej kontroli podatkowej oraz kosztu uzyskania wyniku, z które moŜemy pobrać dane podatników, których naleŜy poddać kontroli (obraz poniŜej).
Rys. 5. Wyniki działania modelu na zastosowanych danych
36
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
6. Uwagi końcowe
W wyniku zastosowania modelu matematycznego algorytmu MWW w implementacji zastosowanej w bazie danych Oracle 11g został rozwiązany problem klasyfikacji podatników ze względu na potencjalne problemy z przestrzeganiem prawa podatkowego. Dzięki temu moŜliwe staje się
bardziej dokładne typowanie podatników, których naleŜy poddać kontroli, a tym samym zwiększa
się skuteczność egzekwowania prawa podatkowego.
7. Literatura
1.
2.
3.
4.
5.
6.
7.
Bernhard Schoelkopf, Alexander J.Smola: Learning with kernels, Support Vector
Machines, Regularization, Optimization, and Beyond, The MIT Press 2002
Ian H.Witten, eibe Frank: Data Mining Practical Machine Learning Tools and
Techniques, Morgan Kaufmann 2005
Ramez Elmasri, Shamkant B. Navathe: Fundamentals of Database Systems, AddisonWesley 2004
Matthias Jarke, Maurizio Lenzerini, Yannis Vassiliou, Panos Vassiliadis: Fundamentals of
Data Warehouse”, Springer-Verlag 2002,2003
Oracle Data Mining Concepts 11g Release 1 (11.1), Oracle Corp. 2005-2007
Oracle Data Miner 11.1.0.1.0, Oracle Corp. 2005-2007
Oracle Database Documentation Library 11g Release 1 (11.1), Oracle Corp. 2008
Ryszard Budziński, Leszek Misztal
Zastosowanie algorytmu maszyny wektorów wspierających do klasyfikacji podatników
z wykorzystaniem bazy danch Oracle 11G
37
APPLYING OF ALGORITHM SUPPORT VECTOR MACHINES IN CLASSIFICATION
OF TAX PAYERS WITH USAGE OF ORACLE 11G DATABASE
Summary
Introduction to more efficient IT systems led to implementation of data mining
algorithms and possibility of applying them in solving real-world problems. It also
functions for algorithm Support Vector Machines in classification problems. In the
described solution SVM with linear kernel function was applied for classification of
tax payers because of positive or negative result of taxation control by considering
specific features describing payers. Appropriate choice of data, building the model
and applying the model led to reaching the above described goal with better accuracy in comparing to “intuitive” choice. Applying the solution gives opportunity of
more accurate typing of tax payers, that should by controlled by tax authorities, and
this leads for the better observance of the tax law.
Keywords: databases, data mining, Support Vector Machines, classification
Ryszard Budziński
Leszek Misztal
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie
e-mail:[email protected]
[email protected]
38
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
WITOLD CHMIELARZ
Uniwersytet Warszawski
MIERNIKI OCENY UśYTECZNOŚCI INDYWIDUALNEJ BANKOWOŚCI
ELEKTRONICZNEJ W POLSCE W POŁOWIE 2008 ROKU
Streszczenie
Zasadniczym celem niniejszego artykułu jest wykonanie wstępnych analiz do
czwartego etapu badań dotyczącego analizy i oceny usług internetowej bankowości
indywidualnej w Polsce w połowie 2008 r. Rozpoczyna się wprowadzeniem określającym miejsce bieŜących badań w cyklu badawczym, uzasadnienia podjętych badań
oraz definiującym podstawowe pojęcia uŜywane w pracy. Następnie przeprowadzono
analizę serwisów bankowości indywidualnej dla wybranych banków w Polsce, za
pomocą metody punktowej, metody punktowej ze skalą preferencji oraz metody konwersji. Kolejnym krokiem jest analiza uzyskanych wyników i wyciągnięcie wniosków
dotyczących przyszłych badań koniecznych do wykonania w tym etapie.
Słowa kluczowe: e-banking, serwis internetowy, mierniki oceny systemów informatycznych
1. Wstęp
Zasadniczym celem niniejszych badań jest analiza moŜliwości zastosowania wybranych
metod oceny przedsięwzięć informatycznych, jako mierników stopnia rozwoju i uŜyteczności
zastosowania serwisów internetowych. Przedstawione badanie ograniczono do sfery dostępu do
usług bankowości elektronicznej z punktu widzenia przeciętnego klienta indywidualnego. PoniŜsze
rozwaŜania w sferze poznawczej słuŜą monitoringowi tej sfery, w sferze metodycznej – do analizy
moŜliwości zastosowań i tworzenia nowych modeli oceny, w sferze utylitarnej - do testowania
nowych, autorskich metod lub ich zastosowań. W trakcie realizacji celu głównego stawiany jest
następujący problem badawczy: która z funkcjonujących witryn internetowych banków wykazuje
największą uŜyteczność ze względu na przyjęty zbiór kryteriów (cech charakterystycznych,
atrybutów, mierników, czynników)? Prowadzi to do określenia takiej konfiguracji kryteriów, która
będzie poŜądana (optymalnie postrzegana) z punktu widzenia klienta finalnego i pozwoli na
podstawie racjonalnego wyboru zmaksymalizować jego szeroko pojęte korzyści, wynikające
z uŜytkowania danej witryny. Jednocześnie właściciel serwisu uzyskuje wiedzę, jaki zestaw
i struktura (relacje wzajemne) cech charakterystycznych serwisu są najbardziej istotne dla klientów
i będzie mógł do ich potrzeb dostosować kanały i sposoby dostarczania określonych usług
i produktów.
Przedstawiane badania wynikały z praktycznych zleceń podejmowanych w latach 1998-2002
przez autora, polegających na eksperckiej pomocy w wyborze optymalnego zestawu
oprogramowania (systemów) dla firm i banków. Do połowy 2008 r. badania przebiegały w trzech
głównych etapach:
- ekstensywnym – identyfikacja cech charakterystycznych witryn internetowych kolejnych, podstawowych branŜ e-biznesu. Głównie wykorzystywana była prosta, statyczna ocena punktowa
Witold Chmielarz
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 roku
39
i analiza kierunków rozwoju serwisów w danej branŜy (dynamika przez powtarzanie badań tą
samą metodą i pewnych odstępach czasu) rozpoczęła się w roku 2001 i trwa w wybranych
branŜach do dziś [4],
- indykatywnym – modyfikacje stosowanej metody punktowej – w kierunku ograniczenia jej subiektywności i narzucenia eksperckiej skali preferencji, a takŜe badanie moŜliwości zastosowania innych metod – przede wszystkim AHP, wraz z róŜnymi, moŜliwymi sposobami jej zastosowania. Celem było wskazywanie – z jednej strony odmian metodyki najlepszej dla oceny danej branŜy, a z drugiej - przykładów najlepszych w danym momencie serwisów dla klienta końcowego (lata 2005-2007) [5],
- intensywnym – usprawnienie i tworzenie własnych metodyk oceny serwisów internetowych –
metodyka konwersji, próba metodyki oceny substytucji pomiędzy kryteriami oceny itp. [3].
Badania były prowadzone dla róŜnych branŜ gospodarki elektronicznej i w zróŜnicowanym
zakresie. Dla poszczególnych branŜ autor na ogół posługiwał się pomocniczo w wyborze witryn
internetowych rankingami prowadzonymi przez inne instytucje badawcze i innych ekspertów, co
dawało dodatkowy materiał dla analiz porównawczych. ZróŜnicowanie zakresu wynikało zaś ze
szczupłości środków przeznaczonych na badania oraz skomplikowanej struktury niektórych branŜ,
potęgowanej przez wielką ilość jednostek gospodarczych i instytucji, które powinny być poddane
badaniu oraz złoŜonych relacji pomiędzy nimi. Dlatego podlegały one starannej selekcji, po to by
moŜna było wybrać firmy, czy instytucje porównywalne ze sobą. Istotne trudności wystąpiły teŜ
z tworzeniem i funkcjonowaniem zespołów eksperckich oceniających witryny w poszczególnych
branŜach. NajpowaŜniejszym jednak problemem okazał się tu brak jednolitej, obiektywnej, spójnej
i zweryfikowanej w rzeczywistości metodyki oceny witryn internetowych. Nie jest on ani
dostatecznie doceniony w literaturze polskiej, czy zagranicznej ani teŜ w Ŝaden sposób w niej
przedstawiony. Niektóre zaś z obecnie pojawiających się artykułów, czy referatów
konferencyjnych zostały zainicjowane badaniami autora. W tym nurcie mieszczą się rozwaŜania
ukazane poniŜej. PoniŜsze badanie prowadzone są dla usług bankowości elektronicznej, jednej
z najczęściej pojawiających się branŜ w badaniach autora. Traktowana jest ona w sposób jednolity
– od strony usług dostępnych dzięki witrynie internetowej banku, bez dzielenia banków wg form
bankowości elektronicznej na dostęp elektroniczny, elektroniczne oddziały, czy bankowość stricte
internetową. Podziały te zresztą obecnie na polskim rynku się mocno zdezaktualizowały i są
bardzo nieostre. Bańkowość elektroniczna jest na rynku elektronicznym obiektem badawczym
bardzo wdzięcznym z wielu powodów: jest to najlepiej rozwinięta w Polsce część tego rynku,
chętnie sięga po najnowsze innowacje w tym zakresie z powodu duŜej konkurencji i jest skłonna
inwestować w najnowsze rozwiązania i ich rozwój. Na koniec 2007 r. mieliśmy 63 banki oraz 582
spółdzielcze (NBP). Wg Komisji Nadzoru Finansowego (KNF) w czerwcu 2008 w tej sferze było
zatrudnionych 173, 646 tys. osób. Liczba kart płatniczych wyniosła w połowie 2008 r. 28, 2 Mn,
a liczba bankomatów 12,4 tys. (NBP). Z danych Związku Banków Polskich (ZBP) wynika, Ŝe
w połowie 2008 r. ilość umów z klientami dotyczącymi elektronicznego dostępu do kont wynosiła
11,2 ml (blisko 6,5 ml klientów aktywnych, co stanowi 58% penetracji rynku, w tym 89%
w zakresie klientów indywidualnych). Do roku 2010 ma wzrosnąć do prawie 15 Mn.
Są to wielkości pokaźne – prawie 30% ludności Polski ma szansę korzystać z elektronicznego
dostępu do konta, 17% wykorzystuje tą moŜliwość w sposób aktywny - tak więc, wielkość
problemu i jego znaczenie wydają się szczególnie istotne dla rozwoju gospodarczego kraju.
Dla przeprowadzenia badań przyjęto następującą procedurę badawczą:
40
-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
ustalenie metod i zasad typowania grupy eksperckiej,
zebranie i ukonstytuowanie oceniającego zespołu eksperckiego,
wybór grup kryteriów oraz specyfikacji szczegółowych oceny usług elektronicznych,
wybór metody oceny oraz dokonanie przystosowania jej do warunków badania,
przeprowadzenie badań,
analiza wyników badań i wyciągnięcie wniosków.
W zaleŜności od celu i załoŜeń badania stosowano róŜne metody ustalenia grupy eksperckiej.
Gdy podstawowym celem badania było ustalenie optymalnej postaci witryny internetowej na podstawie, której przystępowano dopiero do realizacji własnego projektu, powoływano zespół ekspercki złoŜony ze specjalistów z danej branŜy, projektantów serwisów internetowych, niezaleŜnych
naukowców z wiodących uczelni w kraju oraz uŜytkowników podobnych witryn ze środowiska
akademickiego. W doborze do grupy eksperckiej kierowano się oceną środowiska i w przypadkach, gdy zaistniały jakiekolwiek wątpliwości samooceną specjalisty. W przypadku, gdy chodziło
o wybór optymalnego serwisu dla uŜytkownika końcowego, ankietowano osoby korzystające z Internetu, od co najmniej trzech lat i spędzających w nim, co najmniej dziesięć godzin tygodniowo,
z czego co najmniej jedną trzecią poświęcają na przeglądanie stron internetowych. Dodatkowym
warunkiem w przypadku serwisów bankowych było korzystanie z ocenianego serwisu. Niewątpliwie w obu przypadkach grupa była na tyle liczna by posiadać zróŜnicowane i niezaleŜne poglądy.
Gdy dobór ekspertów nosił znamiona losowego, a rozpiętość ich ocen wydawała się znaczna
określano stopień zgodności ekspertów (np. współczynnik konkordacji) oraz eliminowano ekspertów o ekstremalnych ocenach, by go ewentualnie poprawić [7], [8].
Po ustaleniu zespołu eksperckiego w pierwszym przypadku drogą wzajemnych uzgodnień
(np. przez Internet) od początku albo metodą modyfikacji projektu wstępnego zaproponowanego
przez moderatora lub metodą „burzy mózgów” ustalano wzorzec kryteriów oceny (grupy i wskaźniki szczegółowe). W drugim przypadku moderator narzucał wzorzec uzgodniony w węŜszej grupie specjalistów z danej dziedziny.
W kolejnym kroku dokonujemy wyboru metody badawczej. W poprzednich badaniach rozpoczynano na ogół od wielowymiarowej analizy punktowej, wraz z wygenerowaną przez ekspertów – do dalszych badań - skalą preferencji. W zeszłym roku dodatkowo przeprowadzono szereg
doświadczeń polegających na zastosowaniu metody punktowej, metody AHP oraz własnej metody
konwersji w ocenie serwisów internetowych. Dodatkowo róŜnicowano trzykrotnie sposób tworzenia skali preferencji kryteriów, a uzyskane wyniki zastosowano do dodatkowych wariantów obliczeń. Wyniki sześciu otrzymanych w ten sposób wariantów oceny były ze sobą wielostronnie porównywane. Z porównań tych wynikała potrzeba uproszczenia relacyjnej metody AHP pod kątem
uŜyteczności dla ekspertów oraz wnioski o konieczności zbadania substytucji pomiędzy miernikami kształtującymi ocenę strony, które rozwinęły się w odrębne kierunki badań. Okazało się teŜ, Ŝe
kaŜda ze stosowanych metod – nie tylko, jak uwaŜano dotąd oceny punktowej – jest obarczona
pewną doŜą subiektywizmu. Okazało się teŜ, Ŝe metoda punktowa ze względu na proste, szerokie
i uznane moŜliwości odniesień do wyników zewnętrznych moŜe świetnie słuŜyć jako pierwszy,
wstępny stopień wymiarowania witryn internetowych. Relacyjność pomiędzy wskaźnikami jest
natomiast w dostateczny, a kompromisowy względem wymogów ekspertów, uzyskiwana z metody
konwersji.
Witold Chmielarz
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 roku
41
2. Wstępne analizy usług bankowości elektronicznej dla klientów indywidualnych
przy pomocy metody punktowej
Jak juŜ wspomniano wcześniej podstawą rozpoczęcia kaŜdego z etapów oceny uŜyteczności
bankowych witryn internetowych było zastosowanie dla tej oceny metody punktowej. Najszerszy
zestaw mierników, jaki jest stosowany w badaniach uŜyteczności stron internetowych zawiera kryteria funkcjonalne, techniczne, ekonomiczne, organizacyjne oraz psychologiczne. Z poprzednio
przeprowadzonych eksperymentach udowodniono, Ŝe w chwili obecnej kryteria psychologiczne
i w duŜej mierze organizacyjne dla elektronicznych bankowych usług przeznaczonych dla klientów
indywidualnych kształtują się w bardzo podobny sposób. Podobnie – jak się wydaje – przedstawia
się sprawa wizualizacji i poruszania się po wyróŜnionych dla tego badania witrynach bankowych.
Dlatego w etapach późniejszych pod uwagę wzięto głównie kryteria ekonomiczne i funkcjonalne,
dołączając wzorem analiz serwisów internetowych podstawowe kryteria technologiczne. Takie
powtarzalne w czasie ujęcie problemu pozwala na dynamiczne porównania serwisów internetowych banków działających w Polsce. Tak więc w obecnym etapie, tak jak poprzednim - wyróŜniono kryteria następujące:
- ekonomiczne - oprocentowanie nominalne roczne, prowadzenie rachunku mies./zł, prowizja za
dostęp do kanałów elektronicznych (w tym token, jak jest), opłata za przelew do banku macierzystego, opłata za przelew do innego banku, procent za depozyty - lokata 10 tys., opłata za
wydanie karty, opłata za obsługę karty - mies./zł,
- funkcjonalne – ze względu na duŜe podobieństwo usług podstawowych wyróŜniono jedynie
ponadstandardowe usługi dodatkowe typu: ubezpieczenia, fundusze inwestycyjne, przelew za
granicę, czy rachunek walutowy,
- technologiczne - liczba bezprowizyjnych bankomatów, kanały dostępu do konta (placówki,
Internet, Call Center, telefon komórkowy), zabezpieczenia (identyfikator i hasło, token, protokół SSL, lista haseł jednorazowych, lista kodów jednorazowych).
W metodzie punktowej zbierano informacje o wyróŜnionych kryteriach; przypisywano im
wartości wg załoŜonej skali wartości oraz analizowano wyniki w tabeli zbiorczej. Przyjęto następującą skalę wartości ocen: 1,00 – bardzo dobra (pełne spełnienie kryterium, najniŜsze koszty); 0,75
– dobra (prawie doskonałe spełnienie kryterium, nieco wyŜsze koszty); 0,50 – średnia (połowiczne
spełnienie kryterium, średnie koszty); 0,25 – dostateczna - zadowalające spełnienie kryterium, wysokie koszty; 0,00 – niedostateczna - brak cechy, najwyŜsze koszty.
Metodę punktową wykorzystywano w dwóch odmianach: prostej – gdzie kryteria były traktowane równowaŜnie; ze skalą preferencji – gdzie grupom kryteriów przypisywano wartości
współczynników róŜnicujące ich traktowanie przez klienta (suma współczynników = 1).
W prostej metodzie punktowej mierzy się odległość od maksymalnie moŜliwej do uzyskania
(wg zakładanej skali wartości). Dotyczy ona wartości miary kryterium i w sensie odległości jest
taka sama, kiedy mierzymy odległości kryterium pierwszego od drugiego, jak i na odwrót. Nie
określa się natomiast relacji pomiędzy poszczególnymi kryteriami. Za taką miarę moŜna uwaŜać
przydanie poszczególnym kryteriom (lub ich grupom) skali preferencji. Liniowa skala preferencji
w postaci znormalizowanej określa z kolei udział poszczególnych kryteriów w ostatecznym wyniku. Wyznacza więc jednorazową relację pomiędzy kryteriami w odniesieniu do całości oceny, jest
równieŜ jakby „uśrednioną” miarą dla kryteriów w poszczególnych przypadkach, nie indywidualizując oceny dla kaŜdego z nich. Ale teŜ nie określa o ile kaŜde z kryteriów jest lepsze/gorsze od
42
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
innego. Jest tylko pochodną od znormalizowanej odległości.
Ta powszechnie dziś – w róŜnych odmianach - stosowana metodyka [SURM07] posiada niestety pewne wady, takie jak: subiektywizm ocen eksperckich, nieadekwatność wyznaczonych kryteriów do oceny sytuacji występują teŜ problemy ze sprowadzeniem ocen róŜnych kryteriów do
porównywalności. Systematyka taka rodzi teŜ problemy związane z wątpliwościami dotyczącymi
potrzeby zbiorczych porównań róŜnych kategorii usług bankowych (np. karty, usługi internetowe,
usługi okienkowe itp.) w róŜnych formach bankowości elektronicznej (elektroniczny dostęp do
konta tradycyjnego, oddział elektroniczny, bank wirtualny); czy teŜ skali punktacji i jej przeliczania z wartości pienięŜnych na umowne (punktowe lub procentowe).
Subiektywizm oceny moŜna ograniczyć poprzez zaangaŜowanie grupy ekspertów i wyciągnięcie średniej lub dominanty z ich szacunków. Uśrednienie nie likwiduje, co prawda subiektywizmu, ale moŜe go przynajmniej zmniejszyć. Grupa ekspertów moŜe teŜ wyznaczyć zbiór kryteriów
oceny, eliminując lub przynajmniej ograniczając ich brak odpowiedniości do sytuacji, jak równieŜ
wyznaczyć algorytm przeliczenia wskaźników wartościowych na ilościowe.
Tabela 1. Fragment zbiorczej tabeli ocen
Kryteria/banki
Oprocentowanie
nominalne roczne
Prowadzenie rachunku mies./zł
Prowizja za dostęp
do kanałów elektronicznych
Opłata za przelew
do banku macierzystego
Opłata za przelew
do innego banku
%% za depozyty lokata 10 tys.
Liczba bezprowizyjnych bankomatów
Opata za wydanie
karty
Opłata za obsługę
karty - mies./zł
mBank
Multibank
VW Bank e-direct
ING Konto
Direct
Polbank
EFG
Raiffeisen
Bank
Inteligo
BZ
WBK
Deutsche
Bank
Toyota
Bank
%%
wartośći
maks.
0,16
0,25
0,88
0,18
0,25
0,25
0,61
0,25
1,00
0,88
44,14%
1,00
0,67
0,50
0,89
1,00
0,50
0,86
0,83
0,00
1,00
59,00%
1,00
1,00
0,81
0,93
1,00
1,00
0,89
0,75
1,00
1,00
76,60%
0,92
1,00
1,00
0,89
1,00
1,00
0,92
1,00
1,00
0,94
94,88%
0,88
1,00
0,56
0,93
0,75
1,00
0,58
0,50
0,75
0,88
60,72%
0,68
0,58
0,81
0,75
1,00
0,75
0,42
0,33
0,50
0,44
58,50%
0,82
0,75
0,63
0,61
0,50
0,75
0,64
0,42
0,50
0,75
61,09%
0,97
1,00
1,00
0,93
1,00
1,00
0,75
0,83
1,00
0,50
88,33%
0,99
0,67
1,00
0,75
1,00
0,75
0,56
0,92
1,00
0,31
67,87%
Usługi dodatkowe
Kanały dostępu do
konta
0,91
0,75
0,63
0,86
0,58
0,75
0,89
0,75
1,00
0,44
66,54%
0,83
0,92
0,75
0,89
0,50
0,75
0,92
0,92
0,00
0,75
67,18%
Zabezpieczenia
0,85
0,92
0,88
0,61
0,42
0,50
0,83
1,00
0,75
0,63
69,37%
Suma
10,02
9,50
9,44
9,21
9,00
9,00
8,86
8,50
8,50
8,50
Technologiczne
2,49
2,58
2,25
2,11
1,42
2,00
2,39
2,33
1,25
2,13
Ekonomiczne
6,62
6,17
6,56
6,25
7,00
6,25
5,58
5,42
6,25
5,94
Funkcjonalne
0,91
0,75
0,63
0,58
0,75
78,65%
75,00%
75,00%
0,75
70,83
%
0,44
79,17%
0,89
73,84
%
1,00
83,49%
0,86
76,79
%
70,83%
70,83%
%% max
Witold Chmielarz
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 roku
43
Podstawową zaletą tej grupy metod jest moŜliwość przedstawienia zbiorczego wyniku oceny
za pomocą jednego wskaźnika dla kaŜdego banku, który jest porównywalna z wynikiem opisującym inne banki i to porównanie umoŜliwia. W ten sposób niejako udziela jednoznacznej odpowiedzi na pytanie, który z danych banków jest dla określonej kategorii klienta najlepszy, nie wdając
się w dywagacje dotyczące rankingowania poszczególnych rodzajów usług bankowych. Nie zmusza teŜ – dla porównań – do budowania złudnego w gruncie rzeczy i podwaŜanego przez klientów przeciętnego koszyka usług bankowych wycenianego wartościowo.
Do oceny kryteriów kosztowych, funkcjonalnych, technologicznych oraz pozostałych posłuŜyła tabela wyjściowa, w której przedstawiono oferty banków dotyczące usług bankowości elektronicznej i opłat związanych z korzystaniem z kont bankowych, którymi moŜemy zarządzać przez
Internet, utworzona na podstawie danych uzyskanych ze stron internetowych poszczególnych banków. Na jej podstawie stworzono uproszoną i uśrednioną tabelę zbiorczą ocen kryteriów generowanych przez ekspertów (Tabela 1).
Dane do tabeli uzyskano analizując od maja do sierpnia 2008 r. serwisy internetowe wybranych dwudziestu czterech serwisów internetowych banków (w tym cztery banki internetowe),
w razie potrzeby wspomagając się informacją z infolinii lub innych źródeł internetowych. Z prośbą
o ocenę elektronicznych serwisów bankowych zwrócono się do 169 uŜytkowników (studentów
studiów wieczorowych i zaocznych Wydziału Zarządzania Uniwersytetu Warszawskiego oraz
WyŜszej Szkoły Ekonomiczno-Informatycznej, głównie specjalności informatycznych i bankowości). Uzyskano sto czterdziestu pięć zwrotnych odpowiedzi, z których w pierwszej selekcji ze
względów formalnych wyeliminowano dwadzieścia jeden. Dalsza preparacja danych nastąpiła po
wstępnych analizach i jest przedmiotem, przygotowywanego równolegle – po uprzednich obliczeniach odrębnego artykułu.
10,02
m Bank -eKonto
9,50
Multibank - Multikonto - Ja
Volkswagen Bank - e-direct - Pakiet
Standard
9,44
ING - Konto Direct
9,21
Raiffeisen Bank - Mobilne Konto
Osobiste
9,00
Polbank EFG - Rachunek Gotówkowy
9,00
Inteligo
8,86
Toyota Bank - konto osobiste
8,50
Deutsche Bank PBC - db Fokus
8,50
BZ WBK Konto 24.pl
8,50
7,50
8,00
8,50
9,00
9,50
10,00
10,50
Rys.1. Ranking uŜyteczności elektronicznego dostępu do kont indywidualnych
wybranych 10 banków w Polsce
44
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Wyniki wstępnych analiz były następujące. Zsumowanie punktów uzyskanych z tabeli zbiorczej przedstawia określony ranking usług bankowości elektronicznej dla poszczególnych banków.
Na pierwszej pozycji znalazł się w tym rankingu mBank (83,49% - poziomu usług maksymalnych,
73,96% na początku 2008 r., wobec 68,42% w roku 2007), następnie Multibank (79,17%, poprzednio na dalekiej 13 pozycji), Volkswagen Bank z usługą e-Direct (78,39%, uprzednio 72,92%)
oraz ING Konto direct (76,79%, uprzednio na 16 pozycji). Dwa banki internetowe uprzednio znajdujące się w pierwszej piątce Toyota Bank i Inteligo, tym razem znalazły się poza nią (odpowiednio na 10 i 7 pozycji).
Rozpiętość w ocenach najlepszej trójki sprowadza się do blisko 5 punktów procentowych
(wobec 9 na początku roku, a 2,25 punktu w roku ubiegłym), co świadczy o ponownie malejącym
zróŜnicowaniu ocen – w połowie roku – przed początkiem kryzysu sytuacja w sektorze bankowym
była ustabilizowana. Tym niemniej, pomimo prawie 40 punktów rozpiętości oceny najlepszej
i najgorszej, widać, Ŝe banki nawzajem pilnie się obserwują i wyciągają szybko wnioski z niepowodzeń i sukcesów innych. W większości nie ma Ŝadnych obowiązkowych wpłat miesięcznych,
albo są one celowo minimalizowane (co nie do końca oddaje skala punktowa), przelewy do banku
są na ogół bezpłatne, a poziom zabezpieczeń moŜe być uznany za wystarczający dla klientów (2-4
rodzajów zabezpieczeń). Najgorzej w tej klasyfikacji wypadły: Getin Bank (58,33%, pomimo wysokich notowań wskaźników ekonomicznych), Millenium (62,92%) oraz Citibank 63,02%).
Z zestawienia zbiorczego wynika teŜ, Ŝe dwie usługi: opłata za wydanie karty i opłata za wydanie karty osiągnęły poziom, który w chwili obecnej jest w stanie zadowolić klienta około 90%.
Bezapelacyjnie najgorszym wskaźnikiem jest oprocentowanie nominalne roczne (oceniane w większości przez uŜytkowników jako zbyt niskie – 44% maksymalnych moŜliwości). Prawie 60% ocen
maksymalnych osiągały teŜ w połowie roku prowadzenie rachunku oraz oprocentowanie lokat.
Z czynników niewymienionych w kryteriach klienci zwracali uwagę na brak moŜliwości dokonania
przelewu za granicę oraz brak moŜliwości całkowicie automatycznego – przez Internet - uzyskania
kredytu.
Pierwszą metodą ograniczającą swoisty subiektywizm ocen grupy ekspertów jest zastosowanie jednostkowych preferencji, co do poszczególnych kryteriów, bądź grup kryteriów. Przeprowadzono cztery eksperymenty przypisując preferencje do wariantów: ekonomicznego (60%), pozostałe po 20%; technologicznego (60%), pozostałe po 20%; funkcjonalnego (60%), pozostałe po 20%;
pozaekonomiczne – po 40%, ekonomiczne 20%.
Witold Chmielarz
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 roku
45
m Bank -eKonto
Polbank EFG - Rachunek
Gotówkowy
Volkswagen Bank - e-direct Pakiet Standard
Multibank - Multikonto - Ja
Pozaekonomiczne
Funkcjonalne
Ekonomiczne
ING - Konto Direct
Raiffeisen Bank - Mobilne Konto
Osobiste
Technologiczne
Deutsche Bank PBC - db Fokus
Toyota Bank - konto osobiste
Inteligo
BZ WBK Konto 24.pl
0,00
0,50
1,00
1,50
2,00
2,50
3,00
3,50
4,00
4,50
5,00
Rys.2. Ranking oceny punktowej wg róŜnych rodzajów preferencji dla wybranych
10 banków w Polsce
3. Wykorzystanie metody konwersji dla analiz usług bankowości elektronicznej dla klientów
indywidualnych
Do dalszych analiz wykorzystano stworzoną przez Autora w zeszłym roku metodę konwersji.
PoniewaŜ pierwsza przymiarka do wykorzystania tej metody miała szereg niedogodności [2], zastosowano drugą wersję metody konwersji weryfikowaną (podobnie jak obecnie) w branŜy bankowości elektronicznej [3]. Jest to dopiero druga weryfikacja tej – wydaje się, Ŝe tym razem poprawnej – metody.
ZałoŜenia metody konwersji są następujące: po zbudowaniu przez ekspertów tabeli ocen poszczególnych kryteriów dla kaŜdego z banków - konwersję naleŜy rozpocząć od ustalenia wektora
preferencji kryteriów poziomu nadrzędnego. Proponuje się następujące przekształcenie zbiorczej
tabeli wynikowej na wektor preferencji (pierwszy konwerter):
- utworzenie macierzy odległości od wartości maksymalnej dla kaŜdego kryterium, w kaŜdym
serwisie,
- obliczenie średniej odległości od wartości maksymalnej, dla kaŜdego kryterium,
- stworzenie macierzy róŜnic pomiędzy odległością od wartości maksymalnej, a odległością
średnią wg kryteriów,
46
-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
dla kaŜdego serwisu banku budowa macierzy konwersji – modułów odległości względnych poszczególnych kryteriów od pozostałych kryteriów (odległość od tego samego kryterium wynosi
0), poniŜej przekątnej uzyskane odległości są odwrotnością odległości powyŜej przekątnej,
- uśrednienie macierzy konwersji kryteriów – stworzenie jednej macierzy średnich modułów wartości dla wszystkich kryteriów,
- przekształcenie macierzy konwersji kryteriów w nadrzędną macierz preferencji (obliczenie
kwadratu macierzy, sumowanie po wierszach, standaryzacja uzyskanego wektora preferencji;
ponowne podniesienie do kwadratu, sumowanie po wierszach, standaryzacja wektora preferencji – powtarzanie tej iteracji dopóki róŜnice w kolejnych wektorach preferencji będą minimalne).
Następnie dokonywano przekształcenia wyników podanych przez ekspertów na poziomie macierzy określających oceny eksperckie kolejnych serwisów dla poszczególnych kryteriów (drugi
konwerter). Wyniki otrzymano w analogiczny sposób:
- stworzenie macierzy odległości od wartości maksymalnej dla kaŜdego kryterium i kaŜdej witryny,
- obliczenie średniej odległości od wartości maksymalnej, dla kaŜdego serwisu,
- stworzenie macierzy róŜnic odchyleń od wartości maksymalnej i średniej odległości cech od
maksymalnej,
- dla kaŜdego kryterium skonstruowanie macierzy (12) przekształceń (konwersji) róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami, analogicznie jw. (odległość dla danej cechy w tym samym serwisie od tego samego serwisu wynosi 0), wartości poniŜej przekątnej są odwrotnościami tych, które są powyŜej przekątnej,
- budowa macierzy modułów przekształceń róŜnic odległości średniej od wartości maksymalnej
pomiędzy serwisami, dla kaŜdego kryterium,
- dla kaŜdej macierzy modułów przekształceń róŜnic odległości średniej od wartości maksymalnej pomiędzy serwisami podniesienie jej do kwadratu, podsumowanie wierszy, standaryzacja
uzyskanego wektora rankingu oraz powtarzanie tej czynności dopóki róŜnice uzyskane pomiędzy dwoma wektorami rankingowymi dla danego kryterium będą minimalne,
- skonstruowanie z tak uzyskanych wektorów zbiorczej macierzy rankingowej – powrót do macierzy gdzie w boczku są nazwy kryteriów, w główce nazwy serwisów bankowych przez odpowiednie przeniesienie do niej uzyskanych wektorów preferencji dla kaŜdego kryterium,
- przemnoŜenie tak uzyskanej macierzy przez obliczony uprzednio wektor preferencji,
- analizowanie wyników ostatecznych i wyciągnięcie wniosków (uwaga: najniŜsze odległości są
w tym przypadku najkorzystniejsze, sprowadzenie do porównywalności z pozostałymi metodami moŜemy uzyskać przez odjęcie tych wartości od 1 i ich ponowną standaryzacji).
Witold Chmielarz
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 roku
47
m Bank -eKonto
Multibank - Multikonto - Ja
Volkswagen Bank - e-direct - Pakiet Standard
ING - Konto Direct
Raiffeisen Bank - Mobilne Konto Osobiste
Polbank EFG - Rachunek Gotówkowy
Inteligo
Toyota Bank - konto osobiste
Deutsche Bank PBC - db Fokus
BZ WBK Konto 24.pl
0,0000
0,0200
0,0400
0,0600
Metoda punktowa
0,0800
0,1000
0,1200
0,1400
Metoda konwersji
Rys.3. Ranking oceny elektronicznego dostępu do kont indywidualnych wybranych bankach
w Polsce w połowie2008 r wg metody konwersji oraz punktowej - porównanie pierwszych
dziesięciu pozycji rankingu
Metoda konwersji – jako oparta na uśrednionych odległościach od przeciętnych - spłaszczyła
uzyskane wyniki. Tym niemniej występuje w niej większa zgodność z wynikami uzyskanymi metodą punktową niŜ w metodzie AHP. W przytaczanych badaniach zeszłorocznych dotyczących
serwisów internetowych bankowości elektronicznej średni kwadrat róŜnicy odchyleń pomiędzy
standaryzowanymi wynikami szacunków ocen wynikających z metodyki punktowej i metodyki
AHP wynosiła oraz metodyki punktowej i metodyki konwersji był przeszło czterokrotnie mniejszy
na rzecz metodyki konwersji. W tym roku – między innymi ze względu na świadomość ekspertów
róŜnic pomiędzy metodyką AHP a metodyką konwersji i związanym z tym staranniejszym i bardziej przemyślanym wypełnianiem tabel zbiorczych – róŜnice te we wszystkich kategoriach udało
się zmniejszyć. Tym niemniej nadal większe zróŜnicowanie występuje pomiędzy wynikami metody
AHP i metody punktowej. Sugeruje to rezygnację ze stosowania metodyki AHP w dalszych badaniach nad oceną witryn internetowych. Wyniki metody konwersji dla danych z połowy 2008 r.
przedstawia Rys. 3. Ponadto porównując obecne wyniki z badaniami poprzednimi widać wyraźnie,
Ŝe w ciągu pierwszego półrocza ranking usług elektronicznych banków działających w Polsce diametralnie się zmienił. Z trzech pierwszych pozycji tylko mBank utrzymał swoje miejsce. Na drugim miejscu znalazł się Multibank (poprzednio na 12), na trzeciej VW Bank (poprzednio 4).
48
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
W pierwszej dziesiątce znalazły się ponadto ING (15), Raiffeisen Bank i Deutsche Bank, zajmujące uprzednio dalsze miejsca. Dziwi trzecie od końca miejsce Toyota Bank (poprzednio 3), dawniej
długo na pierwszej pozycji. Przyczyną takiego zróŜnicowania były głównie czynniki ekonomiczne
– część uzyskanych danych spływała juŜ w momencie pojawienia się pierwszych zapowiedzi i objawów kryzysu, zwiększyła się równieŜ ostrość oceny niedociągnięć funkcjonalnych ocenianych
witryn.
4. Podsumowanie obecnego etapu badań
Przedstawione wstępne wyniki – otrzymane przy pomocy tradycyjnej metody punktowej, jej
modyfikacji w postaci metody punktowej z róŜną skalą preferencji oraz metody konwersji nie wyczerpują moŜliwości oceny witryn internetowych. Prowadzone od ubiegłego roku badania szczegółowe pokazują, Ŝe metody eliminujące oceny subiektywne pokazują inne rezultaty niŜ przedstawione w powyŜszym badaniu. Pozwalają teŜ na określenie moŜliwości zastosowania wykorzystywanych metodyk w ocenie serwisów internetowych (patrz: Tabela 2).
Tabela 2. Zbiorcza ocena moŜliwości zastosowania wykorzystywanych metodyk w ocenie serwisów
internetowych obsługi bankowego klienta indywidualnego.
Cecha charakterystyczna
Łatwość zastosowania
Łatwość nauczenia się
Łatwość dokonania obliczeń
Obiektywizm
Interpretacja wniosków
Metoda punktowa
Wysoka
Wysoka
Wysoka
Niski
Wysoka
Metoda AHP
Niska
Niska
Wysoka, przy dysponowaniu oprogramowaniem
Wysoki
Średnia
Metoda konwersji
Wysoka
Nie występuje
Wysoka, przy dysponowaniu
oprogramowaniem
Średni
Średnia
Uzyskane do chwili obecnej wyniki tego etapu ugruntowują przekonanie o przydatności
obecnie rozpatrywanej postaci metody konwersji. RóŜnice w wynikach w porównaniu z rokiem
ubiegłym biorą się teŜ z większego zróŜnicowania ocen ekspertów. W etapie poprzednim oceny
dokonywał doborowy zespół ekspertów, o wysokich kwalifikacjach zawodowych.. Dodatkowe badanie zgodności ich ocen nie było w tym przypadku potrzebne. PoniewaŜ w badaniu obecnym grupa ekspertów była znacznie bardziej zróŜnicowana naleŜy dokonać – ze względu na przyjętą metodę zbierania danych – ich przedobliczeniowej preparacji wg metod wspomnianych na początku
artykułu. Na ogół rankingi publikowane w prasie fachowej nie uwzględniają tych obliczeń, a wydaje się, Ŝe powinny ze względów metodycznych. Doprowadzenie do zgodności ocen eksperckich
moŜe bowiem zmienić kolejność prezentowanych rankingów. Będzie to jednak kolejnym krokiem
prowadzonych badań.
5. Literatura
1. Chmielarz W.: Metody oceny witryn banków internetowych w zakresie obsługi klienta
indywidualnego, Rachunkowość bankowa, nr 3(40), 2008, str. 65-77,
2. Chmielarz W.: Przełączniki metodyczne w ocenie witryn internetowych sklepów
komputerowych, rozdz. 43 [w]: Zarządzanie Wiedzą i Technologiami Informatycznymi,
red. C. Orłowski, Z. Kowalczuk, E. Szczerbicki, nr 4 seria: Automatyka i Informatyka,
Pomorskie Wydawnictwo Naukowo-Techniczne PWNT, Gdańsk 2008, str. 361-368,
Witold Chmielarz
Mierniki oceny uŜyteczności indywidualnej bankowości elektronicznej w Polsce
w połowie 2008 roku
49
3. Chmielarz W.: Metodyczne problemy oceny witryn bankowości elektronicznej, podrozdział
3, rozdziału drugiego pt. Technologie mobilne i internetowe oraz systemy e-Biznesu, [w]
pracy zbiorowej Systemy Wspomagania Organizacji, Informatyka Ekonomiczna jako
dziedzina nauki i Dydaktyki, pod. red. M. Pańkowskiej, T. Porębskiej-Miąc, H.Sroki,
Prace Naukowe AE w Katowicach, Katowice, 2008, str. 303-310,
4. Chmielarz W.: Systemy elektronicznej bankowości, Difin, Warszawa 2005,
5. Modele efektywnych zastosowań elektronicznego biznesu w sektorach gospodarki polskiej,
red. W.Chmielarz, Wydawnictwo WSEI, Warszawa 2007,
6. http://www.zbp.pl/, listopad 2008 r.,
7. Steczkowski J. Zeliaś A.: Statystyczne metody analizy cech jakościowych, PWE, Warszawa
1981,
8. Stabryła A.: Zarządzanie strategiczne w teorii i praktyce firmy, PWN, Warszawa 2002,
9. Surmacz W.: Sieć i płacz, w: Biznes Ranking banków „Newsweek”, Newsweek z 30. 09.
2007, str. 58-60.
UTILITY EVALUATION MEASURES OF INDIVIDUAL E-BANKING IN POLAND
IN THE MIDDLE OF 2008
Summary
The main goal of the article is introductory analysis executing for the fourth
stage of analysis and evaluation research of an individual banking services in Poland in the middle of 2008. It starts from introductory description a place of current
research in total research cycle, taken research justification and basic phenomenon
definitions. Next analysis of individual banking services for selected banks in Poland
are taken – using scoring method, scoring method with preferences and conversion
method. Another step is analysis obtained results and conclusions concerned future
research of this stage.
Keywords: e-banking, websites, information systems evaluation measures
Witold Chmielarz
Wydział Zarządzania
Uniwersytet Warszawski
02-678 Warszawa, ul. Szturmowa 1/3
e-mail: [email protected]
50
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
LUDOSŁAW DRELICHOWSKI
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
KONCEPCJE ZARZĄDZANIA WIEDZĄ W WARUNKACH WYSTĘPOWANIA
ZJAWISKA KRYZYSU FINANSOWEGO GOSPODARKI
Streszczenie
Kryzys finansowy światowej gospodarki przekłada się na zagroŜenia regionalne
oraz zagroŜenia indywidualnych podstaw egzystencji członków tych społeczności.
System monitoringu stanu finansów regionu i metodyka analizy, pozwolą stworzyć
partnerstwa lokalne z udziałem przedsiębiorstw, organizacji pracodawców, związków zawodowych, jednostek samorządu terytorialnego i innych środowisk chcących
współdziałać w wykorzystaniu monitoringu w zarządzaniu zmianami w regionie.
Propozycja zawarta w pracy skłania do tworzenia hurtowni danych w skali regionu
ze sprawozdań statystyki finansowej przedsiębiorstw oraz zastosowania automatycznych Pakietów OLAP i data mining do ich automatycznej analizy.
Słowa kluczowe: kryzys systemu finansowego, hurtownia danych, systemy automatycznej analizy
danych
1. Wprowadzenie
Ujawniony w 2008 roku światowy kryzys finansowy pozwolił stwierdzić, Ŝe niemoŜliwe jest
moŜliwe, a wirtualna sfera gospodarki stanowi tylko pewne jej uzupełnienie, nie zaś dominujący
obszar. Podjęcie studiów tego problemu wymaga przypomnienia klasyki literatury przedmiotu, do
których naleŜy 8 wydanie podręcznika Bienia(2007)1. Charakterystyczną cechą tej pracy jest występowanie podrozdziału podejmującego wątki krytyczne i zagroŜenia wynikające ze stosowania
określonych narzędzi, instrumentów czy podmiotów uczestniczących w kreowaniu tych rynków.
Równie waŜną pozycję uwzględniającą szersze aspekty rynków finansowych jest praca Górskiego
(2009)2, w której autor prezentuje aktualny stan omawianych w poszczególnych rozdziałach pracy
poziom wartości parametrów finansowych, bądź obowiązujących algorytmów. Kryzys finansowy,
którego zaskakującą skalę i rozmiar potwierdzają autorytety teorii finansów, wymagał dotarcia do
źródeł wykraczających poza klasyczne teorie rynku kapitałowego, co doprowadziło do identyfikacji pracy Szyszki A. (2007)3 –„wycena papierów wartościowych na rynku kapitałowym w świetle
finansów behawioralnych”. Na uwagę w tej pracy zasługuje prezentacja behawioralnych propozycji modelowania procesów zachodzących na rynku w sposób, który pozwalałby na wyjaśnienie
zjawisk trudnych do wytłumaczenia w świetle klasycznych teorii finansów. Warto podkreślić, Ŝe
w klasycznej teorii finansów dąŜono raczej do budowy modeli normatywnych, które moŜna kwantyfikować i weryfikować empirycznie, podczas gdy w podejściu behawioralnym stosuje się raczej
1
Bień W. (2007) :: Rynek papierów wartościowych, Difin Warszawa wyd. 8.
Górski M.(2009) : Rynkowy system finansowy. PWE Warszawa
3
Szyszka A. (2007): Wycena papierów wartościowych na rynku kapitałowym w świetle finansów behawioralnych.
AE Poznań Prace habilitacyjne 35.
2
Ludosław Drelichowski
Koncepcje zarządzania wiedzą w warunkach występowania zjawiska
kryzysu finansowego gospodarki
51
modele deskryptywne, które mogą być przekonywujące chociaŜ trudne są do udowodnienia i jednoznacznego zanegowania. W świetle aktualnego stanu kryzysu systemu finansowego gospodarki
potrzeba behawioralnego podejścia wydaje się być konieczna. MnoŜone od lat produkty finansowe
tworzone na coraz bardziej abstrakcyjnych rynkach finansowych, pozwalały na nakręcanie koniunktury gospodarczej, wymagające jednak sukcesywnego urealniania, co najmniej przez sektorowo realizowane masowe upadłości. Przykładem takiego procesu moŜe być realizowana na wielką
skalę upadłość firm Internetowych (dot com) na przełomie 2000/2001 roku, które przyczyniły się
do realnego unicestwienia zainwestowanych miliardów dolarów przez inwestorów zainteresowanych potencjalnymi wysokimi zyskami tego rozwijającego się sektora gospodarki. Kontynuowany
po tym incydencie intensywny rozwój gospodarki światowej musiał generować kreowane w toku
wielokrotnej reasekuracji międzybankowej i instytucji finansowych w ogromne kwoty w pełni wirtualnego pieniądza. Coraz trudniejsze do zrozumienia reguły funkcjonowania finansów międzynarodowych doprowadzały równieŜ do szkodliwego dla akcjonariuszy wzrostu wynagrodzeń prezesów banków dochodzące wciągu kilku lat do ujawnionych ostatnio kwot około 0,5 mld $ w okresie
5 lat. Stymulujący dla rozwoju gospodarki amerykańskiej – w mniejszym stopniu innych krajów wzrost kredytów hipotecznych doprowadził do wzrostu podaŜy nieruchomości powyŜej rynkowych
moŜliwości ich efektywnej sprzedaŜy. Ujawnienie tego stanu w powiązaniu z powszechnie praktykowanym prawie 100% finansowaniem inwestycji z kredytu spowodowało, Ŝe zabezpieczenie kredytu przez inwestorów tworzonymi nieruchomościami, nie zapewniło pokrycia uruchomionej skali
działalności kredytowej. Diagnoza ta obejmująca duŜą ilość duŜych, średnich i małych banków
kredytowych, stała się przyczyną ogłoszenia kryzysu finansowego powiązanego z falą prawie bilionowego dofinansowania praktycznej upadłości wielu banków i instytucji finansowych.
Niefortunnym dopełnieniem złych informacji dotyczących kryzysu finansowego było aresztowanie przez FBI w grudniu 2008 Bernarda Madoffa, prezesa największej w historii piramidy
finansowej, której wartość udziałów szacowano na 50 miliardów $, a samobójstwa pierwszych poszkodowanych kojarzą się nieodparcie z latami 30 XX wieku. Piramida finansowa polega
w uproszczeniu na ograniczeniu działalności tylko do sfery marketingu i promocji oraz wypłacaniu
dywidend udziałowcom z wpłat nowych środków, co kojarzyliśmy dotychczas z symptomami niestabilnych gospodarek krajów przechodzących restrukturyzację systemu gospodarczego. Pamiętane
z początkowego okresu transformacji parabanki jak Loan Banc, Kasa Rzeźniczaka, czy Bank Grobelnego, wydawały się być nie moŜliwe do zaistnienia w warunkach ustabilizowanych gospodarek
krajów najwyŜej rozwiniętych. Doświadczenia wynikające z wprowadzania tzw. kreatywnej rachunkowości w korporacjach słuŜące wprowadzaniu w błąd wierzycieli oraz akcjonariuszy i organów skarbowych, skończyły się równieŜ stratami wierzycieli oraz upadłością wycenianej na kilkadziesiąt mld dolarów Korporacji Doradztwa Biznesowego Artur Andersen. Cytowane we wprowadzeniu krytyczne zjawiska zdają się przypominać, Ŝe tam gdzie mamy do czynienia z występowaniem szczególnie duŜych pieniędzy, tam niezaleŜnie od zaufania musi być z pełną determinacją
realizowana działalność kontrolna, która ma chronić przed „wodzeniem na pokuszenie”.
PowyŜsze rozwaŜania skłaniają do sprecyzowania pytania, czy i w jakim stopniu oraz pod jakimi warunkami moŜliwe jest zastosowanie hurtowni danych oraz narzędzi klasy biznes intelligence do uchronienia, bądź łagodzenia skutków występowania kryzysów finansowych? Odpowiedź na
to pytanie wymaga uświadomienia faktu, iŜ stopień złoŜoności rozlicznych uwarunkowań finansowych powoduje, Ŝe mało realny jest mechanizm, który podobnie jak kasy fiskalne gwarantuje poprawę ściągalności podatków VAT. W tej sytuacji moŜna mówić o dwu równoległych obszarach
52
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
działań, które z jednej strony dostarczałyby konfrontujących się wzajemnie obliczeń informacji
wskaźnikowej, z drugiej zaś bieŜących analiz porównawczych bazujących na tworzonej od 2009
roku cyfrowej sprawozdawczości finansowej GUS pozwalającej na monitoring zachodzących
zmian. Te dwa podejścia mogą zdaniem autora stanowić realny punkt wyjścia, w ramach którego
dysponowane bazy wiedzy i analiza dynamiki zmian pozwolić mogą na bardziej efektywne zarządzanie zachodzącymi zmianami.
2. Metoda automatycznych analiz wskaźnikowych, jako standard diagnostyczny
wiarygodności biznesowej
Idea analiz wskaźnikowych równowagi finansowej przedsiębiorstw posiada juŜ kilkudziesięcioletnie tradycje, a od ponad 30 lat standardy weryfikacji bilansów spółek prawa handlowego zawierają elementy analizy wskaźnikowej. Bogate tradycje w efektywnym stosowaniu coraz bardziej
zaawansowanych metod analizy finansowej, nie gwarantowały ochrony przed popełnianiem błędów biznesowych, czy teŜ prób obniŜania opodatkowania poprzez stosowanie mechanizmów tzw.
rachunkowości kreatywnej. W omawianej przestrzeni istnieje obiektywna potrzeba poszukiwania
metod, które zapewniałyby ochronę interesów osób fizycznych i prawnych będących kontrahentami bądź udziałowcami poszczególnych podmiotów gospodarczych. Niezbędne staje się wypracowanie pewnych standardów i parametrów analizy oraz zasad ich interpretacji, które pozwalałyby
uniknąć elementarnego ryzyka wynikającego z zamierzeń celowego wprowadzania w błąd swego
partnera biznesowego widocznego na przykładzie „case’u” Madoffa. Wydaje się konieczne szersze
wykorzystanie posiadanych juŜ moŜliwości metodycznych, dysponowanych pakietów oprogramowania (Systemy OLAP i data miting) zapewniających automatyczne obliczenia diagnostyki stabilności systemu finansowego. Impulsem przyspieszającym wdroŜenie tego rodzaju rozwiązań do
praktyki gospodarczej, moŜe być przede wszystkim presja jaką powinni wywierać na swoich kluczowych kontrahentach ich główni partnerzy oraz właściciele i akcjonariusze.
3. System monitoringu stanu finansów regionu i priorytetów uruchamiania działań
interwencyjnych
System monitoringu stanu finansów regionu i metodyka analizy, pozwolą stworzyć partnerstwa lokalne z udziałem przedsiębiorstw, organizacji pracodawców, związków zawodowych, jednostek samorządu terytorialnego i innych środowisk chcących współdziałać w wykorzystaniu monitoringu w zarządzaniu zmianami w regionie. Monitoring przedsiębiorstw regionu ma na celu zlokalizować podmioty będące w stanie zagroŜenia oraz podmioty osiągające korzystne rezultaty, co
pozwalałoby określać strategię wytyczania właściwych mechanizmów zaradczych w skali regionu.
Samorząd terytorialny zaspokaja zbiorowe potrzeby członków wspólnot samorządowych poprzez realizację zadań komunalnych. Zaspokajanie zbiorowych potrzeb komunalnych mieszkańców tworzy politykę i administrację lokalną. Do efektywnego spełniania funkcji reprezentanta interesów mieszkańców w zakresie jakości i ceny usług komunalnych przedstawiciele władz samorządowych muszą dysponować odpowiednimi dla tych celów systemami informacyjnymi. Rozwój
moŜliwości technicznych sprzętu komputerowego oraz technologii oprogramowania przyczyniają
się do powszechnego rozwoju interfejsu (automatycznej konwersji zbiorów danych) z systemów
lokalnych do specjalnych hurtowni danych tworzonych dla potrzeb partnerów. Właśnie taki model
ewolucji konwersji niezbędnych danych z przedsiębiorstw regionu w tym firm komunalnych do
hurtowni danych tworzonych dla potrzeb samorządów terytorialnych, pozwolą w miarę kolejnych
Ludosław Drelichowski
Koncepcje zarządzania wiedzą w warunkach występowania zjawiska
kryzysu finansowego gospodarki
53
lat uŜytkowania utworzyć bazę wiedzy dotyczącą sprawności i efektywności funkcjonowania
przedsiębiorstw komunalnych. Dla sprawnego przebiegu adaptacji przedsiębiorstwa do wymagań
otoczenia, zwłaszcza wówczas, gdy jego funkcje dotyczą wielu obszarów infrastruktury, niezbędnym warunkiem staje się pozyskanie wiedzy Drelichowski(2005), Drelichowski L., Drelichowski
J.(2005), Drelichowski L.(2007), Januszewski A, Drelichowski L. (2005), Perechuda (2007). Wiedza ta determinuje moŜliwość wprowadzenia w praktyce działalności przedsiębiorstw je realizujących odpowiednich technologii wytwarzania, rozwiązań logistyki Drelichowski(2002 a,b), czy
funkcjonalności produktu, zwiększających jego dotychczasowe walory. Niezwykle waŜne jest zapewnienie struktury danych emitowanych z systemów informatycznych przedsiębiorstw, które
uwzględniałyby łańcuchy powiązań, takich jak przedsiębiorstwa wodno-kanalizacyjne i oczyszczalnie ścieków, czy realizujące dostawy energii, przedsiębiorstwa energetyki cieplnej i miejskie
sieci gazownicze. Dobór róŜnego typu względnych jednostkowych porównywalnych jednostek
energii i analiza ich cen, wymiana pomiędzy samorządami róŜnych miast parametrów eksploatacyjno - ekonomicznych działających na ich terenie przedsiębiorstw komunalnych, stanowi podstawę do próby zastosowania technik z zakresu benchmarkingu Drelichowski L, Stawicka M.(2008)
Drelichowski (2008).
Sposób tworzenia hurtowni danych, a w perspektywie przyszłej ich rozbudowy równieŜ o bazy
wiedzy z zakresu działalności przedsiębiorstw komunalnych, pozwoli na lepszą jakość obsługi informacyjnej mieszkańców w problematyce dotyczącej działalności przedsiębiorstw komunalnych
(co nie oznacza, Ŝe mieszkańcy dostęp do tych informacji powinni posiadać). Tworzenie baz danych dla róŜnych grup przedsiębiorstw w regionie musi być zapewnione poprzez interfejs (program
konwersji) realizujący przekazywanie zasileń informacyjnych z systemu informacyjnego poszczególnych przedsiębiorstw do tworzonej hurtowni danych samorządu terytorialnego. MoŜe to bazować na infrastrukturze informacyjnej tworzonej w ramach elektronicznej sprawozdawczości finansowej Urzędów Statystycznych działających w ramach struktury GUS. To rozwiązanie pozwoli
wyeliminować emitowanie niezweryfikowanych informacji oraz pozwoli wyeliminować wysokie
koszty tworzenia zasobów informacyjnych hurtowni danych. Omawiane rozwiązania zaprezentowano na schemacie przepływu strumieni informacyjnych zilustrowane na rys.1.
Innowacyjność koncepcji wynika z faktu, Ŝe moŜliwość wprowadzania systemów monitoringu
bazujących na elektronicznych informacjach z przedsiębiorstw agregowanych w hurtownie danych
i pozwalających wykonywać obliczenia modelowe umoŜliwią prognozowanie zmian gospodarczych zachodzących w regionie oraz formułowania właściwych mechanizmów zaradczych przez
władze regionalne i zarządy przedsiębiorstw. Oznacza to, Ŝe modele obliczeniowe bazujące na
danych pozwalających uchwycić tendencje zmian w gospodarce, mogą być obliczane dla odpowiednich agregacji obejmujących duŜe miasta, powiaty, województwa, a takŜe róŜne branŜe, co
w cyklu miesięcznym pozwoli zdiagnozować pojawiające się pozytywne bądź negatywne zmiany.
54
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Rys. 1. Schemacie przepływu strumieni informacyjnych z organizacji gospodarczych i metody
ich analizy w regionie
Porównanie wyników uzyskanych w poszczególnych powiatach czy miastach województwa,
stwarza szansę diagnozy przyczyn osiąganych poraŜek bądź sukcesów ułatwiające stosowanie
benchmarkingu.
Potencjalne zainteresowanie korzystaniem z rezultatów projektu przez władze samorządowe
oznacza konieczność zapewnienia miejsc certyfikowanych szkoleń w grupach zapewniających powiatom i zarządom duŜych miast zapewnić odpowiednią ilość wykwalifikowanej kadry. Certyfikowane szkolenia z zakresu zastosowań systemów hurtowni danych uzupełnione szkoleniami w zakresie modelowania i interpretacji wyników diagnozujących zmiany stanu w gospodarce regionu,
pomogą opracować środki zaradcze. Tworzenie Hurtowni Danych z danych od 01.01.2009 aktualizowane pełnymi informacjami dotyczącymi wszystkich przedsiębiorstw regionu, pozwoli na uzyskanie krótkiego cyklu sprzęŜeń zwrotnych w zakresie budowy i interpretacji wyników obliczeń
Ludosław Drelichowski
Koncepcje zarządzania wiedzą w warunkach występowania zjawiska
kryzysu finansowego gospodarki
55
modelowych oraz wypracowywania strategii zarządzania zmianami na poziomie samorządów wytypowanych branŜ i wydzielonych grupach przedsiębiorstw w regionie. Celowe wydaję się zastosowanie podejścia behawioralnego w modelowaniu rynków kapitałowych Szyszka (2007), które
oprócz wartości fundamentalnej uwzględniają zmienne behawioralne będące wynikiem błędów w
przetwarzaniu sygnałów informacyjnych, błędów reprezentatywności i niestałości preferencji. Wydaje się, Ŝe w obecnej sytuacji rola tych zmiennych pozwala w części wyjaśnić zjawiska zachodzące na rynku kapitałowym.
4. Podsumowanie
Kryzys finansowy światowej gospodarki przekłada się na zagroŜenia regionalne oraz zagroŜenia indywidualnych podstaw egzystencji członków lokalnych społeczności. Ochrona przed nieuzasadnionym obciąŜaniem kosztami obywateli (np. usługi komunalne) wymaga stworzenia interaktywnych baz wiedzy oraz skomputeryzowanych metod ich aktualizacji w skali krajowej i regionalnej oraz wypracowania metod ich dynamicznej analizy. Opracowanie takiego systemu monitoringu
pozwoli w pierwszej kolejności przeszkolić w ich uŜytkowaniu tych przedstawicieli samorządów,
którzy zasiadają w Radach Nadzorczych przedsiębiorstw komunalnych, aby skutecznie reprezentowali interesy swoich wyborców takŜe w okresie wyboru nowych członków samorządów.
Wprowadzenie elektronicznej sprawozdawczości z dniem 01.01.2009 r. stworzyło przesłanki
do wdroŜenia rozwiązań specjalizacji poszczególnych urzędów statystycznych w róŜnych obszarach statystyki publicznej. Oznacza to potrzebę i moŜliwość wprowadzania systemów monitoringu
bazujących na elektronicznych informacjach z przedsiębiorstw agregowanych w hurtownie danych
i pozwalających wykonywać obliczenia modelowe dostępne władzom poszczególnych regionów.
Stworzą one moŜliwość prognozowania zmian gospodarczych zachodzących w regionie oraz formułowania właściwych mechanizmów zaradczych podejmowanych przez władze regionalne i zarządy przedsiębiorstw.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
Bień W. (2007) Rynek papierów wartościowych, Difin Warszawa wyd. 8.
Bojar W., Drelichowski L.(2008): Analysis of tendencies in agribusiness networking
coopetition in Poland and in the partner countries
Drelichowski L(2002b): Logistyczne uwarunkowania rozwoju handlu elektronicznego (ecommerce): IBSPAN, Badania Systemowe t.31 s. 40-52
Drelichowski L. (2003) Zastosowanie specjalistycznych baz wiedzy i szkoleń z podstaw
inŜynierii wiedzy środkiem doskonalenia zarządzania w sektorze małych i średnich firm.
Prace Naukowe AE Wrocław Nr 941 T-1 s. 189-186.
Drelichowski L. (2004) Podstawy inŜynierii zarządzania wiedzą. Studia i Materiały
Polskiego Stowarzyszenia Zarządzania Wiedzą. Bydgoszcz s. 160
Drelichowski L. (2007): Basic Classification of Knowledge Management in Social and
Economic Aspects. International Conference on Enterprise Information Systems and Veb
Technologies EISWT – 07, Orlando, s.210-215.
Drelichowski, Stawicka (2008) Zastosowanie sieci migrujących i budowa hurtowni
danych oraz baz wiedzy do oceny funkcjonowania przedsiębiorstw komunalnych przez
władze samorządowe. Przegląd Statystyczny(w druku)
56
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
8.
Drelichowski L. (2008): Zastosowanie sieci migrujących i hurtowni danych w
organizacjach agrobiznesu oraz oceny przedsiębiorstw komunalnych przez władze
samorządowe. IBS PAN Badania Systemowe t. 62 s. 77-85
9. Górski M. (2009) Rynkowy system finansowy. PWE Warszawa
10. Januszewski A Drelichowski L. (2005): Interakcje zarządzania wiedzą i rachunku
kosztów działań w organizacjach wirtualnych. Problemy Zarządzania, Wydz. Zarządzania
UW Warszawa 1/2005(7) s. 66-78.
11. Perechuda K. Dyfuzja wiedzy w przedsiębiorstwie sieciowym. Wizualizacja
i kompozycja. Wydawnictwo AE Wrocław.
12. Szyszka A. (2007): Wycena papierów wartościowych na rynku kapitałowym w świetle
finansów behawioralnych. AE Poznań Prace habilitacyjne 35.
CONCEPT OF KNOWLEDGE MANAGEMENT UNDER CIRCUMSTANCES
CONCERNING OCCURRENCE OF FINANCIAL ECONOMY CRISIS
Sumary
Financial crisis of the world economy is closed to regional threatens and individual existential bases of members of those societies. Monitoring system of regional
finance state and methodology of its analysis let create local partnership with participation of enterprises, entrepreneurs organizations, trade unions, selfgovernmental units and other institutions wanting co-operate in monitoring usage
concerning regional changes management. Proposal included in the paper inclines
to create a regional Data Warehouses on the base of Financial statistics reports of
enterprises and apply automatic OLAP packages and data mining techniques for
automatic analysis.
Keywords: financial system crisis, Data Warehouse, Systems of Automatic Data Analysis
Ludosław Drelichowski
Katedra Informatyki w Zarządzaniu
Wydział Zarządzania
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
85-871 Bydgoszcz, al. prof. S. Kaliskiego 7
e-mail: [email protected]
Jerzy Hołubiec, GraŜyna Szkatuła, Dariusz Wagner, Andrzej Małkiewicz
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza
57
JERZY HOŁUBIEC,
GRAśYNA SZKATUŁA,
DARIUSZ WAGNER
Instytut Badań Systemowych PAN
ANDRZEJ MAŁKIEWICZ
Uniwersytet Zielonogórski
BAZA WIEDZY WYBORÓW PARLAMENTARNYCH 2007 ROKU I JEJ ANALIZA
Streszczenie
Kampanię wyborczą do Sejmu w 2007 r. charakteryzowały trzy grupy cech,
umoŜliwiające identyfikację łącznie 33 pozycji w bazie wiedzy. Rozszerzona i pogłębiona analiza tej kampanii dowodzi, iŜ większość głoszonych haseł okazała się hasłami „pustymi”, a dla głosujących istotnymi było tylko kilka z nich. Fakt ten umoŜliwił znaczne zredukowanie bazy wiedzy.
Słowa kluczowe: wybory parlamentarne, bazy wiedzy
1. Wprowadzenie
Wybory do Sejmu Rzeczypospolitej Polskiej odbyły się w dniu 21 października 2007 r.
Uprawnionych do głosowania było 30 615 471 osób. W głosowaniu wzięło udział 16 495 045
osób. Frekwencja wyniosła 53,88%. Głosów waŜnych oddano 16 142 202 (97,96%), niewaŜnych
335 532 (2,04%). Wybierano 460 posłów spośród 6 196 kandydatów zgłoszonych na 296 okręgowych listach kandydatów przez 10 komitetów wyborczych.
Do wyborów parlamentarnych poszło w 2005 r. 12 256 tys. wyborców, w 2007 r. 16 142 tys.,
zatem w porównaniu z wyborami 2005 głosowało 3 mln 886 tys. osób więcej, przy niemal takiej
samej liczbie uprawnionych. Przy określaniu liczby uprawnionych nie wzięto oczywiście pod uwagę osób przebywających poza krajem, których jest ponad 2 miliony, a które miały obiektywne
trudności z oddaniem głosu, co pomimo mobilizacji emigrantów powodowało naturalny spadek
frekwencji. Oznacza to, Ŝe efektywna frekwencja wśród obecnych w kraju była jeszcze większa,
choć trudna jest do precyzyjnego określenia. Poszczególne listy uzyskały przedstawioną poniŜej,
następującą ilość głosów:
Komitet Wyborczy Platforma Obywatelska RP uzyskał 6 701 010 głosów, 41,51%
Komitet Wyborczy Prawo i Sprawiedliwość uzyskał 5 183 477 głosów, 32,11%
Koalicyjny Komitet Wyborczy Lewica i Demokraci SLD+SDPL+PD+UP uzyskał 2 122 981
głosów, 13,15%
Komitet Wyborczy Polskiego Stronnictwa Ludowego uzyskał 1 437 638 głosów, 8,91%
Komitet Wyborczy Samoobrona Rzeczpospolitej Polskiej uzyskał 247 335 głosów, 1,53%
Komitet Wyborczy Liga Polskich Rodzin uzyskał 209 171 głosów, 1,30%
Komitet Wyborczy Polska Partia Pracy uzyskał 160 476 głosów, 0,99%
Komitet Wyborczy Partii Kobiet uzyskał 45 121 głosów, 0,28%
Komitet Wyborczy Wyborców „Mniejszość Niemiecka” uzyskał 32 462 głosów, 0,20%
58
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Komitet Wyborczy Samoobrona Patriotyczna uzyskał 2 531 głosów, 0,02%.
Próg wyborczy przekroczyły tylko cztery komitety, ponadto 1 mandat uzyskał Komitet
Mniejszości Niemieckiej, zwolniony z obowiązku przekraczania progu wyborczego. Porównując
wyniki wyborów 2005 i 2007 roku moŜna stwierdzić, co następuje.
PiS zwiększył elektorat o niemal 2 miliony, zmobilizował 1 mln 859 tys. nowych wyborców.
Jego wyborcy z 2005 r. w 2007 r. stanowili najwyŜej 45%. Stracił 841 tys. swych wyborców
z 2005 r., ale pozyskał 44% elektoratu LPR i 27% Samoobrony. Obu niedawnym koalicjantom
zabrał 774 tys. wyborców. Najwięcej głosów przejął kosztem LPR — 413 tys., Samoobrony —
361 tys. Pozyskał teŜ z PO — 117 tys., PSL — 69 tys., lewicy (SLD, UP, SdPl i PD) — 19 tys.
PO zdobyła 6701 tys. głosów, o 700 tys. głosów więcej niŜ Platforma i PiS w 2005r. Do Platformy przeszło aŜ 802 tys. wyborców centrolewicy z 2005 r. (SLD, UP, SdPl i PD), 488 tys. wyborców PiS, zawiedzionych zapewne, Ŝe nie powstał POPiS, 189 tys. Samoobrony, 81 tys. LPR,
91 tys. PSL. 2 532 tys. głosów oddali wyborcy, którzy przed dwoma laty w ogóle nie głosowali.
PSL uzyskał o 176% głosów więcej w stosunku do 2005 r., ale wskutek radykalnego wzrostu
frekwencji przyniosło mu to tylko niewielki wzrost liczby mandatów.
Lewica otrzymała nieznacznie więcej głosów i nieco mniej mandatów niŜ przed dwoma laty.
Samoobrona uzyskała tylko 18% głosów w stosunku do wyniku sprzed 2 lat.
Liga Polskich Rodzin nie zdołała powtórzyć wyniku poprzednich wyborów.
Porównanie wyników wyborów 2005 i 2007 roku zawarto w Tabeli 1.
Tabela 1.
Partie
PO
PiS
Lewica
PSL
Samoob.
LPR
Mn.Niem.
głosy
2849
3186
2084
822
1347
941
34
2005 r.
%
24,1
26,9
11,3
6,9
11,4
7,9
0,3
mandaty
133
155
55
25
56
34
2
głosy
6701
5183
2123
1438
247
209
32
2007 r.
%
41,5
32,1
13,1
8,9
1,5
1,3
0,2
mandaty
209
166
53
31
0
0
1
Źródło: [1]
2. Budowanie bazy wiedzy
Podobnie jak w poprzednich pracach autorów do zbudowania bazy wiedzy wykorzystano zarówno formułowane programy, jak i hasła, i wartości głoszone w czasie kampanii wyborczej, których analiza umoŜliwiła identyfikację cech opisujących partie polityczne. Cechy te moŜna podzielić na trzy grupy:
I. Cechy charakteryzujące programy partii politycznych (22 cechy)
II. Cechy opisujące partie polityczne oraz głoszone hasła i wartości (7 cech)
III. Cechy charakteryzujące kampanię wyborczą (4 cechy)
Ostatnia 34 cecha opisuje wynik wyborów. Szczegółowy wykaz przyjętych cech zawiera Załącznik
59
Jerzy Hołubiec, GraŜyna Szkatuła, Dariusz Wagner, Andrzej Małkiewicz
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza
1. W wyniku identyfikacji cech charakteryzujących partie polityczne powstała baza wiedzy opisująca wybory do Sejmu 2007 r. (Tabela 2).
a3
a4
a5
a6
a7
a8
a9
a10
a11
a12
a13
a14
a15
a16
a17
a18
a19
a20
a21
a22
PO
PiS
LiD
PSL
Sam.
LPR
a2
Partie
\cechy
a1
Tabela 2.
2
1
3
2
3
1
2
1
2
2
3
1
1
1
2
1
2
1
2
1
2
2
3
1
1
1
2
2
1
3
1
2
3
1
2
2
1
2
2
2
3
3
1
3
2
3
3
3
1
3
2
3
3
3
1
2
2
3
3
1
1
1
2
3
2
1
1
2
3
1
1
2
2
1
1
2
2
3
2
1
2
2
3
3
1
1
2
3
3
3
1
1
2
1
1
3
1
1
3
1
2
1
1
2
1
3
1
1
1
1
2
1
3
3
1
2
3
3
3
3
1
2
1
3
3
2
1
2
3
2
2
2
Partie \ cechy
a2
3
1
1
2
1
2
2
a2
4
2
2
2
1
2
2
a2
5
1
1
2
2
2
2
a2
6
1
2
1
2
3
3
a2
7
2
1
3
3
1
1
Partie \ ccchy
a3
0
a3
1
a3
2
a3
3
a3
4
PO
1
1
2
2
3
3
1
1
3
2
2
2
1
1
3
2
2
1
2
1
3
2
1
1
1
1
2
2
3
3
PO
PiS
LiD
PSL
Sam.
LPR
PiS
LiD
PSL
Sam.
LPR
a2
8
1
2
2
2
2
3
a2
9
1
2
3
2
4
5
Źródło: opracowanie własne
3. Wydobywanie wiedzy
Rozszerzona i pogłębiona politologiczna analiza kampanii wyborczej i wyników wyborów
dowodzi, iŜ mimo zidentyfikowania tak duŜej liczby cech, większość z nich okazała się cechami
hasłowymi, „pustymi”, które nie miały wpływu na wynik wyborów.
Dyskusje programowe w tej kampanii odgrywały marginalną rolę. Decydował obraz medialny, wzajemne zarzuty, a przede wszystkim ocena dotychczasowych dwóch lat rządów PiS. W programach wszystkich partii występowały wewnętrzne sprzeczności, największe w PiS i LPR. O wyniku wyborów zdecydowała nie tyle zmiana opcji wyborców, ile zwiększona frekwencja.
PiS swoją kampanię oparł na dwóch filarach: walce z korupcją oraz eksponowaniu sukcesów
z dotychczasowych dwóch lat rządów. Trzecim elementem, w kampanii mniej eksponowanym, ale
60
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
zapamiętanym przez wyborców z wcześniejszych wypowiedzi, była walka z pozostałościami po
PRL. Motywem niewyartykułowanym wprost w kampanii, ale czytelnym w świetle dotychczasowej
polityki był sprzeciw PiS wobec wszechwładzy i nieodpowiedzialności warszawskich elit oraz
„wykształciuchów”, opowiedzenie się po stronie prostych ludzi z prowincji. Dawni wyborcy LPR
i Samoobrony dali się przekonać, Ŝe PiS reprezentuje podobne wartości, a jest bardziej skuteczny
politycznie. Wielu ludzi uwierzyło, Ŝe program uzdrowienia państwa głoszony przez PiS jest trafny, Ŝe był dotychczas skutecznie realizowany, a w przyszłości właśnie ta partia gwarantuje jego
pełne wcielenie w Ŝycie. Część wyborców, która przeniosła swe poparcie na inne partie, zraŜona
została brakiem zawarcia obiecywanej przed dwu laty koalicji z PO, agresywnym stylem uprawiania polityki i agresywnym tonem kampanii wyborczej. Podobna jak w 2005 r., tylko w jeszcze bardziej wyrazisty sposób, była geografia wyborcza: PiS wygrał zdecydowanie na wsi (równieŜ tam,
gdzie poprzednio wygrała Samoobrona, ale nie tam, gdzie poprzednio i nadal silne było PSL)
i w większości małych miast, przegrał w niemal wszystkich duŜych miastach. Uzyskał poparcie
głównie ludzi gorzej wykształconych, gorzej sytuowanych i starszych wiekiem.
Elektorat Platformy był w dwóch trzecich nowy. Wielu wyborców przekonała oferta PO, ale
duŜa część chciała po prostu zablokować PiS. Głosowano nie tyle na PO, ile przeciw PiS. To
spowodowało, Ŝe osoby sprzyjające innym partiom jednorazowo oddały głos na PO, oceniając, Ŝe
tylko ona jest w stanie odebrać władzę dotychczasowej ekipie. Program PO był ogólnikowy, jej
obietnice w szczegółach nie róŜniły się wiele od propozycji PiS, ale stanowczo róŜnił się ton: był
spokojny i obiecywał spokojne rządzenie w przyszłości, unikanie afer, oskarŜeń i rozliczeń, które
zdominowały obraz ostatnich dwóch lat. Deklarowano teŜ budowanie przyszłości, a nie rozliczanie
przeszłości, w polityce zagranicznej budowanie sojuszy zamiast szukania wrogów. W największym
stopniu o sukcesie PO zadecydował wzrost frekwencji. Wyborcy, którzy poprzednio nie głosowali,
w większości poszli do wyborów właśnie po to, by zablokować PiS. Platforma trafnie postawiła nie
tyle na program, ile na mobilizowanie swoich zwolenników do głosowania. Nie ulega wątpliwości,
Ŝe w 2005 r. znaczna część jej potencjalnego elektoratu została w domach, teraz zadbano, by nie
powtórzyć tego błędu.
PSL, podobnie jak PO, postawiło na zmobilizowanie swych zwolenników, umocniło więc pozycje w tradycyjnych, wiejskich rejonach swych wpływów. Wróciła do niego część dawnych wyborców, którzy w przeszłości na nie głosowali, a w 2005 r. zawierzyli Samoobronie. Istotnym elementem programu była obietnica zawarcia w przyszłości koalicji z PO. Być moŜe to właśnie powaŜnie wzmocniło partię, bo jej zwolennicy nie potrzebowali oddawać głosów na PO, aby zablokować PiS.
Lewica występowała jako koalicja czterech partii, ale i tak decydujący wpływ miało w niej
SLD. LiD był sztucznym tworem, który scaliła konieczność taktyczna, ale nie było w nim jedności
politycznej. Niewiele zmieniono program sprzed dwóch lat i ponownie uzyskano słaby wynik. Zawarcie koalicji z Partią Demokratyczną, co miało zmienić wizerunek lewicy, nie dało oczekiwanych rezultatów. Co prawda pozyskano nieco nowych wyborców, ale za to stracono część dotychczasowych, którzy woleli zagłosować na PO, nie ze względu na program tylko potencjalną anty
PIS-ową skuteczność.
Klęska Samoobrony wynikała z wielu uwarunkowań, ale niewątpliwie najwaŜniejszym było
wejście jej przedstawicieli do rządu. Jest to partia protestu, popierana przede wszystkim przez tę
część elektoratu, która nie potrafiła dostosować się do wymogów transformacji, ani skorzystać z jej
owoców, a takŜe skorzystać z efektów przynaleŜności do Unii Europejskiej. Miała równieŜ popar-
Jerzy Hołubiec, GraŜyna Szkatuła, Dariusz Wagner, Andrzej Małkiewicz
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza
61
cie części właścicieli średnich i duŜych przedsiębiorstw, działających na krawędzi prawa, zagroŜonych konkurencją z innych państw. Polityka lat 1989-2007 pozwoliła im zgromadzić majątek, ale
Ŝyją wciąŜ pod nieznośną presją niepewności. Przez takich ludzi wszelka współpraca z rządem
postrzegana jest z wielką podejrzliwością, funkcja wicepremiera odebrała Lepperowi ich głosy,
a fakt, Ŝe był odwoływany, potem zaś wracał, wzbudził przekonanie, Ŝe jest karierowiczem, który
sprzedał się „władzy” i to na upokarzających warunkach. Trzeba zauwaŜyć, Ŝe wyborcy „Samoobrony” niewiele rozumieją z mechanizmów władzy, a politykę na ogół postrzegają personalnie,
zatem poprzez osobę Leppera postrzegali całą partię, niewiele zwracając uwagę na jej program
i działalność. Dodatkowym źródłem niepowodzenia była zmiana nastawienia wobec Unii Europejskiej. Wcześniej partia była silnie anty europejska. Po przystąpieniu Polski do UE zaczęła zmieniać stanowisko, ale w 2005 r. nie było to jeszcze wyraziście zaznaczone i anty europejsko nastawiony, słabo wykształcony elektorat tej zmiany nie dostrzegł. W ciągu dwu następnych lat partia
jednak wyraziście doceniła korzyści z przynaleŜności. Wyborców „pro europejskich” tym nie pozyskała, pozostali przy dotychczasowych partiach, za to utraciła poparcie „anty europejskich”.
Liga Polskich Rodzin zawarła koalicję pod nazwą Liga Prawicy Rzeczypospolitej, z dwiema
małymi partiami: Unią Polityki Realnej i Prawicą Rzeczypospolitej, ale zdając sobie sprawę, Ŝe
razem nie przekroczą progu podwyŜszonego dla koalicji, formalnie zarejestrowała się jako partyjny komitet samej Ligi. Koalicjanci nie przysporzyli jej głosów, a moŜe nawet odebrali, bo głosili
hasła liberalne, a dotychczasowy elektorat LPR był nastawiony antyliberalnie, oceniał więc
tę współpracę jako zdradę wartości. Między koalicjantami i kandydatami występowały wyraźne
róŜnice programowe, poniŜej przedstawiono tylko stanowisko partii LPR, bo ona była kluczową
siłą tej nieformalnej koalicji. Jej dotychczasowy elektorat — ksenofobiczny, konsekwentnie katolicki, ludzie na ogół kiepsko wykształceni, o skłonnościach autorytarnych — przejęty został
w większości przez PiS, który udowodnił, Ŝe promuje podobne wartości, za to bardziej skutecznie.
Przy ogólnym zbliŜeniu programowym między tymi partiami najwaŜniejszą róŜnicą stała się antyeuropejskość LPR. Działała teŜ przeciw LPR frekwencja: nowy elektorat głosował na inne partie.
Pewną rolę odegrały teŜ podziały w jej dotychczasowym elektoracie. Znaczącą jego część stanowili członkowie MłodzieŜy Wszechpolskiej, tymczasem w latach 2006-2007 doszło do konfliktów
pomiędzy kierownictwami partii i młodzieŜówki, po części wymuszonych przez opinię publiczną
i koalicjantów z PiS, oraz dąŜenie do poprawy wizerunku partii, kompromitowanego przez ekscesy
„wszechpolaków”. Pewną rolę odegrała teŜ poprawa sytuacji gospodarczej. LPR bazował przede
wszystkim na niezadowolonych, „anty-europejczykach”, a tych w wyniku poprawy sytuacji ekonomicznej było coraz mniej. Partia nadal twierdziła, Ŝe Polska moŜe się dobrze rozwijać poza UE,
a w kaŜdym razie sprzeciwiała się pogłębianiu integracji. Jednak przeczyła tym deklaracjom aktywność jej posłów w Parlamencie Europejskim. Tradycyjnie krytykowano gospodarkę liberalną,
uprzywilejowanie obcego kapitału, postulowano ochronę polskiego rynku przed konkurencją. Jednak najbardziej zaszkodziła partii obecność w rządzie i nieprzemyślane akcje podejmowane przez
Romana Giertycha jako ministra edukacji, mocno nagłaśniane przez media i środowisko nauczycielskie.
PowyŜsze rozwaŜania pozwalają uznać, iŜ bazę wiedzy dla tych wyborów (Tabela 2) moŜna
znacznie zredukować i sprowadzić do postaci podanej w Tabeli 3.
62
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela 3
a1
a2
a3
I gr.
a20
2
1
3
2
3
1
2
1
2
2
3
1
1
1
2
1
2
1
1
2
3
3
3
3
Partie\ cechy
PO
PiS
LiD
PSL
Sam.
LPR
a2
2
1
2
3
2
2
2
a2
6
1
2
1
2
3
3
a2
7
2
1
3
3
1
1
II gr.
a28
1
2
2
2
2
3
a2
9
1
2
3
2
4
5
III gr.
a33
2
1
3
2
1
1
a3
4
1
1
2
2
3
3
Źródło: opracowanie własne
Tak znaczne ograniczenie liczby cech (w grupie I z 22 do 5; w grupie III z 4 do 1 a w grupie
II z 7 do 4) ułatwia opis sytuacji politycznej w okresie przed wyborami, utrudnia jednak zastosowanie aparatu matematycznego pozwalającego wyznaczyć reguły decyzyjne ze względu na cechę
a34, czyli wejście lub nie danej partii politycznej do Sejmu. Wynika to równieŜ ze zbyt małej liczby przykładów, czyli partii politycznych ubiegających się o zajęcie miejsca w Sejmie. Z drugiej
strony, uwzględnienie w rozwaŜaniach 33 cech powoduje, Ŝe otrzymane reguły są trudne do interpretacji. Ustalenie właściwej liczby cech z kaŜdej z rozpatrywanych grup wymaga dalszych prac.
4. Uwagi końcowe
Reasumując moŜna stwierdzić, co następuje. W agitacji wyborczej 2007 r. mniej liczyły się
konkretne hasła programowe, bardziej emocje. Niemal dwuletnie rządy PiS wzbudziły w społeczeństwie bardzo wiele emocji, w duŜej części świadomie inspirowanych przez rządzących. Wybory miały charakter plebiscytu: za lub przeciw polityce realizowanej przez PiS. Było to zarówno
źródłem sukcesu PO, którą duŜa część elektoratu uznała za najskuteczniejszą alternatywę wobec
PiS, jak i poraŜki pozostałych partii. Istotnym czynnikiem była teŜ zmiana składu elektoratu. Do
wyborów poszło wielu ludzi młodych, którzy nie interesują się przeszłością, rozliczeniami, pragną
polityki otwartej na świat, proeuropejskiej, budowania zgody wśród Polaków z innymi narodami,
niechętnie patrzyli na politykę realizowaną pod hasłem „IV RP”
5. Literatura
1.
2.
3.
Garbień A., Małkiewicz A.: Uwarunkowania wyników wyborów sejmowych w Polsce
w 2007r. Zielona Góra, maszynopis, 2008.
Hołubiec J., Szkatuła G., Wagner D.: Analiza bazy wiedzy wyborów prezydenckich 2005
r., W: Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, Polskie Stow.
Zarządzania Wiedzą, Bydgoszcz, 2008, pp. 50-60.
Hołubiec J., Szkatuła G., Wagner D.: Identyfikacja elementów parlamentarnej kampanii
wyborczej – budowanie bazy wiedzy. W: Studia i Materiały Polskiego Stowarzyszenia
Zarządzania Wiedzą, Polskie Stow. Zarządzania Wiedzą, Bydgoszcz, 2007, pp. 58-61.
Jerzy Hołubiec, GraŜyna Szkatuła, Dariusz Wagner, Andrzej Małkiewicz
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza
4.
63
Hołubiec J., Mercik J.: Techniki i tajniki głosowania, wyd. II, Akademicka Oficyna
Wydawnicza EXIT, Warszawa, 2006.
ZAŁĄCZNIK 1. Cechy charakteryzujące kampanię wyborczą w wyborach do Sejmu 2007 r.
I) Cechy charakteryzujące programy partii politycznych
a1- Sposób rządzenia
1- umacnianie państwa i radykalna walka z patologiami — PiS, LPR
2- budowanie konsensusu społecznego — PO, PSL
3- brak konkretnych propozycji — LiD, Sam.
a2- Ocena dwulecia 2005-2007
1. okres skutecznego uzdrawiania państwa — PiS, LPR
2. okres narastającej arogancji władzy i podwaŜania demokracji — PO, PSL, LiD
3. stanowisko ambiwalentne — Sam.
a3 – Stosunek do lustracji
1. potrzeba konsekwentnej lustracji — PiS, PO, PSL, LPR
2. zakończenie lustracji — LiD, Sam.
a4 – Stosunek do Kościoła i religii
1. potrzeba ścisłego współdziałania państwa i Kościoła — PiS, LPR
2. rozdzielenie Kościoła i państwa, szacunek dla wartości religijnych — PO, PSL, LiD
3. brak stanowiska — Sam.
a5 – Walka z bezrobociem
1. obniŜenie pozapłacowych kosztów pracy, w tym obniŜenie składki rentowej ZUS — PO,
PiS, Sam
2. ulgi w opłatach na ubezpieczenie społeczne i podatku dochodowym — Lid, PSL
3. brak konkretnych propozycji — LPR
a6 – Edukacja i nauka
1. spójna podstawa programowa dla wszystkich przedmiotów przy jednoczesnym zwiększaniu autonomii szkół, aby dostosować się do potrzeb rynku — PO, PSL
2. zwiększanie nakładów finansowych na edukację i naukę — PiS, LPR, Sam
3. obniŜenie wieku szkolnego oraz rozdział kościoła od szkolnictwa — LiD
a7 – Gospodarka
1- wolność gospodarcza oparta na własności prywatnej — PO
2- rozwój małych i średnich przedsiębiorstw, w tym ulgi i dostępność kredytów oraz wprowadzenie systemu poręczeń i gwarancji dla przedsiębiorców — PiS, Lid, PSL
3- wstrzymanie prywatyzacji i lustracja sprywatyzowanych przedsiębiorstw — LPR, Sam.
a8 – Podatki
1- Uproszczenie podatków poprzez wprowadzenie podatku linowego — PO
2- Abolicja podatkowa dla Polaków wracających z zagranicy — LiD
3- obniŜenie stawki podatku od osób fizycznych ze szczególnym uwzględnieniem osób najbiedniejszych, polityka pro rodzinna, w tym wprowadzenie ulg mieszkaniowych — Sam.,
LPR, PiS, PSL
a9 – Ochrona zdrowia
64
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
1- Podział NFZ na kilka konkurencyjnych funduszy i określenie koszyka świadczeń gwarantowanych — PO
2- Wprowadzenie odpłatności za usługi medyczne — LiD
3- W miarę powszechny dostęp do podstawowej opieki zdrowotnej, w tym utworzenie funduszu charytatywnego i przekazanie części środków z Funduszu Pracy na ochronę zdrowia — LPR, Sam., PSL, PiS
a10 - Bezpieczeństwo wewnętrzna państwa
1- stworzenie scentralizowanego i skoordynowanego systemu zwalczania najpowaŜniejszych
zagroŜeń państwa — PO, LPR
2- polepszenie uzbrojenia i wyposaŜenia słuŜb mundurowych oraz stworzenie ogólnopolskiego systemu łączności słuŜb ratowniczych — PiS, LiD
3- brak propozycji — PSL, Sam.
a11 – Polityka społeczna
1- wprowadzenie ulg rodzinnych, nowych świadczeń dla dzieci i wydłuŜenie urlopu macierzyńskiego dla obojga rodziców — PO, PiS, LPR
2- wprowadzenie dodatków mieszkaniowych i reforma emerytalna, wzrost zasiłków i pomocy najuboŜszym — LiD, Sam.
3- wprowadzenie podatku rodzinnego i wspólnego rozliczania się rodzin — PSL
a12 – Rolnictwo
1- korzystanie z funduszy unijnych przy rozbudowie polskiego rolnictwa — PO, PSL, Sam.
2- wspieranie niskotowarowych i nisko rentowych gospodarstw i umacnianie gospodarstw rodzinnych — Pis, LPR
3- przywrócenie rent strukturalnych i urealnienie składek KRUS — LiD
a13 – Stosunek do administracji i samorządów
1- decyzje administracyjne powinny być zgodne z literą prawa i ich transparentność — LiD,
PiS
2- decentralizacja i wzmocnienie podstaw majątkowych samorządów — PO, PSL, Sam
3- ograniczenie samodzielności samorządów — LPR
a14 – Wprowadzenie Euro
1 - wprowadzenie Polski do strefy Euro później niŜ w 2015 r. — Pis
2 - wprowadzenie Polski do strefy Euro jak najszybciej — PO, PSL, LiD
3 - zachowanie odrębnej waluty — LPR, Sam
a15 – Polityka zagraniczna
1- popieranie Ukrainy, Gruzji, Mołdawii w członkostwie w UE, wzmacnianie roli Polski w
kontaktach z sąsiadami, współpraca w ramach trójkąta Weimarskiego — PiS PO
2- dobre stosunki z wszystkimi sąsiadami, zwłaszcza Ukrainą i Niemcami — LiD
3- poprawa stosunków z Rosją — Sam., LPR, PSL
a16 –Stosunek do UE
1- pogłębianie związku z UE i współodpowiedzialność za jej rozwój — PO, PiS, PSL, Sam.
2- wspólna polityka zagraniczna i stanowisko wobec Rosji — LiD
3- ograniczenie współpracy z UE — LPR
a17 – Stosunek do USA
1- pielęgnowanie partnerstwa w ramach bezpieczeństwa i strefy gospodarczej — PO, PiS,
LPR, PSL
Jerzy Hołubiec, GraŜyna Szkatuła, Dariusz Wagner, Andrzej Małkiewicz
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza
65
2- rozluźnienie związków — Sam.
3- brak propozycji — LiD
a18 – Stosunek do wojny w Iraku
1- wywiązanie się z misji bez przedłuŜania obecności polskich wojsk, powiązane z zaangaŜowaniem gospodarczym i politycznym — PO, LiD, Sam.,
LPR
2- dalszy udział polskich wojsk w misji oraz wzmacnianie pozycji i bezpieczeństwa Polski
— PiS
3- brak propozycji — PSL
a19 – Bezpieczeństwo energetyczne kraju
1- dywersyfikacja źródeł energii i odwołanie się do własnych zasobów, w tym rozwój czystej
energii — PO, PiS, PSL
2- promowanie wspólnej polityki energetycznej z UE — LiD
3- znormalizowanie współpracy z Rosją — Sam., LPR
a20 – Walka z korupcją
1- przejrzyste procedury administracyjne — PO
2- kontynuowanie działalności CBA — PiS
3- brak propozycji — PSL, LiD, Sam., LPR
a21 – Stosunek do aborcji
1- aborcja tylko wówczas gdy ciąŜa zagraŜa Ŝyciu i zdrowi matki — PO, LiD
2- całkowity zakaz aborcji — PiS, LPR
3- brak propozycji — PSL, Sam.
a22-Charakter państwa
1- tanie, zdecentralizowane i prospołeczne — PO
2- solidarne i socjalne — PiS, Sam., LPR, PSL
3- praworządne i ponadpartyjne — LiD
II) Cechy opisujące partie polityczne oraz głoszone hasła i wartości.
a23 - Organizacja partii politycznej
1- partia z mocno rozbudowanymi strukturami — PSL, PO, PiS
2- partia ze słabo rozbudowanymi strukturami — LiD, Sam., LPR
a24 - Doświadczenie w polityce
1- partia z duŜym staŜem politycznym — PSL
2- partia z małym staŜem politycznym — PO, PiS, LiD, LPR, Sam.
a25 - Udział w poprzednim parlamencie
1- tak, na silnych pozycjach — PO, PiS
2- tak, na słabych pozycjach — LiD, PSL, LPR, Sam.
a26 - Wizerunek Partii
1- partia nowoczesna — PO, LiD
2- partia konserwatywna — PSL, PiS
3- partia koniunkturalna — LPR, Sam.
a27 - Pozycja lidera
1. wyrazisty, dominujący nad partią — PiS, LPR, Sam.
66
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
2.
3.
wyrazisty, współpracujący z partyjnymi kolegami — PO
mało wyrazisty — LiD, PSL
a28 - Deklarowane poglądy
1- liberalne — PO
2- centrowe — PiS, PSL, LiD, Sam.
3- prawicowe — LPR
a29 - Głoszone hasła i wartości
1- liberalno-socjalne — PO
2- narodowo-socjalne — PiS, PSL
3- lewicowo-socjalne — LiD
4- socjal-liberalne — Sam.
5- narodowo-chrześcijańskie — LPR
III) Cechy charakteryzujące kampanię wyborczą
a30 - Organizacja komitetów wyborczych
1- profesjonalna — PO, PiS
2- niedopracowana — PSL, LiD
3- amatorska — LPR, Sam.
a31 - Formy prowadzenia kampanii wyborczej
1- prowadzona przy uŜyciu najnowszych rozwiązań medialnych — PO, PiS
2- prowadzona z naciskiem na bezpośrednie dotarcie do wyborcy — PSL, LPR, Sam.
3- prowadzona z naciskiem na internet — LiD
a32 - Ukierunkowanie kampanii wyborczej
1- skierowana do ogółu wyborców — PiS, PO, LPR
2- skierowana do mieszkańców wsi i małych miast — PSL, Sam.
3- skierowana do ludzi młodych i twardego elektoratu lewicowego — LiD
a33 - Charakterystyka kampanii wyborczej
1- kampania agresywna, oparta na hasłach i wartościach — PiS, LPR, Sam.
2- kampania spokojna, oparta na hasłach i wartościach — PO, PSL
3- kampania spokojna, oparta na znanych osobistościach — LiD
a34 - Wynik wyborów
1. wejście do Sejmu z duŜym poparciem elektoratu — PO, PiS
2. wejście do Sejmu z małym poparciem elektoratu — LiD, PSL
3. nie weszła — LPR, Sam.
Jerzy Hołubiec, GraŜyna Szkatuła, Dariusz Wagner, Andrzej Małkiewicz
Baza wiedzy wyborów parlamentarnych 2007 roku i jej analiza
KNOWLEDGE BASE FOR PARLIAMENTARY ELECTION OF 2007
AND ITS ANALYSIS
Summary
The campaign for parliamentary election of 2007 was characterized by three
groups of attributes.They made it possible to identify 33 elements of the knowledge
base.
Extended and more deep analysis of this campaign results in a conclusion that
some of attributes related to watchwords are not so important.For voters only part of
them is of significance.The conclusion allows to reduce the knowledge base to
a great extent.
Keywords: parliamentary election, knowledge base
Jerzy Hołubiec
GraŜyna Szkatuła
Dariusz Wagner
Instytut Badań Systemowych PAN
01-447 Warszawa, ul. Newelska 6
e-mail: [email protected]
[email protected]
[email protected]
Andrzej Małkiewicz
Uniwersytet Zielonogórski
e-mail: [email protected]
67
68
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
STANISŁAW GAWŁOWSKI
Ministerstwo Środowiska
KIERUNKI PRZEKAZYWANIA GOSPODARSTW W RAMACH PROGRAMU
RENT STRUKTURALNYCH 2004 – 2006
Streszczenie
Celem pracy jest pokazanie kierunków przekazywania gospodarstw w ramach
programu rent strukturalnych. Badania dotyczyły okresu 2004-2006 i swoim zasięgiem obejmowały obszar całego kraju. Wyniki badań wskazują, Ŝe gospodarstwa były w głównej mierze przekazywane na powiększenie gospodarstw sąsiednich
a w mniejszym stopniu dla następców.
Słowa kluczowe: informacja, kierunki, renty strukturalne
1. Wstęp
Rolnicze renty strukturalne stanowią nowy i waŜny instrument kształtowania polityki rolnej
państwa. Renty mają zachęcić rolników do zaprzestania prowadzenia działalności rolniczej w wieku przedemerytalnym i przekazanie posiadanego gospodarstwa rolnego w ręce młodego pokolenia
rolników. Instytucja rent ma słuŜyć poprawie Ŝywotności ekonomicznej gospodarstw rolnych a
ponadto zapewnić rolnikom zdających gospodarstwa wystarczającego źródła dochodów po zaprzestaniu tej działalności. Renty strukturalne poprzedzają o 10 lat emerytury otrzymywane z KRUS,
które to emerytury przysługują rolnikowi będącemu w wieku 65 lat. Program rent strukturalnych
ma na celu przyśpieszenie transformacji generacyjnej gospodarstw rolnych i pogłębienie mechanizmu transferu ziemi do jednostek silniejszych ekonomicznie. Procesom transformacji strukturalnej
towarzyszyć mają zmiany relacji w zasobach czynników produkcji, zwłaszcza ziemi i pracy, zaś
sam akt przekazania gospodarstwa następcom ma poprawić sytuację materialną starszych rolników.
2. Cel zakres i metody badawcze
Podstawowym celem badań była ocena skuteczności stosowanych instrumentów regulowania
podstawowych czynników produkcji w rolnictwie za pośrednictwem rent strukturalnych. Praca jest
częścią badań prowadzonych nad znaczeniem rent strukturalnych dla przemian agrarnych w rolnictwie polskim. W badaniach załoŜono, Ŝe renty strukturalne są właściwym sposobem zabezpieczenia dochodów starszym rolnikom oraz pozytywnym procesem obejmowania gospodarstw przez
młode pokolenia rolników, w mniejszym zaś zakresie skutecznym instrumentem koncentracji gruntów, nie stymulującym przekształceń strukturalnych w rolnictwie. W publikacji uszczegółowiono
hipotezę zakładając, iŜ gospodarstwa w równym stopniu trafiają do następców jak i do sąsiednich
jednostek produkcyjnych.
Zakresem badań objęto teren całego kraju dla okresu funkcjonowania rent strukturalnych w latach 2004-2006. Zakresem badań objęto 58,3 tys. beneficjentów, którzy wystąpili z wnioskami o
przyznanie rent strukturalnych, odrębnie w latach 2004, 2005, 2006.
Do oceny stopnia wykorzystania programów rent strukturalnych w rolnictwie w oparciu o Plan
69
Stanisław Gawłowski
Kierunki przekazywania gospodarstw w ramach programu rent strukturalnych 2004 - 2006
Rozwoju Obszarów Wiejskich na lata 2004-2006 wykorzystano dane statystyczne uzyskane z Systemu Informacji Zarządczej ARiMR. Zebrane materiały źródłowe poddane zostały opracowaniu
statystycznemu. Badania przeprowadzono w oparciu o analizę wariancji, rozkład F-Snedecora
i test t-Studenta.
Jednym z problemów jest brak istnienia bazy wiedzy dotyczącej decyzji o przyznaniu rent
strukturalnych Utworzenie takiej bazy danych stwarzałoby moŜliwość monitorowania stanu problemu i kosztów oraz dokonywaniu róŜnego typu analiz.
3. Wyniki badań
Program rent strukturalnych w ramach Planu Rozwoju Obszarów Wiejskich (PROW) 20042006 nie był pierwszym programem dot. rent strukturalnych. Polska w obliczu perspektywy wstąpienia do Unii Europejskiej przygotowała ustawę o rentach strukturalnych, która nawiązywała do
rozwiązań funkcjonujących od dłuŜszego czasu w krajach Europy Zachodniej. Pierwszy system
został przyjęty w roku 2001. Wprowadzony system rent strukturalnych został oceniony jako bardziej restrykcyjny do systemu obowiązującego rolników w Unii Europejskiej. System ten musiał
więc być traktowany nie jako docelowy, a jedynie przejściowy. W tej postaci, w jakiej został ustanowiony, spełniał, co najwyŜej wymogi zobowiązania przedakcesyjnego (Kolasiński A., 2003).
Ustawa o rentach strukturalnych w wersji z 2001r nie spotkała się z duŜym zainteresowaniem
ze strony rolników, z uwagi na zaproponowane warunki przechodzenia na renty strukturalne.
W tym okresie do rolników od doradców ODR napływały juŜ pierwsze informacje o warunkach
przystąpieniu Polski do Unii Europejskiej, w tym kształtu przyszłego planu rozwoju obszarów
wiejskich. Ponadto na przełomie 2003/2004r Agencja Restrukturyzacji i Modernizacji Rolnictwa
rozpoczęła w całym kraju szeroko zakrojone akcję tzw. „spotkania informacyjno-promocyjne”,
którymi objęto 40,3 tys. miejscowości, na 56,6 tys. istniejących (71,2%) sołectw i osad na wsi.
W spotkaniach wzięło udział 1 059,5 tys. rolników (66,1%), zaś średnia liczba uczestników na jednym spotkaniu wynosiła od 16 do 32 osoby (Wawrzyniak B., Zajdel M., 2006). W ramach spotkań
informacyjno- promocyjnych przyszli beneficjenci otrzymywali w miarę pełne dane na temat
kształtu przyszłych rent strukturalnych w ramach PROW, które były finansowane głównie z funduszy europejskich a nie budŜetu państwa.
Zmiana przepisów i wprowadzenie rent strukturalnych w ramach PROW miało na celu zachęcać rolników w wieku przedemerytalnym do zaprzestania prowadzenia działalności rolniczej
i przekazania posiadanych gospodarstw rolnych w sposób słuŜący poprawie Ŝywotności gospodarstw rolnych w Polsce oraz zapewnić im wystarczające źródło dochodu po zaprzestaniu tej działalności (Mickiewicz P., 2007).
Działania te miały tym samym przyczynić się do:
- poprawy struktury gospodarstw rolnych oraz podniesienia ich produktywności;
- zapewnienia dochodu rolnikom, którzy zrezygnują z prowadzenia działalności rolniczej
w wieku przedemerytalnym;
- obniŜenia średniej wieku osób prowadzących działalność rolniczą (przyspieszenie procesu
wymiany pokoleniowej);
- przeznaczania gruntów rolnych na cele nierolnicze, jeśli na gruntach tych nie moŜna prowadzić działalności rolniczej na zadowalającym ekonomicznie poziomie.
Z renty strukturalnej mógł skorzystać producent rolny, który:
70
1.
2.
3.
4.
5.
6.
7.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
ukończył 55 lat, lecz nie osiągnął jeszcze wieku emerytalnego (męŜczyzna – 65 lat, kobieta –
60 lat); wniosek o przyznanie renty strukturalnej naleŜy złoŜyć nie później niŜ na pół roku
przed osiągnięciem wieku emerytalnego;
prowadził nieprzerwanie działalność rolniczą w gospodarstwie rolnym przez co najmniej 10
lat bezpośrednio poprzedzających złoŜenie wniosku o rentę strukturalną i przez okres co najmniej 5 lat podlegał ubezpieczeniu emerytalno-rentowemu, określonemu w przepisach o ubezpieczeniu społecznym rolników;
wpisany został w ARiMR do ewidencji producentów, stanowiącej część krajowego systemu
ewidencji producentów, ewidencji gospodarstw rolnych oraz ewidencji wniosków o przyznanie płatności;
podlega ubezpieczeniu emerytalno-rentowemu w dniu złoŜenia wniosku o rentę strukturalną;
nie posiada zaległości z tytułu opłacania składek na ubezpieczenie społeczne rolników;
przekazał gospodarstwo rolne, o łącznej powierzchni uŜytków rolnych co najmniej 1 ha;
zaprzestał prowadzenia działalności rolniczej.
Tabela 1. RóŜnice między rentami strukturalnymi w wersji z 2001r a rentami z PROW
Lp
1
2
3
4
5
6
7
8
9
Wyszczególnienie
urząd przyjmujący wnioski
wiek rolnika
min. obszar gospodarstwa
wysokość renty (% najniŜszej emerytury)
przekazanie gospodarstw
składki na KRUS
czas trwania renty
długość trwania ubezpieczenia
działka przydomowa
Ustawa z 2001
KRUS
60 lat
3 ha
150%
do 15 ha
nie
5 lat
5 lat
1,0 ha
Renty z 2004r
ARiMR
55 lat
1 ha
210-440%
bez ograniczeń
tak
10 lat
5 lat
0,5 ha
Źródło: Opracowanie własne na podstawie informacji KRUS i ARiMR.
Na podstawie ustawy z dnia 28 listopada 2003r o wspieraniu rozwoju obszarów wiejskich ze
środków pochodzących z Sekcji Gwarancji Europejskiego Funduszu Orientacji i Gwarancji Rolnej
Rada Ministrów wydała rozporządzenie w dniu 30 kwietnia 2004r w sprawie szczegółowych warunków i trybu udzielenia pomocy finansowej na uzyskanie rent strukturalnych objętej planem
rozwoju obszarów wiejskich (Dz. U. Nr 114, poz. 1191).
Zgodnie z rozporządzeniem występowała moŜliwość zadeklarowania pięciu kierunków przeznaczenia gospodarstw rolnych a mianowicie:
1. na powiększenie jednego lub kilka gospodarstw sąsiedzkich,
2. przeniesienie w całości na rzecz następcy,
3. przekazanie na rzecz Skarbu Państwa,
4. przekazanie na ochronę środowiska,
5. przeznaczenie na zalesienie.
Z punktu widzenia prawnego i formalnego warunki przekazania gospodarstwa uwaŜano za
spełniony, jeŜeli przekazano uŜytki rolne wchodzące w skład gospodarstwa, będące zarówno
przedmiotem odrębnej własności wnioskodawcy, jego małŜonka oraz przedmiotem ich współwłasności. Umowa przekazania gospodarstwa musiała być sporządzona:
1. przy trwałym przekazaniu - w formie aktu notarialnego,
71
Stanisław Gawłowski
Kierunki przekazywania gospodarstw w ramach programu rent strukturalnych 2004 - 2006
2.
przy przekazaniu w dzierŜawę – w formie aktu notarialnego lub pisemnej umowy zgłoszonej do ewidencji gruntów i budynków.
Gospodarstwo musiano przekazać w sposób trwały, gdy przejmującym był:
1. następca,
2. zstępny lub pasierb przekazującego,
3. osoba pozostając z przekazującym we wspólnym gospodarstwie domowym,
4. małŜonek osoby wymienionej powyŜej.
5. zostały przekazane wszystkie uŜytki rolne wchodzące w skład tego gospodarstwa,
Jeśli gospodarstwo przejmował następca, to trzeba je było przekazać w całości w sposób
trwały (nie licząc 0,5 ha). Jeśli w skład gospodarstw, które miało zostać przekazane wchodziły
grunty dzierŜawione, przejmujący gospodarstwo mógł wstąpić w prawa dzierŜawcy, jeŜeli właściciel gruntów wyraził na to zgodę. W innym przypadku ubiegający się o rentę strukturalną zwracał
grunty dzierŜawione właścicielowi.
Osobą fizyczną przejmującą gospodarstwo rolne nie mógł być kaŜdy rolnik mieszkający po
sąsiedzku, lecz powinien być rolnikiem młodszym od rolnika przekazującego gospodarstwo (nie
sprecyzowano wyraźnie górnego pułapu wieku). W rozstrzygnięciach prawnych dotyczących
PROW na lata 2007-2013 doprecyzowano ten wiek na 50 lat. Ponadto powinien być rolnikiem
wykształconym i o odpowiednich kwalifikacjach rolniczych, nie powinien posiadać ustalonego
prawa do emerytury lub renty z ubezpieczenia społecznego rolników. Kolejnym warunkiem było
podpisanie zobowiązania do prowadzenia działalności rolniczej na przejętych uŜytkach rolnych
przez okres co najmniej 5 lat.
Interpretując te przepisy moŜna powiedzieć, Ŝe rygoryzm prawny dotyczył zarówno rolników
przekazujących gospodarstwo rolne, jak i rolników powiększających swoje gospodarstwa rolne.
Równie precyzyjne warunki postawiono przed następcami, w tym: aby nie ukończył 40 lat Ŝycia,
nie miał ustalonego prawa do emerytury (renty), posiadał odpowiednie kwalifikacje i zobowiązał
się gospodarować przez co najmniej 5 lat. Rolnik mógł przekazać gospodarstwo rolne takŜe osobie
prawnej albo jednostce organizacyjnej nie posiadającej osobowości prawnej (jonop). Osoba prawna lub jednostka mogła przejąć gospodarstwo, gdy działalność rolnicza naleŜała do zakresu jej
działania lub miała na celu sprawy ochrony przyrody a w szczególności na tworzenie lub powiększenie parków narodowych względnie rezerwatów przyrody. Tak sprecyzowane regulacje prawne
stanowiły gwarancję, Ŝe kierunek przepływu ziemi dokonywał się zgodnie z intencją ustawodawcy.
Z uwagi na występowanie duŜej róŜnicy miedzy województwami, co do powierzchni uŜytków
rolnych i liczby gospodarstw rolnych, przeprowadzono analizę w stosunku do faktycznie występującej liczby rolników mających dostęp do rent strukturalnych z uwagi na wiek (55-64 lat) oraz
z tytułu minimalnej powierzchni uŜytków rolnych (co najmniej 1 ha). Według danych GUS
z 2002r. w kraju takich rolników było 252,4 tys, spośród których 58,3 tys. ubiegało się o rentę
strukturalną, co stanowiło 23,1% ogółu osób pozostających w odpowiednim przedziale wiekowym
(tab 2.).
Przeprowadzona analiza złoŜonych wniosków przez rolników ubiegających się o rentę strukturalną wskazuje na istotne zróŜnicowanie występowania tego zjawiska w układzie poszczególnych
województw. Badania dotyczyły porównania potencjalnych beneficjentów występujących w danych województwach w stosunku do realnie złoŜonych wniosków. Program rent strukturalnych
miał charakter otwarty i ogólnie dostępny, co świadczy o jego egalitaryzmie i powszechności, przy
zastrzeŜeniu przestrzegania warunków dostępu do programu. Najlepiej szansę tę wykorzystano
72
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
w woj. kujawsko-pomorskim (57,8%) – wynikało to zapewne z poprzednio uregulowanymi stosunkami własnościowymi (zapisy notarialne), wysokiego udziału w spotkaniach informacyjnopromocyjnych, przygotowania poprzez edukację do nowej roli następców i poprawnej struktury
agrarnej, podlaskim (39,2%), warmińsko-mazurskim (37,5%) i wielkopolskim (36,4%).
Tabela 2. Liczba złoŜonych wniosków w stosunku do ogółu uŜytkowników gospodarstw rolnych
będących w wieku 55-64 lat
Razem % w stosunku
Ogółem rolWnioski Wnioski w Wnioski w
złoŜone do wieku 55nicy w wieku
2005
2006
w 2004
wnioski
64 lat
55-64 lat
Dolnośląskie
9080
1092
968
1078
3138
35,6
Kujawsko-pomorskie
7892
1752
1252
1562
4566
57,8
Lubelskie
27805
2047
1694
2080
5821
20,9
Lubuskie
3963
231
175
194
600
15,1
Łódzkie
20771
2493
1938
1903
6334
30,5
Małopolskie
32253
816
858
887
2561
7,9
Mazowieckie
35885
3711
3277
3315
10303
28,7
Opolskie
5088
605
572
513
1690
33,2
Podkarpackie
32903
847
952
950
2749
8,3
Podlaskie
12262
2159
1436
1214
4809
39,2
Pomorskie
5429
662
516
541
1719
31,7
Śląskie
17207
520
561
564
1645
9,6
Świętokrzyskie
17380
1219
1185
1233
3637
20,9
Warmińsko-mazurskie
5249
773
591
602
1966
37,5
Wielkopolskie
14656
2104
1456
1780
5340
36,4
Zachodniopomorskie
4622
561
415
488
1464
31,7
Ogółem
252445
21592
17846
18904
58342
23,1
Województwo
Średnia
15778
1350
1115
1182
3646
28
Źródło: Obliczenia własne
Na drugim biegunie analizowanych województw, znajdują się regiony, gdzie w najmniejszym
stopniu skorzystano z instytucji rent strukturalnych. NaleŜy do nich zaliczyć woj. małopolskie
(7,9%), podkarpackie (8,3%) i śląskie (9,6%). Wymienione województwa charakteryzują się najbardziej rozdrobnioną strukturą obszarową, nie do końca uregulowanymi prawami własności i występowaniem działek ziemi we wielu wsiach a nawet gminach.
W badaniach istotnym było sprawdzenie w czyje ręce trafiły gospodarstwa rolne. Zjawisko
analizowano w oparciu o deklaracje rolników składane w momencie składania wniosków.
W wyniku analizy procesu deklarowanego przekazywania gospodarstw rolnych, okazało się,
Ŝe kierunek przekazania na rzecz SP, ochronę środowiska lub zalesienie odegrał małą rolę a w niektórych województwach w ogóle to zjawisko nie wystąpiło. Główną rolę odegrały tylko dwa
pierwsze kierunki przekazania gospodarstw rolnych, w tym po pierwsze na powiększenie gospodarstw rolnych i po drugie na przeniesie w całości na następcę. Warunek przeniesienia własności
gospodarstwa rolnego w całości na rzecz następcy oznaczał, Ŝe w procesie realizacji programu rent
73
Stanisław Gawłowski
Kierunki przekazywania gospodarstw w ramach programu rent strukturalnych 2004 - 2006
strukturalnych przejęto w nienaruszonym i nie pomniejszonym stanie 24,5 tys. gospodarstw rolnych. W tym sensie spełniony został postulat dokonania w rolnictwie transformacji generacyjnej
gospodarstw rolnych.
Tabela 3. Deklarowane kierunki przeznaczenia gospodarstw rolnych po uzyskaniu
renty (2004-2006)
Województwo
Dolnośląskie
Kujawsko-pomorskie
Lubelskie
Lubuskie
Łódzkie
Małopolskie
Mazowieckie
Opolskie
Podkarpackie
Podlaskie
Pomorskie
Śląskie
Świętokrzyskie
Warmińsko-mazurskie
Wielkopolskie
Zachodniopomorskie
Ogółem
Liczba wy- Na powiękdanych de- szenie gocyzji
spodarstwa
2899
1948
4190
2489
5496
2869
558
333
5811
2998
2395
716
9459
4947
1570
962
2622
915
4422
2671
1606
949
1523
662
3336
1311
1861
1187
4939
2376
1327
893
54 014
29438
%
67,4
59,4
52,2
59,8
51,6
29,9
52,3
61,3
34,9
60,4
59,1
43,5
39,3
63,8
48,1
67,3
54,5
Dla prawnych następców
951
1701
2622
223
2813
1674
4502
606
1699
1747
657
851
2021
674
2563
434
24522
%
32,8
40,6
47,7
40,1
48,4
69,9
47,6
38,6
64,8
39,5
40,9
55,9
60,6
36,2
51,9
32,7
45,4
Na inne
kierunki
0
0
5
2
0
5
10
2
8
4
0
10
4
0
0
0
50
%
0
0
0,1
0,1
0
0,2
0,1
0,1
0,3
0,1
0
0,4
0,1
0
0
0
0,1
Źródło: Obliczenia własne
W przypadku analizy zjawiska związanego z przekazywaniem uŜytków rolnych na powiększenie jednego lub kilku gospodarstw rolnych, trudno ocenić w ilu przypadkach miano do czynieniem
z powiększeniem jednego gospodarstwa a w ilu przypadkach dotyczyło to kilku rolników, którzy
mieli moŜliwość poprawy swojej struktury agrarnej. Dyrektywa mówiąca o tym, Ŝe uŜytki rolne
mogą być przeznaczone wyłącznie na powiększenie gospodarstwa rolnego oznacza spełnienie postulatu transformacji strukturalnej rolnictwa Łącznie 29,4 tys. przyszłych beneficjentów rent strukturalnych zadeklarowało przeznaczenie uŜytków rolnych na rzecz sąsiadów. Przewaga deklaracji
dotyczącej przekazywania uŜytków rolnych na rzecz sąsiadów (54,5%) w stosunku do deklaracji
przekazywania gospodarstw rolnych na rzecz następców (45,4%) świadczy o tym, Ŝe beneficjenci
nie byli w stanie wskazać młodego rolnika o odpowiednich kwalifikacjach, którzy spełniają kryteria objęcia gospodarstwa po rodzicach. Analizując ten problem w układzie przestrzennym najwięcej uŜytków rolnych trafiło w ręce następców w woj. małopolskim (69,9%), podkarpackim
(64,8%), świętokrzyskim (60,6%) i woj. wielkopolskim (51,9%). Na drugim biegunie znajdują się
województwa, które w najmniejszym stopniu partycypowały w procesie przekazywania gospodarstw następcom. Do nich moŜna zaliczyć woj. zachodniopomorskie (32,7%), dolnośląskie
74
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
(32,8%) i warmińsko-mazurskie (36,2%). Proporcje między poszczególnymi kierunkami deklarowania i przeznaczania uŜytków rolnych obrazuje poniŜsza tabela 3.
Przemiany agrarne mogą dokonać się jedynie poprzez transfer gruntów do gospodarstw rolnych zmierzających do powiększenia swojego obszaru. Niedobór uŜytków rolnych w niektórych
regionach jest dotkliwy, a zatem pojawienie się perspektywy dokupienia nawet niewielkiego kawałka ziemi, był pozytywnie przyjmowany w środowisku wiejskim. Natomiast przechodzenie gospodarstw rolnych w nienaruszonym co prawda stanie, ale bez moŜliwości powiększenia obszaru,
spełniał tylko jeden warunek realizacji programu rent strukturalnych, związany z obniŜeniem średniej wieku osób prowadzących działalność rolnicza.
W pierwszym okresie funkcjonowania rent strukturalnych w latach 2004-2005, beneficjenci
rent strukturalnych przekazali łącznie 334, 7 tys. ha uŜytków rolnych, przy czym na powiększenie
innego gospodarstw przekazano 173,1 tys. ha ( 51,7%) oraz na przejęcie w całości przez następcę
przekazano 161,4 tys. ha (48,2%). Inne kierunki przekazywania gospodarstw miały marginalne
znaczenie. Jeden z podstawowych celów realizacji programu rent strukturalnych został w pełni
spełniony, bowiem 92,2% wszystkich uŜytków rolnych znalazł się w rękach młodych rolników,
pozostających w wieku do 40 lat.
W kolejnym, trzecim roku (2006) realizacji programu rent strukturalnych napływające wnioski
nie zmieniły obrazu przekazywanie gospodarstw rolnych. Łącznie w latach 2004-2006 licząc
w sposób narastający, beneficjenci przekazali 480,8 tys. ha., w tym na powiększenie innego gospodarstwa 261,8 tys. ha (54,5%) oraz na następcę 218,9 ty. ha (45,4%). Inne kierunki w 2006r teŜ
nie odegrały istotnej roli. W ręce młodych rolników (do 40 lat) trafiło 444,9 tys. ha (92,5%). Sytuację tę w układzie województw przedstawia tabela 4.
WaŜnym problemem badawczym było ustalenie średniej wielkości przekazywanych gospodarstw rolnych, przy czym w przypadku przekazywanie uŜytków rolnych na powiększenie innych
gospodarstw występowała moŜliwość przekazanie na rzecz jednego lub kilku rolników. Natomiast
przekazywanie na rzecz następcy musiało się odbywać w całości powierzchni uŜytków rolnych
będących w dyspozycji danego gospodarstwa rolnego.
75
Stanisław Gawłowski
Kierunki przekazywania gospodarstw w ramach programu rent strukturalnych 2004 - 2006
Tabela 4. Łączna powierzchnia przekazanych uŜytków rolnych w ramach rent strukturalnych w ha
(2004-2006)
Województwo Powierzchnia
całkowita przekazywanych
gospodarstw
Dolnośląskie
Kujawskopomorskie
Lubelskie
Lubuskie
Łódzkie
Małopolskie
Mazowieckie
Opolskie
Podkarpackie
Podlaskie
Pomorskie
Śląskie
Świętokrzyskie
Warmińskomazurskie
Wielkopolskie
Zachodniopomorskie
Ogółem
Procent
Powierzchnia
przekazywanych uŜytków
rolnych
29198
48840
Powierzchnia Powierzchnia
Na
Ochrona PowierzchUR na poUR przekazana rzecz i zale- nia UR
sienie
przekazana
większenie
dla następcy
SP
innego gosporolnikom do
40 lat
darstwa
28245
18979
9266
0
0
25288
4603
27362
18816
0
0
43405
46740
6404
49783
10739
92980
15174
12778
61428
2105
8900
21888
29004
41106
6130
46028
9601
82388
14719
11300
50136
18707
8030
20271
27539
21456
3663
23756
2877
43108
9030
3953
30298
11058
3492
7968
17576
19650
2454
22268
6719
39252
5681
7315
19831
7652
4490
12279
9958
24
11
3
5
27
7
25
6
1
5
23
0
0,8
3,3
0
0
0
0
5,6
10
6,4
0
0
42
38931
5182
39497
9069
77021
13653
10269
47744
17109
7372
19235
24831
56266
18310
53151
17375
25555
11695
27595
5658
0,3
22
0
0
51011
15339
529495
480773
100
261833
54,5
218891
45,4
163
0,1
68
0
444964
92,5
Źródło: System Informacji Zarządczej ARiMR
Średnia wielkość przekazywanych uŜytków rolnych na powiększenie innego gospodarstwa
(9,53 ha), była większa niŜ średnia wielkość gospodarstwa przejętego przez następcę (8,32 ha).
Średnia wielkość przekazywanych powierzchni w porównaniu do istniejącej struktury agrarnej
świadczy o istnieniu zaleŜności statystycznej między tymi dwoma czynnikami.
76
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
20
18
16
14
12
10
8
6
4
2
D
Ku
ol
ja
no
w
śl
sk
ąs
oki
po
e
m
or
sk
ie
Lu
be
ls
ki
e
Lu
bu
sk
ie
Łó
dz
M
ki
ał
e
op
o
ls
M
ki
az
ow e
ie
ck
ie
O
po
Po
ls
ki
dk
e
ar
pa
ck
ie
Po
dl
as
ki
Po
e
m
or
sk
ie
Ś
Św
lą
W
sk
ar
ię
ie
to
m
kr
iń
zy
sk
sk
om
ie
az
ur
W
sk
Za
i
ie
ch elko
od
po
ni
op lski
om e
or
sk
ie
0
Średnia wielkość na powiększenie innych gospodarstw
Średnia wielkość gospodarstwa przejętego przez następcę
Średnia wielkość 1 gospodarstwa w kraju wg GUS
Rys. 1. Średnia wielkość przekazywanych powierzchni UR w ha.
Źródło. Opracowanie własne.
4. Podsumowanie
Przeprowadzone badania pozwalają na stwierdzenie, Ŝe w wyniku realizacji programu rent
udało się osiągnąć podstawowy cel, jakim było przekazanie uŜytków rolnych w ręce młodych rolników, bowiem 92,5% tych uŜytków trafiło do osób poniŜej 40 roku Ŝycia. Z rozporządzeń wynika,
Ŝe młodszy rolnik musiał charakteryzować się odpowiednimi kwalifikacjami zawodowymi, upowaŜniającymi do prowadzenia działalności rolniczej i gwarantujący utrzymanie tej działalności
przez okres co najmniej 5 lat. W ten sposób na skutek przekazywania gospodarstw następcom,
zdołano obniŜyć średnią wieku osób podejmujących działalność rolniczą. Właściwość ta nie odnosiła się tylko do następców, lecz rozciągała się takŜe na osoby przejmujących ziemię przez sąsiadów. W populacji beneficjentów rent strukturalnych, większość (54,5%) zdecydowała się na przekazanie uŜytków rolnych na powiększenie innych gospodarstw rolnych, natomiast mniejsza część
(45,4%) na rzecz następców. Oznacza to, Ŝe wielu potencjalnych beneficjentów nie przygotowała
do nowej roli swoich spadkobierców, którzy byliby skłonni przejąć gospodarstwo i kierować nim.
W wyniku badań stwierdzono, Ŝe wielkość przekazywanych gospodarstw była większa w przypadku przekazywanych gospodarstw na powiększenie (9,53 ha), aniŜeli w przypadku przekazywanych
gospodarstw rolnych dla następców (8,32 ha) i była zbliŜona do średniej krajowej (8,33 ha).
77
Stanisław Gawłowski
Kierunki przekazywania gospodarstw w ramach programu rent strukturalnych 2004 - 2006
Problem rent strukturalnych oraz ich następców jest problemem niezwykle istotnym dla gospodarki wiejskiej. W celu szybszej analizy danych i podejmowania waŜnych decyzji (zarówno
o charakterze strategicznym) celowe wydaje się stworzenie hurtowni danych niezbędnych do ich
przeprowadzania. Hurtownia danych stworzyć by mogła dobry punkt wyjścia dotyczący podjęcia
budowy repozytoriów wiedzy dotyczących omawianego problemu.
5. Literatura
1.
2.
3.
4.
5.
Kolasiński A., 2003, Renty strukturalne w rolnictwie z perspektywy przystąpienia Polski
do Unii Europejskiej [w:] Ubezpieczenia w Rolnictwie, Materiały i Studia, nr 18,
Warszawa
Mickiewicz P., 2007, Wpływ rent strukturalnych na zmianę struktury obszarowej
gospodarstw rolnych w województwie Zachodniopomorskim [w:] Dodatkowe
i alternatywne źródła dochodów na obszarach wiejskich. Zeszyty Problemowe Postępów
Nauk Rolniczych / Polska Akademia Nauk. Wydział Nauk Rolniczych, Leśnych
i Weterynaryjnych, Warszawa, s. 259 – 266
Plan Rozwoju Obszarów Wiejskich, Ministerstwo Rolnictwa i Rozwoju Wsi, Warszawa,
2004
Ustawa z dnia 26 kwietnia 2001r o rentach strukturalnych w rolnictwie (Dz. U. Nr 52, poz
539).
Wawrzyniak B., Zajdel M., 2006, Program rent strukturalnych w rolnictwie polskim
w latach 2004-2006, [w:] Zagadnienia Doradztwa Rolniczego, nr 3, Centrum Doradztwa
Rolniczego w Brwinowie, Poznań
DIRECTIONS OF FARMS TRANSFER IN STRUCTURAL PENSION
PROGRAM 2004-2006
Key words: information, directions, structural pension
Summary
The aim of this paper is to present directions of land transfer in sphere of structural pension. The research was conducted for structural pension program 20042006 and covered the whole Poland. The results indicate that farms were transferred
mostly for neighbors. On the second position were successors.
Stanisław Gawłowski
Ministerstwo Środowiska
ul. Wawelska 52/54
00-922 Warszawa
78
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
JAROSŁAW JANKOWSKI,
KAMILA GRZĄŚKO
Zachodniopomorski Uniwersytet Technologiczny
METODY ANALITYCZNE W DZIAŁANIACH MARKETINGOWYCH
Z WYKORZYSTANIEM SERWISÓW WYSZUKIWAWCZYCH
Streszczenie
W artykule przedstawiono obszary wspomagania decyzji w marketingu interaktywnym z wykorzystaniem serwisów wyszukiwawczych oraz wybrane metody ekstrakcji wiedzy. Zaproponowano podstawy metodyczne budowy wieloagentowego systemu
wspomagania decyzji w planowaniu kampanii reklamowych z udziałem metod text
mining, przedstawiono model systemu oraz przeprowadzono badania testujące.
Słowa kluczowe: serwisy wyszukiwawcze, text mining, ekstrakcja wiedzy
1. Wprowadzenie
Internet jest zbiorem dokumentów hipertekstowych i umoŜliwia dotarcie do wielu zasobów informacyjnych i usług, jednak znalezienie treści dopasowanych do preferencji odbiorcy często bywa
utrudnione. W celu usprawnienia procesu przetwarzania danych i zwiększenia jego efektywności
wykorzystuje się aplikacje i serwisy wyszukiwawcze. Mechanizm aplikacji wyszukiwarki jest najczęściej zintegrowany z witryną za pośrednictwem narzędzi bezpośrednich lub otwartego interfejsu
API, który daje moŜliwość korzystania z aplikacji zewnętrznych i przeszukiwania zasobów on-line
[6]. Element składowy narzędzi wyszukiwawczych stanowi repozytorium danych powiązane z bazą
danych, roboty indeksujące oraz procesor zapytań [1]. Początkowo wyszukiwarki słuŜyły jedynie
do przetwarzania dokumentów tekstowych, aktualnie wiele z nich umoŜliwia wyszukiwanie plików
graficznych, muzycznych, adresów e-mailowych, czy artykułów z grup newsowych. Wykorzystuje
się je coraz częściej do poszukiwania informacji z róŜnych, niszowych obszarów, w tym takŜe informacji handlowych. Obecnie są najczęściej wykorzystywanymi serwisami w Internecie. Według
badań przeprowadzonych przez Megapanel PBI/Gemius z wyszukiwarek aktualnie korzysta w Polsce ponad 8 mln internautów [7]. Rynek wyszukiwarek wciąŜ się zmienia. Pojawiają się nowe koncepcje ich wykorzystania. Wraz ze wzrostem roli wyszukiwarek w Internecie, zwiększa się równieŜ
ich rola w marketingu elektronicznym.
2. Marketing w serwisach wyszukiwawczych
Popularność wyszukiwarek internetowych zaleŜy m.in. od tego jak dokładne rezultaty są przez
nie generowane. Jednymi z najpopularniejszych wyszukiwarek w Polsce są obecnie: Google, Netsprint oraz Onet. Algorytmy wyszukiwarek są wciąŜ udoskonalane i stanowią zbiór reguł sterujących oprogramowaniem, umoŜliwiają one przedstawienie wyników w odpowiednim rankingu [2].
U podstaw systemów wyszukiwawczych leŜą algorytmy indeksujące, które uwzględniają wiele
czynników branych pod uwagę w trakcie wyznaczania rankingu. Najczęściej są to: liczba linków
prowadzących do strony oraz ich jakość, słowa kluczowe, kod i treść strony oraz popularność do-
Jarosław Jankowski, Kamila Grząśko
Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów
wyszukiwawczych
79
meny. Serwisy wyszukiwawcze nie ujawniają najczęściej algorytmów indeksowania, Ŝeby utrudniać celową optymalizację stron pod ich kątem. Jedynie na podstawie badań moŜna dowiedzieć się,
co wpływa na pozycję w rankingu wyszukiwania. Najpopularniejsza w Polsce wyszukiwarka Google w swoim algorytmie bierze pod uwagę szereg czynników [15], z których kaŜdy ma określoną
wagę:
Ranking = K*0.3 + D*0.25 + L*0.25 + U*0.1 + J*0.1 + R
(1)
gdzie K - słowa kluczowe, D - siła domeny, L - wynik linków przychodzących, U - wpływ zachowań uŜytkowników, J - wynik jakościowy, R - automatycznie i ręcznie nadawane punkty karne lub
inkrementacja indeksu. Istotnym elementem algorytmu wyszukiwania stosowanego przez Google
jest algorytm Page Rank, który prowadzi ewaluację stron internetowych. Jest on tym wyŜszy, im
większa liczba wartościowych stron (z jak najmniejszą liczbą odnośników do innych stron) zawiera
do niej odsyłacze. Page Rank przyjmuje wartości z przedziału (0,1). Wartość PR jest przypisana
do strony, a nie do całego serwisu i wyznacza się go według wzoru:
PR( A) = (1 − d ) + d ( PR(t1 ) / C (t1 ) + ... + PR(t n ) / C (t n ))
(2)
gdzie: d – współczynnik tłumienia d ≈ 0.85, t1…tn – strony zawierające odnośniki do strony A, C
– liczba odnośników ze strony [1]. Algorytm ten podlega ciągłym modyfikacjom i wiele wyszukiwarek przyjmuje podobne rozwiązania. Inny algorytm pod nazwą Traffic Index zastosowano w
wyszukiwarce NetSprint. W celu obiektywnej oceny stron wprowadzono system uwzględniający
szereg czynników umoŜliwiających dostarczenie zobiektywizowanych wyników. W algorytmie
mniej istotna jest analiza linków, większą wagę przypisuje się natomiast badaniu ruchu na stronie.
Algorytm jest stworzony tak, aby utrudnione było manipulowanie wynikami bez faktycznej zmiany
wartości merytorycznej serwisu. NetSprint uwzględnia w algorytmie badania przeprowadzone
przez Megapanel PBI/Gemius. Dane z badania pochodzące od internautów umoŜliwiają dokładną
ocenę wartości serwisów. Internauci uczestniczą w panelu i dostarczane przez nich informacje stanowią zasilenia systemu [15]. Na Rys. 1 zaprezentowano wpływ algorytmu na wyniki wyszukiwań.
Rosnąca popularność serwisów wyszukiwawczych sprawiła, Ŝe przedsiębiorstwa zaczęły wykorzystywać je w celu dotarcia z ofertą do grupy docelowej. W Stanach Zjednoczonych wydatki na
promocję w wyszukiwarkach stanowią 40% wydatków na reklamę on-line. Przedsiębiorstwa promujące się w wyszukiwarkach mogą osiągnąć szereg korzyści. Marketing w wyszukiwarkach, czyli
SEM (ang. Search Engine Marketing) poprawia widoczność serwisu, a tym samym ułatwia dostęp
do niego. Firmy prowadzące działania marketingowe w serwisach wyszukiwawczych mają na celu:
zwiększenie ruchu na stronie, zwiększenie sprzedaŜy produktów i usług, zwiększenie świadomości
marki, obniŜenie kosztów reklamy, uzyskanie przewagi nad konkurencją, uzyskanie większego
uznania w oczach klientów, ceniących sobie innowacyjne firmy [12]. Internauci trafiają poprzez
wyszukiwarkę do serwisu internetowego świadomie, poniewaŜ szukają witryny o takiej tematyce.
Marketing prowadzony za pośrednictwem wyszukiwarek powoduje, Ŝe grupa odwiedzających jest
najbardziej wyselekcjonowana [14]. Jednym z obszarów aktywnej działalności marketerów jest
pozycjonowanie i zapewnienie wysokiej pozycji na listach wyszukiwania.
80
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Jakość serwisu
Liczba uŜytkowników
Załadowania stron
Lojalność uŜytkowników
Analiza odnośników
Powiązania wewnętrzne
Wartość powiązań
Efektywna wartość
Wyniki przetwarzania
TRAFFIC INDEX
Treść serwisu WWW
Licznik fraz
Odnośniki do fraz
Inne parametry
Kategoria serwisu
Inne parametry
Rys. 1. Czynniki wpływające na wyniki wyszukiwania (Źródło: [4])
W zaleŜności od przyjętej strategii oraz dostępnych zasobów alokowanych na działania marketingowe stosuje się pozycjonowanie płatne (linki sponsorowane, boksy reklamowe) lub pozycjonowanie organiczne (pozycjonowanie organiczne zwane jest równieŜ pozycjonowaniem naturalnym) [3]. W przypadku pozycjonowania organicznego strona jest indeksowana przez roboty indeksujące. Na podstawie algorytmu stosowanego przez wyszukiwarkę w dopowiedzi na wprowadzone
słowo kluczowe strona jest lokalizowana w rankingu na pozycji odpowiadającej jej zawartości
i ocenie merytorycznej. Jak podaje wiele źródeł, uŜytkownicy bardzo często przeglądają jedynie
pierwsze wyniki wyszukiwania. Dlatego firmy angaŜują duŜe zasoby aby ich strony były zoptymalizowane jak najlepiej pod kątem najpopularniejszych wyszukiwarek z udziałem techniki optymalizacji SEO (ang. Search Engine Optimization) [9]. Pozycjonowanie stron WWW powinno
uwzględniać szereg czynników. Na sukces przy pozycjonowaniu wpływają zarówno: komponent
treści (słowa kluczowe, tytuł, treść, opisy). komponenty techniczne (domena, nazwa odnośników
i plików, struktura strony, skrypty), popularność (link popularity, Page Rank, ruch na stronie).
3. Metody ekstrakcji wiedzy w serwisach wyszukiwawczych
Wraz z rozwojem Internetu zwiększa się liczba indeksowanych stron oraz szum informacyjny,
który powoduje, ze coraz trudniej odnaleźć interesujące i wartościowe zasoby. Obecne wyszukiwarki wykorzystują coraz bardziej inteligentne algorytmy i charakteryzują się tym, Ŝe potrafią samodzielnie pozyskiwać dane z otoczenia i na ich podstawie generować wiedzę oraz wykorzystywać ją do rozwiązywania postawionych im zadań [11]. Proces KDD (ang. knowledge discovery in
databases) jest procesem złoŜonym, którego najistotniejszym elementem jest eksploracja danych
podczas której wykrywa się zaleŜności pomiędzy danymi. Wiedza wydobyta w ten sposób przyjmuje postać prawidłowości, reguł, tendencji, czy korelacji z uwzględnieniem stopnia waŜności
atrybutów. Jedną z metod częściej stosowanych w eksploracji wiedzy w wyszukiwarkach jest grupowanie. Polega na podziale obiektów na grupy (klastry) tak, aby podobieństwo między elementami naleŜącymi do danej grupy było jak największe, natomiast między elementami naleŜącymi do
innych grup było mniejsze, niŜ w ich obrębie. Algorytmy mają za zadanie znalezienie reguły grupującej. Na wejściu otrzymują opisane atrybutami obiekty oraz kryteria podobieństwa wewnątrz
Jarosław Jankowski, Kamila Grząśko
Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów
wyszukiwawczych
81
i na zewnątrz grupy [16]. Klasteryzacja jest typem uczenia bez nadzoru - nie ma wstępnie zdefiniowanych klas. Metoda grupowania przeznaczona jest dla duŜej ilości danych, jest niewraŜliwa na
kolejność wprowadzania danych i cechuje ją złoŜoność czasowa i pamięciowa.
Algorytmy klasteryzacji mają szerokie zastosowanie w wyszukiwarkach internetowych
i stosuje się je do automatyzacji procesów grupowania dokumentów tekstowych, streszczania ich,
usuwania jednakowych stron, usuwania słów uznanych za mało znaczące, wydobywania kluczowych struktur z wyrazów, konstruowania tezaurusów, grupowania stron w odpowiedzi na zapytanie. Algorytmy grupowania mogą przyjmować postać drzew decyzyjnych, sieci bayesowskich, neuronowych i powinny cechować się duŜą wydajność przetwarzania danych oraz generowaniem klastrów o uŜytecznej dla odbiorcy zawartości [11].
Drugim zasadniczym elementem struktur wyszukiwarek są algorytmy analizy tekstu. Eksploracja danych zorientowana na przetwarzanie treści z serwisów wykorzystuje algorytmy tekst mining.
Są to metody słuŜące do wydobywania danych z tekstu oraz ich późniejszego przetwarzania.
K. Węcel definiuje tekst mining jako: „odkrywanie ukrytych wzorców i zaleŜności w bardzo duŜych kolekcjach tekstowych”. Dane podlegające eksploracji przechowywane są w zbiorach dokumentów i tekstowych bazach danych [11]. Metoda polega na znalezieniu fraz kluczowych i konwersji ich na dane numeryczne w oparciu o wzorce. W zbiorze wyszukuje się powiązania między
nimi i łączy tekst w celu uzyskania wartościowych informacji. Wyniki są analizowane i na ich podstawie podejmowane są decyzje. W systemach wyszukiwania informacji stosuje się często 2 miary
oceny. Pierwszą z nich jest miara dokładności określająca stopień dopasowania dokumentów do
zapytania:
| [Re levant I Re trieved ] |
P=
(3)
| [Re trieved ] |
Drugą miarą jest miara kompletności, określa jaka część dokumentów pasujących do zapytania
została odnaleziona:
P=
| [Re levant I Re trieved ] |
| [Re lewant ] |
(4)
Gdzie: Retrieved – zbiór odnalezionych dokumentów, Relevant – zbiór dokumentów pasujących
do zapytania. Najczęstsze zastosowania tekst miningu to m. in. odnalezienie i segmentacja podobnych dokumentów, tworzenie rankingów dokumentów, tworzenie streszczeń dokumentów w tym
równieŜ obrazów i plików multimedialnych, pozyskiwanie danych osobowych, rozpoznawanie
skrótowców [5]. Zaletą metody jest moŜliwość operowania na danych nieustruktualizowanych.
UmoŜliwia to efektywniejsze zbieranie i zastosowanie wiedzy zawartej w dokumentach tekstowych, bez konieczności zastępowania zdezaktualizowanych informacji [16].
4. Model systemu wspomagania decyzji i badania testujące
ZłoŜoność algorytmów obliczeniowych i szeroki zasięg kampanii marketingowych, powoduje, Ŝe trudno optymalizować kampanie reklamowe bez narzędzi wspomagających. W artykule proponuje się konstrukcje systemu wspomagania decyzji DSS (ang. decision support systems), którego celem jest wsparcie działań marketingowych i pozycjonowania w wyszukiwarkach. Ogólna
82
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
koncepcja polega wykorzystaniu zbioru agentów, których zadaniem będzie analiza wyników wyszukiwania oraz analiza kodu stron znajdujących się na róŜnych pozycjach w rankingu w odpowiedzi na prowadzone słowo kluczowe. Uzyskane dane będą zapisane w bazie danych, następnie
agenci wydobędą informacje stosując przydatne narzędzia analityczne i metody tekst miningu,
przydzielą dokumenty do klastrów i zwrócą informacje mające ułatwić zaprojektowanie serwisu, w
taki sposób, aby był zoptymalizowany pod kątem wyszukiwarek. W metodzie klasteryzacji agent
wykorzysta algorytm k-means (k-środków). Do obliczania rozbieŜności pomiędzy dowolnym punktem, a odpowiadającym mu środkiem wykorzystuje się funkcję odległości (zazwyczaj normę L2).
Dla tej normy suma kwadratów pomiędzy punktami, a odpowiadającymi im środkami cięŜkości
równa się całkowitej wewnątrz klastrowej wariancji [10].
E (C ) = ∑
j =1...k
∑
xi ∈C j
|| xi − C j ||
(5)
Dla potrzeb systemu utworzono cztery rodzaje agentów. Agenci będą mieć określone funkcje i będą odpowiadać za róŜne obszary działania w systemie. MA (ang. management agent) przejmuje
nadzór nad pracą platformy oraz tworzenie i kompleksowe zarządzanie agentami, SA (ang. search
agent) Analizowanie kodu stron znajdujących się w wynikach wyszukiwarek i ich linków zwrotnych, CA (ang. clusterisation agent) klasteryzacja dokumentów, IA (ang. interface agent). Współpraca z uŜytkownikiem, pobieranie od niego danych. System składa się z wyodrębnionych podsystemów, które przedstawiono na Rys. 2. Moduł IP odpowiada za przetwarzanie informacji (ang.
information processing). Funkcją tego modułu jest pobieranie informacji ze źródeł danych. Pobrane i zinterpretowane dane (dane związane z pozycją stron WWW i klasteryzacją dokumentów)
trafiają do podsystemu przechowywania informacji. W module zaimplementowani są agenci AP
i AK. Moduł IS (ang. information storage) odpowiada za przechowywanie informacji dotyczących
zarówno uŜytkowników, słów kluczowych, agentów i ich działań. Moduł IM (ang. information
management) zorientowany jest na zarządzanie kompletnością i aktualnością danych. Gdy system
stwierdzi, Ŝe naleŜy odświeŜyć dane, uruchamia proces pobierania informacji. W systemie wykrywane są niekompletne opisy i uruchamia się proces uzupełniania ich. Moduł ID (ang. information
delivery) odpowiada za wykonywanie zapytań, a następnie prezentacja wyników.
Jarosław Jankowski, Kamila Grząśko
Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów
wyszukiwawczych
SD
DK
Grupowanie
Zarządzanie
informacją
Wizualizacja
Zadania
Pi
Przepływ informacji
Lista zadań
83
AK
Parametry agenta
Filtrowanie
Obliczenia
Internet
Przetwarzanie
Wyniki
dokumentów przetwarzania
System DSS
IR
UŜytkownicy
Repozytorium
Rys. 2. Model działania systemu wspomagania decyzji
Źródło: opracowanie własne
W metodach text mining wykorzystano agenta klasteryzacji. Dzieli on dokumenty na grupy, tak
aby moŜna było stwierdzić, czy struktura stron ma wpływ na wyniki wyszukiwania. AK korzysta w
tym celu z aplikacji Text Garden i pobiera z bazy zbiór dokumentów. Dokonuje konwersji plików
.html do plików .txt. Następnie pliki z kaŜdej z wyszukiwarek konwertuje do pliku .bow (ang. bag
of words). Plików .bow uŜywa, aby podzielić dokumenty na grupy. Do klasteryzacji dokumentów
wykorzystuje algorytm k – środków. Następnie dokonuje jest wizualizacji wyników. W pierwszej
kolejności dokonuje klasteryzacji dla dokumentów z wyszukiwarki Google. Badania przeprowadzono dla wyników wyszukiwania zbioru 12 dokumentów. Są to strony z pozycji: 1, 5, 6, 9, 10, 15,
20, 25, 50, 90, 95, 100. Strony zostały dobrane tak aby zbadać, czy występują zaleŜności w strukturze mające wpływ na pozycję w wyszukiwarce. Wyniki przedstawione dla 2 klastrów. Jakość
przetwarzania dla 12 dokumentów Q=6.25262, MS = 0.521 (ang. mean similarity). W klasterze 0
uzyskano 9 dokumentów i miarę MS = 0.469. Wartości uzyskane dla poszczególnych dokumentów
w klastrze 0 wynoszą odpowiednio 90G: 0.603913, 25G: 0.568047, 10G: 0.565841, 20G:
0.494054, 50G: 0.452739, 15G: 0.435805, 6G: 0.421556, 100G: 0.359408, 95G: 0.317053. Klaster K1 obejmuje 3 dokumenty z MS=0.678 i odpowiednio 1G: 0.725187, 9G: 0.678475, 5G:
0.630543. Przy podziale na 5 klastrów uzyskano jakość 8.67606: 0.723 oraz następujący podział
dokumentów: K0 MS=1.000 5G: 1, K1 MS=0.628 4 dokumenty i odpowiednio 25G: 0.779, 10G:
0.678, 6G: 0.600, 95G: 0.456. K2 i K3 obejmował równieŜ 1dokument oraz K4 5 dokumentów
z MS=0.632 i odpowiednio dla poszczególnych dokumentów 90G: 0.781, 1G: 0.703, 15G: 0.659,
20G: 0.532, 50G: 0.487.
84
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Liczba klastrów
nr klastra
2
Liczba klastrów
5
0 1 0 1 2 3 4
nr w rankingu
1
+
5
+ +
6
+
9
10
+
+
+
+
+
+
nr klastra
nr w rankingu
1
2
5
0 1 0 1 2 3 4
+
4
+
5
+
+
+
+
9
+
+
10
+
+
+ +
15
+
+
11
20
+
+
25
+
30
+
+
+
+
25
+
50
+
+
45
90
+
+
100
+
+
105
+
+
95
+
+
+
Tabela 1. Zestawienie rezultatów z 2 klasteryzacji dla
Gogola (Źródło: obliczenia własne)
+
Tabela 2. Zestawienie rezultatów z 3 klasteryzacji dla
Onetu (Źródło: obliczenia własne)
Przy podziale na 2 klastry widać wyraźnie, Ŝe istnieje zaleŜność między strukturą stron,
a wynikami wyszukiwania (Tabela 1). Osiem dokumentów z dalszych miejsc oraz jeden
z początkowych pozycji w rankingu naleŜą do tego samego klastra, natomiast dokumenty z pozycji
początkowych naleŜą do innego. Podobnej zaleŜności, jednak mniej zauwaŜalnej moŜna dopatrywać się przy podziale na 5 klastrów, gdzie strony o najbardziej zbliŜonych pozycjach są zazwyczaj
w jednym klastrze, bądź w klastrach sąsiadujących. RównieŜ w wyszukiwarce Onetu widać, Ŝe
istnieje zaleŜność między strukturą dokumentu, a pozycją w rankingu widoczna przy podziale na 2
klastry (Tabela 2). KaŜda z par, bądź trójek dokumentów (4 i 5), (9,10,11), (20, 35, 40), (100, 105)
znajduje się w obrębie jednego klastra. Przy podziale na 5 klastrów zaleŜność taka jest równieŜ
zauwaŜalna, jednak w mniejszym stopniu.
4. Podsumowanie
Rozwój cywilizacyjny wiąŜe się mocno z koniecznością podejmowania wyzwań, formułowaniem sposobów ich przezwycięŜania oraz stosowania rozwiązań przy pomocy nowych technologii.
Znaczącym wyzwaniem jest dla wielu przedsiębiorstw jest uzyskanie przewagi konkurencyjnej
równieŜ w wynikach wyszukiwania. Coraz trudniej jest strukturalizować duŜe ilości potrzebnych
informacji. Istotną czynnością w systemie DSS jest wybór narzędzi do eksploracji danych, które
pozwolą wydobyć z danych informacje słuŜące do generowania właściwych reguł i wniosków. System wspomagania decyzji oparty na metodach text miningu ułatwia podjęcie działań dotyczących
budowy struktury serwisu oraz doboru słów kluczowych w serwisie. Techniki eksploracji danych
są istotnym elementem wspomagania decyzji, znajomość struktury serwisów wysoko pozycjonowanych umoŜliwia osiągnięcie wyŜszych pozycji w wynikach wyszukiwania, co zapewnia wartościowy ruch generowany z wyszukiwarek. Propozycje dalszych badań nad systemem wspomagania
decyzji obejmują ulepszenie algorytmów ekstrakcji wiedzy, w sposób dający dokładniejsze wyniki.
Z pewnością jest to proces czasochłonny i wymaga sporych nakładów jednak moŜe prowadzić do
Jarosław Jankowski, Kamila Grząśko
Metody analityczne w działaniach marketingowych z wykorzystaniem serwisów
wyszukiwawczych
85
lepszych efektów.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
Benicewicz A., Nowakowski M., Webpositioning. Skuteczne pozycjonowanie
w Internecie, czyli jak efektywnie wypromować witrynę, Wydawnictwo MIKOM,
Warszawa 2005.
Berry M.W., Borne M. (2005): Understanding Search Engines: Mathematical Modeling
and Text Retrieval, Society for industrial and applied mathematic
Brown B.C (2007) The Ultimate Guide to Search Engine Marketing: Pay Per Click
Advertising
Dokumentacja systemu Netsprint (2000), http://netsprint.pl
Dunford T. (2008): Advanced Search Engine Optimization: A Logical Approach,
American Creations of Maui
Frąckiewicz E. (2006):, Marketing Internetowy, Wydawnictwo Naukowe PWN,
Warszawa.
Gemius/PBI (2008): Megapanel, pbi.og.pl
Jones K.B. (2008): Search Engine Optimization: Your visual blueprint for effective
Internet marketing, Wiley Publishing
Frontczak T., Marketing Internetowy w Wyszukiwarkach, Wydawnictwo Helion, Gliwice
2006.
Hand D., Mannila H., Smyth P.(2005): Eksploracja danych. WNT, Warszawa.
Kłopotek M. A., Inteligentne wyszukiwarki internetowe (2001): Akademicka Oficyna
Wydawnicza EXIT, Warszawa.
Langville A. N., Meyer C.D. (2006): Google's PageRank and Beyond: The Science of
Search Engine Rankings, Princeton University Press.
Netsprint (2008): Traffic index, Materiały informacyjne firmy NetSprint Sp. z .o.o., 2008
Mcleod A. (2007): Marketing Internetowy w praktyce, Internetowe Wydawnictwo Złote
Myśli, Gliwice.
SoeMoz.org (2008): A little piece of google algorithm revealed, http://SoeMoz.org
Zanasi A., Brebbia C. A., Ebecken N. F. F. (2006): Data Mining VII: Data, Text And
Web Mining And Their Business Applications, WIT Press.
86
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
ANALITYCAL METHODS FOR SEARCH ENGINES MARKETING
Summary
The article presents search engine marketing areas and algorithmic approach
to online marketing campaigns optimization using the decision support methods in
the search engines data analysis. It proposes a methodical basis for building a multiagent decision support system using the text mining methods and presents model of
such system and its further evaluation.
Jarosław Jankowski
Kamila Grząśko
Wydział Informatyki
Zachodniopomorski Uniwersytet Technologiczny
71-210 Szczecin, ul. śołnierska 49
e-mail: [email protected]
[email protected]
87
Anna Kempa
Weryfikacja skuteczności sztucznych systemów immunologicznych w ocenie zdolności kredytowej
klientów indywidualnych
ANNA KEMPA
Akademia Ekonomiczna w Katowicach
WERYFIKACJA SKUTECZNOŚCI SZTUCZNYCH SYSTEMÓW
IMMUNOLOGICZNYCH W OCENIE ZDOLNOŚCI KREDYTOWEJ
KLIENTÓW INDYWIDUALNYCH
Streszczenie
W artykule zaprezentowano i omówiono wstępne wyniki badań nad weryfikacją
skuteczności – jednego z podejść sztucznej inteligencji, naśladującego układ odpornościowy w Ŝywym organizmie - sztucznych systemów immunologicznych w ocenie
zdolności kredytowej klientów indywidualnych.
Słowa kluczowe: sztuczne systemy immunologiczne, SSI
1. Wprowadzenie
Banki w coraz większym zakresie dąŜą do stosowania systemów informatycznych wspomagających podejmowanie decyzji kredytowych. Usiłują zwiększyć stopień zautomatyzowania procesu
decyzyjnego i trafności decyzji a takŜe zredukować koszty ich przygotowania. W procesie podejmowania decyzji odnośnie kredytów, zarówno dla indywidualnych jak i komercyjnych klientów,
jednymi z istotnych zadań są ocena zdolności kredytowej klienta oraz oszacowanie ryzyka udzielenia kredytu. Są to zadania złoŜone, realizowane w warunkach niepewności i ograniczonej wiedzy
o kliencie. Dlatego banki podejmują intensywne wysiłki w celu pozyskania wiedzy o swych przyszłych klientach, poszukują doskonalszych metod oceny ich zdolności do spłaty kredytów i dąŜą do
usprawnienia procesów podejmowania decyzji kredytowych.
W literaturze przedmiotu, poświęconej odkrywaniu wiedzy uŜytecznej do oceny zdolności
kredytowej (m.in. [7], [9]), a takŜe w ofertach firm projektujących modele oceny zdolności kredytowej dla banków proponuje się wykorzystanie metod statystycznych oraz metod sztucznej inteligencji.
Poszukując rozwiązań w dziedzinie odkrywania wiedzy sięga się równieŜ po inspiracje m.in.
do systemów funkcjonujących w organizmach Ŝywych. Przykładem moŜe być układ immunologiczny, który obok układu nerwowego, obdarzony jest szczególną zdolnością zdobywania i podnoszenia swoich moŜliwości poprzez uczenie się i doświadczenie. Układ ten posłuŜył jako model dla
tworzenia i rozwijania kolejnego paradygmatu inŜynierii wiedzy - sztucznych systemów immunologicznych (SSI). Jak dotychczas nie zaproponowano zastosowania sztucznych systemów immunologicznych w odkrywaniu wiedzy dla oceny zdolności kredytowej, chociaŜ SSI okazały się juŜ
dobrym rozwiązaniem wielu zadań, m.in. ochrony antywirusowej, optymalizacji harmonogramowania, analizy szeregów czasowych, profilowania uŜytkowników [4]. Zbadanie zatem moŜliwości
ich zastosowania w ocenie zdolności kredytowej wydaje się być interesującym zadaniem zarówno
z punktu widzenia eksploracji potencjału samej metody (informatycznego) jak i praktycznego wykorzystania wyników we wspomaganiu decyzji kredytowych. MoŜna znaleźć ślad takich zainteresowań w pracy [8].
88
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
W pracy przedstawiono przebieg wstępnych badań autorki mających na celu zweryfikowanie
uŜyteczności SSI w porównaniu z wybranymi innymi metodami na obszarze oceny zdolności kredytowej klientów indywidualnych.
2. Ocena zdolności kredytowej
Ocena zdolności kredytowej, która stanowi podstawę oceny ryzyka kredytowego, obejmuje
ocenę pod względem formalnoprawnych oraz merytorycznym [9]. Ocena merytoryczna obejmuje
dwa podstawowe aspekty: personalny oraz ekonomiczny. W zakresie kredytów konsumpcyjnych
dominującym jest aspekt personalny, który moŜe obejmować takie dane jak stan rodzinny, stan
majątkowy (mieszkanie, dom, samochód itp.), reputację, kwalifikacje zawodowe. Aspekt ekonomiczny (np. bieŜące dochody) takŜe jest waŜny. Do próby oceny zdolności kredytowej (w obu
aspektach łącznie) moŜna wykorzystać róŜne metody statystyczno-matematyczne z uŜyciem narzędzi informatycznych i komputera. Próbuje się w tym celu takŜe wykorzystywać metody sztucznej
inteligencji, m.in. sztuczne sieci neuronowe. Wykorzystywane metody na podstawie analizy poprzednich wniosków kredytowych generują model, jaki powinien pozwolić podzielić badany zbiór
na dwie grupy – kredyty dobre (prawidłowo spłacone lub takie, których dotychczasowy przebieg
jest bez zastrzeŜeń) oraz kredyty złe (nie spłacone). Wiedza o stanie faktycznym (przebiegu spłaty)
dla wniosków z przeszłości jest weryfikowana z wynikami jakie generuje dany model. Na tej podstawie, weryfikując model względem rzeczywistych obserwacji moŜna ocenić skuteczność modelu
i tym samym jego przydatność dla nowych przypadków (kredytów).
3. Przyjęte miary oceny modeli
Do oceny badanych modeli przyjęto miary oparte na tzw. macierzy pomyłek (ang. confusion
matrix). Macierz pomyłek jest macierzą kwadratową o wymiarach k x k, gdzie k stanowi liczbę klas
decyzyjnych. Wiersze macierzy zawierają informacje o liczbie rzeczywistych przyporządkowaniach przykładów do klas, natomiast w kolumnach umiejscowione są liczby przykładów przyporządkowanych wg predykcji modelu. Na przecięciu i-tego wiersza oraz j-tej kolumny umieszczana
jest liczba przykładów naleŜących do i-tej klasy, a zaliczonych przez model do klasy j-tej. Problem
badawczy uwzględniony w pracy zawiera dwie klasy decyzyjne (dobry kredyt, zły kredyt). Rys.1
przedstawia ogólną macierz pomyłek dla dwóch klas decyzyjnych.
Klasy przewidywane
rzeczywiste
Klasy
pozytywna
negatywna
pozytywna
negatywna
TP - True Positives
FN - False Negatives
(Prawdziwie Pozytywne)
(Fałszywie Negatywne)
FP - False Positives
TN - True Negatives
(Fałszywie Pozytywne)
(Prawdziwie Negatywne)
Rys. 1. Ogólna macierz pomyłek
89
Anna Kempa
Weryfikacja skuteczności sztucznych systemów immunologicznych w ocenie zdolności kredytowej
klientów indywidualnych
W polu TP (ang. true positive) umieszcza się liczbę poprawnie sklasyfikowanych przykładów
z pozytywnej klasy1 (przykładowo liczba dobrych kredytów, jakie klasyfikator zakwalifikował jako
dobre). Natomiast pole FN (ang. false negative) zawiera liczbę błędnie przyporządkowanych przykładów z tej samej klasy (np. liczba dobrych kredytów, które klasyfikator uznał jako złe). Odpowiednio FP (ang. false positive) określa liczbę błędnie zakwalifikowanych przykładów w przeciwnym kierunku (np. liczba złych kredytów jakie system uznał jako dobre). TN (ang. true negative) to
liczba przykładów słusznie zakwalifikowanych jako negatywne (np. liczba złych kredytów zakwalifikowanych jako złe). Na podstawie danych z macierzy moŜna obliczyć dodatkowe miary: wraŜliwość (ang. sensitivity lub True Positive Rate), specyficzność (ang. specificity), dokładność
(trafność) (ang. accurancy) oraz łączny błąd klasyfikacji (ang. overall error rate) wyraŜające się
odpowiednio wzorami:
WraŜliwość = TP
TP + FN
TN
FP + TN
Specyficzność =
TP + TN
TP + TN + FP + FN
FP + FN
Błąd klasyfikacji =
TP + TN + FP + FN
Trafność =
WraŜliwość klasyfikatora to jego zdolność do wykrywania przypadków prawdziwie pozytywnych, natomiast specyficzność określa zdolność odwrotną – do wykrywania przypadków prawdziwie negatywnych. Trafność wyraŜa stosunek liczby poprawnie zakwalifikowanych obserwacji do
liczby wszystkich obserwacji. UŜywa się takŜe współczynnika stanowiącego uzupełnienie do jedynki trafności klasyfikowania, nazywanego łącznym błędem klasyfikowania, który określa stosunek liczby niepoprawnie zakwalifikowanych obserwacji do liczby wszystkich obserwacji. Wszystkie podane miary podaje się zazwyczaj procentowo, trzy pierwsze naleŜy interpretować wg zaleŜności: im wyŜsza wartość tym lepsza zdolność klasyfikatora.
Inną uŜywaną metoda określania zdolności klasyfikacyjnych jest analiza krzywej ROC (ang.
Receiver Operating Characteristics). Wyznaczanie krzywej ROC polega na obliczaniu wraŜliwości
oraz specyficzności dla poszczególnych wartości progu decyzyjnego w zakresie [0,1], a następnie
osadzeniu obliczonych wartości (wraŜliwości oraz dopełnienia specyficzności do 1) na wykresie
[2]. Pole powierzchni pod krzywą ROC, oznaczane skrótem AUC (ang. Area Under ROC Curve)
zawiera się w przedziale [0,1]. Idealny klasyfikator daje krzywą przylegającą do lewego i górnego
brzegu wykresu z AUC równym 1. Natomiast krzywa dla losowych klasyfikacji z AUC równym
0,5 pokrywałaby się z przekątną. Krzywa ROC jest przydatna takŜe przy wyborze optymalnego
progu decyzyjnego (dającego równe prawdopodobieństwa błędnych klasyfikacji w kaŜdej z klas).
Porównania klasyfikatorów przy pomocy krzywej ROC mogą dawać pełniejszy obraz, dzięki braku
arbitralnego wyboru progu decyzyjnego w tej metodzie.
1
Określenia „pozytywny” i „negatywny” w ogólnej macierzy pomyłek pochodzą z obszaru pierwotnego jej wykorzystania
- medycyny, gdzie oceniano efekty poszczególnych metod leczenia. Po wyjściu metody z obszaru medycyny, w ocenie
binarnych klasyfikatorów, obie nazwy pozostały i słuŜą do określenia dwóch róŜnych klas (jak 1 i 0).
90
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Do oceny zdolności modeli klasyfikacyjnych wykorzystuje się takŜe znane z obszaru wyszukiwania informacji (ang. Informarion Retrieval, IR) miary – kompletność (ang. reacall) oraz dokładność (prezycja) (ang. precision) definiowane wg wzorów [5],[10].
Miara, która łączy kompletność z dokładnością jest miara F (ang. F-measure) [10]. Do oceny
zgodności klasyfikacji rzeczywistej z wyznaczoną przez model zostanie w pracy uŜyty takŜe
współczynnik kappa Cohena KC (ang. kappa statistic) [3]. Do oceny trafności klasyfikacji moŜna
uŜyć takŜe prostych, znanych z oceny predykcji miar takich jak: błąd średniokwadratowy, średni
moduł błędu, czy relatywny błąd średniokwadratowy [10].
4. Metoda walidacji modelu
Modele będą testowane na zbiorach przykładów, które stanowią próbę losową
(z uwzględnieniem załoŜonego stosunku dobrych i złych kredytów) pobraną z populacji wszystkich
moŜliwych przykładów. Jeśli ten sam zbiór jest stosowany do treningu modelu oraz estymacji miar
oceny modelu, otrzymane wyniki są obarczone błędem nadmiernego dopasowania modelu do
danych, czyli przeuczeniem (ang. overfitting). W celu pokonania tego problemu stosuje się
odpowiednie strategie walidacji, w pracy zastosowano metodę k-krotnej walidacji krzyŜowej
(ang. k-fold cross-validation). Metoda polega na losowym podziale zbioru na k podzbiorów, jeden
z podzbiorów wykorzystany jest jako zbiór testowy, natomiast k-1 pozostałe podzbiory tworzą
zbiór treningowy. Procedura ta jest powtarzana k razy, dzięki temu kaŜdy element zbioru jest uŜyty
zarówno do testów jak i treningu (w róŜnych iteracjach). Na końcu k cykli uśrednia się błędy
otrzymując miarę jakości modelu. Najczęściej przyjmuje się k=10. Ale moŜna w wyniku
eksperymentów dobrać inną wartość dla testowanych zbiorów danych. [10] [6].
5. Opis zbioru danych
W pracy wykorzystano zbiór danych z banków australijskich umieszczony w repozytorium
naukowym UCI Machine Learning Repository, stanowiące cenne źródło dla badaczy zajmujących
się maszynowym uczeniem oraz testowaniem inteligentnych systemów [12].
Wszystkie nazwy atrybutów oraz wartości zostały zmienione na nic nie znaczące symbole
w celu ochrony poufności danych klientów banku. Zbiór danych jest atrakcyjny dla przeprowadzanych testów, poniewaŜ posiada róŜne typy atrybutów – numeryczny oraz nominalny z duŜą ilością
moŜliwych wartości. Zbiór zawiera takŜe trochę niepełnych bądź nieprawidłowych, co nierzadko
ma miejsce w rzeczywistości. Zbiór zawiera 690 przypadków (rekordów), posiada 14 atrybutów
wejściowych (z czego 6 numerycznych oraz 8 nominalnych) oraz jeden klasowy dwuwartościowy.
Wartości nominalnych atrybutów zostały zmienione dla potrzeb uŜytych algorytmów.
Proporcja przypadków obrazujących dobry i zły kredyt jest zbliŜona do połowy, tzn. zbiór
posiada 307 (44,5%) dobre kredyty oraz 383 (55,5%) złe kredyty.
6. Narzędzia informatyczne i przyjęty format danych
Głównym programem, jaki wykorzystano w pracy jest biblioteka WEKA implementująca
większość podstawowych metod odkrywania wiedzy w języku Java. WEKA jest skrótem od Waikato Environment for Knowledge Analysis. Korzystanie z biblioteki WEKA wymaga środowiska
języka Java. WEKA posiada interfejs graficzny, pozwala wizualizować dane i rozwiązania oraz
porównywać róŜne algorytmy uczenia maszynowego. Poprzez moŜliwość zdefiniowania strumieni
przepływu wiedzy moŜna ustalić kolejne zadania procesu uczenia i analizy wyników.
91
Anna Kempa
Weryfikacja skuteczności sztucznych systemów immunologicznych w ocenie zdolności kredytowej
klientów indywidualnych
Dane wejściowe mogą być w róŜnych formatach: ARFF (podstawowy), CSV, C4.5, binarny.
W pracy wykorzystano format ARFF (opisany w [10]).
WEKA wyposaŜona jest w filtry przygotowujące dane wejściowe poprzez dyskretyzację danych, selekcję atrybutów oraz normalizację. WEKA posiada wiele algorytmów klasyfikacji, m.in.:
drzewa decyzyjne, sieć Bayesowska, sieci neuronowe, sztuczne systemy immunologiczne. Biblioteka pozwala takŜe na znalezienie zaleŜności między grupami atrybutów (reguły asocjacyjne).
Program WEKA posiada dokumentację dostępną na stronie www [11], jednak dokumentacja
ta obejmuje jedynie ogólne informacje dotyczące uŜywania samego programu, nie zawiera wiedzy
z zakresu data mining potrzebnej do pełnego wykorzystania moŜliwości systemu. Omówienie systemu WEKA wraz z zagadnieniami dotyczącymi data mining zawarte jest w [10].
Niektóre z wybranych do badania (w dalszej części pracy) algorytmów są sparametryzowane,
przyjęto do badań ich wartości domyślne. Bywa, Ŝe takie podejście nie jest słuszne, ale na testowanym zbiorze autorka dokonała szereg testów zmierzających do dostrojenia parametrów do danych
– i nie udało się uzyskać wyników znacząco lepszych.
Wiele obliczeń pomocniczych oraz rysunków wykonano przy pomocy arkusza kalkulacyjnego MS Excel.
7. Selekcja atrybutów
Wyszukanie optymalnego podzbioru zmiennych niezaleŜnych modelu, czyli selekcja atrybutów jest jednym z waŜniejszych zadań data minig wchodzącym w zakres wstępnego przygotowania
zbioru danych. Selekcję atrybutów dokonuje się w celu redukcji wymiaru wektorów reprezentujących zbiór uczący. Nie wszystkie atrybuty charakteryzują się jednakową zdolnością predykcyjną,
niektóre mogą wykazywać wzajemną korelację – optymalny podzbiór atrybutów powinien zawierać moŜliwie małą ilość zmiennych dających wysoką jakość klasyfikacji.
Wykorzystane metody selekcji atrybutów moŜna podzielić na dwa główne podejścia. Pierwsze, które obejmuje metody filtrujące (ang. filter method) stosuje uniwersalne metody selekcji
oparte na specyficznych metrykach do oceny i wyboru cech, drugie natomiast, które obejmuje metody typu wrapper (ang. wrapper method) polega na ocenie jakości podzbioru z uŜyciem algorytmu
maszynowego uczenia, który zostanie ostatecznie wykorzystany do uczenia. Ponadto stosowane
metody selekcji moŜna podzielić na dwie grupy: selekcja poprzez przeszukanie wszystkich moŜliwych podzbiorów atrybutów (w programie WEKA nazywane Attribute Subset Evaluator) oraz potencjalnie szybsza ale na ogół mniej dokładna - selekcja oparta na ewaluacji kaŜdego atrybutu
osobno i rankingu najlepszych oszacowań (w programie WEKA nazywane Single Attribute Evaluator).
Na podstawie podzbiorów atrybutów wskazanych przez dostępne metody selekcji dokonano
sprawdzenia kilku zestawów atrybutów pod względem dokładności oraz czasu generowania modelu. Przeprowadzone analizy dla kilku róŜnych algorytmów wykazały najlepsze rezultaty dla pełnego zestawu 14 atrybutów wejściowych.
Dane z banków australijskich dostępne w repozytorium dla badaczy zajmujących się maszynowym uczeniem, nie wymagały zbyt wielu czynności przygotowawczych. Wszystkie atrybuty
wejściowe są reprezentowane przez wartości liczbowe (nominalne lub numeryczne). Niektóre badane algorytmy wymagają normalizacji atrybutów wejściowych. Dokonano normalizacji wartościami z przedziału (0,1) i znormalizowanego zbioru uŜyto dla wszystkich metod – poniewaŜ dla
92
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
większości metod nie wymagających normalizacji - normalizacja albo podniosła skuteczność albo
nie wpłynęła znacząco na zmianę.
8. Wyniki analizy
Badania prowadzono dla czterech grup algorytmów: Bayes, drzewa decyzyjne, sieci
neuronowe oraz sztuczne systemy immunologiczne. W kaŜdej z grup dla pełnego zestawu
wyodrębniono do dalszej analizy po dwa najlepsze algorytmy:
• Bayes: Bayes Net oraz Complement NaiveBayes
• Drzewa decyzyjne: AD Tree oraz J48
• Sieci neuronowe: Back Propagation oraz Bold Drive Back Propagation
• Immunologiczne: Immunos1 oraz Immunos2.
Do analizy porównawczej starano się wybrać algorytmy o wysokiej skuteczności. RóŜnice
w dokładności są niewielkie. RóŜnica między najniŜszą a najwyŜszą wartością wynosi zaledwie
1,5%. Dokładność dla badanych algorytmów zawiera się w przedziale 85,20%-86,67%. Algorytmy immunologiczne wykazały dokładność 85,22% (Immunos1) oraz 85,51% (Immunos2) – co
przy niewielkich róŜnicach względem innych, skutecznych metod – pozwala je uznać jako dorównujące. Wyraźnie najdłuŜszy czas generowania modelu posiadają algorytmy sieci neuronowych - w
wartościach bezwzględnych jest to niewielka wartość (0,56s i 0,61s), jednak przy większych zbiorach trenujących – czynnik czasu moŜe mieć znaczenie. Tabela 1 zawiera szczegółowy wykaz obliczonych miar.
Współczynnik kappa wyraŜa zgodność między róŜnymi wariantami przypisania przykładów
do klas poprawioną o zgodność przypadkową. Statystyka kappa dla wszystkich badanych algorytmów jest wysoka. Miara F, która stanowi średnią harmoniczną kompletności (recall) i precyzji
(precision) wynosi dla badanych metod od 0,86 do 0,88, najwyŜsza dla J48 i BackPropagation.
MoŜna zauwaŜyć róŜne proporcje kompletności i precyzji w poszczególnych metodach – w przypadku modeli immunologicznych, sieci neuronowych oraz jednego z algorytmów bayesowskich
(ComplementNaiveBayes) zauwaŜalnie większa jest wartość precyzji (stosunek poprawnie sklasyfikowanych przykładów do wszystkich jakie model zakwalifikował do danej kategorii) od kompletności (stosunek poprawnie sklasyfikowanych przykładów do rzeczywistej ich ilości w klasyfikowanej kategorii). Jedynie dla BayesNet oraz drzewa J48 róŜnice te kształtują się odwrotnie, ale
w obu przypadkach są mniej znaczące (0,02 i 0,03).
Największą wartość AUC (wielkości pola pod krzywą ROC) mają algorytmy AdTree oraz
BayesNet (0,92 i 0,91). Pozostałe algorytmy mają AUC = 0,86 oraz dla dwóch algorytmów nieco
więcej 0,87 i 0,88. Podane wartości AUC wskazują na wysoką skuteczność analizowanych algorytmów.
Algorytmy immunologiczne oraz sieci neuronowe wykazały niską wartość średniego modułu
błędu (MAE) – z zakresu 0,13-0,15. NajwyŜsze wartości MAE mają algorytmy drzew decyzyjnych. Uzyskane miary błędów sugerują, Ŝe badane metody mylą się w róŜny sposób – co naleŜy
dokładniej zbadać. Program WEKA dla obliczanego algorytmu generuje raport, w którym m.in.
znajduje się tabela z poszczególnymi wartościami predykcji klasyfikacji.
93
Anna Kempa
Weryfikacja skuteczności sztucznych systemów immunologicznych w ocenie zdolności kredytowej
klientów indywidualnych
IR recall
miara F
AUC
0,88
0,87
0,91
NaiveBayes
85,20 (3,65) 0,00 0,71
0,15
0,38 29,96 76,81
0,93
0,79
0,86
0,86
AdTree
85,38 (3,76) 0,08 0,70
0,26
0,33 52,91 67,27
0,87
0,87
0,87
0,92
J48
86,32 (3,72) 0,02 0,72
0,19
0,33 38,77 66,69
0,86
0,91
0,88
0,88
BackPropagation
86,67 (3,45) 0,56 0,73
0,13
0,36 26,99 72,83
0,90
0,85
0,88
0,87
Propagation
85,51 (3,60) 0,61 0,71
0,14
0,38 29,34 75,98
0,93
0,80
0,86
0,86
Immunos1
85,22 (3,63) 0,00 0,71
0,15
0,38 29,93 76,76
0,93
0,79
0,86
0,86
Immunos2
85,51 (3,60) 0,00 0,71
0,14
0,38 29,34 75,98
0,93
0,80
0,86
0,86
RRSE
0,86
RAE
0,32 34,93 64,82
BayesNet
(s)
RMSE
0,17
(odch.std)
MAE
85,74 (3,61) 0,01 0,71
Dokładność Czas
Algorytm
Kappa
IR Precision
Tabela 1. Wyniki dla badanych algorytmów
Complement
BoldDriverBack
Źródło: opracowanie własne na podstawie obliczeń w programie WEKA
Z raportu moŜna odczytać dla poszczególnych przykładów (rekordów) informacje o tym w jakiej klasie przypadek jest faktycznie, jaką przypisał model oraz informacje o błędzie. Raport w
dostępnej formie semistrukturalnej został przez autorkę ustrukturalizowany, dzięki czemu moŜliwa
stała się dalsza analiza błędów badanych modeli pod kątem róŜnic: w jakim stopniu badane algorytmy mylą się róŜnie względem siebie. Nie badano róŜnic kaŜdego z kaŜdym. Zbadano róŜnice dla
algorytmu Immunos2 z siedmioma pozostałymi.
Program WEKA umoŜliwia porównanie algorytmów takŜe przy pomocy sparowanego testu
t studenta – w wersji standardowej lub testu nazywanego corrected resampled t-test, szeroko omówionego w pracy [1]. Dla weryfikacji polegającej na powtarzaniu obliczeń dla róŜnych wariantów
podziału zbioru na część treningową i testową, a następnie uśrednianiu otrzymanych wyników, co
ma miejsce w przypadku stosowanej przez autorkę walidacji krzyŜowej, jako korzystną alternatywą dla klasycznego sparowanego testu t studenta rekomendowany jest test corrected resampled ttest [10]. Tabela istotności róŜnic w dokładności pomiędzy algorytmami, sporządzoną na podstawie corrected resampled t-test (dla poziomu ufności 0,05, test dwustronny) wykazuje, Ŝe dla badanych algorytmów brak istotnych róŜnic w skuteczności.
Zbadano jednak przy pomocy testu t takŜe miary błędów. Tabela 2. wskazuje ranking algorytmów wg istotności róŜnic w popełnianiu błędu MAE.
94
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela 2. Ranking wg istotności róŜnic w błędach MAE (poziom ufności 0,05)
Wynik
4
4
4
4
4
-2
-4
-6
-8
Lepszy
4
4
4
4
4
3
2
1
0
Gorszy
0
0
0
0
0
5
6
7
8
Algorytm
ComplementNaiveBayes
BackPropagation
BoldDriverBackPropagation
Immunos1
Immunos2
BayesNet
J48
AdTree
ZeroR
Źródło: opracowanie własne na podstawie obliczeń w programie WEKA
Pięć pierwszych algorytmów nie róŜni się istotnie między sobą, ale istnieją znaczące róŜnice
z pozostałymi algorytmami. Podobnie jak z analizy róŜnicy błędów wykonanej na podstawie raportu z predykcji wynika, Ŝe algorytmy immunologiczne w zakresie popełniania błędów w największym stopniu róŜnią się od drzew klasyfikacyjnych oraz algorytmu BayesNet, natomiast najmniej
od sieci neuronowych oraz algorytmu ComplementNaiveBayes.
9. Uwagi końcowe
Z przeprowadzonej analizy, w której uwzględniono oprócz badanych algorytmów immunologicznych – metody, jakie na polu wspomagania decyzji kredytowych zostały sprawdzone i uznane
za skuteczne – wynika, Ŝe algorytmy immunologiczne dorównują porównanym metodom pod
względem dokładności (trafności klasyfikacji), nie wykazując przy tym znaczących róŜnic. Natomiast wykazują istotne róŜnice w popełnianiu błędów z niektórymi porównywanymi algorytmami
(drzewa decyzyjne oraz BayesNet). Istnienie róŜnic w popełnianiu błędów moŜe mieć znaczenie
przy budowie złoŜonych klasyfikatorów. Mimo braku znaczących róŜnic zarówno w dokładności
jak i popełnianiu błędów z sieciami neuronowymi algorytmy immunologiczne ze względu na krótszy czas generowania modelu mają tu przewagę, jaka w określonych warunkach moŜe mieć znaczenie.
Uzyskane wyniki autorka traktuje jako zachętę do pogłębiania analiz na innych zbiorach danych o kredytach przy jednoczesnym włączeniu więcej metod dla analiz porównawczych. Pogłębienie badań będzie polegało takŜe na analizie samych modeli matematycznych badanych algorytmów immunologicznych – pod kątem metodycznych róŜnic z porównywanymi metodami, starając
się wyłonić specyfikę SSI takŜe w kontekście potencjału podejścia, jakie wciąŜ się rozwija i znajduje nowe zastosowania.
95
Anna Kempa
Weryfikacja skuteczności sztucznych systemów immunologicznych w ocenie zdolności kredytowej
klientów indywidualnych
10. Literatura
1.
Bengio Y., Nadeau C.: Interference for the Generalization Error, Advances in Neural
Information Processing Systems 12, MIT Press, 2000
2. Fawcett T.: An introduction to ROC analysis, Pattern Recognition Letters 27, 2006 (861874)
3. Jarosz-Nowak Joanna, Modele oceny stopnia zgody pomiędzy dwoma ekspertami
z wykorzystaniem współczynników kappa, Matematyka Stosowana 8, 2007
4. Kempa A., Staś T.: Metody inteligentne w personalizacji, w: Bojar W. (red.): Studia
i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, Polskie Stowarzyszenie
Zarządzania Wiedzą, Bydgoszcz 2008
5. Kłopotek M.A.: Inteligentne wyszukiwarki internetowe, Akademicka Oficyna
Wydawnicza EXIT, Warszawa 2001
6. Larose D.T.: Odkrywanie wiedzy z danych. Wprowadzenie do eksploracji danych,
Wydawnictwo Naukowe PWN, Warszawa 2006
7. Lasek M.: Data Mining. Zastosowania w analizach I ocenach klientów bankowych.
Biblioteka MenedŜera i Bankowca, Warszawa 2002
8. Leung K., Cheong F., Cheong C.: Consumer Credit Scoring using an Artificial Immune
System Algorithm, IEEE Congress on Evolutionary Computation 2007
9. Matuszyk A.: Credit Scoring, Wydawca CeDeWu, Warszawa 2004
10. Witten I.H., Frank E.: Data Mining - Practical Machine Learning Tools and Techniques,
Elsevier Inc., USA, San Francisco 2005
11. http://www.cs.waikato.ac.nz/~ml/weka/; dostęp październik 2008
12. UCI Machne Learning Repository. Center for Machine Learning and Intelligent Systems.
http://archive.ics.uci.edu/ml/datasets.html; dostęp wrzesień 2008
ACCURANCY VERIFICATION OF ARTIFICIAL IMMUNE SYSTEMS IN CREDIT
ABILITY EVALUATION FOR PRIVATE CUSTOMER
Summary
The article presents preliminary results of accuracy verification – the approach
of artificial intelligence that mimics the immune system in living organisms – of artificial immune systems in credit ability evaluation for private customer.
Keywords: artificial immune systems, AIS
Anna Kempa
Katedra InŜynierii Wiedzy
Akademia Ekonomiczna w Katowicach
40-287 Katowice, ul. Bogucicka 3
e-mail: [email protected]
96
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
MAGDALENA KRAKOWIAK
Zachodniopomorski Uniwersytet Technologiczny
ANALIZATOR WNIOSKOWANIA W ROZMYTYM JĘZYKU ZAPYTAŃ
Streszczenie
W artykule zaprezentowano rozwiązanie dotyczące zastosowania wnioskowania
przybliŜonego w systemach wspomagania decyzji. W ramach przeprowadzonych badań na podstawie własnych definicji zapytania rozmytego i definicji reguły logicznej,
opracowano algorytm analizatora wnioskowania. Stanowi on część analizatora zapytania w zaprojektowanym modelu interaktywnego rozmytego języka zapytań MELSQL.
Słowa kluczowe: wnioskowanie przybliŜone, systemy wspomagania decyzji, rozmyty język
zapytań, rozmyte reguły logiczne, schematy wnioskowania MP, MT, UMP
i UMT
1. Wprowadzenie
Współczesne systemy baz danych ukierunkowane są głównie na wspomaganie podejmowania
decyzji, co jest istotnym czynnikiem zarządzania. Oczekiwane wsparcie ze strony systemu informatycznego moŜemy rozpatrywać w dwóch aspektach. Po pierwsze system powinien pozwolić na
sprawne wyszukiwanie informacji wg wszystkich kombinacji kryteriów i umoŜliwić znalezienie
kaŜdej danej. Jest to realizowane poprzez pełność języka zapytań. Drugi aspekt wspomagania decyzji to wnioskowanie na podstawie określonych reguł logicznych. Wsparcie na tym poziomie
związane jest ze złoŜonym procesem odkrywania wiedzy, a reguły logiczne pozwalają na efektywną i silną jej reprezentację.
PowyŜsze dwa poziomy wsparcia systemów informatycznych moŜemy rozpatrywać w kategorii zapytań precyzyjnych i rozmytych.[1] W pierwszym przypadku wyszukiwanie informacji w bazie danych (zapytania twarde) realizowane są przy uŜyciu języka SQL, a do komunikacji uŜytkownika z systemem odkrywania wiedzy słuŜy generacja regułowych języków zapytań (np. MineSQL).
Stanowią one rozszerzenie języka SQL o nowe typy danych, polecenia i operatory, co ma swoje
uzasadnienie w jednoczesnej obsłudze dwóch typów zapytań. UŜytkownik moŜe budować klasyczne zapytania w celu wyszukiwania informacji oraz specyfikować poszukiwane reguły i dane, które
muszą być eksplorowane w celu odkrycia tych reguł.
W przypadku obsługi zapytań rozmytych wyszukiwanie informacji realizują rozmyte języki
zapytań. Przykładem takiego rozwiązania bez obsługi złoŜonych reguł jest system FQUERY for
Access [7]. Natomiast rozmyty język MELSQL stanowi autorskie rozwiązanie mające m.in. na
celu implementację reguł rozmytych czyli uŜycie informacji nieprecyzyjnych w przesłankach i konkluzjach. Opracowany model łączy w sobie funkcjonalność systemów regułowych z obsługą zapytań rozmytych.
Magdalena Krakowiak
Analizator wnioskowania w rozmytym języku zapytań
97
2. Wnioskowanie przybliŜone
W szeroko stosowanych w praktyce systemach rozmytych, zawierające się w poprzednikach
i następnikach reguł zmienne lingwistyczne (reprezentowane przez zbiory rozmyte) odpowiadają
wartościom wejściowym i wyjściowym systemu. Tego typu rozwiązania mają zastosowanie głównie w modelowaniu i sterowaniu rozmytym, związanych z wnioskowaniem przybliŜonym (ang.
approximate reasoning) [5]. Jest ono oparte na sprawdzonej i powszechnie stosowanej w praktyce
regule Uogólniony Modus Ponens (UMP).
Uogólniony Modus Ponens stanowi rozmyty odpowiednik klasycznego sposobu wnioskowania
Modus Ponens1, którego podstawowe załoŜenia dotyczą przyjmowania tylko wartości logicznej
TRUE (1) lub FALSE (0) przez przesłankę (x=A) i konkluzję (y=B) oraz całkowitej zgodności
stwierdzonego faktu z uŜytą do wnioskowania przesłanką implikacji:
JEŚLI
(x=A)
TO (y=B).
(2.1)
Zastosowanie reguły Uogólniony Modus Ponens daje moŜliwość uŜycie rozmytego sformułowania zaobserwowanego faktu:
x=A* ,
(2.2)
gdzie A* moŜe być zbiorem rozmytym „częściowo A” z przestrzeni lingwistycznej lub numerycznej zmiennej x, co pozwala na wyciągnięcie wniosku na podstawie implikacji (2.1), Ŝe:
y=B*,
(2.3)
gdzie B* moŜe oznaczać zbiór rozmyty „mniej więcej B” z przestrzeni lingwistycznej lub numerycznej zmiennej y.
Poza klasyczną regułą wnioskowania Modus Ponens, w logice dwuwartościowej stosuje się
takŜe m.in. tryb Modus Tollens2. Ten schemat wnioskowania logicznego polega na zaprzeczeniu
faktu przy załoŜeniu, Ŝe konkluzja jest nieprawdziwa; „tryb obalający [...] przez obalenie” [3]. Zatem przy uznaniu implikacji (2.1) i załoŜeniu, Ŝe y≠B wnioskujemy, Ŝe x≠A.
Reguła Modus Tollens, tak jak tryb Modus Ponens, ma równieŜ swoją rozmytą wersję –
Uogólniony Modus Tollens (UMT). Jej przesłankę stanowi wniosek wyciągnięty zgodnie z regułą
UMP (2.3), a z kolei wniosek odpowiada zaobserwowanemu faktowi (2.2).
W wyniku analizy poszczególnych schematów wnioskowania wyraźnie zauwaŜa się zasadniczą róŜnicę pomiędzy klasycznymi i rozmytymi regułami dowodzenia. W logice klasycznej, aby
móc przeprowadzić wnioskowanie (zastosować regułę), fakt (x=A) musi całkowicie odpowiadać
przesłance w implikacji i moŜliwy jest tylko wówczas wniosek zgodny z konkluzją implikacji
(y=B). W przypadku rozmytych reguł dowodzenia do przeprowadzenia wnioskowania nie jest wymagana całkowita zgodność przesłanki i wniosku z implikacją, gdyŜ moŜemy operować na róŜnych
1
2
Sposób potwierdzający przez potwierdzenie (łac. Modus ponendo ponens)
Sposób zaprzeczający przy pomocy zaprzeczenia (łac. Modus tollendo tollens)
98
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
zbiorach. Zbiory te muszą jednak pochodzić z tej samej przestrzeni zmiennych uŜytych w przesłance i konkluzji.
Z róŜnicy wymagań co do zgodności przesłanki i wniosku z implikacją pomiędzy przedstawionymi powyŜej typami reguł, moŜna wywnioskować, Ŝe zastosowanie rozmytych reguł dowodzenia w zapytaniach do baz danych wyspecjalizowanych systemów wspomagania decyzji znacznie wpłynie na zwiększenie ich gotowości informacyjnej. Niejednokrotne uŜycie w zapytaniu nieznanych sformułowań, których brak takŜe w bazie reguł pozwoli na wyciągnięcie wniosków, co
zdecydowanie zwiększy efektywność odpowiedzi.
Przykładowo szukając bardzo dobrych klientów i odnotowując bardzo duŜe zakupy klienta X,
przy braku w bazie reguł implikacji z dokładnie takim poprzednikiem (przesłanką), moŜemy zastosować regułę:
JEŚLI
(klient ma duŜe zakupy)
TO (klient jest dobry),
(2.4)
zgodnie z którą wyciągniemy wniosek, Ŝe klient X jest bardzo dobry.
W rozwaŜanym przypadku mamy następujące parametry podstawowe reguły:
x
y
A
A*
B
B*
- zmienna lingwistyczna „zakupy klienta”,
- zmienna lingwistyczna „ocena klienta”,
- zbiór rozmyty „duŜe zakupy klienta”,
- zbiór rozmyty „bardzo duŜe zakupy klienta”,
- zbiór rozmyty „dobry klient”,
- zbiór rozmyty „bardzo dobry klient”,
które uzupełniamy o zbiory rozmyte wszystkich wartości zmiennych (przestrzenie rozwaŜań
zmiennych):
Tx - zbiór wartości zmiennej x = („bardzo małe”, „małe”, „średnie”, „duŜe”, „bardzo duŜe”),
Ty - zbiór wartości zmiennej y = („bardzo słaby”, „słaby”, „średni”, „dobry”, „bardzo dobry”).
Wyciągnięty wniosek, Ŝe klient X jest bardzo dobry to wynik wnioskowania zgodnie z regułą
Uogólniony Modus Ponens. NaleŜy zauwaŜyć, Ŝe nie zawsze otrzymane w ten sposób wnioski są
prawdziwe. Wynika to z faktu, Ŝe nie wszystkie reguły posiadają własności ekstrapolacyjne, które
są warunkiem stosowania trybu UMP [2].
Uznając implikację opisaną wzorem (2.4) przy stwierdzeniu, Ŝe klient X nie jest dobry, musimy uznać takŜe fakt, Ŝe klient X nie ma u nas duŜych zakupów. Wynika to ze schematu wnioskowania klasycznej reguły Modus Tollens. Chcąc zobrazować działanie jej rozmytej wersji (UMT)
zakładamy stwierdzenie, Ŝe klient X jest słaby. Przebieg wnioskowania moŜe wyglądać następująco:
(klient X jest słaby) -> (klient X nie jest dobry) -> (klient X nie ma duŜych zakupów) ->
(klient X ma małe zakupy).
Wnioskowanie (inferencja) stanowi główną część modelu rozmytego systemu (rys.1). Poprzedza go blok rozmywania (fuzyfikacji), w którym dokonywane jest obliczanie stopni przynaleŜności
Magdalena Krakowiak
Analizator wnioskowania w rozmytym języku zapytań
99
do poszczególnych zbiorów rozmytych wejść. Na ich podstawie w bloku wnioskowania, w trzech
kolejno występujących po sobie etapach, obliczana jest tzw. wynikowa funkcja przynaleŜności
wyjścia modelu. Pierwszy z etapów wymaga dokonania oceny przesłanek poszczególnych reguł
czyli określenia stopnia ich spełnienia wartością z przedziału [0,1] w przeciwieństwie do reguł logiki klasycznej, których stopień mógł przyjmować tylko wartość 0 lub 1.
Sposób realizacji tego zadania zaleŜny jest od postaci przesłanki, wśród których wyróŜnia się
następujące typy:
przesłanki proste
JEŚLI (x=A)
(2.5)
koniunkcyjne przesłanki złoŜone
JEŚLI (x1=A1) I (x2=B2)
(2.6)
alternatywne przesłanki złoŜone
JEŚLI (x1=A1) LUB (x2=B2).
(2.7)
Alternatywne przesłanki złoŜone (2.7) cechują m.in. reguły powstałe w wyniku agregacji wielu
reguł o takiej samej konkluzji (następniku).
Stopień spełnienie przesłanek prostych (2.5) odpowiada stopniowi przynaleŜności wartości
x do zbioru A. Natomiast dla przesłanek złoŜonych koniunkcyjnych (2.6) i alternatywnych (2.7)
naleŜy obliczyć odpowiednio funkcję przynaleŜności iloczynu (ang. intersection) i sumy (ang.
union) zbioru. Do realizacji tych operacji zaproponowano po raz pierwszy operatory MIN i MAX
[6].
Operator MIN uwzględnia tylko fakt mniejszości jednego ze stopni przynaleŜności od drugiego, z czego wynika jego prostota i szybkość obliczeń. Nie branie pod uwagę wartości róŜnicy pomiędzy poszczególnymi stopniami przynaleŜności powoduje jednak duŜą utratę informacji. Ogranicza to znacznie zakres stosowania operatora MIN i coraz częściej zastępuje się go operatorem
iloczynu PROD [5], który zaleŜy ilościowo od wartości obydwu składowych funkcji przynaleŜności. Operatory stosowane do realizacji operacji przecięcia zbioru nazywane są operatorami t-normy
[2] i stanowią funkcję modelującą operację iloczynu (I/AND) dwóch zbiorów rozmytych.
Operatory komplementarne do operatorów t-normy to operatory s-normy modelujące operację
sumy (LUB/OR) dwóch zbiorów rozmytych. Jednym z nich jest operator MAX (komplementarny
do operatora MIN), uwzględniający tylko większość jednego ze stopni przynaleŜności od drugiego.
Poza przedstawionymi przesłankami złoŜonymi (2.6 i 2.7) istnieje równieŜ moŜliwość wystąpienia bardziej złoŜonej formy przesłanki:
JEŚLI (x1=A1) I (x2=B2) LUB (x1=A2) I (x2=B1),
(2.8)
której stopień spełnienia oblicza się wykonując najpierw operację I (stosując operator t-normy),
a potem LUB (stosując operator s-normy).
100
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
W drugim etapie działania bloku wnioskowania określa się funkcję przynaleŜności konkluzji
poszczególnych reguł dla danych wartości wejść modelu [5]. Stopień ich aktywizacji pozwala
w trzecim etapie określić postać wynikową funkcji przynaleŜności zwana akumulacją.
Rys. 1. Struktura modelu rozmytego
Źródło: opracowanie własne na podstawie [5]
Ostatni blok modelu rozmytego to defuzyfikacja (wyostrzanie) polegająca na określania ostrej
wartości wyjścia y* . Do przeprowadzenia tej operacji stosowana jest, zaleŜnie od specyfiki modelu
i tym samym wyboru kryterium, jedna z następujących metod: środka maksimum SM (ang. Middle
of Maxima), pierwszego maksimum PM (ang. First of Maxima), ostatniego maksimum OM (ang.
Last of Maxima), środka cięŜkości SC (ang. Center of Gravity), środka sum SS (ang. Center of
Sum) i metoda wysokości W (ang. Height Method).
3. Definicja reguł rozmytych
Podstawowe załoŜenia opracowanego modelu języka zapytań MELSQL, związane z wnioskowaniem, dotyczą przede wszystkim moŜliwości tworzenia i przetwarzania reguł logicznych
składających się ze złoŜonych przesłanek alternatywnych oraz koniunkcyjnych, a takŜe ich bardziej
złoŜonych form (2.8). Zakłada się, Ŝe poszczególnym przesłankom prostym odpowiadają predykaty proste. Stanowią one takŜe główny składnik definicji zapytania rozmytego, czego konsekwencją
jest ich złoŜona postać uwzględniająca cechy decydujące o charakterze rozmytym zapytania.
Z załoŜenia zapytanie rozmyte charakteryzuje się wystąpieniem w nim przynajmniej jednego
z elementów [4]:
wartości rozmyte atrybutów (wartości lingwistyczne, liczby przybliŜone)
rozmyte operatory arytmetyczne
rozmyte kwantyfikatory
operatory kompensacyjne.
Pierwsze trzy cechy muszą mieć odzwierciedlenie w definicji samego predykatu, który w wyniku tego przyjmuje następującą postać [4]:
P = Xk KA Xo O Xw W,
(3.1)
Magdalena Krakowiak
Analizator wnioskowania w rozmytym języku zapytań
101
gdzie:
Xk
K
- wartość podobieństwa dla kwantyfikatora K
- kwantyfikator twardy (istnieje, wszyscy, Ŝaden) lub rozmyty (prawie wszyscy,
prawie Ŝaden)
A
- atrybut
Xo
- wartość podobieństwa dla operatora arytmetycznego O
O
- operator arytmetyczny twardy (=, ≠, <, >, =>, =<) lub rozmyty (prawie =, prawie ≠, prawie <, prawie >)
Xw
- wartość wg rozkładu moŜliwości/podobieństw dla warunku
W
- wartość atrybutu precyzyjna lub rozmyta (wartość lingwistyczna, liczba przybliŜona).
W związku z powyŜszym w języku MELSQL proponuje się następującą postać reguły rozmytej:
JEŚLI
(P1 Xok Ol P2...) TO
A Xo O Xw W,
(3.2)
gdzie:
P
Xok
Ol
A
Xo
- predykat prosty
- współczynnik operatora kompensacyjnego (waga, próg reakcji)
- operator logiczny (AND, OR)
- atrybut lub funkcja agregująca (count(), min(), max(), avg(), sum())
- wartość podobieństwa dla operatora arytmetycznego O
O
- operator arytmetyczny twardy (=, ≠, <, >, =>, =<) lub rozmyty (prawie =,
prawie ≠, prawie <, prawie >)
Xw
- wartość wg rozkładu moŜliwości/podobieństw dla warunku
W
- wartość atrybutu precyzyjna lub rozmyta (wartość lingwistyczna, liczba przybliŜona).
Przedstawiona definicja reguły odpowiada załoŜeniom dotyczącym budowy jej poprzednika
i następnika. Z określonej wzorem 3.2 implikacji wynika, Ŝe do tworzenia poprzednika moŜna stosować przesłanki złoŜone, ale następnik stanowi przesłanka prosta.
Występujące w przesłankach złoŜonych operatory logiczne AND i OR mogą podlegać modyfikacjom zgodnie z zasadami kompensacji, jakie naturalnie stosują ludzie w zaleŜności od nastroju
czy sytuacji. UŜytkownik moŜe zatem określić stopień kompensacji współczynnikiem zmieniającym swoją wartość w zakresie od 0 do 1 zadając akceptowalną granicę wartości spełnienia przesłanki złoŜonej.
Operatory t-normy wyliczające przecięcie (iloczyn logiczny) i operatory s-normy wyliczające
sumę logiczną zbiorów rozmytych są tzw. operatorami domniemanymi dającymi cały wachlarz
moŜliwości otrzymanych wyników (przypuszczeń co do sposobu realizacji tych operacji).
4. Analizator wnioskowania
Analizator wnioskowania stanowi jeden z głównych bloków operacji w procesie analizy zapytań opracowanego języka MELSQL. Jego podstawowa funkcja związana jest z realizacją obsługi
zapytania w sytuacji, gdy uŜytkownik uŜył nieznanego dla systemu sformułowania. W analizatorze
predykatu, będącego częścią analizatora zapytania, w przypadku identyfikacji nieznanej wartości
102
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
lingwistycznej (dla której brak określonych wartości funkcji przynaleŜności) następuje przejście do
analizatora wnioskowania. Wówczas, jako pierwszy etap, przeszukiwana jest baza reguł w celu
sprawdzenia czy analizowany predykat nie stanowi prawej strony reguły uŜytkownika. Gdy tak jest
i nie zmieniły się preferencje oraz ocena sytuacji pytającego, predykat prosty zostaje zamieniony w
lewą stronę potwierdzonej reguły i następuje powrót do analizatora predykatu. Odnalezienie wielu
reguł o poŜądanej konkluzji nie jest moŜliwe, gdyŜ system w celu redukcji liczby rejestrowanych
implikacji dokonuje automatycznej ich agregacji.
Przykładowo, gdy w zadanym przez uŜytkownika zapytaniu wystąpi nieznane pojęcie dobry
klient (w systemie nie zdefiniowano funkcji przynaleŜności klienta do zbioru dobrych klientów),
wówczas nie ma konieczności budowy nowej funkcji, ale istnieje moŜliwość skorzystania z reguły
zgodnej z implikacją jeśli klient duŜo kupuje to klient jest dobry (2.4), czego następstwem będzie
zamiana predykatu klient jest dobry na klient duŜo kupuje. Analizator predykatu wykorzysta wówczas zdefiniowaną funkcję przynaleŜności zakupów klienta do zbioru zakupów duŜych. PowyŜszy
proces jest zgodny z klasyczną regułą wnioskowania MP, w której przesłanka i wniosek muszą być
zgodne z implikacją.
Gdy w systemie nie ma zarejestrowanej reguły, której następnik byłby zgodny z analizowanym
predykatem, naleŜy szukać reguły, której lewa strona stanowi zaprzeczenie predykatu. JeŜeli zostanie taka znaleziona to na jej podstawie generowana jest nowa implikacja i poddana weryfikacji
przez uŜytkownika, gdyŜ system uwzględnia ewentualną zmianę w czasie jego preferencji. Akceptacja nowej reguły pozwala na jej zapis i zamianę predykatu w jej lewą stronę.
Kontynuując zapytanie o dobrego klienta i odnalezienie w bazie reguł na przykład implikacji
jeśli klient nie jest dobry to klient nie kupuje duŜo powoduje utworzenie przez system nowej reguły zgodnie ze schematem wnioskowania MT. Wówczas, korzystając z prawa podwójnego przeczenia (nie nie kupuje duŜo <=> kupuje duŜo, nie nie jest dobry <=> jest dobry) nowopowstała reguła
przyjmie postać implikacji (2.4).
Brak w bazie reguł spełniających jeden z dwóch opisanych warunków (analizowany predykat
stanowi następnik reguły lub jego zaprzeczenie jest poprzednikiem reguły) powoduje ustalenie
nowego kryterium wyszukiwania – zbiorów rozmytych z przestrzeni rozwaŜań zmiennej analizowanego predykatu. Odnalezienie reguły, której lewa lub prawa strona operuje na takim zbiorze
pozwala na wygenerowanie na jej podstawie nowej reguły. NaleŜy pamiętać, Ŝe warunkiem otrzymania prawdziwych wyników w tym przypadku są własności ekstrapolacyjne reguł i dlatego szczególną rolę odgrywa tu weryfikacja uŜytkownika. Po jego akceptacji następuje zapis nowej implikacji i zamiana predykatu w jej lewą stronę.
Analizując przykładowy predykat dotyczący dobrych klientów moŜemy skorzystać z dowolnej
reguły, w następniku lub poprzedniku której występuje zbiór rozmyty wartości zmiennej klient
("bardzo słaby", "słaby", "średni", "dobry" i "bardzo dobry"). Zarejestrowana w bazie reguła jeśli
klient bardzo duŜo kupuje to klient jest bardzo dobry pozwala zgodnie ze schematem UMP wygenerować implikację (2.4). Tę samą implikację otrzymamy korzystając z trybu UMT na podstawie
reguły jeśli klient jest bardzo dobry to klient bardzo duŜo kupuje. Zbiory rozmyte “bardzo duŜe
zakupy” i “duŜe zakupy” oraz “bardzo dobry klient” i “dobry klient” znajdują się w tych samych
przestrzeniach rozwaŜań zmiennych “zakupy” i “klient”, zatem spełniają podstawowy warunek
generowania nowych reguł.
103
Magdalena Krakowiak
Analizator wnioskowania w rozmytym języku zapytań
Analiza wnioskowania
Czy istnieje reguła,
której prawa strona odpowiada
analizowanemu predykatowi?
NIE
Czy istnieje reguła, której
lewa strona stanowi
zaprzeczenie predykatu?
TAK
NIE
TAK
Generowanie nowej reguły
(wnioskowanie klasyczne
MT)
Generowanie nowej reguły
(wnioskowanie przybliŜone
UMP, UMT)
TAK
Czy istnieje reguła
dotycząca zbiorów rozmytych z
przestrzeni rozwaŜań zmiennej
analizowanego predykatu?
Weryfikacja preferencji
Czy reguła zgodna
z preferencjami?
NIE
NIE
Budowa nowej reguły
TAK
Zapis reguły
Zmiana predykatu w lewą
stronę reguły
Koniec
Rys.2. Algorytm działania analizatora wnioskowania
Źródło: opracowanie własne
W przypadku braku odpowiedniej reguły, zmiany preferencji czy teŜ odrzucenia przez uŜytkownika wygenerowanych rozwiązań, moduł MELSQL umoŜliwia budowę nowej reguły. Prawą
jej stronę stanowi analizowany predykat prosty. Zgodnie z definicją (wzór 3.2) lewą stronę reguły
moŜe stanowić przesłanka prosta lub złoŜona, składająca się z predykatów prostych. Do konstrukcji predykatów prostych i łączących ich operatorów w fazie tworzenia poprzednika nowej reguły
wykorzystywany jest, opracowany w modelu języka MELSQL, blok selekcji kreatora zapytań.
104
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Akceptacja nowoutworzonej reguły pozwala na jej zapis i uŜycie, w wyniku czego analizowany predykat prosty przyjmuje postać jej lewej strony i w większości przypadków staje się predykatem złoŜonym.
5. Podsumowanie
We współcześnie projektowanych systemach informatycznych język zapytań odgrywa kluczową rolę. Stanowi on podstawowy element komunikacji pomiędzy człowiekiem a komputerem.
Sprawna i efektywna obsługa zapytań uŜytkownika zwiększa niewątpliwie gotowość informacyjną
systemu, co daje przewagę nad konkurencją. Stąd dąŜenia do takiego zamodelowania systemu do
gromadzenia, przetwarzania i udostępniania danych, aby w komunikacji człowiek-komputer zbliŜyć się do moŜliwe naturalnego dialogu.
Stosowane głównie w modelowaniu i sterowaniu rozmytym, wnioskowanie przybliŜone znacznie zwiększa efektywność działania analizy zapytań opracowanego modelu języka MELSQL.
Przede wszystkim umoŜliwia uzyskanie większej ilości pełnej informacji oraz pozwala na wyciągnięcie wniosków nawet w przypadku uŜycia sformułowań, których brak w bazie reguł. Z pewnością zwiększona efektywność odpowiedzi wpływa na podniesienie gotowości informacyjnej systemu wspomagania decyzji.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
3
Budziński R., Krakowiak M.: Modelowanie zapytań i bazy reguł w regułowym języku
zapytań z wykorzystaniem logiki rozmytej. W: Studia i Materiały Polskiego
Stowarzyszenia Zarządzania Wiedzą, nr 13, Bydgoszcz 2008, s.5-15.
Knappe H.: Nichtlineare Regelungstechnik und Fuzzy-Control.Renningen-Malmscheim,
BRD, Export Verlag 1994.
Kotarbiński T.: Elementy teorii poznania, logiki formalnej i metodologii nauk, PWN,
Warszawa 1986.
Lipińska M.3: Metoda transformacji zapytań na zapytania w standardzie SQL w bazach
danych. W: Materiały VIII Sesji Naukowej Informatyki., Szczecin 2003.
Piegat A.: Modelowanie i sterowanie rozmyte, Akademicka Oficyna Wydawnicza Exit,
Warszawa 1999.
Zadeh L.A.:Fuzzy sets. W: Infomation and Control, vol. 8, 1965. Pp.338-353.
ZadroŜny S.: Zapytania nieprecyzyjne i lingwistyczne podsumowanie baz danych,
Akademicka Oficyna Wydawnicza Exit, Warszawa 2006.
Publikacja własna pod poprzednim nazwiskiem
Magdalena Krakowiak
Analizator wnioskowania w rozmytym języku zapytań
105
ANALYSER OF INFERENCE IN FUZZY QUERY LANGUAGE
Summary
The paper presents a solution concerning of using approximate reasoning in
Decision Support System (DSS). Making in the work analysis, upon individual fuzzy
query definition and fuzzy logic rules definition, was presented algorithm of analyser
of inference. It is a part of query’s analyser in designed model of interactive query
language using fuzzy logic MELSQL.
Keywords: approximate reasoning, computer decisions making systems, fuzzy query language,
fuzzy logic rules, reasoning patterns MP, MT, UMP and UMT
Magdalena Krakowiak
Wydział Informatyki
Zachodniopomorski Uniwersytet Technologiczny
e-mail: [email protected]
106
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
ANNA LENART
Uniwersytet Gdański
KAPITAŁ INFORMACYJNY WARUNKIEM ZARZĄDZANIA WIEDZĄ
W DOBIE KRYZYSU FINANSOWEGO
Streszczenie
W czasach kryzysu finansowego organizacje powinny kształtować kapitał informacyjny. Posiadanie odpowiednich zasobów informacji i wiedzy przyczynia się do
podnoszenia wartości i wzrostu konkurencyjności organizacji. Sukces organizacji zaleŜy od odpowiedniego doboru i efektywnego wykorzystania posiadanych zasobów
w zarządzaniu organizacją. W tym zakresie moŜna stosować systemy planowania zasobów przedsiębiorstwa – ERP (Enterprise Resource Planning). Rozproszenie zasobów informacyjnych w organizacji i jej otoczeniu powoduje konieczność integracji
systemu ERP z systemem zarządzania zasobami informacyjnymi w przedsiębiorstwie
– ECM (Enterprise Content Management). Celem artykułu jest prezentacja moŜliwości i korzyści z integracji systemu SAP ERP z systemem IBM FileNet. Ponadto w artykule ukazano system ERP jako element kapitału informacyjnego oraz istotę i genezę systemów ECM.
Słowa kluczowe: system ERP, SAP ERP, system ECM, IBM FileNet, podejście zasobowe, kapitał
intelektualny, kapitał informacyjny, zarządzanie informacją, zarządzanie wiedzą
1. System ERP jako element kapitału informacyjnego
Zasoby są czynnikiem tworzenia przewagi konkurencyjnej i źródłem wartości przedsiębiorstwa. Ze struktury, jakości oraz umiejętności tworzenia optymalnych kombinacji zasobów wynika
potencjał przedsiębiorstwa. UtoŜsamiane są one „(…) z majątkiem firmy, jej umiejętnościami, procesami wewnętrznymi, jej atrybutami, informacjami i wiedzą, które są kontrolowane przez przedsiębiorstwo i dzięki którym moŜe ono realizować strategie prowadzące do skutecznego
i efektywnego działania”[1]. W literaturze najczęściej wymienia się następujące kategorie zasobów: zasoby finansowe, rzeczowe, rynkowe (marka, reputacja, lojalni klienci), własność intelektualna, ludzie, zasoby organizacyjne (kultura organizacyjna, systemy informacyjne) i zasoby relacyjne. Zasoby finansowe i rzeczowe to zasoby mierzalne, które stanowią rzeczową część przedsiębiorstwa. Pozostałe zasoby, określane jako niemierzalne, ukryte są w ludziach i stanowią społeczną
część przedsiębiorstwa (np. wiedza, kultura organizacyjna, reputacja, relacje z otoczeniem). Zasoby materialne moŜna nabywać i są ujmowane w bilansie. Zasoby niematerialne naleŜy rozwijać,
gdyŜ tworzą one kapitał intelektualny (intellectual capital), czyli „aktywa oparte na wiedzy, które
są własnością firmy i które w przyszłości będą źródłem korzyści dla firmy”[2].
Posiadane zasoby i stopień ich wykorzystania przedsiębiorstwo moŜe kontrolować stosując
systemy planowania zasobów przedsiębiorstwa – ERP (Enterprise Resource Planning). System
ERP to zestaw narzędzi informatycznych, który umoŜliwia zarządzanie zasobami organizacji oraz
kontrolę procesów biznesowych w czasie rzeczywistym [3]. „Systemy klasy ERP zdobywają coraz
Anna Lenart
Kapitał informacyjny warunkiem zarządzania wiedzą w dobie kryzysu finansowego
107
większą popularność z wielu powodów – pozwalają zniwelować szum informacyjny, optymalizują
przepływ danych oraz integrują dane (hurtownie danych, systemy szybkiego dostępu). Systemy te
słuŜą szybszemu znalezieniu słabych punktów przedsiębiorstwa oraz szans na jego rozwój”[4]. Do
korzyści wynikających z zastosowania systemów ERP1 zalicza się [6; 7; 8]:
•
•
•
•
•
•
poprawę płynności finansowej,
moŜliwość zastosowania dobrych praktyk w zakresie procesów biznesowych,
eliminację asymetrii informacji,
dostarczanie informacji dotyczących realizacji procesów biznesowych i wykorzystania zasobów w czasie rzeczywistym,
ułatwienie współpracy i komunikacji wewnątrz przedsiębiorstwa oraz z innymi przedsiębiorstwami,
zwiększenie kompetencji pracowników.
Podejście zasobowe (resource based approach) stało się dominującą szkołą myślenia o zarządzaniu organizacją w latach 90. ubiegłego wieku. Według podejścia zasobowego „róŜnice między
przedsiębiorstwami w osiąganych wynikach są rezultatem ich uposaŜenia w unikatowe zasoby,
które determinują ich pozycję konkurencyjną, dostępne strategie i rynki”[9]. W ramach tego nurtu
rozwinęło się szereg popularnych koncepcji zarządzania, np. organizacji uczącej się (learning organization) i zarządzania wiedzą (knowledge management). Największą wartością organizacji
uczącej się są pracownicy oraz ich przekonanie, Ŝe poprzez wymianę informacji wzbogacają swoją
wiedzę i swoje umiejętności, które mogą oddać firmie. Orientacja na zasoby niematerialne jest
związana z koncepcją zarządzania wiedzą, która oznacza „sztukę kreowania wartości z niematerialnych aktywów, którymi dysponuje organizacja”[2]. „Celem zarządzania wiedzą jest zwiększenie wartości dodanej kapitału intelektualnego”[4].
W czasach dynamicznego wzrostu wolumenu informacji, wiedza i zdolności twórcze człowieka stanowią główne źródło wartości dodanej i przewagi konkurencyjnej przedsiębiorstw. Informacje i wiedza istotne dla organizacji stanowią jej kapitał intelektualny. RóŜne koncepcje podziału
kapitału intelektualnego zaprezentowano w literaturze [10; 11; 12]. Kapitał intelektualny obejmuje
dwa elementy [12]: kapitał społeczny (kapitał ludzki i stosunki międzyludzkie w organizacji)
i kapitał organizacyjny (kapitał relacyjny, kapitał innowacyjny, kultura organizacyjna
i infrastruktura). Kapitał ludzki to wartość informacji i wiedzy posiadanych i tworzonych przez
pracowników organizacji, które umoŜliwiają wytwarzanie produktów i usług [13]. Kapitał organizacyjny obejmuje: własność intelektualną (pateny, prawa autorskie, znak handlowy) oraz aktywa
infrastrukturalne (np. kultura organizacyjna, procesy zarządzania, system informacyjny). Jest to
„wartość zasobów informacji i wiedzy, które nie znikają z organizacji wraz z odejściem pracowników”[13]. Infrastruktura informatyczna, stanowiąca część kapitału organizacyjnego, wpływa na
sprawność przebiegu procesów zarządzania informacją i wiedzą. Elementem kapitału organizacyjnego jest kapitał informacyjny rozumiany jako zasoby informacyjne dotyczące procesów biznesowych zachodzących w organizacji oraz w jej otoczeniu. Informacja pozwala w systemach informacyjnych tworzyć wartość dla organizacji [14; 15]. Zasoby informacyjne (dane, informacje, wiedza,
procedury, modele) stanowią kapitał niematerialny organizacji [13].
1
W artykule celowo pominięto opis systemu ERP w ujęciu procesów biznesowych na przykładzie systemu SAP ERP oraz
charakterystykę platformy SAP NetWeaver, poniewaŜ zagadnienia teŜ juŜ opisane w [5].
108
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Kształtowanie kapitału intelektualnego przedsiębiorstwa wymaga współdziałania wszystkich
jego elementów. Wartość wytworzona w wyniku interakcji wszystkich składników kapitału intelektualnego określana jest jako kapitał finansowy. Efektywne zarządzanie kapitałem intelektualnym
wymaga dostępu do informacji i wiedzy o organizacji i jej otoczeniu. Ponadto niezbędne jest zapewnienie narzędzi odnajdywania oraz udostępniania informacji i wiedzy.
W społeczeństwie informacyjnym do podstawowych zasobów zalicza się informację. Do najwaŜniejszych cech jakościowych informacji naleŜą [16]: dokładność, rzetelność, kompletność, aktualność, terminowość, istotność, zwięzłość i uŜyteczność. Informacja jest rodzajem zasobu, który
umoŜliwia poszerzanie wiedzy. Wiedza to niematerialne zasoby związane z ludzkim działaniem,
które odpowiednio zastosowane przyczyniają się do uzyskania przewagi konkurencyjnej. „Zdecydowanie więcej moŜna osiągnąć posiadając odpowiednią informację we właściwym czasie, niŜ
dysponując nawet ogromnym kapitałem, bez potrzebnych informacji”. (…) „Od posiadania odpowiednich informacji o organizacji i jej otoczeniu, zaleŜy efektywność całego procesu zarządzania”[16]. Istotność informacji dla funkcjonowania organizacji wymaga traktowania jej jako cennego zasobu, którym trzeba umiejętnie zarządzać.
Zarządzanie informacją w przedsiębiorstwie moŜe być postrzegane w róŜnych perspektywach
zarządzania [15]: zasobów przedsiębiorstwa i obszarów funkcjonalnych organizacji. Z perspektywy zasobów moŜna wyróŜnić: zarządzanie zasobami ludzkimi, zarządzanie finansami, zarządzanie
majątkiem trwałym, zarządzanie rzeczowym majątkiem obrotowym, zarządzanie informacją
i zarządzanie wiedzą. Perspektywa funkcji dotyczy zarządzania zaopatrzeniem, zarządzania produkcją, zarządzania dystrybucją i zarządzania marketingiem. Narzędziem wspierających organizację w procesie zarządzania informacjami w kaŜdej w wymienionych perspektyw są systemy ERP.
Istotą zarządzania zasobami informacyjnymi jest przekazywanie odbiorcom takich informacji,
na które zgłaszają zapotrzebowanie w związku z realizacją określonych celów. Skuteczność zarządzania zasobami informacyjnymi zaleŜy od spełnienia potrzeb informacyjnych uŜytkowników. Do
technologii gromadzenia i przetwarzania informacji w systemach informatycznych zalicza się najczęściej: bazy i hurtownie danych. Mogą to być równieŜ bazy procedur, bazy modeli, bazy wiedzy
i bazy dokumentów. W zakresie przesyłania i udostępnia informacji moŜna stosować technologie
sieciowe takie, jak: Internet, intranet i ekstranet. W systemach zarządzania zasobami informacyjnymi stosuje się równieŜ systemy wyszukiwawcze (information retrivial), które „są rodzajem systemów informacyjnych słuŜących do pozyskiwania, organizowania, wyszukiwania i udostępniania
informacji zgodnie z potrzebami informacyjnymi uŜytkowników” [17].
Warunkiem skutecznego zarządzania zasobami informacyjnymi jest wyznaczanie osób odpowiedzialnych za bezpieczeństwo informacji (np. przydzielanie uŜytkownikom praw dostępu do
informacji, polityka bezpieczeństwa, archiwizacja danych). Coraz większego znaczenia nabierają
równieŜ rozwiązania z zakresu ładu korporacyjnego i zgodności z przepisami (governance and
compliance). Konieczność stosowania tych rozwiązań wynika z faktu zwiększających się potrzeb
informacyjnych udziałowców firmy oraz rosnącej liczy uwarunkowań prawnych prowadzonej działalności (np. prawo lokalne i dyrektywy Unii Europejskiej). Rozwiązania te umoŜliwiają ustalenie
reguł dostępu do zasobów informacyjnych (element ładu korporacyjnego). Ponadto ich zadaniem
jest zapewnienie zgodności realizowanych w organizacji procesów biznesowych z wymogami prawa (np. kodeks pracy, ochrona środowiska, prawo bankowe).
Działaniami, które przyczyniają się do rozwoju kapitału informacyjnego, a tym samym kapitału intelektualnego, na poziomie organizacji są: realizacja koncepcji organizacji uczącej się oraz
Anna Lenart
Kapitał informacyjny warunkiem zarządzania wiedzą w dobie kryzysu finansowego
109
odpowiednie zarządzanie wiedzą. Wykorzystanie portalu korporacyjnego jako narzędzia zarządzania wiedzą w przedsiębiorstwie opisano w [19].
Aby stworzyć system zarządzania wiedzą organizacja musi posiadać odpowiednie zasoby informacji i wiedzy. System zarządzania wiedzą powinien integrować dostęp do aplikacji niezbędnych pracownikowi w toku realizacji określonych procesów biznesowych, a zatem ułatwiać realizację procesów, w których wykorzystuje się nabytą wiedzę. Z drugiej strony realizacja procesów
biznesowych wymaga dostarczania odpowiednich usług komunikacyjnych i aplikacji [18]. Jedną
z technologii informatycznych stosowanych w zarządzaniu wiedzą są systemy zarządzania zasobami informacyjnymi przedsiębiorstwa.
2. Istota i geneza systemów ECM
Informacja i jej obieg oraz prezentacja mają podstawowe znaczenie dla funkcjonowania organizacji. W dobie rozwoju technologii informatycznych i globalnej gospodarki organizacje mają
problemy wynikające z nadmiaru informacji i wydłuŜenia czasu odnajdywania potrzebnych informacji. Wzrost znaczenia zarządzania informacją przyczynił się do rozwoju systemów zarządzania
treścią (zawartością) – CMS (Content Management Systems).
Zarządzanie treścią „polega na optymalizacji kontroli nad tworzeniem i dystrybucją informacji
oraz funkcjonalności wszelkich rozwiązań słuŜących tym procesom” [20]. Termin content management powinien być tłumaczony jako „zarządzanie (elektronicznymi) zasobami informacyjnymi”
[21]. W cyklu Ŝycia zasobów informacyjnych wyróŜnia się: tworzenie, weryfikację, zarządzanie,
integrację i dystrybucję. System zarządzania treścią to „oprogramowanie, które umoŜliwia generowanie i publikowanie treści w określonym środowisku oraz późniejsze nią zarządzanie” [20]. RóŜnorodność potrzeb informacyjnych organizacji spowodowała konieczność wyodrębnienia wielu
koncepcji systemów CMS. Najczęściej stosowane rodzaje systemów klasy CMS to [20; 21]:
•
•
•
•
•
system zarządzania dokumentami – DMS (Document Management System),
system zarządzania transakcjami elektronicznymi – TCMS (Transactional CMS),
system zarządzania treścią szkoleniową – LCMS (Learning CMS),
system zarządzania treścią witryny internetowej – WCMS (Web CMS),
system zarządzania zasobami informacyjnymi w przedsiębiorstwie – ECM (Enterprise
Content Management).
Wymienione rozwiązania moŜna stosować w powiązaniu z systemami ERP. Obieg dokumentów jest podstawową technologią w systemach ERP (np. obieg dokumentów dotyczących zlecenia
sprzedaŜy). Systemy TCMS mogą być zintegrowane z systemami ERP w zakresie gospodarki magazynowej (realizacja zamówienia) i rachunkowości (wystawianie faktury) w przypadku rejestracji
zamówienia w sklepie internetowym. System LMCS moŜe być stosowany w systemach ERP w ramach szkoleń elektronicznych dla pracowników. System WCMS moŜna zastosować do utworzenia
witryny firmowej.
ECM to zintegrowany system zarządzania zasobami informacyjnymi, którego celem jest zarządzanie dokumentami, praca grupowa, zarządzanie transakcjami elektronicznymi, zarządzanie
treścią szkoleniową dla pracowników, zarządzanie treścią witryn internetowych, zarządzanie procesami biznesowymi – BPM (Business Process Management), zarządzanie danymi biznesowymi
110
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
przechowywanymi w bazach danych oraz technologie integracji i wymiany tych danych. Systemy
BPM odpowiadają za automatyzację, optymalizację i monitorowanie procesów (np. obsługa kontraktów, obsługa faktur, obsługa klienta i publikowanie w Internecie) oraz zgodność z przepisami
prawa (np. ochrona środowiska) i procedurami wewnętrznymi (np. procedura rekrutacji).
Ramy terminologiczne określenia ECM oraz miejsce wśród innych metod i koncepcji zarządzania informacjami zaprezentowano w literaturze [21]. Zarządzanie zasobami informacyjnymi
w przedsiębiorstwie zostało zdefiniowane przez stowarzyszenie AIIM (Association for Information
and Image Management International) jako technologie, narzędzia i metody ujęcia, kierowania,
przechowywania, zabezpieczania i dostarczania zawartości (informacji, treści i dokumentów) wewnątrz przedsiębiorstwa oraz zarządzania i integracji tradycyjnych nośników informacji i dokumentów z elektroniczną informacją [20; 21].
W literaturze prezentowane są róŜne koncepcje ECM. Z punktu widzenia zarządzania cyklem
Ŝycia informacji – ILM (Information Lifecycle Management) oraz integracji treści ECM to jednolite repozytorium zasobów informacyjnych. ECM moŜe być równieŜ traktowane jako usługa dostępna z poziomu róŜnych aplikacji. Inna koncepcja traktuje ECM jako oprogramowanie pośredniczące
(middleware), które wykorzystuje takie technologie, jak: architektura zorientowana na usługi –
SOA (Service Oriented Architecture), usługi sieciowe (web services) oraz inne narzędzia słuŜące
do integracji aplikacji w przedsiębiorstwie – EAI (Enterprise Application Integration) [20].
Decydując się na wdroŜenie systemu ECM „organizacja zyskuje narzędzie, które umoŜliwia
sprawne zarządzanie informacjami, a procesy decyzyjne stają się bardziej czytelne i mogą być
szybciej realizowane”[20]. Koncepcja ECM podkreśla strategiczny charakter informacji i jest elementem zarządzania strategicznego, poniewaŜ koncentruje się przede wszystkim na treści informacji, która kreuje jej wartość dodaną, a nie tylko na jej formie [21]. „Zarządzanie elektronicznymi
zasobami informacyjnymi uzupełnia zarządzanie informacjami nie tylko o analizę treści udostępnianej informacji, ale takŜe o szerszy punkt widzenia: analizę wielu procesów przyczyniających się
do powstania i rozpowszechniania informacji”[21]. Jest to rozwiązanie potrzebne szczególnie w
warunkach globalizacji rynku, kryzysu finansowego i turbulentnych zmian w otoczeniu organizacji.
3. MoŜliwości i korzyści z integracji systemów SAP ERP i IBM FileNet
Zasadniczym zadaniem systemów ECM jest udostępnianie uŜytkownikom zasobów informacyjnych przechowywanych w róŜnych aplikacjach przedsiębiorstwa oraz w Internecie. Z badań
przeprowadzonych przez firmę Gartner Group wynika, Ŝe pracownicy poświęcają 10-50% czasu
pracy na wyszukiwanie informacji i dokumentów, a tylko 5-15% czasu na czytanie dokumentów.
Ponadto dokumenty są wielokrotnie drukowane i powielane [22].
Zintegrowane środowisko IBM FileNet obejmuje trzy obszary związanie z zawartością, procesami i zgodnością z przepisami. Obszar związany z zawartością umoŜliwia: skanowanie, archiwizację, tworzenie i zarządzanie dokumentami oraz zarządzanie treścią witryn internetowych, a takŜe
współpracę. Obszar procesów umoŜliwia przepływy procesów oraz ich symulację i analizę, a takŜe
obsługę formularzy elektronicznych. Obszar, który zapewnia zgodność z przepisami odpowiada za
obsługę dokumentów rejestrowanych, poczty elektronicznej oraz odpowiada na bezpieczeństwo
systemu (w tym kontrolę dostępu) [22].
Moduły systemu IBM FileNet opisano w tabeli 1. Najczęściej rozwiązania wdraŜane z uŜyciem systemu IBM FileNet umoŜliwiają: zarządzanie dokumentami i wyszukiwanie dokumentów,
Anna Lenart
Kapitał informacyjny warunkiem zarządzania wiedzą w dobie kryzysu finansowego
111
zarządzanie cyklem Ŝycia dokumentu, archiwizację elektroniczną oraz zarządzanie pocztą elektroniczną.
Tabela 1. Moduły systemu IBM FileNet
Moduł
Business Process Menager
Content Menager
Email Manager
Image Manager
Forms Manager
Records Manager
Team Collaboration
Manager
WebContent
Manager
Przeznaczenie
Projektowanie, zarządzanie, analiza i optymalizacja procesów biznesowych;
Obsługa transakcji i uŜytkowników;
Monitorowanie procesów w czasie rzeczywistym;
Symulacja procesów;
Zarządzanie dokumentami elektronicznymi i cyklem ich
Ŝycia;
Zarządzanie funkcjami kontroli, współdzielenia, dostępu i
wyszukiwania dokumentów elektronicznych w dowolnym
formacie i z róŜnych źródeł
Archiwizacja, zarządzanie i wykorzystanie poczty elektronicznej do uruchamiania procesów biznesowych;
Zarządzanie, archiwizacja, wyszukiwanie i przeglądanie,
obrazów dokumentów;
Projektowanie, wdraŜanie, wykorzystanie i zarządzanie formularzami elektronicznymi;
Zarządzanie cyklem Ŝycia dokumentów;
Integracja procesów, dokumentów i informacji
dla potrzeb pracy grupowej;
Automatyzacja tworzenia, zatwierdzania i publikacji dokumentów na stronach internetowych;
Źródło: Opracowanie własne na podstawie [22].
Ideą systemów ECM jest zwiększenie efektywności i zasięgu przepływu zasobów informacyjnych bez konieczności angaŜowania pracowników działu IT. System tej klasy zapewnia aktualność
informacji publikowanych na stronach internetowych organizacji oraz ułatwia dostęp do zasobów
informacyjnych pracownikom, klientom i partnerom handlowym.
Do zalet systemu IBM FileNet zalicza się równieŜ architekturę oparta na standardach technologicznych (np. HTML/XML, BPMN/BPEL), skalowalność i elastyczność architektury oraz wysoki poziom zabezpieczeń zasobów informacyjnych i zgodność z regulacjami prawnymi. Korzyści
z zastosowania poszczególnych modułów systemu IBM FileNet zaprezentowano w tabeli 2.
System IBM FileNet moŜna zintegrować z systemem SAP ERP w celu zwiększenia efektywności pracy uŜytkowników systemu SAP ERP oraz pozostałych pracowników korzystających
z innych aplikacji, a takŜe poszerzenia zakresu zastosowania tego systemu i zmniejszenia obciąŜenia bazy danych. W przypadku integracji dokumenty i informacje mogą być udostępniane takŜe
poza systemem SAP ERP. UŜytkownik systemu SAP ERP moŜe równieŜ korzystać z dodatkowych
zewnętrznych źródeł informacji i usług [23].
Obszary integracji systemu SAP ERP z systemem IBM FileNet mogą dotyczyć: zarządzania
dokumentami (w tym archiwizacji i skanowania), zarządzania procesami biznesowymi, zarządzania
wiedzą z uŜyciem portalu korporacyjnego [19] i zarządzania zawartością portalu korporacyjnego
oraz zarządzania cyklem Ŝycia dokumentów.
112
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela 2. Korzyści z zastosowania modułów systemu IBM FileNet
Moduł
Business Process Manager (BPM)
Content Manager (CM)
Email Manager (EM)
Image Manager (IM)
Forms Manager (FM)
Records Manager (RM)
Team Collaboration
Manager (TCM)
WebContent Manager
(WCM)
Korzyści
Zwiększenie wydajności procesów,
Skrócenie czasu realizacji procesów;
Integracja z modułami CM i IM
Wykorzystanie informacji i dokumentów elektronicznych
dla potrzeb biznesowych;
Integracja zarządzania informacją i dokumentami
z automatyzacją procesów (BPM);
Integracja z innymi aplikacjami;
Dostęp do dokumentów przez przeglądarkę internetową;
Wykorzystanie poczty elektronicznej dla potrzeb automatyzacji procesów;
Archiwizacja listów elektronicznych i załączników;
Monitorowanie poczty elektronicznej (element ładu korporacyjnego)
Zarządzanie i szybki dostęp do skanowanych dokumentów,
faksów, poczty elektronicznej, plików multimedialnych,
wydruków itp.;
Archiwizacja dokumentów zgodna z ustawą o rachunkowości, prawem bankowym itp.
Wykorzystanie formularzy elektronicznych dla potrzeb
wprowadzania danych oraz jako aplikacji do sterowania
przebiegiem procesów biznesowych (BPM);
Wymiana i przekazywanie danych w pracy grupowej
Automatyzacja procesu zarządzania dokumentami rejestrowanymi;
Zapewnienie zgodności z wymogami ładu korporacyjnego;
Tworzenie kopie dokumentów o istotnym znaczeniu dla
firmy;
Wspomaganie pracy grupowej poprzez współdzielenie
zasobów informacji, wymianę dokumentów i realizację
procedur;
Optymalne wykorzystanie zasobów ludzkich;
Synchronizacja działań zespołów projektowych;
Tworzenie, zatwierdzanie i publikacja zawartości stron
internetowych z wykorzystaniem zautomatyzowanych procesów i systemu zarządzania dokumentami
Źródło: Opracowanie własne na podstawie [22].
W zakresie zarządzania dokumentami stosuje się Application Connector for SAP, który umoŜliwia integrację systemu SAP ERP z platformą integracyjno-aplikacyjną SAP NetWeaver i systemem IBM FileNet. Rozwiązanie to stosowane jest w celu archiwizacji danych i dokumentów
z systemu SAP ERP z wykorzystaniem modułu ArchiveLink oraz integracji systemu SAP z systemami skanowania dokumentów. Korzyści z rozszerzenia moŜliwości funkcjonalnych systemu
SAP ERP w tym zakresie to [23]:
•
ograniczenie kosztów zuŜycia papieru w wyniku archiwizacji dokumentów i wydruków;
Anna Lenart
Kapitał informacyjny warunkiem zarządzania wiedzą w dobie kryzysu finansowego
•
•
•
•
•
113
usprawnienie procesów biznesowych w wyniku skanowania dokumentów i uŜywania obrazów dokumentów w systemie SAP ERP (np. faktury od dostawców);
podniesienie efektywności pracy pracowników, którzy mają szybki dostęp do informacji
i dokumentów z róŜnych aplikacji poprzez centralne repozytorium danych i dokumentów;
zwiększenie szybkości działania bazy danych systemu SAP ERP poprzez wyodrębnienie
procesów archiwizacji i ograniczenie liczby wprowadzanych danych oraz drukowanych
dokumentów;
zapewnienie zgodności z przepisami poprzez spełnienie wymogu długoterminowego przechowywania dokumentów wynikającego z ustawy o rachunkowości;
lepsze zabezpieczenie dokumentów elektronicznych, dzięki moŜliwości ograniczenia praw
dostępu do folderów, w których przechowywane są dokumenty.
W przypadku wykorzystania w organizacji portalu korporacyjnego w zakresie zarządzania
wiedzą moŜna równieŜ zastosować rozwiązania z zakresu zarządzania zawartością portalu
i usprawnić publikowanie danych na stronach portalu korporacyjnego. System IBM FileNet (moduły Content Manager i WebContent Manager) naleŜy w tym obszarze zastosowania zintegrować
z komponentem platformy SAP NetWeaver (komponent SAP Enterprise Portal). Korzyści z zastosowania systemu IBM FileNet w tym zakresie to [23]: poprawa efektywności pracy, udostępnianie
tego systemu przez portal korporacyjny oraz integracja z procesami biznesowymi realizowanymi
w systemach innych producentów niŜ firma SAP.
W zakresie zarządzania procesami biznesowymi moŜna zintegrować system SAP ERP (narzędzie SAP Business Work/Webflow) poprzez platformę SAP NetWeaver (komponent SAP Exchange Infrastructure) z systemem IBM FileNet (moduł BPM). Dzięki temu organizacja zyskuje moŜliwość realizacji procesów biznesowych w systemie SAP ERP przez zewnętrznych uŜytkowników
oraz z uŜyciem zewnętrznych systemów. Przykładowe zastosowania tego rodzaju integracji w róŜnych obszarach zarządzania z uŜyciem systemu SAP ERP mogą dotyczyć np.: zatwierdzania faktury (rachunkowość), zmiany danych kontraktu (sprzedaŜ), zgłoszenia zakończenia kontroli jakości
produktu (zarządzanie jakością), przypomnienia o konieczności konserwacji maszyny (utrzymanie
zakładu), obsługi kandydatów do pracy (rekrutacja) i zatwierdzanie kosztów podróŜy (zasoby
ludzkie).
W obszarze zarządzania cyklem Ŝycia dokumentów system SAP ERP moŜna zintegrować
z systemem IBM FileNet przez platformę SAP NetWeaver (komponent SAP Master Data Management). Dzięki temu moŜna przechowywać w systemie IBM FileNet dokumenty rejestrowane
w systemie SAP ERP i w innych systemach. Ponadto moŜna udostępniać informacje pochodzące
z innych aplikacji.
W tabeli 3 zaprezentowano efekty integracji systemu SAP ERP z modułami systemu IBM FileNet.
114
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela 3. Efekty integracji systemu SAP ERP z systemem IBM FileNet
Zakres integracji
Integracja z modułem BPM
Integracja z modułem CM
Integracja z modułem IM
Integracja z modułem RM
Integracja z modułem WCM
Efekt
Wykorzystanie zarządzania procesami biznesowymi
wewnątrz i na zewnątrz systemu SAP ERP
Wykorzystanie systemu IBM FileNet jako centralnego
repozytorium danych i dokumentów dla systemu SAP
ERP
Skanowanie i archiwizacja dokumentów dla potrzeb
systemu SAP ERP
Wykorzystanie zasobów IBM FileNet dla potrzeb
systemu SAP ERP
Wykorzystanie zasobów zewnętrznych dla potrzeb
portalu korporacyjnego stosowanego przez uŜytkowników systemu SAP ERP
Źródło: Opracowanie własne na podstawie [22].
Zainteresowanie organizacji systemami ECM wynika z duŜej liczby zasobów informacyjnych
niezbędnych w bieŜącej pracy oraz konieczności automatyzacji procesów biznesowych, w których
te zasoby są stosowane. Ponadto organizacje muszą stosować odpowiednie systemy zabezpieczeń
i kontroli dostępu do zasobów informacyjnych oraz funkcjonować zgodnie z przepisami i regulacjami branŜowymi.
WdroŜenia systemu IBM File Net jako rozszerzenia systemu SAP ERP zostały juŜ przeprowadzone m.in.: w instytucji finansowej (ING Bank Śląski S.A.), towarzystwie ubezpieczeniowym
(PZU śycie S.A.) oraz w firmie telekomunikacyjnej (Telekomunikacja Polska SA).
W wyniku integracji systemu SAP ERP z róŜnymi modułami systemu IBM FileNet uŜytkownicy otrzymują nową jakość poprzez rozszerzenie funkcjonalne i technologiczne systemu w wyniku
udostępniania zewnętrznych zasobów informacyjnych i procesów biznesowych (np. zamówienia
on-line). Wpływa to na obniŜenie kosztów operacyjnych, zwiększenie wydajności pracy oraz standaryzację rozwiązań informatycznych i zapewnienie funkcjonowania organizacji w zgodności
z przepisami. Ponadto następuje poprawa zarządzania relacjami z interesariuszami, którzy mają
zapewniony dostęp do zasobów informacyjnych oraz moŜliwość ich personalizacji.
4. Podsumowanie
W dobie kryzysu finansowego organizacje powinny rozwijać kapitał informacyjny. Systemy
informacyjne (np. systemy ERP) wspierają realizację procesów biznesowych oraz udostępniają
pracownikom zasoby informacyjne. W przedsiębiorstwach ery wiedzy pracownicy poszukują informacji w róŜnych aplikacjach wewnątrz firmy oraz w jej otoczeniu.
W artykule zaprezentowano wykorzystanie systemu zarządzania zasobami informacyjnymi
(ECM) jako rozszerzenia systemu ERP, na przykładzie stosowanych w róŜnych organizacjach rozwiązań firm SAP (SAP ERP) i IBM (IBM FileNet).
Efektywne zarządzanie zasobami informacyjnymi przyczynia się do wzrostu wartości organizacji z punktu widzenia interesariuszy oraz do kształtowania jej kapitału informacyjnego.
Anna Lenart
Kapitał informacyjny warunkiem zarządzania wiedzą w dobie kryzysu finansowego
115
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
Godziszewski B.: Zasobowe uwarunkowania strategii przedsiębiorstwa, WUMK, Toruń
2001.
Jarugowa A., Fijałkowska J.: Rachunkowość i zarządzanie kapitałem intelektualnym –
koncepcje i praktyka, ODDK, Gdańsk 2002.
Turban E., Leidner D., McLean E., Wetherbe J.: Information Technology for
Management. Transforming Organizations in the Digital Economy, John Wiley & Sons,
New York 2007.
Lenart A.: Systemy ERP a modelowanie procesów biznesowych.W: Zarządzanie
przedsiębiorstwem w warunkach rozwoju wysokich technologii, pod red. S. Lachiewicza
i A. Zakrzewskiej-Bielawskiej, Monografie Politechniki Łódzkiej, Łódź 2008, s. 297-304.
Olszewska B. (red.): Podstawy zarządzania przedsiębiorstwem na progu XXI wieku,
WAE, Wrocław 2007.
Hamilton S.: Maximizing Your ERP System. A Practical Guide for Managers, McGrawHill, New York 2003.
Lenart A.: Zintegrowane systemy informatyczne klasy ERP, WUG, Gdańsk 2005.
Mabert V.A., Watts Ch. A.: Enterprise Applications: Building Best-of-Breed Systems. In:
Bendley E., Jacobs F. R. (eds.): Strategic ERP Extensions and Use, Stanford University
Press, Stanford 2005, pp. 52-70.
Głuszek E.: Zarządzanie zasobami niematerialnymi przedsiębiorstwa, WAE, Wrocław
2004.
Edvinsson L., Malone M.S.: Kapitał intelektualny, PWN, Warszawa 2001.
Kasiewicz S., Rogowski W., Kicińska M.: Kapitał intelektualny. Spojrzenie
z perspektywy interesariuszy, Oficyna Wydawnicza, Kraków 2006.
Sopińska A.: Wiedza jako strategiczny zasób przedsiębiorstwa. Analiza i pomiar kapitału
intelektualnego, SGH, Warszawa 2008.
Kisielnicki J.: MIS – Systemy informatyczne zarządzania, Placet, Warszawa 2008.
Dziuba D.T.: Metody ekonomiki sektora informacyjnego, Difin, Warszawa 2007.
Zygała R.: Podstawy zarządzania informacją w przedsiębiorstwie, WAE, Wrocław 2007.
Kardas J. S., Wójcik-Augustyniak M. (red.): Zarządzanie w przedsiębiorstwie –
środowisko, procesy, systemy, zasoby, Warszawa, Difin 2008
Abramowicz W.: Filtrowanie informacji, WAE, Poznań 2008.
Gołuchowski J.: Technologie informatyczne w zarządzaniu wiedzą w organizacji, WAE,
Katowice 2005.
Lenart A.: Systemy ERP a zarządzanie wiedzą. W: Bojar W. (red.), „Studia i Materiały
Polskiego Stowarzyszenia Zarządzania Wiedzą” nr 13, Polskie Stowarzyszenie
Zarządzania Wiedzą, Bydgoszcz 2008, s. 138-146.
Olszak C.M., Ziemba E. (red.): Strategie i modele gospodarki elektronicznej, PWN,
Warszawa 2007.
Ćwiklicki M.: Enterprise Content Management. W: Galant V., Perechuda K. (red.):
Modele i metody zarządzania informacją i wiedzą, WAE, Wrocław 2005, s. 115-122.
Mazurkiewicz W.: Zintegrowane rozwiązanie do zarządzania dokumentami i procesami
biznesowymi IBM FILENET P8, IBM Polska, Gdańsk 2008 (wersja elektroniczna).
116
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
23. Mazurkiewicz W.: IBM FILENET P8 - rozwiązania wspierające system SAP, IBM
Polska, Gdańsk 2008 (wersja elektroniczna).
INFORMATION CAPITAL AS A CONDITION OF KNOWLEDGE MANAGEMENT IN
THE FINANCIAL CRISIS TIMES
Summary
In the conditions of financial crisis organizations should create information
capital. Possession of suitable information and knowledge resources contributes to
increasing the value and the growth of the competitiveness of the organization. The
success of the organization depends on suitable selection and effective usage of possessed resources in the organization management. In this range Enterprise Resource
Planning systems can be used. Dispersion of information resources in the organization and its surroundings results the necessity of the integration of ERP system with
Enterprise Content Management system. The goal of this paper is presentation of
possibilities and advantages of integration of SAP ERP system with IBM FileNet system. ERP system as the element of information capital and also the essence and the
origin of ECM were shown.
Keywords: ERP system, SAP ERP, ECM system, IBM FileNet, resource based approach, intellectual capital, information capital, information management, knowledge management
Anna Lenart
Uniwersytet Gdański
e-mail: [email protected]
Rafał Mazur, Leonid Worobjow
Zarządzanie wiedzą w przedsiębiorstwie, jako warunek rozwoju innowacyjnego
117
RAFAŁ MAZUR,
LEONID WOROBJOW
Zachodniopomorski Uniwersytet Technologiczny
ZARZĄDZANIE WIEDZĄ W PRZEDSIĘBIORSTWIE, JAKO WARUNEK
ROZWOJU INNOWACYJNEGO
Streszczenie
Coraz większe znaczenie w efektywnym zarządzaniu odgrywają innowacje. Warunkiem generowania innowacji jest posiadanie przez twórców adekwatnych do specyfiki potrzeb zasobów wiedzy. W artykule wskazano na znaczenie podnoszenia kwalifikacji pracowników i źródła uzyskiwania róŜnych danych i informacji słuŜących
temu celowi. Przedstawiono równieŜ sytuację występującą w badanych przedsiębiorstwach zlokalizowanych w województwie zachodniopomorskim.
Słowa kluczowe: innowacje, zarządzanie wiedzą, rozwój przedsiębiorstw
1. Wprowadzenie
Na obecnym, bardzo konkurencyjnym rynku, przedsiębiorstwa mogą przetrwać w długim okresie
i realizować swoje podstawowe cele wyłącznie pod warunkiem permanentnego wzrostu i rozwoju.
O ile pierwszy element, tzn. wzrost, stanowi jedynie kategorię ilościową, o tyle drugi z nich, czyli
rozwój, jest przede wszystkim zjawiskiem jakościowym i oznacza skoordynowane zmiany systemów
przedsiębiorstwa, dostosowujące firmę do stale zmieniającego się otoczenia, w tym ciągle wzrastających potrzeb i wymagań konsumentów.
Jak zauwaŜa Z. Pierścionek, rozwój organizacji gospodarczej oznacza głównie następujące
zmiany1:
• wprowadzanie nowych elementów,
• poprawę jakości istniejących elementów,
• przekształcenie struktur systemów.
Charakter rozwoju – podobnie jak wzrostu – moŜe być przy tym celowy bądź przypadkowy, ciągły lub skokowy, postępowy albo wsteczny, samoistny bądź wymuszony2.
Konieczne jest więc tworzenie nowych rozwiązań, które będą prowadziły firmy do osiągania
strategicznych celów. JednakŜe bardzo mało prawdopodobne jest, aby innowacje powstawały samorzutnie. Potrzebne jest świadome, przemyślane postępowanie człowieka lub grupy ludzi, mające
na celu wprowadzenie przedsiębiorstwa na wyŜszy poziom rozwoju. Zasoby ludzkie, są zatem kluczowym elementem w procesie powstawania innowacji i wokół nich koncentrują się czynniki, które mają istotny wpływ na to, czy firma rozwija się i coraz lepiej zaspokaja zmieniające się potrzeby
otoczenia.
Bardzo waŜną grupą czynników wpływających na moŜliwość tworzenia innowacji są czynniki
1
2
Z. Pierścionek, Strategie rozwoju firmy, PWN, Warszawa 1996, s. 11.
J. Machaczka, Zarządzanie rozwojem organizacji. Czynniki, modele, strategia, diagnoza, PWN, Warszawa-Kraków 1998, s. 13.
118
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
odnoszące się do wiedzy potencjalnych wynalazców, czyli w zasadzie do wszystkich pracowników
firmy. W przypadku, gdy posiadają oni mały zasób wiedzy o jakiejś dziedzinie i rozwiązaniach
w niej stosowanych, dojście do nowych rozwiązań jest wręcz niemoŜliwe. Gdyby natomiast korzystali z literatury fachowej, mogliby zapoznawać się z licznymi rozwiązaniami stosowanymi w danej
branŜy. Wówczas prawdopodobieństwo, Ŝe będą na tej podstawie uzyskiwać nowe rozwiązania jest
o wiele większe. Dlatego warto, aby osoby pracujące na rzecz rozwoju firmy mieli dostęp do róŜnych danych i informacji, na bazie których mogą tworzyć nowe rozwiązania. Powinni równieŜ stale
zwiększać zasoby swojej wiedzy, biorąc udział w róŜnych szkoleniach, kursach, a takŜe edukując
się samodzielnie, o czym będzie mowa w dalszej części artykułu.
Celem niniejszego artykułu jest przeanalizowanie sytuacji w zakresie szerzenia wiedzy i moŜliwości dostępu do niej w przedsiębiorstwach zlokalizowanych na terenie województwa zachodniopomorskiego oraz wykazanie, Ŝe zarządzanie zasobami wiedzy moŜe w istotny sposób przyczynić się do rozwoju firm.
2. Wiedza i jej źródła
Na wiedzę składają się dane oraz informacje. Dane definiuje się jako niepołączone ze sobą
fakty. W znaczeniu ogólnym naleŜy przez nie rozumieć zestaw pojedynczych, obiektywnych faktów o jakimś wydarzeniu. Natomiast w kontekście organizacyjnym dane są sformalizowanymi zapisami dokonywanych transakcji lub znakami i obserwacjami, zapisanymi na jakimś nośniku. Informacje natomiast to dane, poddane kategoryzacji i klasyfikacji lub w inny sposób uporządkowane. Informacja ma nadawcę i odbiorcę, a jej podstawową rolą jest zmiana sposobu, w jaki odbiorca
postrzega pewne zjawiska. Informacja ma przez to wpływ na jego osąd i zachowanie, co odróŜnia
ją od danych3.
Posiadanie obszernej wiedzy teoretycznej na dany temat, popartej bogatym doświadczeniem
prowadzi do mądrości (rys. 1). Dane i informacje cechuje niski stopień zrozumienia zagadnień,
natomiast wiedza i mądrość odzwierciedla wysoki stopień zrozumienia zagadnień, co jest moŜliwe
do osiągnięcia przy udziale ludzi, w przeciwieństwie do danych i informacji, które mogą być ulokowane na róŜnych nośnikach.
Zdobycie wiedzy i dojście do mądrości w naszych przedsiębiorstwach moŜe pozwolić na osiągnięcie wyŜszego poziomu konkurencyjności polskiej gospodarki na świecie. Pomóc w tym moŜe
zarządzanie wiedzą. Pod tym pojęciem kryje się wiele znaczeń. R. Szczepanik zauwaŜa, Ŝe zarządzanie wiedzą to stosunkowo nowa dziedzina przedsiębiorczości. Rozwinęła się dopiero w latach
90, kiedy menedŜerowie zorientowali się, iŜ w ich komputerach znajdują się miliony plików, półki
uginają się pod cięŜarem dokumentów i ksiąŜek, ale kiedy pojawia się konieczność wykorzystania
konkretnych danych, nie sposób do nich dotrzeć. Często zdarza się, Ŝe jeden dział lub firma pracuje nad czymś, co stworzyła juŜ wcześniej inna komórka - tyle, Ŝe nikt o tym nie wie. Zarządzanie
wiedzą ma zapobiegać takim patologiom - poprzez profesjonalne zbieranie, przetwarzanie i rozprowadzanie posiadanych przez firmę informacji. Ale takŜe dzięki analizie i syntezie zasobów
przygotowanych w taki sposób, by były łatwe do zrozumienia i wykorzystania4.
3
Gospodarka oparta na wiedzy-stan, diagnoza i wnioski dla Polski, Ekspertyza Instytutu Zarządzania Wiedzą w Krakowie na zlecenie Departamentu Strategii Gospodarczej Ministerstwa Gospodarki, Warszawa-Kraków 2002, s. 13-14.
4
R. Szczepanik, Nie wiesz, ile wiesz, „Businessman Magazine” 1999, nr 5.
Rafał Mazur, Leonid Worobjow
Zarządzanie wiedzą w przedsiębiorstwie, jako warunek rozwoju innowacyjnego
119
ZaleŜy od
kontekstu
MĄDROŚĆ
LUDZIE
WIEDZA
INFORMACJA
SYSTEMY IT
Nie zaleŜy
od kontekstu
DANE
Niski stopień zrozumienia
całego zagadnienia
Wysoki stopień zrozumienia
całego zagadnienia
Rys. 1. Dane, informacje, wiedza i mądrość – porównanie
Źródło: Gospodarka oparta na wiedzy …, op.cit.
Pracownicy powinni mieć dostęp do tzw. źródeł inwencji (pomysłów), do których moŜna zaliczyć:
• Przede wszystkim klientów przedsiębiorstwa, którzy bardzo często wskazują co powinno
się zmienić, jak powinien ewoluować produkt, firma itp. Poza tym róŜne firmy z otoczenia takie
jak: dostawcy czy konkurenci.
• Wyniki współpracy z placówkami naukowo-badawczymi (PAN, uczelniami wyŜszymi,
branŜowymi instytucjami badawczymi). Jak wynika z przeprowadzonych badań, taka współpraca
podejmowana jest najczęściej z konieczności (w ostateczności), gdy firmy nie mogą uporać się
z jakimś problemem. Warto, aby była ona prowadzona permanentnie, a jej wyniki udostępniane.
• Informacje dotyczące wdroŜonych projektów w danym przedsiębiorstwie, a takŜe w miarę
moŜliwości innych firmach – chodzi o to, aby pracownicy zainteresowani rozwiązaniem jakiegoś problemu mogli zorientować się, jakie działania w tym zakresie zostały podjęte przez innych i jakie dały one
rezultaty. Jest to konieczne, aby uniknąć powtórzenia niekiedy Ŝmudnych i trudnych działań, a co za tym
idzie przyspieszyć opracowanie nowego rozwiązania.
• Dostęp do fachowych czasopism i literatury – co pozwala zorientować się w najnowszych trendach i rozwiązaniach stosowanych na świecie. Dostęp taki mógłby być realizowany poprzez biblioteki firmowe. WaŜne jest, aby mieć dostęp do jak najnowszych rozwiązań. Bowiem jak
zauwaŜa L. Worobjow, połowa wiedzy starzeje się w przeciągu 3-5 lat5.
• Dostęp do opisów patentowych, które dają moŜliwości zapoznania się z obecnym stanem
techniki, a niejednokrotnie stwarzają takŜe moŜliwość zastosowania jakiegoś rozwiązania, które nie
5 L. Worobjow, Produktywność i efektywność przedsiębiorstwa, Seria: Studia i Materiały, Polskiego Stowarzyszenie
Zarządzania Wiedzą, Tom 5, Bydgoszcz 2006, s. 131.
120
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
jest juŜ chronione. Informacja patentowa stanowi wyspecjalizowaną dziedzinę informacji naukowotechnicznej i ekonomicznej. Obejmuje ona zbiór wiadomości o zgłoszonych do ochrony przemysłowych dobrach niematerialnych np. wynalazkach, wzorach przemysłowych, uŜytkowych. Zawiera takŜe wiadomości o dokumentach ochronnych dotyczących tych przedmiotów i prawach ich właścicieli.
Dostęp taki moŜna uzyskać chociaŜby poprzez internetowe bazy Urzędu Patentowego RP czy Europejskiego Urzędu Patentowego, co nie wymaga duŜych nakładów.
• Porównywanie się z najlepszymi – zakłada to benchmarking, który polega na konfrontowaniu własnej organizacji z innymi, działającymi w róŜnych krajach i obsługujących róŜne rynki
oraz wyciąganie wniosków i przeobraŜanie własnej firmy.
Zarządzanie wiedzą w przedsiębiorstwach naleŜy traktować jako prowadzenie stałej, zorganizowanej działalności, której istotą powinno być:
1) powodowanie, by pracownicy firm - takŜe nie zajmujący się profesjonalnie informacją chcieli, umieli i mogli gromadzić oraz wykorzystywać informacje stosownie do swojego miejsca i
roli w tym przedsiębiorstwie,
2) gromadzenie informacji z zewnątrz i wewnątrz przedsiębiorstw, zarówno oficjalnych, jak i
innych? jakich, = mających znaczenie dla danej organizacji gospodarczej (jako całości lub jej podsystemów),
3) opracowywanie tych informacji (selekcja, redukcja, agregacja),
4) udostępnianie i przekazywanie informacji określonym adresatom wewnętrznym (np. załodze, wybranym komórkom organizacyjnym, poszczególnym pracownikom) oraz zewnętrznym we
właściwym czasie i na odpowiednich nośnikach informacji – np. biuletynach zakładowych, gazetach firmowych, wydrukach komputerowych, płytach CD i DVD-ROM)6.
Z kolei D. Tranfield, D. Deyner, J. Marcos i M. Burr słusznie zauwaŜają, Ŝe zastosowana
wiedza moŜe przyjmować jeden z trzech charakterów i w ten sposób odpowiednio wpływać na
przedsiębiorstwa:
1) Instrumentalny – bezpośrednie zastosowanie wiedzy w praktyce, które zmienia jakiś proces,
wpływa na kształt realnych działań. Ta wiedza modyfikuje zachowania, nakazuje podjęcie jakichś?
decyzji.
2) Konceptualny – wiedza ma charakter poznawczy, nie wpływa bezpośrednio na rzeczywistość; moŜe ona natomiast wpływać na zrozumienie pewnych zjawisk, sytuacji;
3) Symboliczny – wiedza usprawiedliwia działania i decyzje; tak więc najpierw było działanie,
a potem pojawiło się pewne usprawiedliwienie, wyjaśnienie7.
W literaturze przedmiotu wyróŜnia się równieŜ tzw. cichą wiedzę, która rozprzestrzenia się między poszczególnymi członkami załogi, przez np. dzielenie się doświadczeniem. Następnie wiedza
przekazywana w ten sposób „zawiązuje się” w pewnej grupie ludzi, chociaŜby przez prywatne kontakty i dalsze przekazywanie doświadczeń. Dzięki temu dana społeczność nabywa stopniowo swoistego
podejścia do procesu pracy i do zlecanych obowiązków. Wypracowana w ten sposób postawa po
pewnym czasie uzewnętrznia się i przekształca w wiedzę jawną, formalną. To z kolei pociąga za
sobą jej przekazywanie pozostałym członkom organizacji, a więc dalszą ekspansję i formalizację.
Opisany proces w literaturze często utoŜsamiany jest z mianem uczącej się organizacji (ang. learning
6
R. Mazur, M. Zajączkowski, Zarządzanie wiedzą jako warunek rozwoju firmy, w: Agrobiznes w rozwoju przedsiębiorczości wiejskiej w warunkach integracji europejskiej, AR w Szczecinie, Szczecin 1999, s. 230.
7
D. Tranfield, D. Deyner, J. Marcos, M. Burr, Co-producing management knowledge, „Management Decision”, 2004, nr 3/4.
Rafał Mazur, Leonid Worobjow
Zarządzanie wiedzą w przedsiębiorstwie, jako warunek rozwoju innowacyjnego
121
organisation)8 i warto aby polskie przedsiębiorstwa takimi były. Istotną sprawą jest takŜe wprowadzenie metod oceny wiedzy pracowników, w tym takŜe kierowników i dyrektorów9 i odpowiednie
wyciągniecie wniosków.
3. Wyniki badań
Badaniom ankietowym zostało poddanych 206 osób, które studiują kierunek Ekonomia na
I roku Uzupełniających Studiów Magisterskich w trybie niestacjonarnym na Zachodniopomorskim
Uniwersytecie Technologicznym. Wszystkie osoby pracują w przedsiębiorstwach na terenie województwa zachodniopomorskiego. Spośród poddanych badaniom kobiety stanowiły 61,2% a męŜczyźni 38,8%. Zakłady pracy respondentów zlokalizowane są przede wszystkim w małych miasteczkach (do 50 tys. mieszkańców) – 39,8% oraz duŜym mieście (powyŜej 200 tys. mieszkańców)
– 34%. Zaledwie w 7,8% odpowiedzi wskazano Ŝe przedsiębiorstwo znajduje się na wsi, a w
18,4% przypadków respondenci pracowali w miastach o wielkości od 50-200 tys. mieszkańców.
Wśród respondentów w tzw. mikroprzedsiębiorstwach pracuje 24,2%, w małych i średnich firmach 61,2% a duŜych 14,6% poddanych badaniom.
Pierwsze zadane pytanie dotyczyło dostępu do danych i informacji w trakcie tworzenia nowych
rozwiązań. W tab. 1 zaprezentowano uzyskane odpowiedzi.
Tabela 1. Odpowiedzi na pytanie dotyczące oceny dostępu do danych i informacji w trakcie
tworzenia nowych rozwiązań
Lp.
1
2
3
4
Czy obecnie dostęp do róŜnych danych i informacji w trakcie tworzenia
nowych rozwiązań jest dobry?
Tak, jest idealny.
Tak, jest wystarczająco dobry, chociaŜ przydałyby się pewne usprawnienia.
Nie jest zbyt dobry, jednakŜe nie wpływa to negatywnie na przebieg prac.
Jest stanowczo niewystarczający dostęp do róŜnych danych i informacji, co
opóźnia wiele prac.
Łączna liczba odpowiedzi
Liczba
odp.
[w%]
34
84
58
16,5
40,8
28,1
30
14,6
206
100
Jak wynika z danych zawartych w tab. 1, 42,7% respondentów (p. 3 i 4) uwaŜa, Ŝe dostęp do
róŜnych danych i informacji jest niewystarczający. Stosunkowo duŜy odsetek respondentów, bo aŜ
42,7%, jest niezadowolonych z dostępu do róŜnych danych i informacji podczas tworzenia nowych
rozwiązań, w tym ponad połowa twierdzi, Ŝe opóźnia to wiele prac (28,1% ogółu). Natomiast
44,6% spośród badanych (p. 1 i 3) nie zauwaŜa, aby wpływało to ujemnie na tempo prowadzonych
działań.
Inne pytanie dotyczyło dostępu pracowników do literatury fachowej, dzięki której mogą zapoznawać się z najnowszymi rozwiązaniami, co z kolei moŜe ich stymulować do tworzenia lub przenoszenia i adaptowania rozwiązań do danego przedsiębiorstwa (tab. 2).
8
M. Mir, A.S. Rahaman, Organisational knowledge creation and the commercialisation of State mail service, „The International Journal of Public Sector Management” nr 5, 2003.
9
L. Worobjow, Metoda diagnostyki socjometrycznej jako narzędzie badań cech jakościowych kierowników, Folia
Universatis Agriculturae Stetinensis nr 254, Oeconomica 47, Wyd. Nauk. AR w Szczecinie, Szczecin 2007, s 347-349.
122
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela. 2. Odpowiedzi na pytanie dotyczące dostępu do literatury fachowej w przedsiębiorstwach
Lp.
1
2
3
4
5
Czy mają Państwo dostęp do literatury fachowej, która dawałaby
moŜliwości zapoznania się z najnowszymi rozwiązaniami lub na bazie
której moŜna wypracowywać jakieś koncepcje rozwiązań?
Tak, jest ona aktualna i szeroka.
Tak, jest ona aktualna, jednakŜe dostęp do niej jest utrudniony.
Tak, lecz nie jest ona zbyt aktualna.
Nie ma moŜliwości zapoznania się z róŜnymi rozwiązaniami, a mogłoby to być
cenne.
Nie ma moŜliwości zapoznania się z róŜnymi rozwiązaniami i nie jest to
potrzebne.
Razem
Liczba
odp.
[w%]
62
38
56
30,1
18,4
27,2
34
16,5
16
7,8
206
100
Blisko co czwarty respondent (50 osób) co stanowi 24,3% (p. 4 i 5), uwaŜa, Ŝe nie ma moŜliwości
zapoznania się z róŜnymi rozwiązaniami, a mogłoby to być cenne dla tworzenia nowych rozwiązań w
przedsiębiorstwach. Z kolei 27,2% badanych pracowników twierdzi, Ŝe taka literatura jest niezbyt
aktualna; 18,4% wskazuje natomiast, Ŝe literatura jest aktualna, lecz dostęp do niej jest utrudniony.
śadnych zastrzeŜeń w tym zakresie nie ma 30,1% badanych, a 7,8% uwaŜa, Ŝe nie jest to w ogóle
potrzebne.
Wiele osób w firmach, w duŜej mierze spotyka się z takimi samymi lub podobnymi problemami. W związku z tym często zdarza się, Ŝe jedna osoba (lub zespół) pracuje nad czymś, co stworzył
wcześniej ktoś inny. Wynika to z tego, Ŝe brak jest przepływu informacji lub przepływ ten jest
niemoŜliwy.
Potwierdza to takŜe dosyć duŜa część pracowników poddanych badaniom. Zapytani czy spotkali się z powielaniem tych samych lub podobnych działań w róŜnych działach w ramach ich
przedsiębiorstwa, 11,7% respondentów wskazało, Ŝe często są takie sytuacje, a 25,2% spotykało
się z takimi zdarzeniami, chociaŜ niezbyt często (tab. 3).
Tabela. 3. Odpowiedzi na pytanie dotyczące powielania działań w róŜnych działach
Lp.
1
2
3
4
Czy zdarzały się sytuacje, Ŝe prowadzone były wcześniej prace nad jakimś
rozwiązaniem w innym dziale (wydziale, komórce), o czym nie było Państwu wiadomo i spowodowało to niepotrzebne powielenie pewnych działań
w Państwa dziale (tzw. wywaŜenie otwartych drzwi)?
Tak, dość często są takie sytuacje
Owszem, jednak niezbyt często
Nie wiem o takich sytuacjach
Nie ma takich sytuacji
Razem:
Liczba
odp.
[w%]
24
52
90
40
206
11,7
25,2
43,7
19,4
100
JednakŜe większość ankietowanych (130 osób p. 3 i 4) nie spotkała się z takimi przypadkami.
Stanowi to 63,1% pracowników poddanych badaniom, w tym 19,4% badanych jest przekonanych, Ŝe
nie dochodzi do takich sytuacji w ich przedsiębiorstwie.
123
Rafał Mazur, Leonid Worobjow
Zarządzanie wiedzą w przedsiębiorstwie, jako warunek rozwoju innowacyjnego
Wiele nowych rozwiązań w przedsiębiorstwach nie moŜe zostać wdroŜonych, a tym bardziej
opracowanych, bez udziału specjalistów z róŜnych dziedzin. Prawdą jest, Ŝe działalność innowacyjna powinna być rozpoczynana na najniŜszym szczeblu, począwszy od najniŜszych w hierarchii
pracowników, którzy mogliby pracować nad drobnymi usprawnieniami (np. projektami racjonalizatorskimi). ZauwaŜają to M. Mir i A. Rahaman. Tworzenie nowych rozwiązań, zdaniem wspomnianych autorów, w przedsiębiorstwach aspirujących do ciągłego rozwoju, powinno zaczynać się
na poziomie indywidualnym, przechodzić do fazy grupy, a następnie zmierzać do poziomu organizacji, a nawet poziomu międzyfirmowego10.
Bardziej zaawansowane rozwiązania wymagają pracy grupy osób. W firmach moŜna zauwaŜyć coraz więcej tzw. rozwiązań interdyscyplinarnych, w przypadku których jest konieczna współpraca specjalistów z róŜnych dziedzin. Wynika to przede wszystkim z coraz większej złoŜoności produktów. Potwierdzają to takŜe wyniki przeprowadzonych badań. Na pytanie dotyczące potrzeby konsultacji ze
specjalistą z innej dziedziny podczas tworzenia nowych rozwiązań, pracownicy firm odpowiadali,
Ŝe są takie potrzeby (tab. 4).
Tabela. 4. Odpowiedzi na pytanie dotyczące potrzeby konsultacji ze specjalistą z innej dziedziny
podczas kreacji nowych rozwiązań
Lp.
1
2
3
Czy zdarzają się przypadki, Ŝe potrzebują Państwo konsultacji
ze specjalistą z innej dziedziny w trakcie prac projektowych?
Tak – często
Tak, ale rzadko
Nie
Razem
Liczba
odp.
[w%]
50
116
40
206
24,3
56,3
19,4
100
Jak wynika z danych zawartych w tab. 4., większość pracowników firm potrzebuje konsultacji
ze specjalistami z innych dziedzin podczas prac projektowych. Zaledwie 19,4% respondentów nie
potrzebuje kontaktu z pracownikami reprezentującymi inne specjalności. Natomiast 24,3% spośród
poddanych badaniom wskazuje na potrzebę częstego kontaktu, a 56,3% podaje, Ŝe potrzebuje takiej konsultacji, jednakŜe rzadko.
Jak wynika z danych zawartych w tab. 5., blisko połowa z pracowników poddanych badaniom
wyraŜa się pozytywnie o prowadzonych szkoleniach w firmach.
Zaledwie 10,7% respondentów wskazuje Ŝe nie są prowadzone u nich w firmie szkolenia, które
byłyby przydatne dla tworzenia nowych rozwiązań. Stosunkowo duŜy jest jednak odsetek osób
(40,8%), które twierdzą Ŝe zbyt rzadko organizuje się szkolenia podnoszące ich kwalifikacje.
10
M. Mir, A.S. Rahaman, Organisational …, op. cit.
124
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela. 5. Odpowiedzi na pytanie dotyczące prowadzonych szkoleń podnoszących kwalifikacje
pracowników
Lp.
1
2
3
Czy prowadzone są u Państwa w firmie szkolenia dotyczące podniesienia kwalifikacji pracowników, co moŜe mieć wpływ na rozwój przedsiębiorstwa?
Tak – często
Tak, ale rzadko
Nie
Razem
Liczba
odp.
[w%]
100
84
22
206
48,5
40,8
10,7
100
4. Wnioski
Jak wynika z przeprowadzonych badań sytuacja w zakresie zarządzania wiedzą w przedsiębiorstwach jest daleka od ideału. Zgłaszane są liczne zastrzeŜenia, które dotyczą podstawowych
spraw w tej mierze. NaleŜy więc zwrócić uwagę na elementy, które w istotny sposób mogą poprawić stan wiedzy wśród pracowników. MoŜna zaliczyć do nich dostęp do danych i informacji niezbędnych podczas generowania nowych pomysłów. Pracownicy powinni mieć równieŜ wgląd do
najnowszych rozwiązań i fachowej literatury z danej dziedziny. Pomysły mogą być skuteczniej
generowane wówczas, gdy wśród potencjalnych inwentorów będzie dokładna wiedza na temat
rozwiązań stosowanych w danym obszarze. Jest to o tyle istotne, Ŝe klienci oczekują coraz lepszych, nowocześniejszych i mniej zawodnych produktów oraz form ich obsługi. Wymagania ciągle
rosną, a firmy które nie będą dostosowywały swoich produktów i usług do oczekiwań konsumentów skazane będą na niepowodzenie.
Kolejną istotną sprawą jest niezbyt dobry przepływ informacji między pracownikami. Zdarza
się to nawet w stosunkowo niewielkich firmach, w których niewiedza dotycząca podejmowanych
działań i ich efektach przez inne osoby, prowadzi często do powielania pewnych czynności. Aby
uniknąć takich sytuacji, warto budować bazy danych skupiające wszystkie działania podejmowane
przez pracowników. Przydatne moŜe być umieszczenie w niej rozwiązań opracowanych przez instytuty naukowo-badawcze, w tym równieŜ opisy patentowe oraz pomysły konkurencji i sugestie
klientów. Nie chodzi w tym przypadku nawet o kopiowanie pewnych inwencji, lecz o wyciąganie
wniosków z rozwiązań stosowanych w danej dziedzinie.
Bardzo waŜne jest takŜe zapewnienie pracownikom kontaktów ze specjalistami z innych dziedzin. Wynika to z faktu, Ŝe obecnie bardzo często mamy do czynienia z interdyscyplinarnymi pomysłami. Oznacza to, Ŝe generowane rozwiązania dotyczą kilku dziedzin i twórcy w związku z tym
muszą zasięgnąć opinii w niektórych sprawach osób posiadających specjalistyczną wiedzę.
Posiadanie szerokiej wiedzy oraz moŜliwość skorzystania z niej w odpowiednim czasie jest
obecnie podstawowym warunkiem rozwoju firm. Dodatkowo naleŜy zapewnić pracownikom pewne wyposaŜenie, będące pomocne przy generowaniu pomysłów, ich testowaniu i urzeczywistnianiu. Osobną sprawą, o której nie naleŜy zapominać, jest równieŜ motywowanie pracowników do
podejmowania działań rozwojowych.
Postawienie w polskich przedsiębiorstwach na podnoszenie kwalifikacji pracowników i efektywne zarządzanie wiedzą jest bardzo waŜnym czynnikiem, który umoŜliwi sprostanie konkurencji
na bardzo trudnym światowym rynku.
Rafał Mazur, Leonid Worobjow
Zarządzanie wiedzą w przedsiębiorstwie, jako warunek rozwoju innowacyjnego
125
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Gospodarka oparta na wiedzy-stan, diagnoza i wnioski dla Polski, Ekspertyza Instytutu
Zarządzania Wiedzą w Krakowie na zlecenie Departamentu Strategii Gospodarczej
Ministerstwa Gospodarki, Warszawa-Kraków 2002.
Machaczka J., Zarządzanie rozwojem organizacji. Czynniki, modele, strategia, diagnoza,
PWN, Warszawa-Kraków 1998.
Mazur R., Zajączkowski M., Zarządzanie wiedzą jako warunek rozwoju firmy, w:
Agrobiznes w rozwoju przedsiębiorczości wiejskiej w warunkach integracji europejskiej,
AR w Szczecinie, Szczecin 1999.
Mir M., Rahaman, Organisational knowledge creation and the commercialisation of State
mail service, „The International Journal of Public Sector Management” nr 5, 2003.
Pierścionek Z. , Strategie rozwoju firmy, PWN, Warszawa 1996.
Szczepanik R., Nie wiesz, ile wiesz, „Businessman Magazine” 1999, nr 5.
Tranfield D., Deyner D., Marcos J., Burr M., Co-producing management knowledge,
„Management Decision”, 2004, nr 3/4.
Worobjow L., Metoda diagnostyki socjometrycznej jako narzędzie badań cech
jakościowych kierowników, Folia Universatis Agriculturae Stetinensis nr 254,
Oeconomica 47, Wyd. Nauk. AR w Szczecinie, Szczecin 2007.
Worobjow L., Produktywność i efektywność przedsiębiorstwa, Seria: Studia i Materiały,
Polskie Stowarzyszenie Zarządzania Wiedzą, Tom 5, Bydgoszcz 2006.
KNOWLEDGE MANAGEMENT IN THE COMPANY AS A CONDITION
OF INNOVATION DEVELOPMENT.
Summary
Innovations play mounting meaning. To generate them, the makers should have
big knowledge resources. In this article author shows the meaning of raising employee qualification and sources of getting different data and information. Author
shows also in this range the situation in the companies located in zachodniopomorskie.
Keywords: innovations, knowledge development, company development
Rafał Mazur
Leonid Worobjow
Katedra Marketingu
Wydział Ekonomiczny
Zachodniopomorski Uniwersytet Technologiczny
71-210 Szczecin, ul. śołnierska 47
e-mail: [email protected]
126
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
KRZYSZTOF MICHALAK
Zachodniopomorski Uniwersytet Technologiczny
INTEGRACJA TECHNOLOGII PROCESOWYCH
W SYSTEMACH BUSINESS INTELLIGENCE
Streszczenie
W artykule przedstawione zostały problemy związane z przeprojektowywaniem
procesów przekraczających granice pojedynczych organizacji. Omówiono metodę
X-engineering’u oraz systemy klasy Business Intelligence. Przedstawiono równieŜ
propozycję integracji w systemach BI metod procesowych w celu sprawniejszego
przeprowadzania X-engineering’u w przedsiębiorstwach.
Słowa kluczowe: Business Intelligence, technologie procesowe, reorganizacja procesów,
X-engineering
1. Wprowadzenie
Efektywne zarządzanie przedsiębiorstwem, a co za tym idzie utrzymywanie się przedsiębiorstwa na konkurencyjnym rynku nigdy wcześniej nie zaleŜało tak bardzo od wprowadzania nowoczesnych technologii. Wprowadzanie nowych technologii ma na celu [1]: zabezpieczenie się przed
atakiem nowych konkurentów, wyprzedzenie konkurencji lub wzmocnienie dotychczasowej pozycji, moŜliwość zarabiania na nowych rynkach. Zmienia się podejście do sposobu realizacji zadań w
przedsiębiorstwach. Coraz częściej odchodzi się od klasycznego modelu realizacji zadań opartego
na funkcjach zastępując je podejściem procesowym. Wprowadza się metody bazujące na technologiach procesowych, takie jak Benchmarking (metoda porównywania własnych sposobów działania
ze sposobami innych), Activity Based Costing (rachunek kosztów działań), Target Costing (rachunek kosztów docelowych), Business Process Reengineering (metoda radykalnej reorganizacji procesów), X-engineering itd. Z drugiej strony nowoczesna gospodarka cechuje się skomplikowaną
siecią powiązań między przedsiębiorstwami. Firmy są powiązane ze swoimi dostawcami, partnerami, klientami a nawet konkurentami. Eskalacja tych powiązań i rozwój Internetu przyczyniły się
do powstania gospodarki elektronicznej. Gospodarka elektroniczna obejmuje wymianę produktów
i usług, transfer funduszy w publicznych i prywatnych sieciach cyfrowych, róŜnorodne rodzaje interakcji biznesowych, a takŜe takie funkcje jak marketing, zarządzanie relacjami z klientami, rekrutację pracowników, rozwój produktów (działalność wytwórczą), administrację i komunikację [2].
Produkty oferowane klientom są efektem współpracy wielu firm tworzących wspólnie łańcuch
wartości. Stąd teŜ działania optymalizacyjne mające na celu poprawienie efektywności procesów –
skrócenie czasu realizacji, redukcję kosztów, podnoszenie jakości – nie mogą się obecnie ograniczać tylko do optymalizacji wewnętrznych działań. Odpowiedzią na te potrzeby jest między innymi
X-engineering. Metoda ta jest rozwinięciem BPR, który koncentrował się na procesach wewnętrznych przedsiębiorstwa. Zastosowanie X-engineering’u w przedsiębiorstwach nie jest prostym zadaniem zwłaszcza w sytuacji, gdy kaŜda z firm ma swój własny system informatycznych,
a systemy te nie są zintegrowane.
Krzysztof Michalak
Integracja technologii procesowych w systemach Business Intelligence
127
2. X-engineering przedsiębiorstwa
Jak juŜ wcześniej wspomniano przedsiębiorstwa połączone są siecią skomplikowanych powiązań ze swoimi partnerami, dostawcami, klientami a czasem nawet konkurentami. W wytworzenie
produktu, który oferowany jest klientowi zaangaŜowanych jest wiele firm, które stanowią łańcuch
wartości. Stąd teŜ dotychczasowe metody przeprojektowywania procesów takie jak Bussines Process Reengineering okazują się niewystarczające. Wadą tych metod jest to, Ŝe ich zakres ograniczony jest do procesów wewnętrznych. Celem wszystkich przedsiębiorstw wchodzących
w skład łańcucha wartości powinno być takie zoptymalizowanie procesów, aby wartość zaoferowana końcowemu klientowi przewyŜszała to, co oferują firmy konkurencyjne. Skoro wartość oferowana klientowi uzaleŜniona jest od wszystkich procesów, które przyczyniają się do jej tworzenia,
to procesy naleŜy przeprojektować przekraczając granice przedsiębiorstw. Dochodzimy
w tym miejscu do X-engineering’u. X-engineering definiowany jest, jako metoda polegająca na
osiąganiu radykalnej poprawy wyników dzięki zastosowaniu technologii informacyjnych w celu
przeprojektowania procesów przekraczających granice pojedynczej organizacji [5]. X-engineering
nie neguje BPR lecz rozszerza jego zasięg włączając do przeprojektowywania procesów partnerów
przedsiębiorstwa, dostawców, klientów i nawet konkurentów.
Poprawienie metod działania wymaga przeanalizowania [5]:
3. Procesów
4. Propozycji firmy wobec klienta
5. Zakresu partycypacji firmy w tworzeniu wspólnych procesów z innymi organizacjami.
PoniewaŜ kaŜda firma jest postrzegana jako element łańcucha wartości część jej procesów jest
realizowana na styku organizacji wchodząc w interakcję z procesami innych firm. Optymalizacja
takich procesów jest zadaniem praktycznie niewykonalnym, jeśli nie zostaną udostępnione informacje na ich temat. Dotychczas przedsiębiorstwa starały się utrzymywać w tajemnicy dane o realizowanych procesach uwaŜając, Ŝe ich ujawnienie moŜe doprowadzić do pogorszenia kondycji firmy. Takie podejście moŜna i nawet powinno się stosować do procesów stanowiących podstawę
działalności przedsiębiorstwa oraz element przewagi nad konkurencją. Istnieją jednak procesy,
które nie są unikalne i występują w wielu firmach np. procesy związane z dystrybucją lub zaopatrzeniem. Ukrywanie danych o takich procesach nie przynosi przedsiębiorstwu Ŝadnych korzyści.
Natomiast ich ujawnienie daje szansę identyfikacji działań nieefektywnych i dublujących się. PoniewaŜ na końcową wartość oferowaną klientowi mają wpływ wszystkie procesy, które przyczyniają się do wytworzenia tej wartości moŜliwość usprawnienia procesów nieefektywnych
i eliminacji procesów powtarzających się daje szansę na zwiększenie wartości oferowanej klientowi. Procesy moŜna podzielić na trzy grupy [5]:
1. Procesy wykonywane samodzielnie przez firmę – są to najczęściej procesy unikalne,
stanowiące podstawę egzystencji, zapewniające przewagę nad konkurencją stąd teŜ dane
na ich temat pozostaną ukryte. X-engineering nakazuje jednak postawić pytania odnośnie
tej grupy procesów czy rzeczywiście są one unikalne i czy nie mogłyby funkcjonować lepiej gdyby zapoznać z nimi dostawców i klientów?
2. Procesy wykonywane przez firmę z innymi organizacjami – łączą się z transferem informacji, dóbr czy pieniędzy między firmą a jej dostawcami, partnerami i klientami. Procesy te mogą być waŜne dla firmy, ale nie muszą być jej tajemnicą. Jeśli procesy te nie są
128
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
tajemnicą firmy to naleŜy zadać pytanie jak daleko moŜna je zharmonizować z procesami
klientów, dostawców i partnerów?
3. Procesy, które firma zleca innym organizacjom – procesy te mogą być mniej lub bardziej istotne dla funkcjonowania firmy, ale nie stanowią jej podstawowej kompetencji. Inna firma realizuje je lepiej i prawdopodobnie taniej, poniewaŜ specjalizuje się w nich. Dla
tej grupy procesów naleŜy zadać pytanie czy dostawca procesu jest w stanie poddać go Xengineeringowi we współpracy z firmą jej dostawcami i klientami?
Powiązania pomiędzy przedsiębiorstwami i ich procesami przypominają symbiozę organizmów
w przyrodzie mianowicie przetrwanie zbioru procesów jednej firmy jest uzaleŜnione od zbioru
procesów innych firm [5].
Propozycja firmy wobec klienta ma wyróŜniać przedsiębiorstwo na tle konkurencji, oferować
większą wartość niŜ konkurencja, co w efekcie powinno przyczynić się do osiągnięcia sukcesu.
Zwiększenie owej wartości moŜna osiągnąć stosując róŜne techniki:
1. Indywidualizacja – dopasowanie oferowanego produktu lub usługi do indywidualnych
wymagań pojedynczego klienta.
2. Obsługa – ukierunkowanie na zaspokajanie potrzeb klientów oraz rozwiązywanie ich problemów lepiej niŜ robi to konkurencja.
3. RóŜnorodność – polega na zapewnieniu klientom dostępu do wielu produktów lub usług
w jednym miejscu, ale jednocześnie wprowadzeniu mechanizmów pozwalających na wyselekcjonowanie produktów najlepiej odpowiadających preferencjom klienta.
4. Innowacja – oferowanie klientom produktów bardziej zaawansowanych technicznie posiadających większą funkcjonalność w porównaniu z produktami oferowanymi przez konkurencję.
5. Cena – oferowanie produktów o podobnych lub lepszych właściwościach w atrakcyjniejszej cenie niŜ konkurencja.
6. Jakość – oferowanie produktów o wyŜszej jakości, większej funkcjonalności niŜ robi to
konkurencja.
7. Szybkość – skrócenie czasu realizacji nie tylko zamówień, ale wszystkich procesów związanych z obsługą klienta.
Chcąc wyróŜnić się na tle konkurencji naleŜy stosować moŜliwie najwięcej wymienionych wyŜej
propozycji wartości.
Partycypacja oznacza udział innych przedsiębiorstw w przeprojektowywaniu procesów. Im
większa liczba firm bierze udział w przeprojektowaniu procesów tym lepszych rezultatów moŜna
się spodziewać. WyróŜnia się cztery poziomy partycypacji [5]:
1. Partycypacja pierwszego poziomu – przedsiębiorstwo przeprojektowuje własne procesy.
2. Partycypacja drugie poziomu – przedsiębiorstwo przeprojektowuje własne procesy
z procesami jednej ze współpracujących organizacji (np. dostawców lub klientów)
3. Partycypacja trzeciego poziomu – przedsiębiorstwo przeprojektowuje własne procesy
z procesami dwóch współpracujących organizacji (np. dostawców i klientów)
4. Partycypacja czwartego poziomu – przedsiębiorstwo przeprojektowuje własne procesy
z procesami trzech odmiennych organizacji (dostawców, klientów i partnerów)
Tradycyjne systemy informatyczne stosowane w przedsiębiorstwach nie są w stanie wspierać Xengineering’u ze względu na jego szeroki zakres oddziaływania. Systemy te kończą się wraz
Krzysztof Michalak
Integracja technologii procesowych w systemach Business Intelligence
129
z końcem organizacji gospodarczej a X-engineering przekracza te granice. Zastosowanie tej metody wymaga wparcia przez systemy ponad organizacyjne.
3. Systemy Business Intelligence
W nowoczesnej gospodarce przedsiębiorstwa połączone są skomplikowaną siecią powiązań.
Dostarczenie gotowego wyrobu do końcowego uŜytkownika oznacza wykonanie wielu procesów w
wielu firmach wchodzących w skład łańcucha wartości. Z punktu widzenia gotowego wyrobu lub
usługi moŜemy stwierdzić ze przedsiębiorstwa wchodzące w skład łańcucha wartości są ze sobą
bardzo ściśle powiązane. JeŜeli jednak przyjrzymy się tym przedsiębiorstw pod kątem stosowanych
systemów informatycznych to okazuję się, Ŝe najczęściej nie ma juŜ tak ścisłych relacji. KaŜde
przedsiębiorstwo moŜe uŜywać innego systemu informatycznego. Systemy te mogą być na tyle
hermetyczne, Ŝe nie dają moŜliwości wymiany danych. W takim przypadku analiza łańcucha wartości, którego finałem jest gotowy produkt lub usługa okazuje się zadaniem bardzo złoŜonym i wymagającym wiele czasu. Analizowanie łańcucha wartości i optymalizacja procesów jest jednak
niezbędna w dobie globalizacji i silnej konkurencji na rynku. Problem integracji danych na potrzeby takich właśnie analiz starają się rozwiązywać systemy Business Intelligence.
Systemy Business Intelligence powstały w wyniku wdroŜenia w organizacji specyficznej filozofii i metodologii odwołującej się do pracy z informacją i wiedzą, otwartej komunikacji, dzielenia
się wiedzą oraz holistycznego, analitycznego spojrzenia na procesy biznesowe w organizacji [2].
Ideą systemów BI jest integracja danych pochodzących z wielu źródeł oraz ich wielowymiarowa
analiza. Wyniki w postaci róŜnorodnych zestawień dostarczane przez systemy BI mają na celu
podniesienie efektywności podejmowanych decyzji.
Ogólna budowa systemów klasy Business Intelligence przedstawiona jest na rysunku 1.
Rys. 1. Budowa systemu Business Intelligence
Źródło: opracowanie własne na podstawie [2]
Źródła danych dla systemów BI stanowią systemy transakcyjne funkcjonujące w przedsiębiorstwach. PoniewaŜ systemy te mogą zapisywać dane w róŜny sposób konieczna jest ich standaryzacja zanim trafią one do hurtowni danych. Modułem, który zajmuje się standaryzowaniem danych
jest ETL (Extract, Transform and Load). Zadaniem tego modułu jest ekstrakcja danych z systemów transakcyjnych następnie przekształcanie danych i ładowanie do hurtowni danych. Dane zawarte w hurtowni stanowią repozytoria, do których kierują swoje zapytania aplikacje raportujące
130
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
i analityczne. Ostatnią warstwę systemów BI stanowi warstwa prezentacji, która ma za zadanie
przedstawianie wyników uŜytkownikom w dogodnej dla nich formie.
Ciągły rozwój systemów BI przyczynił się do wyróŜnienia wielu modeli, które przedstawione
są na rysunku 2.
Rys. 2. Mapa rozwoju najwaŜniejszych modeli BI
Źródło: [2]
Minihurtownie danych słuŜą do przeprowadzania analiz ad hoc oraz przygotowywania zestawień porównawczych. Dane gromadzone są na róŜnych poziomach szczegółowości, ale ograniczają się zazwyczaj do jednego zagadnienia tematycznego. Modele te swoim zasięgiem obejmują
zwykle jeden dział przedsiębiorstwa. Wąski zasięg sprawia, Ŝe systemy BI bazujące na minihurtowniach danych ograniczają się do wspomagania jedynie decyzji operacyjnych.
W systemach BI opracowanych na bazie hurtowni danych dane źródłowe mogą pochodzić ze
wszystkich systemów informatycznych stosowanych w przedsiębiorstwie. W porównaniu z systemami opartymi na minihurtowaniach danych modele te mają znacznie szerszy zasięg, poniewaŜ
wspomagają one podejmowanie decyzji operacyjnych, taktycznych i strategicznych w całej firmie.
Systemy czasu rzeczywistego przeznaczone są do monitorowania bieŜącej działalności przedsiębiorstwa oraz wykrywania zakłóceń. Systemy te charakteryzują się tym, Ŝe w odróŜnieniu od
tradycyjnych hurtowni danych zapytania są kierowane do istniejących systemów transakcyjnych.
Nie ma potrzeby budowania hurtowni danych, poniewaŜ są one pobierane za pomocą mechanizmu
Enterprise Information Integration EII. Zaletą tego rozwiązania jest dostęp do zawsze aktualnych
danych. Kierowanie zapytań bezpośrednio do działających w przedsiębiorstwie systemów transakcyjnych moŜe mieć jednak niekorzystny wpływ na szybkość działania. Problemem moŜe równieŜ
być brak dostępu do danych historycznych, które mogą być usuwane z systemów transakcyjnych w
celu poprawy szybkości ich działania. Zasięg tych systemów jest ograniczony do wybranego fragmentu działalności firmy Podobnie jak w przypadku minihurtowni danych zadaniem tych systemów jest wspomaganie decyzji operacyjnych.
Systemy z rozbudowaną analityką prognostyczną BI-PA słuŜą do prognozowania scenariuszy
zdarzeń. W modelach tych wykorzystywane są między innymi: sieci neuronowe, drzewa decyzyjne,
Krzysztof Michalak
Integracja technologii procesowych w systemach Business Intelligence
131
analizy koszyka, itd. w celu odkrywania ukrytych trendów w danych historycznych i na ich podstawie prognozowania, co stanie się w przyszłości. Systemy BI-PA stale porównują przewidywane
scenariusze z rzeczywistymi danymi pochodzącymi z systemów transakcyjnych. Swoim zasięgiem
obejmują, co prawda wąski fragment działalności firmy, ale wspomagają decyzje operacyjne, taktyczne i strategiczne.
Korporacyjne systemy BI wspierają zarządzanie korporacjami. Ich zasięg oddziaływania jest
bardzo szeroki, poniewaŜ obejmują one wszystkie przedsiębiorstwa tworzące łańcuch wartości.
Systemy te najczęściej funkcjonują w Internecie stąd teŜ określane są, jako Internet Business Intelligence. Schemat takiego systemu przedstawiony jest na rysunku 3.
Rys. 3. Pętla Internet Business Intelligence
Źródło: [2]
Rozszerzenie systemu BI na wszystkie przedsiębiorstwa tworzące łańcuch wartości jest bardzo
korzystne, poniewaŜ w analizach uwzględniane jest juŜ nie tylko przedsiębiorstwo, ale równieŜ
jego otoczenie, partnerzy czy dostawcy. Zadaniem tych systemów jest wspieranie decyzji operacyjnych, taktycznych i strategicznych.
Kolejnym modelem systemów BI są portale BI. SłuŜą one do zarządzania treścią i dokumentacją wspierając pracę zespołową. Systemy te integrują informacje, aplikacje i usługi WWW. Ponie-
132
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
waŜ w portalach BI znaczna część danych pochodzi ze stron WWW bardzo waŜną rolę odgrywa
technika web mining – polegająca na ekstrakcji wzorców i informacji z dokumentów WWW.
W ramach web mining na szczególną uwagę zasługują: web content mining (drąŜenie zawartości
stron internetowych), web structure mining (drąŜenie struktury stron internetowych), web usage
mining (web log mining) (drąŜenie zachowań uŜytkowników) [3][4]. Swoim zasięgiem obejmują
wydzielone społeczności w ramach firmy. Systemy te wspierają decyzje operacyjne, taktyczne
i strategiczne.
Ostatnim modelem są sieci BI. SłuŜą one do budowy sieci ekspertów i zarządzania kapitałem
społecznym przedsiębiorstwa. W systemach tych waŜną rolę będą odgrywać techniki eksploracji
danych czwartej generacji, czyli techniki umoŜliwiające drąŜenie danych generowanych przez mobilne urządzenia, grupy dyskusyjne, czaty on-line, oraz web farming (systematyczne dostarczanie
i ulepszanie źródeł informacji w sieci), technologia inteligentnych agentów i zawansowane techniki
odpowiedzialne za zarządzanie treścią i dokumentacją. Globalny zasięg tych systemów obejmuje
róŜne społeczności. W systemach tych wspomagane są decyzje operacyjne, taktyczne i strategiczne.
Szeroki zakres oddziaływania korporacyjnych systemów BI, a w szczególności integracja
w nich danych wielu przedsiębiorstw daje podstawy do wykorzystania tych systemów w celu wspomagania przeprojektowania procesów międzyorganizacyjnych.
4. Wspomaganie X-engineering’u przez systemy informatyczne
X-engineering dotyczy przeprojektowywania procesów wielu organizacji. Zakłada, Ŝe organizacje te udostępniają dane na temat swoich procesów, aby moŜna je było przeanalizować i poszukać moŜliwości poprawy wydajności procesów. Kluczowe pytanie, które naleŜy postawić dotyczy
identyfikacji procesów wymagających optymalizacji. W odpowiedzi na to pytanie pomóc mogą
technologie procesowe takie jak:
1. Target Costing – metoda rachunku kosztów docelowych polegająca na optymalizowania
kosztów produktu juŜ na etapie jego projektowania. Metoda ta wywodzi się z systemu
ciągłego usprawniania procesów Kaizen Costing.
2. Activity Based Costing – metoda rachunku kosztów działań, która dokładniej wyznacza
koszty procesów w stosunku do tradycyjnych systemów kosztorysowania, pozwalająca zidentyfikować procesy, których realizacja jest zbyt droga.
3. Benchmarking – metoda porównywania własnych sposobów działania ze sposobami innych działów, partnerów czy teŜ konkurentów. Jej celem jest odnalezienie lepszych sposobów działania w innych działach przedsiębiorstwa, u partnerów lub kontrahentów, a następnie próba przeniesienia sprawdzonych praktyk na własny grunt.
4. Just In time – system dostaw na „styk” umoŜliwiający płynną realizację procesów wytwórczych (bez przestojów spowodowanych brakiem materiałów do produkcji), minimalizując jednocześnie poziom zapasów materiałów.
5. Total Quality Management – metoda, której celem jest osiąganie wyrobów najwyŜszej
jakości. Wysoka jakość moŜe być osiągana między innymi wtedy, gdy procesy, które są
realizowane w celu wytworzenia produktu lub usługi równieŜ odznaczają się wysoką jakością.
X-engineering cechuje się nie tylko szerokim zakresem oddziaływania, ale wymaga dostępu
do szerokiego zakresu danych znajdujących się w systemach informatycznych przedsiębiorstw oraz
Krzysztof Michalak
Integracja technologii procesowych w systemach Business Intelligence
133
stosowania wielu metod, które wspierają optymalizację procesów zarówno w fazie projektowania
produktów jak i ich wytwarzania. Transakcyjne systemy informatyczne, które są stosowane w wielu przedsiębiorstwach nie są w stanie zaspokoić potrzeb X-engineering’u. Systemy te najczęściej
kończą się wraz z końcem organizacji gospodarczej nie dając moŜliwości udostępniania informacji
o procesach pozostałym firmom wchodzącym w skład łańcucha wartości. Nie integrują równieŜ
metod procesowych, które powinny mieć dostęp do danych o procesach wielu przedsiębiorstw, aby
mogły wspomóc wprowadzenie X-engineering’u. Efektywne wspomaganie przeprojektowania procesów międzyorganizacyjnych wymaga uruchomienia ponad organizacyjnego systemu informatycznego integrującego dane wielu organizacji gospodarczych oraz metody procesowe.
Na rynku funkcjonują systemy Business Intelligence, które integrują dane wielu organizacji
będących uczestnikami łańcucha wartości. UŜytkownicy takich systemów przeprowadzający
X-engineering mają dostęp do danych o procesach realizowanych w poszczególnych przedsiębiorstwach tworzących łańcuch wartości. Udostępnianie informacji na potrzeby X-engineering’u nie
jest, więc problemem. NaleŜy jednak wiedzieć, które procesy poddać optymalizacji, z których zrezygnować gdyŜ się powtarzają i nie wnoszą wartości dodanej. Odpowiedzi na te pytania dają technologie procesowe, które naleŜałoby zintegrować z systemami BI. Propozycja takiego systemu
przedstawiona jest na rysunku 4.
Rys. 4. Integracja technologii procesowych w systemach Business Intelligence
Źródło: opracowanie własne na podstawie [2]
134
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Integracja technologii procesowych w systemie BI daje moŜliwość optymalizacji procesów juŜ
na etapie projektowania produktów wykorzystując metodę kształtowania wartości Value Engineering stosowaną w rachunku kosztów docelowych. Optymalizacją moŜna objąć wszystkie procesy,
wszystkich przedsiębiorstw, które będą tworzyły łańcuch wartości nowego produktu. Na etapie
produkcji moŜliwe jest:
1. Optymalizowanie całkowitych kosztów procesów w przekroju wszystkich partnerów
łańcucha wartości. Podstawę do takiej optymalizacji mogą stanowić informacje dostarczane dzięki metodzie rachunku kosztów działań.
2. Zapewnienie wysokiej jakości produktu lub usługi dzięki wykorzystaniu metody kompleksowego zarządzania jakością na wszystkich etapach produkcji u wszystkich partnerów łańcucha wartości.
3. Zapewnienie ciągłości produkcji dzięki metodzie dostaw na styk, otwartości w stosunku
do partnerów i wzajemnym informowaniu o wielkości stanów magazynowych i napływających zamówieniach.
4. Usprawnianie procesów poprzez kopiowanie dobrych praktyk dzięki Benchmarking’owi.
Wprowadzenie technologii procesowych do systemów BI nie tylko usprawni wprowadzanie Xengineering’u, lecz zwiększy zakres funkcjonalny tych systemów.
5. Uwagi końcowe
Zastosowanie w przedsiębiorstwie X-engineering’u stawia wysokie wymagania dla funkcjonujących systemów informatycznych. Szeroki zakres oddziaływania metody – zmiany wprowadzane
są w wielu firmach – pociąga za sobą konieczność dostępu do danych wielu firm. Efektywność
usprawniania procesów zaleŜy w duŜej mierze od zastosowanych technologii procesowych, które
pozwalają zidentyfikować procesy wymagające usprawnień lub powtarzające się. To wszystko
sprawia, Ŝe przedsiębiorstwa, w których działają systemy transakcyjne, niewykraczające poza ich
granice mogą mieć trudności we wdraŜaniu X-engineering’u. Wymaganie te częściowo spełniają
korporacyjne systemy BI, które integrują dane wielu przedsiębiorstw. Rozszerzenie tej klasy systemów o zbiór metod procesowych daje menadŜerom narzędzie, które skutecznie moŜe wspomagać
X-engineering.
6. Literatura
1.
2.
3.
4.
5.
Afauh A., Tucci Ch. L.: Biznes internetowy strategie i modele, Oficyna ekonomiczna,
Kraków 2003
Celina M., Ziemba E.: Strategie i modele gospodarki elektronicznej, Wydawnictwo
Naukowe PWN, Warszawa 2007
Kantardzic M.: Data Mining: Concepts, Models, Methods and Algorithms, John Wiley &
Son,New York 2002
Thuraisingham B.: Web Data Mining and Applicationsin Business Intelligence and
Counter-terrorism, Auerbach Publications, 2002
Champy A.: X-Engineering przedsiębiorstwa, Wydawnictwo Placet, Warszawa 2002
Krzysztof Michalak
Integracja technologii procesowych w systemach Business Intelligence
INTEGRATION PROCESS TECHNOLOGIES
WITH BUSINESS INTELLIGENCE SYSTEMS
Summary
In this paper were presented the problems associated with reengineering of the
processes that exceeds the limits of individual organizations. Later were discussed
X-engineering method and Business Intelligence systems. Finally there was introduced a proposal for the integration of BI systems with process methods to enhance
the process of X-engineering in companies.
Keywords: Business Intelligence, process technologies, Business Process Reengineering,
X-engineering
Krzysztof Michalak
Katedra InŜynierii Systemów Informacyjnych
Wydział Informatyki,
Zachodniopomorski Uniwersytet Technologiczny
e-mail: [email protected]
135
136
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
PAWEŁ MICKIEWICZ
Zachodniopomorski Uniwersytet Technologiczny
WPŁYW DOPŁAT BEZPOŚREDNICH NA ZMIANY ZACHODZĄCE W STRUKTURZE
AGRARNEJ W ROLNICTWIE WOJEWÓDZTWA ZACHODNIOPOMORSKIEGO
Streszczenie:
Główną słabość polskiego rolnictwa stanowi rozdrobienie struktury obszarowej
gospodarstw. Ma to wielorakie skutki ekonomiczne i społeczne a takŜe stanowi o niskich dochodach rolników i ich rodzin. Dopłaty bezpośrednie miały korzystny wpływ
na zmianę struktury agrarnej w województwie zachodniopomorskim. Badania dotyczą pierwszego okresu członkostwa Polski w Unii Europejskiej.
Słowa kluczowe: dopłaty bezpośrednie, struktura agrarna, zmiany
1. Wstęp
Główną słabość polskiego rolnictwa stanowi rozdrobienie struktury obszarowej gospodarstw.
Ma to wielorakie skutki ekonomiczne i społeczne a takŜe stanowi o niskich dochodach rolników
i ich rodzin. To negatywne zjawisko uniemoŜliwia akumulację kapitału niezbędnego do podjęcia
inwestycji mogących podnieść efektywność gospodarstw. Rolnicy bez specjalizacji a wytwarzający
niewielkie ilości produktów w duŜym asortymencie, ma trudności z utrzymaniem jakości i zbytu
produkcji. Niewielka skala produkcji ogranicza teŜ moŜliwości postępu technologicznego, zarówno z powodów finansowych i technicznych. Innym waŜnym problemem strukturalnym jest niski
stopień specjalizacji gospodarstw rolnych, zmniejszający efektywność gospodarowania, ograniczający postęp rolniczy i pozycję przetargową rolników na rynku.
2. Cel i metody badawcze
Celem badawczym była ocena zmian zachodzących w strukturze agrarnej, pod wpływem
wsparcia finansowego udzielonego rolnikom ze środków publicznych.
Biorąc pod uwagę uwarunkowania przestrzenne województwa zachodniopomorskiego, do
badań zostały wybrane celowo powiaty, a w nich gminy. Wybrane gminy połoŜone są w pasach
funkcjonalno-przestrzennych, które zostały wyłonione w oparciu o ich funkcje rozwojowe i znajdują swoje odzwierciedlenie w Strategii rozwoju województwa zachodniopomorskiego do roku
2015. Dobór gmin uwzględniał zróŜnicowane warunki funkcjonowania gospodarstw rolnych na
badanym obszarze. Ponadto wybrane gminy charakteryzują się zróŜnicowanymi kierunkami rozwoju społeczno-gospodarczego, wynikającymi ze strategicznych opracowań planistycznych, sporządzanych przez samorządy gminne i powiatowe. W kaŜdej z gmin została wytypowana losowo grupa rolników z tych, którzy po otrzymaniu bezpośredniego wsparcia i dokonaniu niezbędnych inwestycji są w stanie konkurować na rynku. W grupie tej znalazła się takŜe część właścicieli gospodarstw socjalnych. Badaniami zostali objęci rolnicy i ich gospodarstwa (650 gospodarstw i ich
właściciele).
Badanie właściwe zostało przeprowadzone w miesiącach czerwiec-lipiec 2006 roku.
137
Paweł Mickiewicz
Wpływ dopłat bezpośrednich na zmiany zachodzące w strukturze agrarnej w rolnictwie
województwa zachodniopomorskiego
Konieczne jest utworzenie baz danych pochodzących z dostępnych informacji z gospodarstw
rolnych uzupełnianych bazami danych dotyczących prowadzonych w regionie badań, dostępnego
zbioru publikacji oraz zestawień wynikowych dla analiz wykonywanych w róŜnych okresach czasu.
3. Wyniki badań
Struktura agrarna oznacza rozkład gospodarstw rolnych według ich obszaru, przy załoŜeniu,
Ŝe ziemia jest decydującym czynnikiem produkcji, a wszystkie pozostałe czynniki są z nią liniowo
skorelowane (Szemberg, 1998). Struktura agrarna rozstrzyga o wielu sprawach natury prawnej,
gospodarczej, społecznej i produkcyjnej. Z punktu widzenia terminologicznego strukturę definiujemy „jako rozmieszczenie elementów składowych oraz zespół relacji między nimi, charakterystyczny dla danego układu jako całości”. W węŜszym znaczeniu pojmuje się ją, jako „zespół wzajemnego przyporządkowania elementów składowych i połączenie ich w pewną całość lub teŜ system zaleŜności między elementami danego układu oraz poszczególnymi elementami a całością
układu” (Woś A., 2000).
W rolnictwie polskim strukturę agrarną określa się poprzez pryzmat ziemi w wyrazie fizycznym (w ha) a nie poprzez siłę produkcyjno-ekonomiczną gospodarstwa. Mówiąc o strukturze
agrarnej naleŜy mieć na uwadze dwa procesy jej towarzyszące a mianowicie procesy koncentracji i
dekoncentracji ziemi. Reformy rolne oznaczały zawsze zjawiska dekoncentracji, polegały bowiem
na podziale majątków ziemskich na mniejsze jednostki produkcyjne.
Struktura obszarowa gospodarstw rolnych jest jednym z najistotniejszych wyznaczników ich
sytuacji ekonomicznej oraz pozycji socjalnej ludności, a takŜe konkurencyjności rolnictwa w skali
międzynarodowej. Wadliwa struktura obszarowa gospodarstw rolnych rozdrobnienie obszarowe
gospodarstw wywołuje problemy związane z opłacalnością produkcji i dochodowością. Niska
opłacalność jest pochodną wadliwych relacji między czynnikami produkcji w gospodarstwach małych obszarowo i braku kapitału na stosowanie nowoczesnych technologii. Niski poziom dochodów jest przede wszystkim pochodną niewielkiej skali produkcji. W praktyce przewaŜnie jest tak,
Ŝe wszystkie te elementy występują łącznie, potęgując swe negatywne oddziaływanie. W gospodarstwach małych zwykle wadliwe są relacje między zasobami pracy i ziemi, a często takŜe między
pracą i kapitałem. Na ogół stosuje się w nich przestarzałe technologie, co się często wiąŜe z wyŜszymi kosztami wytwarzania, jak równieŜ z niŜszą jakością wytworzonych produktów. Mała skala
produkcji stwarza problemy na rynku rolnym (brak moŜliwości powiązań integracyjnych, wysokie
koszty transakcyjne). Wynikiem małej skali wytwarzania jest przede wszystkim niski dochód z gospodarstwa rolnego (Poczta W., Wysocki F. 2001).
Struktura agrarna obrazuje nam kształt gospodarstw rolnych i system władania ziemią. Czynnikami uzupełniającymi jest wiek, płeć i poziom kwalifikacji rolniczych. Poziom wykształcenia
osób kierujących gospodarstwem rolnym jest waŜny poznawczo, pozwala bowiem na wyodrębnienie grupy rolników odpowiedzialnych za podejmowanie decyzji produkcyjnych.
Porównując kierunki zmian struktury agrarnej między kolejnymi powszechnymi spisami rolnymi z lat 1996 i 2002 moŜna dojść do wniosku, iŜ zmiany te nie miały identycznej tendencji w
poszczególnych grupach obszarowych. Przy ogólnych tendencjach spadkowych zanotowano
wzrost tylko w grupie gospodarstw najmniejszych czyli w przedziale 1-2 ha, tj. o 3,8% (o 54,6
tys.), co moŜna interpretować jako chęć sięgnięcia po dopłaty bezpośrednie z Unii Europejskiej.
Największą grupą w ogólnej liczbie gospodarstw stanowiły jednostki o powierzchni do 15 ha (pod
względem liczbowym 1756,3 tys. UŜytkowników) – 89,0% ogólnej populacji (w 1996 – 89,2%).
138
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Bardziej dokładną analizę kierunków zmian struktury agrarnej gospodarstw małych i średnich, będzie moŜna dokonać poprzez ocenę wielkości statystycznego gospodarstwa w poszczególnych grupach obszarowych. W gospodarstwach funkcjonujących w grupie do 15 ha, nie stwierdzono statystycznie istotnej róŜnicy między tymi jednostkami w świetle spisów rolnych z 1996 i 2002r. natomiast przyrost wielkości gospodarstw rolnych zanotowano w grupach powyŜej 15 ha (Powszechny
Spis Rolny, 2003),
Polska posiada duŜe zasoby uŜytków rolnych, jednakŜe struktura obszarowa gospodarstw rolnych w kraju wykazuje duŜe zróŜnicowanie i rozdrobienie. W strukturze gospodarstw rolnych w
2002r. dominowały zatem liczebnie gospodarstwa małe o powierzchni 1-5 ha, które stanowiły ponad połowę (58,7% -wzrost o 3,4 % w stosunku do 1996r.) ogólnej liczby jednostek i uŜytkowały
19,1% uŜytków rolnych. Gospodarstwa większe, powyŜej 20 ha UR stanowiły 5,8% (wobec 4,1%
w 1996r.) i w ich uŜytkowaniu pozostawało 34,7% UR. Udział gospodarstw średnich (od 5 do 20
ha) uległ zmniejszeniu w stosunku do 1996r o 5,0 pkt procentowych wynosił 35,5%. Gospodarstwa te uŜytkowały 46,2 % UR.
Warto zauwaŜyć, iŜ średnia wielkość gospodarstwa w kraju wykazywała znaczne zróŜnicowania regionalne. Największe rozdrobienie gospodarstw indywidualnych występowało w województwach południowych, w których średnia powierzchnia uŜytków rolnych w gospodarstwie wynosiła ponad 4,0 ha. Przykładowo w woj. małopolskim wynosiła 3,92 ha, w woj. podkarpackim 4,02 ha i w woj. śląskim - 4,40 ha. największa średnią powierzchnię uŜytków rolnych posiadały
gospodarstwa w województwach północnych, w tym woj. warmińsko-mazurskim - 18,74 ha,
w woj. zachodniopomorskim – 17,27 ha.i w woj. pomorskim – 14,91 ha.
Z przeprowadzonych badań wynika, iŜ średnia powierzchnia badanych gospodarstw wynosiła
38,8 ha (kilkakrotnie przewyŜszając średnią dla Polski), przy bardzo duŜej rozpiętości od zaledwie
0,4 ha do ponad 5000 ha. Przeciętnie największe gospodarstwa występowały w pasie przygranicznym – 51,9 ha, zaś najmniejsze w części wewnętrznej województwa – 29,4 ha (tab. 1).
Tabela 1. Powierzchnia badanych gospodarstw
Wyszczegól.
Powierzchnia
Pas wewnętrzny
X
29,4
min
1,0
max
420
Pas przygraniczny
X
51,9
min
0,4
max
5025
Pas nadmorski
X
31,4
min
0,5
max
650
X
38,8
Razem
min
max
0,4 5025
Źródło: Badania własne
Korelacja rang gamma wykazała, Ŝe wystąpiła istotna dodatnia zaleŜność pomiędzy wykształceniem i powierzchnią badanych gospodarstw. Oznacza to, Ŝe większe gospodarstwa posiadali relatywnie lepiej wykształceni rolnicy.
Jak wynika z danych zawartych w tabeli 2, największa liczba respondentów posiadała gospodarstwa w przedziale do 5 ha – 34 ha Kolejne miejsca zajęli badani prowadzący gospodarstwa od 5
do 10 ha oraz powyŜej 50 ha (po 14,9%)
139
Paweł Mickiewicz
Wpływ dopłat bezpośrednich na zmiany zachodzące w strukturze agrarnej w rolnictwie
województwa zachodniopomorskiego
Tabela 2. Powierzchnia badanych gospodarstw w przedziałach wielkości
Wyszczegól.
Do 5 ha
od 5 do 10
od 10 do 15
15 - 25
25 - 35
35 - 50
PowyŜej 50
Razem
Pas wewnętrzny
Pas przygraniczny
Pas nadmorski
Razem
n
% resp
n
% resp
n
% resp
n
% resp
86
41
18
40
14
28
36
263
32,7
15,6
6,8
15,2
5,4
10,6
13,7
100
85
40
18
26
16
32
40
257
33,0
15,6
7,0
10,1
6,2
12,5
15,6
100
50
16
16
18
8
4
18
130
38,5
12,3
12,3
13,8
6,2
3,1
13,8
100
221
97
52
84
38
64
94
650
34,0
14,9
8,1
12,9
5,8
9,8
14,5
100
Źródło: Badania własne
Analiza testu Chi-kwadrat wykazała istotne róŜnice jedynie między pasem nadmorskim
i przygranicznym. W pierwszym obszarze stwierdzono więcej gospodarstw najmniejszych i mniej
o areale powyŜej 50 ha. W przypadku pozostałych obszarów nie wystąpiły istotne róŜnice.
Jak wynika z przeprowadzonych badań respondenci uŜytkowali zarówno grunty będące ich
własnością jak równieŜ grunty dzierŜawione. Na uwagę zasługuje fakt, Ŝe średnia powierzchnia
gruntów własnych była mniejsza od średniej powierzchni gruntów dzierŜawionych. RóŜnica wynosiła blisko 8 ha.
Ta sytuacja jest typowa dla krajów UE o rozwiniętej gospodarce rynkowej głównym sposobem wzrostu powierzchni gospodarstw jest dzierŜawa gruntów rolnych. W Belgii, we Francji i w
Niemczech udział dzierŜawionych gruntów w 2002 r. przekraczał 70%. W kolejnej grupie krajów,
takich jak Holandia, Luksemburg, Wielka Brytania i Włochy, udział dzierŜaw w 2002 r. przekraczał 40%. Nieco mniejszy był udział dzierŜaw w Danii, gdzie wynosił 26,5%. Kolejną prawidłowością jest utrzymywanie się wysokiego poziomu dzierŜaw w niektórych krajach, np. w Belgii,
gdzie po przejściowym, niewielkim obniŜeniu w latach 1986–1993 udział dzierŜaw w 2002 r. wynosił 74,7%, a w 1975 r. 72,9%. Podobna prawidłowość wystąpiła w Holandii. W pozostałych krajach nastąpił zdecydowany wzrost udziału dzierŜaw, np. we Francji udział gruntów w dzierŜawie
wzrósł z 48,2% w 1975 r. do 82,1% w 2002 r. Jeszcze wyŜszy był wzrost dzierŜaw w Niemczech.
Podobne tendencje występują w Polsce, gdzie udział dzierŜaw w 2002 r. wynosił 22,5%, w tym
14,5% stanowiły dzierŜawy z Zasobu Własności Rolnej Skarbu Państwa, a pozostałą część dzierŜawy sąsiedzkie. W Polsce istotny przyrost nastąpił w latach 1993–2002, kiedy udział dzierŜaw
wzrósł z 6,1% do 22,5%. Głównym czynnikiem powoduj ą cym wzrost znaczenia dzierŜaw są wysokie ceny gruntów rolnych w krajach UE (Ziętara W. 2006).
Rozpatrując ten problem w układzie poszczególnych obszarów badawczych stwierdzono, Ŝe
tylko w pasie przygranicznym średnia powierzchnia gruntów własnych (36,9 ha) przekraczała areał
gruntów dzierŜawionych (32,1 ha) (tab. 3).
140
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela 3. Struktura własności gruntów
Wyszczegól.
grunty własne
dzierŜawa
Pas wewnętrzny
X
20,3
26,1
min
0,8
0,5
Pas przygraniczny
max
420
184
X
36,9
32,1
min
0,4
0,4
max
5025
187
Pas nadmorski
X
15,9
48,7
min
0,2
0,2
max
236
650
X
25,9
32,3
Razem
min
max
0,2
5025
0,2
650
Źródło: Badania własne
DzierŜawione grunty pochodziły z trzech podstawowych źródeł: od osób prywatnych, gminy oraz
Agencji Nieruchomości Rolnych oraz z zasobów gminnych. Ogólnie największe znaczenie na badanym terenie miała Agencja Nieruchomości Rolnych, z której usług skorzystało 15,4% respondentów.
W badaniach waŜne było sprawdzenie struktury uŜytkowania gruntów, która została przedstawiona w tabeli 4. Grunty orne zajmowały średnio 35 ha, przy rozpiętości od 0,1 do 281 ha. Gleby w badanych gospodarstwach charakteryzowały się dobrą jakością. Dominowały grunty klasy
IIIb, IVa i IVb (średnio 29,7 ha). Na uwagę zasługuje relatywnie duŜy udział uŜytków zielonych
wynoszący średnio 6,7 ha, przy rozpiętości od 0,1 do 80 ha. Jest to pozytywne zjawisko, gdyŜ
obok duŜego znaczenia gospodarczego uŜytki zielone, odgrywają waŜną rolę w ochronie gleb
przed erozją, ochronie gleb torfowych, ochronie jezior i innych zbiorników wodnych.
Tabela 4. Struktura uŜytkowania gruntów
Wyszczegól.
grunty orne
klasa I,II,IIIa
klasa IIIb, IVa, i
IVb
klasa V, VI, VIz
łąki i pastwiska
sady i uprawy
ogrodnicze
lasy i grunty
zadrzewione
budowlane
rekreacyjne
inne
Pas wewnętrzny
X
39,2
25,6
min
1,0
0,5
max
180,1
270,0
Pas przygraniczny
X
36,5
11,3
Pas nadmorski
min
0,4
1,0
max
180,0
40,0
X
30,2
9,6
min
0,0
1,0
max
281,7
36,2
X
35,1
14,3
Razem
min
max
0,1
281,7
0,5
270,0
21,4
0,2
200,0
29,2
0,4
160,0
51,3
1,0
650,0
29,7
0,2
650,0
18,4
6,9
0,5
0,4
220,0
80,0
11,9
7,0
0,2
0,1
80,0
40,0
5,0
5,8
0,4
0,4
19,6
50,0
15,3
6,7
0,2
0,1
220,0
80,0
1,2
0,1
6,0
1,3
0,2
10,0
0,6
0,1
2,5
1,1
0,1
10,0
3,6
0,1
15,0
1,1
0,2
2,4
0,8
0,1
1,9
2,5
0,1
15,0
0,5
3,0
6,0
0,1
0,8
0,3
2,0
7,0
24,0
0,8
0
0,4
0,3
0,0
0,4
2,0
0,0
0,4
0,6
0
0,7
0,1
0,0
0,7
1,2
0,0
0,7
0,6
3,0
4,7
0,1
0,8
0,3
2,0
7,0
24,0
Źródło: Badania własne
W ostatnich kilku latach moŜna było dostrzec w rolnictwie polskim ciekawe i pozytywne na
ogół zjawiska, świadczące o tym, Ŝe nawet w okresie głębokiej dekoniunktury występują w pewnej
grupie gospodarstw procesy dostosowawcze do warunków, jakie podyktował rynek. Zjawiska te
nasiliły się tuŜ przed – ale głównie po wejściu Polski do Unii Europejskiej. Dzisiaj nawet sceptycy
muszą przyznać, Ŝe polskie gospodarstwa rolne sporo zyskują na tym wejściu, doświadczają bo-
141
Paweł Mickiewicz
Wpływ dopłat bezpośrednich na zmiany zachodzące w strukturze agrarnej w rolnictwie
województwa zachodniopomorskiego
wiem skutków wsparcia finansowego w róŜnej postaci, a zwłaszcza powszechnych dopłat bezpośrednich (Gorzelak E., 2005).
Jak wynika z przeprowadzonych badań, poziom dopłat bezpośrednich absorbowanych przez
respondentów osiągał bardzo zróŜnicowany poziom, uzaleŜniony od posiadanego areału. Średnio
na terenie województwa zachodniopomorskiego kwota dopłat wyniosła w badanym okresie 13183
zł, przy olbrzymiej rozpiętości od 100 zł do 800 tysięcy zł. W odniesieniu do poszczególnych „pasów” nie stwierdzono większych rozbieŜności (tab. 5). Ze względu na średnio niewielkie kwoty
uzyskiwane przez respondentów z dopłat bezpośrednich, stanowiły one niewielki procent ogólnego
dochodu uzyskiwanego w badanych gospodarstwach. Średnio, zdaniem badanych, dopłaty bezpośrednie stanowiły zaledwie 0,4% ogólnego dochodu. Stwierdzono jednak występowanie duŜych
rozbieŜności. Udział środków finansowych pochodzących z dopłat bezpośrednich wynosił bowiem
od zaledwie 0,01% do 35%. Rozpatrując powyŜsze zagadnienie w ujęciu poszczególnych subobszarów, zaobserwowano duŜą róŜnicę na niekorzyść pasa wewnętrznego. Średnio dopłaty obszarowe stanowiły tam średnio 0,2%, jednak maksymalny udział wynosił tylko 1% (tab. 6).
Tabela 5. Poziom dopłat bezpośrednich w badanych gospodarstwach
Wyszczegól.
Dopłaty
Pas wewnętrzny
X
12885
min
150
Pas przygraniczny
max
177000
X
14417
min
100
Pas nadmorski
max
800000
X
11186
min
200
Razem
max
300000
X
13183
min
100
max
800000
Źródło: Badania własne
Tabela 6. Udział dochodu z dopłaty bezpośredniej w dochodzie ogółem
Pas wewnętrzny
Wyszczegól.
Dopłaty
Pas przygraniczny
Pas nadmorski
X
min
max
X
min
max
X
min
max
X
0,2
0,01
1
0,4
0,01
35
0,5
0,02
22,5
0,4
Razem
min
max
0,01
35
Źródło: Badania własne
Dopłaty bezpośrednie miały w załoŜeniu poprawić sytuację finansową polskich rolników i jak
wynika z przeprowadzonych badań w części spełniły swoje zadanie. Na obszarze objętym badaniami, ponad 45% respondentów było zdania, Ŝe dopłaty bezpośrednio wpłynęło na poprawę sytuacji finansowej w ich gospodarstwach. Kolejnych 32,9% badanych właścicieli gospodarstw nie
umiało jednoznacznie odpowiedzieć na tak postawione pytanie, zaś 21,6% respondentów stwierdziło, Ŝe dopłaty nie zmieniły poziomu ich dochodów. Jak wynika z przeprowadzonych badań najczęściej pozytywną opinię o skuteczności dopłat posiadali właściciele największych obszarowo
gospodarstw. Jak twierdzi Rowiński (2003) jakkolwiek część gospodarstw odczuje korzyści spowodowane wprowadzeniem mechanizmu dopłat bezpośrednich w pierwszych latach członkostwa,
to jednak będą one miały wyraźny wpływ na sytuację dochodową rolnictwa jako całości dopiero od
2008 roku, gdy potencjalne płatności bezpośrednie z budŜetu UE będą kształtować się na poziomie
50% pełnych płatności (Rowiński J. 2003).
Przeprowadzona analiza Chi-kwadrat wykazała róŜnice jedynie pomiędzy pasem wewnętrznym i nadmorskim. W pierwszym wypadku większa liczba respondentów (o 10%) stwierdziła poprawę swojej sytuacji finansowej związanej z pozyskaniem dopłat bezpośrednich. Analiza nie wykazała istotnych róŜnic pomiędzy pozostałymi obszarami.
142
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Kolejna zbadana kwestia związana z dopłatami bezpośrednimi dotyczyła przeznaczania pozyskanych w ten sposób środków finansowych. Stwierdzono, iŜ blisko połowa respondentów (48,8%)
przeznaczała je na inwestycje w gospodarstwie.
Gospodarstwo rolne, tak jak kaŜde inne przedsiębiorstwo, aby się rozwijać wymaga ciągłych
inwestycji. Jak podaje Woś (1996), potencjały gospodarcze sukcesywnie zuŜywają się, wobec czego – w celu podtrzymania ich zdolności produkcyjnych i usługowych – muszą być odtwarzane w
formie inwestycji (Woś A., 1996). Zakładając, Ŝe gospodarstw rolne jest podmiotem rozwojowym,
to wcześniej czy później staje wobec dylematu bariery rozmiarów produkcji, technologii wytwarzania, jakości produkcji, potrzeby zmian w zarządzaniu, w tym zwłaszcza produkcją finalną. WiąŜe się to zwykle z potrzebą podejmowania procesu inwestycyjnego, który musi być racjonalnie
uzasadniony i przygotowany. Inwestycja musi godzić zwykle sprzeczne interesy gospodarstwa domowego (w okresie krótkim) i gospodarstwa rolnego (Musiał W., Mikołajczyk J. 2004).
Wspomniana wyŜej sprzeczność interesów gospodarstwa rolnego i domowego, znalazła potwierdzenie w niniejszych badaniach. Kolejna pod względem liczebności grupa badanych (36%)
stwierdziła bowiem, Ŝe pieniądze z dopłat jest zmuszona przeznaczać na bieŜące potrzeby związane z potrzebami socjalno-bytowymi rodziny. Taka sytuacja miała wyraźne miejsce w pasie nadmorskim, gdzie respondenci deklarowali przeznaczenie większych sum pieniędzy na bieŜące potrzeby, aniŜeli na inwestycje (tab. 7). Pozostałe cele na które przeznaczano środki finansowe z dopłat bezpośrednich, takie jak oszczędności, dokształcanie czy inwestowanie w działania związane
z pozarolniczą działalnością gospodarczą nie przekroczyły bariery 4%.
Tabela 7. Przeznaczenie uzyskanych środków finansowych z dopłat bezpośrednich
Wyszczególnienie
bieŜąca konsumpcja
inwestycje w
gospodarstwie
dokształcenie
podjęcie
dodatkowej
działalności
gospodarczej
oszczędności
inne
Razem
Pas wewnętrzny
Pas przygraniczny
Pas nadmorski
Razem
n
% resp
n
% resp
n
% resp
n
% resp
97
36,9
77
30,0
60
46,1
234
36,0
127
48,3
140
54,5
50
38,5
317
48,8
14
5,3
5
1,9
0
0,0
19
2,9
5
1,9
2
0,8
1
0,8
8
1,3
5
15
263
1,9
5,7
100
14
19
257
5,4
7,4
100
2
17
130
1,5
13,1
100
21
51
650
3,2
7,8
100
Źródło: Badania własne
Wśród wspomnianych wyŜej inwestycji w badanych gospodarstwach, tylko jedna trzecia
(31,8%) dotyczyła powiększania posiadanych zasobów ziemi. Wynikało to miedzy innymi z faktu,
Ŝe badane gospodarstwa charakteryzowały się relatywnie duŜą powierzchnią w porównaniu do
średniej w kraju i województwie (tab. 8). Rozpatrując ten problem pod katem podziału na pasy, nie
stwierdzono większych rozbieŜności.
143
Paweł Mickiewicz
Wpływ dopłat bezpośrednich na zmiany zachodzące w strukturze agrarnej w rolnictwie
województwa zachodniopomorskiego
Tabela 8. Wpływ dopłat bezpośrednich na powiększenie areału gospodarstwa
Wyszczególnienie
tak
nie
Razem
Pas wewnętrzny
Pas przygraniczny
Pas nadmorski
Razem
n
% resp
n
% resp
n
% resp
n
% resp
68
195
263
25,9
74,1
100
98
159
257
38,1
61,9
100
41
89
130
31,5
68,5
100
207
443
650
31,8
68,2
100
Źródło: Badania własne
Znamienne jest to, Ŝe respondenci, którzy planowali powiększenie areału gospodarstw,
w większości (21,4%) byli zainteresowani dzierŜawą dodatkowych gruntów. Chęć zakupu ziemi
deklarowało zaledwie 13,5% badanych.
4. Podsumowanie
Działalność gospodarcza (w tym takŜe działalność rolnicza) jest prowadzona w celu zwiększenia efektywności gospodarowania, co wyraŜa się wzrostem produktywności ponoszonych nakładów. Wprawdzie cele działalności podmiotów gospodarczych w rolnictwie mogą być róŜnorodne, ale głównym celem jest poprawa efektywności produkcji, prowadząca do wzrostu dochodów.
W gospodarstwie rodzinnym oznacza to dąŜenie da maksymalizacji dochodu rolniczego.
W wyniku przeprowadzonych badań stwierdzono, iŜ pomimo korzystnego wpływu dopłat
bezpośrednich na wzrost dochodowości gospodarstw, tylko 1/3 badanych rolników skłonna była
powiększać swoje gospodarstwo w dalszym ciągu. Głównym sposobem powiększenia gospodarstw
była chęć dzierŜawa aniŜeli zakupu ziemi. Niestety w dalszym ciągu blisko jedna trzecia środków
finansowych przeznaczana była na bieŜącą konsumpcję. Optymistycznym jest fakt, iŜ prawie połowa badanych przeznaczała dopłaty na inwestycje w gospodarstwo. Rolnicy natomiast nie myśleli
o dokształcaniu się lub odkładaniu oszczędności.
W województwie zachodniopomorskim struktura obszarowa gospodarstw kształtuje się
o wiele korzystniej aniŜeli w województwach południowych i wschodnich oraz w porównaniu do
średniej ogólnopolskiej. DuŜą część stanowią gospodarstwa wielkoobszarowe. Zmiany w strukturze agrarnej w kierunku koncentracji gruntów będą się nadal dokonywały.
Proponuje się podjęcie działań, które umoŜliwiałyby utworzenie regionalnych baz badawczych dotyczących gospodarstw indywidualnych regionu, które byłyby uzupełniane badaniami
prowadzonymi w celach naukowych oraz badań wykonywanych na zlecenie podmiotów gospodarczych i badań własnych.
5. Literatura
1.
2.
3.
Gorzelak E. 2005. Rozwój polskiego rolnictwa przed i po 2004 roku. Zagadnienia
ekonomiki rolnej 2 (303).
Musiał W., Mikołajczyk J. 2004. Inwestycje produkcyjne, jako czynnik wzrostu dochodu
rolniczego [w:] Adamowicz M. (red.) Wiejskie gospodarstwa domowe w obliczu
problemów transformacji, integracji i globalizacji Prace Naukowe KPAiM SGGW nr 33,
Wyd. SGGW Warszawa
Poczta W., Wysocki F. 2001. Struktura obszarowa rolnictwa polskiego – próba prognozy
zmian do roku 2010. Postępy Nauk Rolniczych, 1.
144
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
4.
5.
6.
7.
8.
Powszechny Spis Rolny, 2003
Rowiński J. 2003: Koszty i korzyści członkostwa Polski w UE (rolnictwo). Raport z
badań „Koszty i korzyści członkostwa Polski w Unii Europejskiej”, Centrum Europejskie
Natolin, Warszawa. s. 105-135
Szemberg, 1998
Woś A. 1996. Agrobiznes -makroekonomia. t. I. Wydawnictwo Key Text, Warszawa. s.
167-177 Woś 2000
Ziętara W. 2006. DzierŜawa jako czynnik przemian w strukturze gospodarstw, Zeszyty
Naukowe Ekonomika i Organizacja Gospodarki śywnościowej NR 58
INFLUENCE OF DIRECT PAYMENTS ON AGRICULTURAL STRUCTURE CHANGES
IN WEST POMERANIAN VOIVODESHIP
Summary:
The major weakness of polish agriculture is division of land for many farms. It
means that farms are rather small. It results by social and economical aspects as
well as low level of farmers income. Direct payments had positive influence on agricultural structure changes in west Pomeranian voivodeship. Research covers the
first period of Polish membership in EU.
Key words: direct payments, agricultural structure changes
Paweł Mickiewicz
Pracownia Ekonomiki Przestrzennej i Środowiskowej
Katedra Prawa i Gospodarki Nieruchomościami
Wydział Ekonomiczny
Zachodniopomorski Uniwersytet Technologiczny
71-424 Szczecin, ul. śołnierska 47
GraŜyna Owczarczyk-Szpakowska
Zarządzanie przez podatki
145
GRAśYNA OWCZARCZYK-SZPAKOWSKA
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
ZARZĄDZANIE PRZEZ PODATKI
Streszczenie
Podatek ukazuje się jako złoŜona konstrukcja prawna, realizująca określone
idee i cele, będące wyrazem wybranych koncepcji społeczno-politycznych i ekonomicznych. Odpowiednie zarządzanie podatkami i ukształtowanie obciąŜeń podatkowych jest podstawowym instrumentem państwa, które pozwala stymulować wzrost
gospodarczy. Przedmiotem artykułu jest konstrukcja podatkowa, za pomocą której
Państwo realizuje szereg funkcji fiskalnych i pozafiskalnych, wpływając tym samym
na warunki społeczno-gospodarcze kraju.
Słowa kluczowe: podatki, państwo, opodatkowanie, wysokość obciąŜeń podatkowych, funkcje
podatkowe, system podatkowy
1. Wprowadzenie
Konieczność tworzenia odpowiednich zasobów finansowych państwa powoduje rozwój instytucji i narzędzi finansowych, jakimi są podatki. JuŜ w staroŜytnej Grecji i Rzymie zauwaŜono potrzebę gromadzenia środków finansowych, które umoŜliwiały wydatki państwa związane wówczas
z prowadzeniem wojen i podbojów oraz utrzymaniem.
Współcześnie podatki są równie istotnym zagadnieniem finansowym, gospodarczym i prawnym, które staje się często przedmiotem rozwaŜań teoretyków i praktyków. Dziś bowiem, w dobie
kryzysu finansowego, rozwiązania dotyczące kwestii opodatkowania, w tym takŜe problem funkcji,
istoty i charakteru obciąŜeń podatkowych wywołują Ŝywe spory i dyskusje.
W polityce finansowej państwa instrumenty podatkowe mają najdłuŜszą tradycję, odgrywając
stale bardzo istotną rolę fiskalną i pozafiskalną. W literaturze podkreśla się często, Ŝe chociaŜ racją
istnienia podatków jest funkcja podstawowa, czyli fiskalna, a więc gromadzenie środków niezbędnych do realizacji zadań publicznych, to na tym rola podatków się nie kończy. Podatki stworzone
zostały takŜe w celu wielokierunkowych moŜliwości oddziaływania państwa na określone dziedziny Ŝycia podmiotów zobowiązanych do ich zapłaty. Dla nich to właśnie uiszczanie podatków kojarzy się z niemiłym doświadczeniem, poniewaŜ fiskus zabiera część ich dochodów na rzecz ogółu.
Jednak w taki sposób respektowana jest zasada powszechności i równości opodatkowania, w myśl
której podatek jako świadczenie przymusowe powinien spoczywać na wszystkich i wszyscy muszą
przyczyniać się do pokrywania wspólnych potrzeb, niezaleŜnie od pochodzenia, rasy czy religii.
Polski system podatkowy składa się z wielu podatków odgrywających róŜną rolę fiskalną, gospodarczą i społeczno-polityczną. KaŜdy podatek ma odmienny charakter, połączony jest z inną
sferą stosunków ekonomicznych i społecznych a takŜe pobierany jest na rzecz innej wspólnoty terytorialnej, np. państwa, województwa, powiatu czy gminy
146
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
2. Definicja i istota podatków
Podatek jest jedną z podstawowych kategorii pojęciowych funkcjonujących we współczesnej
świadomości społecznej. Stosunek do polityki podatkowej łączy bądź dzieli róŜne grupy społeczne, projekty reform podatkowych są składnikiem programów partii politycznych, a obietnice podatkowe stają się często elementem gry wyborczej. Podatki są waŜnym czynnikiem funkcjonowania kaŜdego państwa. Stanowiąc źródło dochodów budŜetowych, wpływają na moŜliwości finansowania polityki gospodarczej i społecznej realizowanej przez rządy. Są jednym z podstawowych
instrumentów regulowania gospodarki, oddziałującym na konsumpcję, oszczędności oraz na działalność podmiotów gospodarczych. Podatki są daninami, które odgrywają współcześnie ogromną
rolę. Ich zakres przedmiotowy i podmiotowy jest o wiele szerszy aniŜeli opłat i ceł, zaliczanych
równieŜ do danin publicznych. Za pomocą podatków państwo realizuje szereg zadań o charakterze
fiskalnym i pozafiskalnym. Podatek jest świadczeniem powodującym przepływ określonej wartości
ekonomicznej z majątku podatnika do majątku państwa. Przepływ ten nie jest obojętny ani w skali
mikroekonomicznej, ani teŜ w skali makroekonomicznej, stanowiąc istotny czynnik wpływający na
gospodarkę [1]. Podatki są to obowiązkowe płatności na rzecz skarbu Państwa lub na rzecz samorządu, będące wyrazem przymusowego przejmowania środków przez sektor publiczny na rzecz
finansowania zadań publicznych, tj. w celu wytwarzania dóbr publicznych, zaspokajających potrzeby, których obywatel (mieszkaniec) własnym działaniem, z reguły nie jest w stanie sam zaspokoić [2].
W ujęciu ekonomicznym podatek jest formą przewłaszczenia na rzecz państwa lub związku
publicznoprawnego części dochodów, przychodów lub majątku od podmiotów im podporządkowanych [3]. Podatnik postrzegany jest obecnie nie tylko jako podmiot dostarczający dochodów
państwu lub innemu związkowi publicznoprawnemu, lecz przede wszystkim jako członek społeczeństwa, podmiot tworzący produkt społeczny [4].
W aspekcie prawnym (przepisów prawa) podatek jako świadczenie ekonomiczne zdefiniowany jest w art. 6 Ordynacji podatkowej [5] poprzez określenie cech tego świadczenia. Ustawa wskazuje, Ŝe jest to świadczenie publicznoprawne, nieodpłatne, przymusowe, bezzwrotne, na rzecz
Skarbu Państwa, województwa lub gminy. W tej ustawowej definicji zostały zawarte prawne, stałe
cechy kaŜdego podatku. Podatki są publicznoprawne bowiem stanowią naleŜności na rzecz jednostek prawa publicznego, które w zakresie zobowiązania podatkowego pozostają w stosunkach nadrzędności nad podmiotami zobowiązanymi do zapłaty owego świadczenia. Obowiązek podatkowy
jest bezwarunkowy, gdyŜ podatek ma charakter jednostronnego aktu władzy przyjętego w formie
ustawy. Element władczości, a nie porozumienia (umowy), świadczy o nierównorzędności dwóch
podmiotów – państwa i podatnika. Podatek jest świadczeniem jednostki na rzecz państwa (władcy), któremu nie towarzyszy wzajemne świadczenie państwa.
Podatek ma równieŜ określone znaczenie polityczne (ustrojowe), poniewaŜ dotyczy bezpośrednio stosunku między państwem a obywatelem. Aspekt ustrojowy podatku odzwierciedla sytuację polityczną państwa, gdyŜ o tym jakiego rodzaju podatki będą ustanowione i jaką przybiorą
formę decyduje większość polityczna w parlamencie. Jednak zasadniczą podstawę normatywną
podatków stanowi Konstytucja [6], która wywiera znaczący wpływ na stanowienie ustaw podatkowych i daje moŜliwość oceny zgodności tych ustaw z nią samą. Poprzez tworzenie prawa podatkowego normodawca wkracza bezpośrednio w sferę majątkową obywateli, powołując do Ŝycia
stosunki społeczne pomiędzy nimi a państwem. Zasady tworzenia prawa podatkowego wyprowa-
GraŜyna Owczarczyk-Szpakowska
Zarządzanie przez podatki
147
dzone z norm konstytucyjnych powinny dawać podstawowe gwarancje ochrony prawnej obywateli,
tak gdy chodzi o sposób powoływania do Ŝycia norm prawa podatkowego, jak i ich treść [4].
WaŜne jest przy tym, aby granice konstytucyjności prawa podatkowego odnosić zarówno do całego systemu, jak i do konstrukcji poszczególnych podatków [4].
3. Funkcje fiskalne i pozafiskalne podatków
Podatki w skali całej gospodarki nie powinny w krótkich okresach wpływać na nią hamująco,
zaś w perspektywie długookresowej powinny przyczyniać się do jej rozwoju. Chodzi przede
wszystkim o sprzyjanie wzrostowi gospodarczemu, stabilizowanie wartości pieniądza a takŜe przeciwdziałanie bezrobociu. Przy zbyt wysokich obciąŜeniach podatkowych nie tylko nie jest moŜliwy
rozwój gospodarczy, lecz takŜe bardzo często nie jest moŜliwe przejęcie zaplanowanych dochodów budŜetowych.
W literaturze dotyczącej podatków dokonał się charakterystyczny przełom w sposobie formułowania funkcji, które dzięki opodatkowaniu mogą być realizowane. Obok podstawowej funkcji
fiskalnej, jaką jest pokrycie zapotrzebowania państwa na dochód publiczny[7], coraz większą rolę
odgrywają funkcje pozafiskalne – gospodarcze i społeczne. Zasadnicze znaczenie ma jednak funkcja fiskalna sprowadzająca się do tego, Ŝe za pośrednictwem podatków państwo i samorząd gromadzą zdecydowaną większość wszystkich dochodów budŜetowych. Opodatkowanie o charakterze
fiskalnym słuŜy skutecznemu finansowaniu wydatków publicznych państwa. W realizacji tej funkcji fiskalnej ustawodawca podatkowy powinien:
•
•
•
•
•
•
ocenić, czy źródło podatku jest wystarczająco wydajne,
ocenić, czy podatek w stosunkowo krótkim czasie reaguje na wzrost i spadek zapotrzebowania państwa na dochód publiczny – czy jest elastyczny,
unikać przesadnego kształtowania cięŜaru podatkowego, gdyŜ to nie prowadzi do podwyŜszenia realnego dochodu z podatku a wręcz przeciwnie szkodzi ekonomicznej stabilności państwa i społeczeństwa,
uwzględniać zasadę powszechności i równomierności opodatkowania, czyli w jaki sposób
rozłoŜyć obciąŜenia podatkowe na podatników,
utrzymać na moŜliwie niskim poziomie obciąŜenia podatkowe wraz z kosztami ich realizacji,
przestrzegać nakazu zachowania źródła podatkowego, czyli nie stosować podatków, które
osłabiają i naruszają kapitał finansowy i gospodarczy a w rezultacie wpływają negatywnie
na kształtowanie przyszłych dochodów budŜetowych.
Do podstawowych funkcji o charakterze fiskalnym naleŜy zaliczyć funkcję redystrybucyjną,
która polega na podziale przychodu lub dochodu opodatkowanych podmiotów w sposób pośredni
lub bezpośredni i przekazaniu go na rzecz budŜetu. Podatki stanowią, bowiem jeden z podstawowych instrumentów dystrybucji dochodu narodowego, dzieląc powstały produkt na rzecz innych
podmiotów mikroekonomicznych i makroekonomicznych. Poprzez redystrybucję środków finansowych następuje nagromadzenie zasobów u jednego z uczestników redystrybucji (państwa), przy
jednoczesnym zmniejszeniu posiadanych zasobów u drugiego (podatnika). Ta funkcja fiskalna juŜ
od wieków towarzyszy podatkom, które z załoŜenia mają na celu gromadzenie dochodów budŜetowych.
148
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Cele (funkcje) fiskalne opodatkowania uzaleŜnione są głównie od wydatków budŜetowych
państwa, te zaś z kolei od tego, na ile państwo ingeruje w Ŝycie gospodarcze i społeczne. MoŜna
przyjąć, Ŝe rozstrzygnięcia o wydatkach państwa mają w znacznej mierze charakter polityczny, co
stwarza niebezpieczeństwo preferowania w systemie podatkowym jego celów fiskalnych. Rozbudowane wydatki budŜetowe mogą powodować trudności w uzyskiwaniu środków pienięŜnych niezbędnych do ich realizacji, a takŜe znacznie ograniczać podstawowe zasady gospodarki rynkowej
iniewłaściwie ukształtować relacje pomiędzy państwem a podatnikiem. WaŜne jest takŜe to, aby
przyjęte w danym systemie konstrukcje podatkowe były tworzone z myślą o moŜliwościach długotrwałego pokrywania potrzeb budŜetowych. Nie oznacza to jednak, Ŝe cele fiskalne opodatkowania, związane z samą istotą podatku, mogą zdominować system podatkowy. Jego konstrukcja powinna bowiem zmierzać do swego rodzaju kompromisu pomiędzy celami fiskalnymi, gospodarczymi i społecznymi opodatkowania.
Projekty naprawy finansów publicznych, przygotowywane przez rząd, zawierają liczne propozycje zmian w systemie podatków i opłat oraz wydatków budŜetu państwa. Przyjęcie niektórych
z nich przyczyni się do zwiększenia dochodów budŜetu państwa, a tym samym spowoduje wzrost
obciąŜeń finansowych obywateli. W sondaŜu przeprowadzonym przez CBOS [8], zapytano ankietowanych, które ze zmian byłyby najbardziej, a które najmniej dla nich dotkliwe. Ankietowanym
została przedstawiona lista propozycji zmian, z której mogli wybrać dwie, te ich zdaniem najbardziej lub najmniej uciąŜliwe dla społeczeństwa. W tabeli 1 zestawiono procentowy udział wskazań
propozycji naprawy finansów państwa z podziałem na uciąŜliwe i nieuciąŜliwe.
Tabela 1. Propozycje naprawy finansów państwa z podziałem na uciąŜliwe
i nieuciąŜliwe społecznie
Lista propozycji naprawy finansów państwa
Likwidacja większości ulg podatkowych,
Zaniechanie automatycznego podnoszenia emerytur i
płac w gospodarce uspołecznionej wraz ze wzrostem
wskaźnika cen,
Zlikwidowanie wspólnego opodatkowania małŜeństw,
Udział wskazań
uciąŜliwych [%]
39
Udział wskazań mało
uciąŜliwych [%]
12
32
7
28
20
19
12
14
15
14
21
13
36
Wprowadzenie podatku od wartości nieruchomości,
Likwidacja moŜliwości odpisywania kosztów uzyskania
dochodów osobistych,
Wprowadzenie zryczałtowanego podatku dla rolników,
Wprowadzenie opłat za egzaminy i dyplomy (świadectwa) na studiach.
Źródło: opracowanie własne na podstawie badań CBOS
Okazuje się, Ŝe zdecydowanie najbardziej niechętnie Polacy odnoszą się do zapowiedzi likwidacji większości ulg podatkowych. Niemal dwie piąte badanych (39%) wskazało tę propozycję
zmian jako najbardziej uciąŜliwą. Do tej samej kategorii - likwidacji ulg - naleŜy równieŜ zaliczyć
zniesienie wspólnego opodatkowania małŜeństw, wybrane przez ponad jedną czwartą responden-
GraŜyna Owczarczyk-Szpakowska
Zarządzanie przez podatki
149
tów (28%). 32% badanych uwaŜa za najbardziej uciąŜliwe zaniechanie automatycznej waloryzacji
emerytur i płac w gospodarce uspołecznionej - obawiając się, zapewne, obniŜenia ich poziomu
Ŝycia i wzrostu trudności finansowych.
Spośród propozycji naprawy finansów państwa, których obawia się społeczeństwo, stosunkowo duŜo wskazań ma wprowadzenie podatku od wartości nieruchomości - zmiany tej obawia się
niemal co piąty ankietowany (19%). Natomiast inne propozycje wskazywano z nieco niŜszą częstotliwością. Były to wspomniana wyŜej: likwidacja odpisów kosztów, wprowadzenie podatku dla
rolników oraz opłat za egzaminy i dyplomy na studiach. NaleŜy przy tym pamiętać, Ŝe badani mogli wybrać z podanej listy nie więcej niŜ dwie propozycje, zatem niewielki odsetek nie oznacza, Ŝe
tylko tyle osób uwaŜa dane rozwiązanie za uciąŜliwe - mogło ich być więcej, ale nie wszyscy spośród nich uznali je za jedno z dwóch najbardziej dotkliwych.
Badani wskazywali takŜe, które z wymienionych propozycji byłyby najmniej uciąŜliwe. Okazało się, Ŝe ze względu na takie kryterium obraz propozycji jest odmienny – nie jest zwykłą odwrotnością listy zmian wskazywanych najczęściej jako najbardziej uciąŜliwe dla społeczeństwa.
Rozwiązania rzadko uznawane za najbardziej uciąŜliwe nie muszą być automatycznie uwaŜane za
najmniej uciąŜliwe. MoŜna do nich mieć stosunek ambiwalentny. MoŜe być równieŜ tak, iŜ niektóre rozwiązania mają charakter kontrowersyjny i przez znaczną część respondentów uwaŜane są za
dotkliwe, a przez inną duŜą grupę za niedotkliwe. Dlatego istotne jest analizowanie osobno uszeregowań pod względem subiektywnie postrzeganej dolegliwości oraz jej braku. Tylko dwie pierwsze
propozycje - postrzegane najczęściej jako najmniej uciąŜliwe są tymi samymi, które były najrzadziej wskazywane jako najbardziej uciąŜliwe (wprowadzenie opłat za egzaminy i dyplomy na studiach oraz zryczałtowanego podatku dla rolników). Zlikwidowanie większości ulg podatkowych,
które na liście zmian postrzeganych jako najbardziej uciąŜliwe zajęło zdecydowanie pierwsze
miejsce - w kontekście rozwiązań najmniej uciąŜliwych wskazywane było znacznie rzadziej (przez
12% badanych). Taką samą liczbę wskazań uzyskała propozycja wprowadzenia podatku od wartości nieruchomości. Natomiast ostatnie miejsce - w zgodzie z częstością obaw, jakie budzi - zajęła
propozycja zaniechania waloryzacji: za najmniej uciąŜliwą uznało ją zaledwie 7% ankietowanych.
Biorąc pod uwagę wyniki badań CBOS, moŜna wysnuć wniosek, Ŝe podatnicy boją się zmian,
które wpłyną na ich sytuację finansową związaną z obciąŜeniami podatkowymi. Wskazane przez
rząd propozycje naprawy finansów państwa zawierające przede wszystkim zmiany w obciąŜeniach
podatkowych, oprócz skutków fiskalnych spowodują określone następstwa o charakterze społecznym i gospodarczym, które określa się mianem następstw (skutków) niefiskalnych [3]. Za pomocą
opodatkowania niefiskalnego państwo wywiera określony wpływ na ekonomiczne i gospodarcze
zachowanie się podmiotów opodatkowanych. Podatki o funkcjach niefiskalnych słuŜą powodowaniu pewnych poŜądanych zmian w Ŝyciu gospodarczym i społecznym. Za pomocą podatków państwo moŜe dąŜyć do ochrony i utrzymania oraz zmiany i przekształcenia stanu zjawisk społecznogospodarczych. Zadaniem systemu podatkowego jest obok celów fiskalnych funkcja alokacyjna
i stymulacyjna, które są motorem gospodarki [9]. Podatek moŜe pełnić funkcję stymulacyjną
(bodźcową), która polega na pobudzaniu do określonego działania, a co za tym idzie do osiągania
odpowiednich wyników ekonomicznych i finansowych oraz poŜądanych zysków. Z drugiej strony
podatek moŜe słuŜyć zahamowaniu i dyskryminowaniu form i rozmiarów określonej działalności
objętej opodatkowaniem. Funkcja pobudzająca i ograniczająca określone działania dokonuje się
przez kształt podstawy opodatkowania, stawki, ulgi, zniŜki, zwolnienia i wyłączenia podatkowe.
Cel społeczny podatku powinien być realizowany z myślą o racjonalnym dopasowaniu interesów
150
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
publicznych i interesów prywatnych, gdyŜ opodatkowanie ma słuŜyć w pierwszym rzędzie zaspokajaniu dobra wspólnego. Podatnik to nie tylko osoba, która dostarcza dochodów budŜetowych,
lecz członek reprezentujący róŜne interesy grupowe np. rolnik, pracodawca, których opodatkowanie nie moŜe pogłębiać a znaleźć pomiędzy nimi rozsądny kompromis. Realizacja celów społecznych podatku przez państwo dokonuje się poprzez odpowiedni podział dochodu narodowego na
tworzenie kapitału lub na konsumpcję [10]. JeŜeli z punktu widzenia polityki gospodarczej państwa, tworzenie kapitału w porównaniu do konsumpcji, jest zbyt niskie, to jednym ze sposobów
wzmocnienia tworzenia kapitału moŜe być obniŜenie opodatkowania. Działanie takie będzie skuteczne wówczas gdy dochód zaoszczędzony w formie podatkowej, przeznaczony zostanie na tworzenie kapitału. JeŜeli tworzenie kapitału jest zbyt wysokie, to podatki zostają uŜyte do zmiany
relacji między tworzeniem kapitału a konsumpcją.
Podstawowym warunkiem właściwego działania podatków w gospodarce jest ich zgodność
z zasadami funkcjonowania rynku, przede wszystkim z zasadą wolności gospodarczej i konkurencji. Istotne jest, aby podatki automatycznie dostosowywały się do zmiennych w czasie zjawisk gospodarczych. W ten sposób moŜna z jednej strony zapewnić trwałość pokrycia potrzeb publicznych, bez konieczności ciągłej zmiany konstrukcji podatkowych, a z drugiej strony stworzyć podmiotom gospodarczym moŜliwości wydłuŜania horyzontu czasowego rachunku ekonomicznego.
Podatek jest bowiem w gospodarce rynkowej jednym z podstawowych elementów planowania gospodarczego [4].
W interesie całej gospodarki leŜy stabilizacja poziomu cen, wysoki stopień zatrudnienia, równowaga w handlu zagranicznym, stały i równomierny wzrost gospodarczy. JeŜeli obciąŜenia podatkowe zostaną przekroczone to główne cele gospodarcze zostaną naruszone, gdyŜ istnieje związek między wzrostem gospodarczym, zatrudnieniem a opodatkowaniem.
Istnieje związek realizacji celów społecznych opodatkowania z respektowaniem zasad podatkowych. NaleŜałoby dąŜyć do optymalizacji systemu podatkowego jako mechanizmu społecznogospodarczego. JeŜeli w państwie ma być realizowana i ukierunkowana na wybrane cele strategia
gospodarcza, to powinna być ona odpowiednio wspomagana właściwą polityką wykorzystywania
funkcji pozafiskalnych podatków. Funkcje te mogą być przy tym dobrze realizowane pod warunkiem, Ŝe prawidłowo spełniana jest funkcja fiskalna podatków [11].
4. Kontrowersje wokół zarządzania podatkami przez Państwo
Polityka fiskalna państwa wywiera decydujący wpływ na sytuację finansową firm i obywateli,
przede wszystkim za pośrednictwem systemu podatkowego, który przejmuje z reguły znaczną
część przychodów przez nie osiąganych. Istotne znaczenie przy podejmowaniu decyzji finansowych ma zatem znajomość systemu podatkowego, a takŜe tendencji zmian w tej dziedzinie [12].
Przekształcenia społeczno-gospodarcze zachodzące w naszym kraju zmieniają warunki funkcjonowania i wymuszają nieustanne poszerzanie wiedzy z zakresu szeroko pojętych finansów, rachunkowości oraz róŜnych dziedzin prawa. To właśnie dzięki nowym aktom prawnym, tworzeniu
nowych instytucji finansowych, reorganizacji samorządu terytorialnego mogły nastąpić istotne
zmiany w warunkach funkcjonowania polskich podmiotów gospodarczych [13]. Konkurencja
w dobie globalizacji, dotyczy nie tylko przedsiębiorstw, ale takŜe państw, a więc i poszczególnych
systemów podatkowych. System podatkowy jest bowiem jednym z istotnych determinantów decyzji biznesowych, w tym w szczególności tych dotyczących miejsca lokowania nowych inwestycji.
Począwszy od wczesnych lat 90-tych polski system podatkowy przechodzi stopniową reformę. In-
GraŜyna Owczarczyk-Szpakowska
Zarządzanie przez podatki
151
tencją jest, aŜeby system ten zachęcał do inwestowania w Polsce oraz, w konsekwencji, do tworzenia nowych miejsc pracy. Na reformę systemu podatkowego nałoŜony został proces dostosowawczy prawa polskiego do prawa Unii Europejskiej. Zaowocowało to harmonizacją naszego prawa
podatkowego z prawem unijnym [14].
Wzrost i rozwój gospodarczy uzaleŜniony jest przede wszystkim od odpowiedniego zarządzania i administrowania Państwa w zakresie polityki podatkowej. Aby podatki stymulowały wzrost
gospodarczy ustawodawca powinien oprzeć je na kilku podstawowych kanonach:
•
podatki powinny być równe,
•
wysokość podatków powinna być stabilna, a nie stanowić kaprysu poborcy podatkowego,
•
podatki powinny być tak zorganizowane, by ich ściąganie było wygodne,
•
podatki powinny być ekonomiczne, czyli zebrana kwota powinna być wyŜsza od kosztów
jej ściągnięcia,
•
podatki powinny bezstronnie traktować wszystkich podatników,
•
podatki powinny być zgodne z polityką państwa,
•
podatki nie powinny zniechęcać do cięŜkiej pracy i przedsiębiorczości [15],
•
podatki nie mogą pozbawiać podatnika dochodu (majątku) w takim stopniu, który uniemoŜliwia korzystanie z prawa własności,
•
podatki muszą zapewnić poszanowanie dla majątku podatnika,
•
podatki nie mogą prowadzić do zagroŜeń egzystencji podatnika, nie mogą równieŜ zagraŜać prawu do prowadzenia działalności gospodarczej,
•
podatki nie mogą naruszać istoty dziedziczenia,
•
podatki muszą uwzględniać zarówno interes publiczny jak i ekonomiczne połoŜenie podatnika [3],
•
konfiskaty i kary pienięŜne nakładane na podatników nie powinny ich rujnować,
•
działalność podatników nie powinna być poddawana zbyt częstym i uciąŜliwym kontrolom przez poborców podatkowych,
•
podatek nie powinien hamować przedsięwzięć gospodarczych ludności i naruszać źródła
dochodu, z którego płacone są podatki. Z tezy tej wynika postulat ochrony źródeł podatkowych. Uszczuplenie lub zniszczenie źródeł podatkowych jest działaniem niepoŜądanym
i szkodliwym dla państwa. Dlatego teŜ uzasadniona jest ochrona działalności gospodarczej przynoszącej zysk, zwiększającej zatrudnienie, dającej płace, z których płacone są
podatki.
Jest oczywistym, Ŝe obywatele nie lubią płacić podatków. Nie lubią aŜ tak bardzo, Ŝe wysokie
podatki prowadzą do obniŜania chęci do pracy. Teoretycznie wyŜsze podatki obniŜają względny
koszt "nie-pracowania", tj. większy podatek zmniejsza róŜnicę między zyskiem z pracowania
i z nie-pracowania. MoŜe to skłonić niektórych podatników do rezygnacji z podjęcia jakiejkolwiek
pracy.
Innym waŜnym skutkiem wysokich podatków jest wzrost chęci do unikania ich płacenia. Wysokie podatki sprawiają, Ŝe osoby o duŜych dochodach - np. przedsiębiorcy, gwiazdy filmowe
i inni ludzie sukcesu - zmieniają kraj pobytu, wybierając takie kraje, gdzie podatki są niŜsze. Jeszcze innym efektem wysokich podatków jest ucieczka w szarą strefę ekonomii. Przy zbyt wysokich
podatkach ludzie uznają za racjonalne unikanie płacenia podatków, nawet przy znacznym ryzyku
poniesienia kary, w przypadku wykrycia oszustwa. Coraz częściej podatnicy zaczynają się teŜ za-
152
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
stanawiać nad problemem oceny słuszności czy sprawiedliwości podatków. Chodzi o ocenę proporcji poziomu pobieranych podatków i poziomu usług świadczonych przez państwo. Kiedy podatnik widzi, Ŝe za jego podatki minister odbywa wystawne bankiety, urzędnik rozbudowuje kwestionariusze podatkowe, a on z powodu wzrostu zagroŜenia przestępczością boi się wyjść na ulicę,
a gdy zachoruje, musi czekać na wizytę u lekarza w ogromnych kolejkach, to nic dziwnego, Ŝe ma
poczucie niesprawiedliwej wymiany miedzy sobą i państwem. U wielu podatników narasta przekonanie, Ŝe obciąŜenia podatkowe są za duŜe w stosunku do otrzymywanych w zamian od państwa
usług [16]. W obniŜeniu opodatkowania upatruje się kilku powiązanych ze sobą następstw finansowo-gospodarczych:
•
niskie podatki zachęcają do tego by je płacić,
•
do budŜetu wpływają realne dochody gdyŜ podatnicy nie poszukują sposobów omijania
podatków,
•
niskie opodatkowanie zachęca do inwestycji, w wyniku których wzrasta produkcja i zostają tworzone nowe miejsca pracy,
•
ze wzrostem produkcji związany jest wzrost dochodów z tytułu podatku pośredniego
VAT,
•
nowe miejsca pracy to zmniejszenie wydatków państwa z tytułu wypłaty zasiłków dla bezrobotnych, którzy sami zaczynają płacić podatki w związku z otrzymywanymi dochodami.
PodwyŜka podatków nie przyczynia się do szybkiego rozwoju kraju, gdyŜ im wyŜsze podatki,
tym wolniejszy rozwój. Gdy wprowadza się nowe podatki, a stare podnosi, trzeba liczyć się z nieprzyjemnymi konsekwencjami dla gospodarki i społeczeństwa.
5. Podsumowanie
Istnieje związek przyczynowo-skutkowy między filozofią społeczną i głoszonymi hasłami politycznymi, a sposobem funkcjonowania społeczeństwa, zachowaniami poszczególnych jego członków i całych grup społecznych oraz stanem gospodarki. Jeśli głosimy jakąś ideę, to nie moŜemy się
dziwić skutkom, które ona wywołuje [17]. Tak samo kaŜdy podatek wywiera bezpośredni wpływ
na alokację zasobów w gospodarce i jest źródłem tak zwanego efektu akcyzowego. JeŜeli coś opodatkowujemy, to, z definicji, tego czegoś jest mniej. Gdy opodatkowujemy dochód, zmniejszamy
go, o czym przekonuje się kaŜdy, kto bezpośrednio rozlicza się z fiskusem. Gdy opodatkowujemy
oszczędności to teŜ jest ich mniej - a w konsekwencji ilość kapitału dostępnego na rynku jest
mniejsza. Państwo zabiera podatnikom tę część dochodów, która mogłaby zostać przez nich zaoszczędzona i przeznaczona na finansowanie rozwoju gospodarczego. Gdy bezpośrednio opodatkowujemy kapitał, teŜ jest go mniej, albowiem kapitał wybiera takie miejsca inwestycji, w których
fiskus nie jest nadmiernie zachłanny, a spodziewane zyski są najwyŜsze. Jak zmniejsza się ilość
kapitału, którym moŜna finansować inwestycje, to ilość inwestycji zostaje ograniczona. Mniejsze
inwestycje z kolei to zmniejszenie ilości pracy dostępnej na rynku. Gdy dodatkowo opodatkowujemy tę pracę, to tej pracy jest jeszcze mniej. Jak jest mniej pracy, to bezrobocie jest większe,
a w konsekwencji mniejszy jest popyt wewnętrzny. Jeśli równocześnie opodatkowujemy konsumpcję (VAT, cło akcyza), to popyt zmniejsza się jeszcze bardziej. W konsekwencji zmniejsza się produkcja, na którą brakuje zapotrzebowania, a zatem zmniejsza się jeszcze bardziej zapotrzebowanie
na siłę roboczą i jeszcze bardziej rośnie bezrobocie. Tempo wzrostu gospodarczego maleje. Dochody budŜetu spadają, a pogarszająca się sytuacja rodzi presję społeczną na zwiększenie wydatków socjalnych - a więc wydatki budŜetu rosną. Rośnie teŜ deficyt budŜetowy, którego sfinanso-
GraŜyna Owczarczyk-Szpakowska
Zarządzanie przez podatki
153
wanie pochłania coraz większą część i tak zbyt niskich oszczędności. To sprawia, Ŝe mimo spadającej inflacji stopy procentowe są nadal wysokie - koło przyczyn i skutków się zamyka, stagnacja
gospodarcza przybiera na sile. Jak moŜna zauwaŜyć podatki mają swoje konsekwencje. Dlatego
tak waŜne jest aby umiejętnie i odpowiednio do sytuacji społeczno-gospodarczej zarządzać systemem dochodów podatkowych. Od dobrze skonstruowanego systemu podatkowego wymaga się
przede wszystkim aby:
•
wspierał rozwój gospodarczy, tzn. by zachęcał do inwestowania, innowacji i tworzenia
miejsc pracy,
•
zapewniał określone i stabilne dochody podatkowe, przy moŜliwie małych negatywnych
konsekwencjach dla gospodarki,
•
społecznie akceptowalnie rozkładał obciąŜenia podatkowe,
•
był przyjazny, przejrzysty, prosty [18].
Istotne znaczenie ma równieŜ promowanie takich rozwiązań w mechanizmie ustalania i pobierania podatku, które będą jak najmniej uciąŜliwe dla podatnika. CzyŜ zatem nie jest dokładnie tak,
jak powiedział Albert Einstein: „Do podatków nie wystarczy umysł (nawet genialnego) matematyka, tutaj potrzebny jest filozof...”.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
Zdzitowiecki J.: System podatkowy, RPEiS, 1961, nr 1, s. 34
Borodo A.: Dochody jednostek samorządu terytorialnego, TNOiK, Toruń 2004, s. 11
Gomułowicz A., Małecki J.: Podatki i prawo podatkowe, Poznań 1998, s. 81
Mastalski R.: Wprowadzenie do prawa podatkowego, C. H. BECK, Warszawa 1995, s. 13
Ustawa z dnia 29.08.1997 roku – Ordynacja podatkowa (Dz. U. nr 160, poz. 1083 z późn.
zm.)
Ustawa z dnia 2.04.1997 roku – Konstytucja Rzeczypospolitej Polskiej (Dz. U. nr 78,
poz. 483)
Głuchowski J.: Polskie prawo podatkowe, PWN, Warszawa 1996, s. 12 i n
Komunikat CBOS nr 155: Opinie o niektórych propozycjach naprawy finansów państwa,
BS/73
Wach K.: Systemy podatkowe krajów Unii Europejskiej, Oficyna Ekonomiczna, Kraków
2005, s.15
Wersalski M.: Funkcje podatków a instrumenty podatkowe, [w:] System instytucji
prawnofinansowych PRL, tom III, 1985, s. 56 i n.
Sokołowski J.: Zarządzanie przez podatki, Warszawa 1995, s. 23 i n.
Bień W.: Zarządzanie finansami przedsiębiorstwa, Difin, Warszawa 1998, s. 27
Kołosowska B., Dynus M., Patyk J.: Konkurencyjność polskiej gospodarki wobec procesu
integracji europejskiej, Toruń 2006, s. 9
Marciniuk i Wspólnicy: System podatkowy, Spółka Doradztwa Podatkowego,
http:\\www.mip.com.pl
Whitehead G.: Ekonomia, Wyd. Zysk i S-ka, Poznań 1996, s. 476
Tyszka T.: Reakcje ludzi na wysokie podatki, Internetowy magazyn zwolenników
wolnego rynku, http:\\ www.kapitalizm.republika.pl
Gwiazdowski R.: Podatki mają konsekwencje, Internetowy magazyn zwolenników
wolnego rynku, http:\\ www.kapitalizm.republika.pl
154
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
18. Ministerstwo Finansów, Strategia podatkowa, Warszawa 2004
MANAGEMENT BY TAXES
Summary
The tax appears as folded legal construction, realizing the definite ideas and the
aims, being with word of chosen of social-political and economic conceptions. Suitable management taxes and form tax burdens is basic instrument state, which permits to stimulate economic growth. The tax construction is the object of article, for
help which State realizes the row of fiscal and the unfiscal functions, influencing the
same on social-economic conditions of country.
Keywords: the taxes, state, the taxation, height of tax burdens , tax functions, the tax system
GraŜyna Owczarczyk-Szpakowska
Katedra InŜynierii Zarządzania
Wydział Zarządzania,
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
e-mail: [email protected]
Maria Parlińska, Marcin Adamczyk
Aspekty ekonomiczne zarządzania wiedzą w organizacji na bazie „Distance Seminar”
155
MARIA PARLIŃSKA,
MARCIN ADAMCZYK
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
ASPEKTY EKONOMICZNE ZARZĄDZANIA WIEDZĄ W ORGANIZACJI NA BAZIE
„DISTANCE SEMINAR”
Streszczenie
Przełom XX i XXI wieku przyniósł dynamiczny, niespotykany w dotychczasowej
historii wzrost znaczenia wiedzy jako podstawowego czynnika rozwoju cywilizacyjnego i gospodarczego. Świadomość znaczenia wiedzy jest dzisiaj w krajach rozwiniętych powszechna, chociaŜ jej tworzenie i skuteczne wykorzystywanie nie jest łatwe. Koncepcja zarządzania wiedzą jest przedmiotem zainteresowania naukowców,
a takŜe stosowana w praktyce w wielu róŜnych organizacjach. Realizacja koncepcji
zarządzania wiedzą w organizacjach uczących się, takich jak uczelnia wyŜsza, bazuje na wykorzystaniu zaawansowanych technologii multimedialnych umoŜliwiających
szybką i ograniczającą koszty komunikację. W tym celu wykorzystuje się platformy
edukacyjne pozwalające organizować międzynarodowe telekonferencje, seminaria
czy spotkania robocze.
Słowa kluczowe: zarządzanie wiedzą, distance seminar, społeczeństwo informacyjne, platformy
edukacyjne, technologie informacyjne
1. Wprowadzenie
Postęp techniczny i technologiczny drugiej połowy XX wieku doprowadził do powstania nowych, wysoko zaawansowanych technologicznie gałęzi przemysłu oraz do rewolucyjnych zmian w
metodach i sposobach wytwarzania i zarządzania. Współczesny świat zdominowały technologie
informacyjne, które wkraczają do kaŜdej dziedziny Ŝycia gospodarczego. Powstanie sieci komputerowych, a zwłaszcza Internetu, oraz rozwój nowoczesnych środków łączności sprawiły, Ŝe mniej
istotne stają się bariery w komunikacji międzyludzkiej.
W nowoczesnym społeczeństwie informacyjnym oraz gospodarce opartej na wiedzy istnieje
moŜliwość błyskawicznego przesłania ogromnych ilości informacji w dowolne miejsce na świecie.
W nowoczesnej globalnej gospodarce konkurencyjność organizacji zaleŜy od ich dostępu do informacji, posiadanej wiedzy i innowacyjnych rozwiązań.
Fundamentem rozwoju organizacji jest umiejętność wykorzystania informacji oraz wiedzy
zgromadzonej w organizacji. WdroŜenie właściwego systemu informacyjnego jest czynnikiem pozwalającym na efektywne wykorzystanie zasobów informacji.
Zarządzanie wiedzą jest przedmiotem zainteresowania naukowców teoretyków, a takŜe koncepcja ta jest stosowana w praktyce w wielu róŜnych organizacjach. Realizacja koncepcji zarządzania wiedzą w organizacjach uczących się, takich jak uczelnia wyŜsza, bazuje na wykorzystaniu
zaawansowanych technologii multimedialnych, jak platformy edukacyjne, internetowe bazy danych oraz inne platformy do pracy wspólnej.
156
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Peter M. Senne, który w 1990 roku zdefiniował pojęcie „Learning Organisation”, określa organizację słowami:
„Gdzie pracownicy w sposób ciągły poszerzają swoje kompetencje niezbędne do osiągnięcia
celów w obszarze ich działania, gdzie rozwijane są nowe wzorce myślenia innowacyjność i swobodna współpraca, gdzie pracownicy nieustannie uczą się, jak uczyć się razem.”1
Autorzy prezentowanego artykułu przedstawiają między innymi swoje doświadczenia z
udziału w projektach „na odległość”, a takŜe próbują wskazać ewentualne problemy wynikające z obecnego kryzysu na rynkach finansowych.
2. Idea zarządzania wiedzą w organizacji
Zarządzanie wiedzą (ang. Knowledge management) to zespół sformalizowanych sposobów
gromadzenia i wykorzystywania wiedzy formalnej oraz wiedzy personalizowanej uczestników
organizacji. Jest to metodyka najlepszego wykorzystania wiedzy, która jest dostępna w organizacji,
tworzenie nowej wiedzy oraz zwiększanie jej zrozumienia. Podział na wiedzę formalną, znajdującą
się w bazach informacyjnych w postaci danych, informacji i dokumentów elektronicznych oraz
wiedzę cichą, która znajduje się w umysłach współpracowników pozwala wytłumaczyć róŜne
podejścia do zarządzania wiedzą. Jedno podejście charakteryzuje przykładanie większego
znaczenia kodyfikacji, drugie natomiast – personalizacji. Oba podejścia wymagają jednak
wykorzystania nowoczesnych technologii jako bazy umoŜliwiającej naukowcom, studentom,
pracownikom organizacji wykorzystanie doświadczeń innych osób.
Aktualnie kwestia definicji zarządzania wiedzą, która byłaby powszechnie akceptowana
zarówno w teorii, jak i w praktyce jest ciągle otwarta. Bezsporne są jednak fakty, Ŝe zarządzanie
wiedzą:
• powinno mieć charakter kompleksowy;
• powinno przekształcać aktywa intelektualne organizacji w wynik ekonomiczny;
• powinno być wspierane przez technologię i kulturę organizacyjną
• powinno kreować sieć współpracy tych, którzy posiadają wiedzę z tymi, którzy jej potrzebują.
Wśród teoretyków największy wkład w opracowanie definicji zarządzania wiedzą wnieśli
naukowcy z Wielkiej Brytanii. W wyniku ich prac i badań powstała następująca definicja:
„Zarządzanie wiedzą to ogół procesów umoŜliwiających tworzenie, upowszechnianie i
wykorzystywanie wiedzy do realizacji celów organizacji.”2
Z badań przeprowadzonych w ponad 700 firmach amerykańskich wynika, Ŝe wiedza
przydatna do zarządzania firmą znajduje się zarówno w formalnych dokumentach, jak i umysłach
pracowników. Wyniki tych badań przedstawia Rysunek 1.
1
2
Senege P. (1990), The Fifth Discipline, New York Doubleday
M. Grudzewski, I. Hejduk, Przedsiębiorstwo wirtualne, Difin, Warszawa 2002.
Maria Parlińska, Marcin Adamczyk
Aspekty ekonomiczne zarządzania wiedzą w organizacji na bazie „Distance Seminar”
157
Rys. 1 Knowledge Management
Źródło: Neumann Management Review3
3. Praktyczne wykorzystanie technologii „na odległość”
Platformy edukacyjne
Informacja i jej szybki przepływ, są często kluczowymi elementami budującymi sukces organizacji. Informatycy stworzyli platformy informacyjne, które zostały zaadoptowane przez naukowców i pedagogów. Stosuje się je szczególnie w przypadkach, gdy jest konieczność zredukowania
lub wyeliminowania odległości partnerów. Gdy praca powinna być zrealizowania, w krótkim czasie, a jednoczesne uczestnictwo w niej obu stron nie jest moŜliwe. Platforma moŜe być teŜ wykorzystana w pracy długoterminowej, która wymaga przemyśleń i dostępu do róŜnych zasobów informacji, indywidualnych działań, a potem połączenia, gdy jest to projekt realizowany przez
wspólnych partnerów. Platforma edukacyjna jest systemem LMS (Learning Management System)
tzn. Systemem zdobywania wiedzy za pośrednictwem Internetu lub sieci lokalnej (intranetu). Oferta rynkowa internetowych platform edukacyjnych jest bardzo bogata, ale wybór odpowiedniej platformy nie zawsze leŜy w moŜliwościach uŜytkownika, bowiem są to rozwiązania drogie. Obok
komercyjnych platform edukacyjnych są równieŜ platformy oparte na licencji promowanej przez
Free Software Foundation, której celem jest swoboda udostępniania uŜytkownikowi oprogramowania, a takŜe moŜliwość zmiany udostępnionego oprogramowania (systemy Open Source, które
oferowane są nieodpłatnie razem z kodem źródłowym). Tempo rozwoju systemów Open Source
jest nawet szybsze, niŜ aplikacji komercyjnych.4
Najpopularniejszym systemem edukacyjnym opartym na Open Source jest platforma Moodle,
autorstwa Martina Dougiamasa . Wśród innych systemów zarządzania nauczaniem z tej grupy w
Polsce dostępne są:
- Ilias (ma dość wysokie oceny)
- Caroline (mniej interakcyjny, skupiony na wspieraniu procesu samokształcenia),
- ATutor (mocną stroną są moŜliwości administratora projektowania strony estetycznej plat3
Knowledge Management. Neumann Management Review [w:] System informacji strategicznej, praca zbiorowa pod red.
R. Borowieckiego i M. Romanowskiej, Warszawa 2001.
4
Nowicki K., Hasse M., Analiza porównawcza systemów zarządzania nauczaniem opartych na licencji Open Source,
[w:] Kształcenie na odległość metody i narzędzia, Z. Wiśniewski (red.) Akademia Morska, Gdynia 2004
158
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
formy),
- Bazar (mniej rozbudowany, o nieco mniejszej popularności),5
jak równieŜ: Eduzope, CHEF, Adept, LRN, eClass,net, WBT-Master, Open Course i kilkadziesiąt innych6
Platforma Microsoft Office SharePoint Server 2007
SharePoint Server 2007 jest zintegrowaną komercyjną platformą słuŜącą do udostępniania
i przetwarzania informacji. Program ten słuŜy do zarządzanie informacją, usprawnia i upraszcza
wewnętrzne procesy w organizacji, dzięki czemu obieg wiedzy jest prostszy, szybszy i bardziej
efektywny. Technologia SharePoint umoŜliwia takŜe współpracę z partnerami zewnętrznymi.7
SharePoint wchodzi w skład większego pakietu roboczego jakim jest Office System. Dzięki
temu pozwala na integrację z programami pakietu Microsoft Office (Word, Excel, InfoPath). Dodatkowo uŜytkownicy systemu SharePoint 2007 mają do dyspozycji wydajny silnik wyszukiwania
pozwalający na indeksowanie treści z wielu źródeł jak: strony internetowe, pliki udostępnione czy
zewnętrze systemy informatyczne.
SharePoint Server 2007 jest produktem skierowanym do zespołów i uŜytkowników indywidualnych, duŜych i średnich organizacji, których celem jest m.in. usprawnienie pracy grupowej, komunikacji wśród pracowników, zarządzania portalami i treścią witryn, a takŜe zarządzania projektami i procesami w organizacji.
Platforma SharePoint jest narzędziem prostym w obsłudze, posiadającym przyjazny i spójny
interfejs, dzięki czemu moŜe być obsługiwana przez uŜytkowników posiadających podstawową
znajomość pakietu Office.
Platforma SharePoint Server 2007 umoŜliwia organizacjom:
• łatwe przechowywanie i zarządzanie dokumentami,
• usprawnienie procesu podejmowania świadomych decyzji dzięki prezentowaniu kluczowych dla firmy informacji w jednym miejscu,
• zwiększenie wydajności pracy,
• łączenie pracowników z informacjami i wiedzą,
• elektroniczną implementacje procesów biznesowych,
• społecznościową wymianę wiedzy (blog, wiki, RSS),
• pełną integrację z istniejącymi systemami typu CRM, ERP,
• wydajne wyszukiwanie informacji
Z kolei program Windows SharePoint Services 3.0 jest produktem rozprowadzanym w ramach
darmowej licencji, poniewaŜ korzysta z modelu licencjonowania systemu operacyjnego, na którym
został zainstalowany - Windows 2003 Server lub Windows 2008 Server. Organizacje posiadające
licencję na Windows Server mogą wdroŜyć Windows SharePoint Services 3.0 bez dodatkowych
opłat licencyjnych.
Projekt „Support For Virtual Study In V4 Countries
Przykładem wykorzystania nowoczesnych technologii moŜe być projekt realizowany w 2007
roku dotyczący wsparcia działań w zakresie studiów wirtualnych pod oryginalnym tytułem,
„Support For Virtual Study in V4 Countries”, którego głównym koordynatorem był Wydział Stu5
Bednarek J., Lubina E., Kształcenie na odległość Podstawy dydaktyki, Warszawa 2008
Meyer I., Porównanie i klasyfikacja wybranych systemów zdalnego nauczania o otwartym kodzie źródłowym, [w:]
Kształcenie na odległość metody i narzędzia, Z. Wiśniewski (red.) Akademia Morska, Gdynia 2004
7
http://office.microsoft.com/pl-pl/sharepointserver/
6
Maria Parlińska, Marcin Adamczyk
Aspekty ekonomiczne zarządzania wiedzą w organizacji na bazie „Distance Seminar”
159
diów Regionalnych Uniwersytetu Rolniczego w Nitrze, a personalnie doc. Eleonora Marisova
Projekt miał strukturę modułową, w skład której wchodziły trzy moduły:
Moduł 1: Regional development – Rozwój regionalny
Moduł 2: Public administration of the EU – Administracja publiczna UE
Moduł 3: Rural tourism development – Rozwój turystyki wiejskiej
Wszystkie moduły zostały podzielone na trzy obszary obejmujące wprowadzenie do omawianych zagadnień, szerszą prezentację tematu oraz charakterystykę problemów w czterech krajach
V4 tj. Słowacji, Czech, Węgier i Polski. Zagadnienia opracowane przez naukowców dydaktyków
z Uczelni Rolniczych krajów V4 zostały posadowione na platformie Moodle trzy miesiące przed
planowaną na wrzesień sesją podsumowującą pracę. W ciągu tych 3 miesięcy miało miejsce kilka
sesji z wykorzystaniem technologii ICT.
Projekt międzynarodowych seminariów naukowych na zasadach „Distance Seminar”
Celem projektu było zbadanie wpływu i kompatybilności dostępnych narzędzi informatycznych na proces wspomaganej elektronicznie (róŜne, dostępne w krajach uczestniczących, platformy komunikacyjne TCPiP, posiadane oprogramowanie, doświadczenia i dokumenty normatywne)
integracji środowisk naukowych w procesach realizacji międzynarodowych seminariów i wypracowanie określonej naukowej i technicznej metodologii realizacji tych zagadnień na bazie SGGW
Warszawa oraz Consortium of Cooperating Universities in the Field Virtual Study and Scientific
Programmes. Metody badawcze ustalane w trybie roboczym w trakcie zaplanowanych sesji z kooperującymi uczelniami w zaleŜności od postępu i uzyskiwanych rezultatów kaŜdej sesji dały
zróŜnicowane rezultaty.
Dla realizowania załoŜonego celu w pierwszym roku zakupiono: notebook z wbudowanymi
róŜnymi urządzeniami komunikacyjnymi, kamerą internetową i mikrofonem.
Efektem realizowanego grantu w pierwszym roku projektu była przeprowadzona pilotaŜowa
konferencja w grudniu 2007 roku, w ramach Consortium of Cooperating Universities in the Field
Virtual Study and Scientific Programmes z Wydziałem Regionalnego Rozwoju Uniwersytetu Rolniczego w Nitrze na Słowacji (info: prodziekan Eleonora Marisova).
Projekt był kontynuowany w 2008 roku i w tym celu zakupiono dalszy sprzęt, jakim jest bezprzewodowy, przenośny projektor wizyjny .
W 2008 roku planowane były kolejne konferencje w ramach konsorcjum, ale ze względów
formalnych proces ten przesunięty został na 2009 rok. Realizacja zakupu sprzętu miała miejsce
dopiero w grudniu 2008 r., nastąpiła teŜ zmiana współpracujących Uczelni. Aktualnie tego typu
spotkania słuŜące do wymiany myśli naukowej, a takŜe prowadzenia wspólnych projektów naukowych oraz dydaktycznych są realizowane w ramach współpracy z naukowcami uniwersytetów
ELLS.
Dzięki zastosowanej technice, skrócono czas potrzebny na odbycie spotkań do minimum,
a jednocześnie uzyskano obniŜenie kosztów międzynarodowych seminariów naukowych, co przy
ograniczonych funduszach na badania i sporych obciąŜeniach dydaktycznych ma niebagatelne znaczenie.
Halo HP Wideokonferencje XXI wieku
Halo HP jest nową generacją wideokonferencji pozwalającą na doskonałą komunikację z osobami znajdującymi się w róŜnych miejscach na świecie. Wideokonferencja odbywa się w pomieszczeniach organizacji, w których znajdują się duŜe wyświetlacze (np.: telewizory LCD), dzięki którym moŜna prowadzić dyskusję z osobami znajdującymi się w dowolnym punkcie na świecie.
Technologia ta pozwala na uzyskanie bardzo dobrej jakości obrazu i dźwięku.
160
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Rys.2. Pokój Halo, w którym odbywają się międzynarodowe wideokonferencje
Źródło: Serwis HP.com
Mimo, iŜ zakup takiego rozwiązania, wiąŜe się z duŜymi wydatkami dla organizacji, to jeśli
pracownicy często muszą podróŜować, w związku z udziałem w seminariach i konferencjach,
a jednocześnie są ograniczeni ze względu na inne obowiązki i czas jaki przy tym tracą, to aparatura
do wideokonferencji HP jest dla nich idealnym rozwiązaniem. Dzięki zastosowaniu innowacyjnych
rozwiązań Halo HP uczestnicy wideokonferencji po 20-30 minutach mają wraŜenie, Ŝe znajdują
się w jednym pomieszczeniu zapominając, Ŝe często dzielą ich tysiące kilometrów. Technologia
Halo HP pozwala na włączenie w proces komunikacji „na odległość” komunikatów niewerbalnych, jak mimika twarzy i róŜnego rodzaju gesty.
HP zainstalowało obecnie ok. 60 pokoi Halo, które słuŜą właśnie do tego rodzaju zdalnych
konferencji. HP dostarcza rozwiązania technologiczne klientom indywidualnym, przedsiębiorstwom i instytucjom na całym świecie. Oferta firmy obejmuje infrastrukturę informatyczną, urządzenia komputerowe i dostępowe, kompleksowe usługi informatyczne oraz przetwarzania obrazu
i druku.
4. Nowoczesne technologie w warunkach kryzysu finansowego
Firma Sybase Polska od 27 listopada do 15 grudnia 2008 r. przeprowadziła badanie na temat
prognoz i trendów na rynku IT w Polsce w 2009 roku. W badaniu wzięło udział 149 osób, spośród
klientów i partnerów firmy Sybase. Ponad połowa respondentów pracuje dla duŜych organizacji
zatrudniających ponad 500 osób. Pomimo trudnej sytuacji gospodarczej na świecie z wyników
ankiet płyną stosunkowo optymistyczne wnioski.
Maria Parlińska, Marcin Adamczyk
Aspekty ekonomiczne zarządzania wiedzą w organizacji na bazie „Distance Seminar”
161
Rys. 3 Wpływ kryzysu finansowego na inwestycje w IT w 2009 roku
Źródło: Sybase Polska
Wyniki badań, wskazują, Ŝe światowy kryzys gospodarczy będzie miał ograniczony wpływ
na inwestycje w IT w 2009 roku. Respondenci wypełnili anonimową ankietę składającą się z 4
pytań: Czy kryzys finansowy wpłynie na Państwa inwestycje planowane w IT 2009 roku? W jakich
obszarach IT planują Państwo inwestycje w 2009 roku? Jakie dostrzegają Państwo bariery rozwoju
w Pani/Pana firmie? Liczba zatrudnionych osób?
Wśród ankietowanych osób, 66% uwaŜa, Ŝe kryzys finansowy nie wpłynie na planowane
inwestycje.
Badania wykazały równieŜ, Ŝe dla firm duŜo większą barierą rozwoju są problemy kadrowe
(37%), natomiast brak środków finansowych jest barierą rozwoju IT w 16% ankietowanych firm.
Firmy mają zamiar inwestować głównie w sprzęt IT i narzędzia programistyczne (16%
ankietowanych) oraz rozwiązania mobilne i Business Intelligence (12%).
162
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Rys. 4 Plany inwestycyjne w IT w 2009 roku
Źródło: Sybase Polska
Z drugiej strony agencje analityczne, m.in. IDC oraz DiS, które jeszcze przed pierwszym
„uderzeniem” kryzysu prognozowały duŜy wzrost rynku systemów ERP w Polsce, aktualnie weryfikują te prognozy uwaŜając, Ŝe wzrost ten będzie duŜo niŜszy. Organizacje będą bowiem ograniczać budŜety na rozwiązania TCI, podobnie jak w latach 1997 - 1999 i 2001 - 2003, podczas kryzysów azjatyckiego i rosyjskiego oraz po 11 września 2001 r. Zdaniem ekspertów sektora IT zatrudnionych w polskich firmach wdroŜeniowych, w takich sytuacjach firmy redukują przede
wszystkim budŜety na wdroŜenia nowych technologii. Jak wynika z informacji nieoficjalnych,
oszczędzanie juŜ się rozpoczęło - polskie oddziały globalnych koncernów i duŜych firm zagranicznych otrzymały instrukcje ze swoich central, aby wstrzymać wszystkie wdroŜenia i zakupy sprzętu,
które nie są niezbędne.8 Organizacje mają takŜe oszczędzać na inwestowaniu w sprzęt i licencje
oprogramowania. W najlepszym wypadku decyzje dotyczące wdraŜanych systemów informatycznych przekładane są na następny rok. Przed polskimi firmami stoi kolejny problem, związany
z Prawem o zamówieniach publicznych, które obliguje organizacje, aby wybierając dostawców,
kierowały się ceną.
WdraŜając ERP moŜna uzyskać oszczędność poprzez dobry wybór systemu, wejście na szybką
ścieŜkę wdroŜeniową, obniŜenie kosztu analizy przed wdroŜeniem i zatrudnienie dobrego menedŜera projektu.
Oszczędność na samym procesie wdroŜenia, według firm wdroŜeniowych, oznacza, Ŝe moŜe
się znów upowszechnić, tak jak to miało miejsce podczas ostatniego kryzysu na początku dekady,
szybka ścieŜka wdroŜeniowa typu „rapid implementation”. Chodzi o szybkie wdroŜenie systemu
8
Mejssner B., „Wielkie oszczędzanie” CIO Magazyn Dyrektorów IT grudzień 2008
Maria Parlińska, Marcin Adamczyk
Aspekty ekonomiczne zarządzania wiedzą w organizacji na bazie „Distance Seminar”
163
w konfiguracji standardowej, praktycznie bez modyfikacji. W ten sposób moŜna zaoszczędzić na
wdroŜeniu nawet do 50%, gdyŜ takie są orientacyjne koszty analizy systemu, analizy biznesowej i
mapowania procesów. W przypadku standardowego systemu wydatki są znacząco mniejsze. „W
Europie Zachodniej wdroŜenie systemu w konfiguracji standardowej nie jest niczym nadzwyczajnym. Liczba modyfikacji jest wtedy niewielka. Tymczasem u nas większość budŜetu poŜerają właśnie modyfikacje” - mówi Piotr Szczerbiak z Columbus IT.9
5. Podsumowanie
O wadze poruszanych w niniejszym artykule zagadnień świadczy fakt, iŜ problematyka społeczeństwa informacyjnego była jednym trzech głównych pól badawczych projektu Narodowy Program Foresight - Polska 2020. Pole badawcze Technologie Informacyjne i Telekomunikacyjne
zostało podzielone na kilka szczegółowych tematów: dostęp do Informacji, ICT a społeczeństwo,
ICT a edukacja, e-Biznes, Nowe Media.10
Wykorzystanie technologii na odległość zwiększa efektywność wykorzystania wiedzy w organizacji, zwiększa szybkość podejmowania decyzji. Łatwiejsza i duŜo tańsza w stosunku do spotkań
„face-to-face” staje się wymiana doświadczeń pomiędzy współpracującymi organizacjami niezaleŜnie od odległości, redukując znacząco ilość, a tym samym koszty podróŜy. Ograniczenie liczby
podróŜy ma takŜe znaczący wymiar ekologiczny. Według danych HP zespół składający się z czterech osób, który zamiast odbyć podróŜ na trasie Nowy York – Londyn wykorzysta urządzenia Halo HP zaoszczędzi z tytułu emisji 6000 kg CO2, co stanowi równowartość wyłączenia z ruchu drogowego 360 samochodów na jeden dzień.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9
Senege P. (1990), The Fifth Discipline, New York Doubleday
Nowicki K., Hasse M., Analiza porównawcza systemów zarządzania nauczaniem
opartych na licencji Open Source, [w:] Kształcenie na odległość metody i narzędzia,
Z. Wiśniewski (red.) Akademia Morska, Gdynia
Bednarek J., Lubina E., Kształcenie na odległość Podstawy dydaktyki, Warszawa 2008
Meyer I., Porównanie i klasyfikacja wybranych systemów zdalnego nauczania o otwartym
kodzie źródłowym, [w:] Kształcenie na odległość metody i narzędzia, Z. Wiśniewski
(red.) Akademia Morska, Gdynia 2004
http://office.microsoft.com/pl-pl/sharepointserver/
Mejssner B., „Wielkie oszczędzanie” CIO Magazyn Dyrektorów IT grudzień 2008
Kleiber M., Narodowy Program Foresight - Polska 2020, Rzeczpospolita, 2009-01-04
Serwis HP.com
Mejssner B., „Wielkie oszczędzanie” CIO Magazyn Dyrektorów IT grudzień 2008
Kleiber M., Narodowy Program Foresight - Polska 2020, Rzeczpospolita, 2009-01-04
10
164
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
ECOMOMICS ASPECTS OF KNOWLEDGE MANAGEMENT ON THE BASE
OF“DISTANCE SEMINAR”
Summary
Last years of the XX and XXI century are years of unexpected, not seen in the
history increase of the importance of knowledge as the basic factor of civilization
and economy development. The importance of knowledge is known very well in developed countries, although the building and successful using of new knowledge is
not easy. The concept of knowledge management is the topic of interests for scientists as well is used in many different organizations. The realization of the concept of
the knowledge management in learning organizations like universities, basis on the
using of the advanced multimedia technology, which allow rapid and costs limiting
communication. For this reason educational platforms are used for organizing the
teleconferences, seminars and other meetings. The authors also present some of own
experiences in taking part in distance projects and also try to show problems going
out from the financial crisis.
Keywords: knowledge management, distance seminar, information society, educational platforms,
information technology
Maria Parlińska
Zakład Metod Ilościowych
Katedra Ekonomiki Rolnictwa i Międzynarodowych Stosunków Gospodarczych
Wydział Nauk Ekonomicznych
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
02-787 Warszawa, ul. Nowoursynowska 166
e-mail: [email protected]
Marcin Adamczyk
Katedra Informatyki
Wydział Zastosowań Matematyki i Informatyki
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
02-776 Warszawa, ul. Nowoursynowska 159
e-mail: [email protected]
Jan Studziński
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę
165
JAN STUDZIŃSKI
IBS PAN Warszawa
METODY ZWALCZANIA SYTUACJI KRYZYSOWYCH W MIEJSKICH SYSTEMACH
ZAOPATRZENIA W WODĘ1
Streszczenie
W artykule omówiono metody przewidywania i zapobiegania sytuacjom kryzysowym występującym w złoŜonych miejskich systemach wodociągowych. Sytuacja
kryzysową w takim systemie jest awaria sieci wodociągowej, groŜąca stratami wody
w sieci i przerwami w dostawach wody do odbiorców. Są to z jednej strony straty finansowe przedsiębiorstwa wodociągowego, z drugiej strony straty społeczne związane z niezadowoleniem mieszkańców i stratą ich zaufania do producenta i dystrybutora wody. Aby przeciwdziałać takim zagroŜeniom, opracowuje się róŜne metody zaradcze, polegające z jednej strony na prognozowaniu zdarzeń awaryjnych, aby je
odpowiednio wcześnie wyeliminować, z drugiej strony na szybkim zlokalizowaniu
awarii, jeŜeli juŜ wystąpi. Są to wszystko metody wspomagane komputerowo, czy to
w postaci pojedynczych programów, czy całych systemów informatycznych wspomagania decyzji. Trzy takie metody omówiono w artykule.
Słowa kluczowe: Komputerowe zarządzanie wiedzą, systemy wspomagania decyzji, komputerowe
zarządzanie sytuacjami kryzysowymi, miejskie systemy wodociągowe
1. Wprowadzenie
Miejskie przedsiębiorstwa wodociągowe są zwykle przedsiębiorstwami komunalnymi, podległymi miejskim władzom samorządowym, i ich poprawne funkcjonowanie w istotnym stopniu decyduje o jakości Ŝycia w mieście i jednocześnie o zaufaniu, jakim cieszy się lokalna władza w oczach miejskiej społeczności. Stąd to poprawne funkcjonowanie jest często kluczowe dla poziomu
Ŝycia i zadowolenia mieszkańców. Funkcje miejskiego systemu zaopatrzenia w wodę dotyczą dostarczania wody odbiorcom w sposób bezawaryjny i po moŜliwie niskich kosztach, przy czym woda powinna być dostarczana w wymaganej ilości, pod odpowiednim ciśnieniem i odpowiednio dobrej jakości. JuŜ z tego wyliczenia funkcji widać, Ŝe jest to zadanie optymalizacji wielokryterialnej,
gdzie poszczególne kryteria celu, na przykład: dobra jakość i niska cena, lub: bez-awaryjność dostaw i wysokie ciśnienie, są wzajemnie przeciwstawne. Miejskie sieci wodociągowe produkują
dziennie ogromne ilości wody, na przykład sieć w Rzeszowie, mieście średniej wielkości o liczbie
mieszkańców 170.000, produkuje około 60.000 m3 wody/dobę. PoniewaŜ koszt wody wynosi średnio w Polsce około 3 zł/m3, więc dzienna produkcja wody, na przykład w mieście wielkości Rzeszowa, to około 180.000 zł, co w skali roku wynosi juŜ około 66 mln zł. Są to duŜe kwoty i równieŜ duŜe są straty finansowe, gdy występują awarie powodujące wycieki wody z sieci. Wysoka
awaryjność sieci wodociągowej podraŜa jej eksploatację, co zwiększa w konsekwencji koszty wo1
Praca wykonana w ramach realizacji projektu rozwojowego MNiSzW nr R11 001 01
166
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
dy płacone przez mieszkańców. Awaryjność sieci powoduje przerwy w dostawach wody, ale takŜe
chwilowe pogorszenie jej jakości, i wszystkie te czynniki wpływają negatywnie na atmosferę społeczną. Stąd widać, jak waŜnym zagadnieniem jest podejmowanie takich działań, aby sytuacje awaryjne, czyli kryzysowe na sieci wodociągowej wyeliminować.
Zasadniczo są trzy grupy metod postępowania proponowanych do zwalczania sytuacji kryzysowych w systemach zaopatrzenia w wodę. Pierwsza grupa metod polega na szacowaniu ryzyka
wystąpienia awarii i proponowaniu przedsięwzięć na wypadek, gdy awaria wystąpi, oraz na monitoringu zdarzeń zachodzących w systemie zaopatrzenia w wodę, aby taką awarię dostatecznie
wcześnie zlokalizować. Druga grupa metod polega na prognozowaniu zdarzeń awaryjnych i eliminowaniu moŜliwych przyczyn ich wystąpienia, czyli na zapobieganiu awariom. Wreszcie trzecia
grupa metod polega na lokalizowaniu awarii, które właśnie wystąpiły, w celu ich szybkiego usunięcia, dla zminimalizowania strat nimi powodowanych. W drugiej i trzeciej grupie metod równieŜ
kluczową rolę odgrywa monitoring sieci wodociągowej a takŜe model hydrauliczny badanej sieci
słuŜący do obliczeń symulacyjnych względnie testowania zaproponowanych rozwiązań antykryzysowych. Trzy metody reprezentacyjne dla przedstawionych grup zostaną zaprezentowane w kolejnych punktach artykułu.
Artykuł ma charakter przeglądowo-opisowy, to znaczy przedstawia metody opracowane
w róŜnych ośrodkach badawczych, krajowych i zagranicznych, i podejmuje próbę oceny ich skuteczności i uŜyteczności, głównie na podstawie doniesień literaturowych. Jednocześnie w Instytucie Badań Systemowych PAN są prowadzone prace związane z implementacją tych metod w wodociągach rzeszowskich a takŜe z rozwojem i modyfikacją metod z grupy drugiej i trzeciej.
2. Metoda wyznaczania ryzyka awarii
Metody wyznaczania ryzyka awarii w systemach zaopatrzenia w wodę są w Polsce rozwijane
między innymi na Politechnice Rzeszowskiej przez zespół kierowany przez Janusza Raka [4,5,6,7].
Kluczowym elementem metody jest wyznaczenie tzw. matrycy ryzyka wystąpienia zdarzeń awaryjnych powodujących określone straty. Tworzenie matrycy ryzyka rozpoczyna się od ustalenia tabeli
kategorii częstości wystąpienia awarii i tabeli kategorii spowodowanych nimi strat. W podanym
niŜej przykładzie zastosowano pięciostopniowe skale dla obu rodzajów kategorii związanych z ryzykiem awarii [6,7].
Tabela 1. Kategorie częstości zdarzeń awaryjnych (źródło [8]).
Kategoria częstości
Opis
Waga
punktowa
Częste
A
Częściej niŜ 1 raz w ciągu roku: 1 [1/rok]
5
Prawdopodobne
B
1 raz w okresie od 1 do 5 lat: 1 – 0,2 [1/rok]
4
Okazjonalne
C
1 raz w okresie od 5 do 20 lat: 0,2 – 5 10-2 [1/rok]
3
Mało prawdopodobne
Nieprawdopodobne
D
E
-2
.
-2
1 raz w okresie od 20 lat do 50 lat: 5 10 – 2 10 [1/rok]
.
-2
-2
1 raz w okresie od 50 lat do 100 lat i więcej: 2 10 –10 [1/rok]
2
1
166
Jan Studziński
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę
167
Tabela 2. Kategorie strat spowodowanych awariami (źródło [8])
Kategoria strat
Katastrofalne
Opis
Waga punktowa
6
F
Strata finansowa powyŜej 10 EUR
5
5
6
PowaŜne
G
Strata finansowa rzędu 10 -10 EUR
4
Znaczące
H
Strata finansowa rzędu 104-105 EUR
3
3
4
Małe
I
Strata finansowa rzędu 10 -10 EUR
2
Pomijalne
J
Strata finansowa poniŜej 1.000 EUR
1
W tabeli 1 przedstawiono kategorie częstości wystąpienia zdarzeń awaryjnych. W tabeli 2 przedstawiono kategorie strat związanych z wystąpieniem tych zdarzeń. Natomiast kluczowa dla metody
matryca ryzyka wyznaczona na podstawie tabel 1 i 2 została pokazana w tabeli 3.
W rezultacie przyjętych pięciostopniowych skali kategorii częstości i kategorii strat otrzymuje się
pięciostopniową skalę poziomów ryzyka:
RND – ryzyko niedopuszczalne 20 ÷ 25
RNA – ryzyko nieakceptowalne 12 ÷ 16
RK – ryzyko kontrolowane
6 ÷ 10
RT – ryzyko tolerowane
3÷ 5
RZ – ryzyko zaniedbywalne
1÷ 2
Tabela 3. Matryca ryzyka (źródło [8]).
Kategoria częstości
Kategoria strat
F=5
G=4
H=3
I=2
J=1
Stopień ryzyka
A=5
B=4
C=3
D=2
A x F = 25
A x G = 20
A x H = 15
A x I = 10
AxJ=5
RND
RND
RNA
RK
RT
B x F = 20
B x G = 16
B x H = 12
BxI=8
BxJ=4
RND
RNA
RNA
RK
RT
C x F = 15
C x G = 12
CxH=9
CxI=6
CxJ=3
RNA
RNA
RK
RK
RT
DxF=
10
DxG=8
DxH=6
DxI=4
DxJ=2
RK
RK
RT
RZ
ExF=5
ExG=4
ExH=3
ExI=2
ExJ=1
RT
RT
RT
RZ
RZ
RK
E=1
168
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Przyjmując, Ŝe będzie tworzona trójwarstwowa matryca ryzyka, przybierze ona postać pokazaną na
rys. 1 [6,7].
1
2
RN D RN D RN A
RK
RT
RN D RN A RN A
RK
RT
RT
RN A RN A
RK
RK
RT
RT
RT
3
RK
RK
RK
RT
RZ
RZ
RZ
RT
RT
RT
RZ
RZ
RZ
RZ
RT
RT
RZ
RZ
RZ
RZ
RT
RZ
RZ
RZ
RZ
Rys. 1. Trójwarstwowa matryca ryzyka (źródło [7]).
Poszczególne warstwy matrycy, oznaczone liczbami 1, 2 i 3, oznaczają: 1 – barierę zapobiegania;
2 –barierę ochrony; 3 –barierę przeciwdziałania. Na rys. 2 pokazano rozwinięte warstwy matrycy
ryzyka.
RN D RN D RN A
RK
RT
RN A RN A RK
RT
RT
RK
RK
RT
RT
RT
RN D RN A RN A
RK
RT
RN A
RK
RK
RT
RT
RK
RT
RZ
RZ
RZ
RN A RN A
RK
RK
RT
RK
RK
RT
RZ
RZ
RT
RZ
RZ
RZ
RZ
RK
RK
RK
RT
RZ
RT
RT
RZ
RZ
RZ
RT
RZ
RZ
RZ
RZ
RT
RT
RT
RZ
RZ
RT
RT
RZ
RZ
RZ
RT
RZ
RZ
RZ
RZ
Rys. 2. Rozwinięte warstwy (bariery) matrycy ryzyka.
W dalszym ciągu metody naleŜy zdefiniować warstwy matrycy ryzyka (bariery obronne, czyli
przedsięwzięcia zapobiegania awariom) oraz oszacować stopnie ryzyka wystąpienia zdarzeń awaryjnych (kryzysowych), uruchamiające poszczególne bariery obronne. Niech badana aglomeracja
miejska będzie zaopatrywana w wodę z rzeki. Zdarzeniem awaryjnym niech będzie pojawienie się
skaŜonej wody w sieci wodociągowej. Dla trójwarstwowej matrycy ryzyka definiuje się następujące bariery obronne [6,7]:
• Bariera zapobiegania 1 – ma tworzyć warunki wczesnego ostrzegania poprzez monitoring
jakości wody surowej w stacji poboru, czyli węźle źródłowym sieci wodociągowej.
168
Jan Studziński
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę
169
• Bariera ochrony 2 – ma chronić system dystrybucji przed wodą złej jakości poprzez monitoring wody uzdatnionej, czyli pompowanej do sieci wodociągowej.
• Bariera przeciwdziałania 3 – oznacza podjęcie skutecznej akcji informacyjnej w celu
ograniczania negatywnych skutków związanych ze spoŜyciem skaŜonej wody.
Oszacowanie stopni ryzyka zdarzeń awaryjnych moŜe wyglądać następująco [6,7]:
W ciągu roku wykonuje się 730 analiz jakości wody surowej i uzdatnionej. Prawdopodobieństwo popełnienia błędu analizy, polegającego na niewykryciu skaŜenia, wynosi 0,001. Częstość
z tym związana wynosi: 0,001 x 730 = 0,73 [1/rok]. Na podstawie danych historycznych oszacowano prawdopodobieństwo złej jakości wody na ujęcia równe 0,03.
• Określenie poziomu ryzyka dla matrycy dla bariery 1: Częstość nie wykrycia skaŜenia wody
wynosi:
f1 = 0,03 ⋅ 0,73 = 2,19 ⋅ 10 −2 1 / rok
Odpowiada to klasie częstości D. Straty związane ze złą jakością wody oszacowano na przynaleŜne do klasy G. Odpowiada to stopniowi ryzyka D x G, czyli RK.
• Określenie poziomu ryzyka dla matrycy dla bariery 2: Częstość nie wykrycia skaŜenia wody
wynosi:
f 2 = f1 ⋅ 0,73 = 2,19 ⋅10−2 ⋅ 0,73 = 1,60 ⋅10−2 1 / rok
Odpowiada to klasie częstości D. Przyjmijmy, Ŝe uzdatnianie wody nie spowoduje zmniejszenia negatywnych skutków, czyli zostaje zachowana klasa G. Odpowiada to stopniowi ryzyka D
x G, czyli RT.
• Określenie poziomu ryzyka dla matrycy dla bariery 3: Prawdopodobieństwo skuteczności
akcji informacyjnej ludności o skaŜeniu wody oszacowano na 0,9. Częstość korzystania ze
skaŜonej wody wodociągowej wynosi:
f 3 = f 2 ⋅ 0,9 = 1,60 ⋅10−2 ⋅ 0,9 = 1,44 ⋅10−2 1 / rok
Odpowiada to klasie częstości E. Przyjęto, Ŝe akcja informacyjna o skaŜeniu wody w wodociągu publicznym spowoduje zmniejszenie negatywnych skutków o jeden rząd wielkości, czyli
kategoria strat spada do klasy H. Odpowiada to stopniowi ryzyka E x H, czyli RZ.
Metoda polega w ogólności na opracowywaniu scenariuszy postępowania w sytuacji, gdy wystąpi określone zagroŜenie, i na szacowaniu prawdopodobieństwa wystąpienia tego zagroŜenia.
Z jednej strony jest to metoda dosyć wygodna, gdyŜ proponuje stosowanie określonych procedur
postępowania, opracowanych wcześniej, w określonych sytuacjach kryzysowych. Z drugiej strony
przyjmuje się niej dosyć duŜo arbitralnych załoŜeń, co powoduje, Ŝe opracowane scenariusze nie
zawsze będą zgodne z rzeczywistymi sytuacjami zachodzącymi w systemie zaopatrzenia w wodę
i nie zawsze będą właściwie przewidywać wystąpienie rzeczywistych zagroŜeń.
3. Metoda przeciwdziałania ryzyku poprzez planowanie prac rewitalizacyjnych
Metoda przeciwdziałania ryzyku, czyli minimalizująca prawdopodobieństwa wystąpienia
awarii w systemie zaopatrzenia w wodę, jest realizowana w postaci złoŜonych zintegrowanych systemów informatycznych. Generują one scenariusze prac rewitalizacyjnych sieci wodociągowej w
odniesieniu do obiektów, które zostały wcześniej zidentyfikowane jako najbardziej podatne na wystąpienie awarii. Takie systemy przeznaczone dla sieci wodociągowych [3], jak równieŜ dla sieci
kanalizacyjnych [2], są rozwijane na przykład przez norweską organizację naukową SINTEF, któ-
170
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
rej struktura i profile działania przypominają Polską Akademię Nauk czy niemiecką Fraunhofer
Gesellschaft.
System opracowany przez SINTEF dla miejskich sieci wodociągowych, o nazwie CARE-W
(Computer Aided REhabilitation of Water networks), składa się z systemu GIS, generującego mapę numeryczną sieci wodociągowej, modelu hydraulicznego, stosowanego do symulacji komputerowej sieci po zmianach wprowadzonych przez wygenerowane plany rewitalizacji i przed ich
wdroŜeniem, oraz z systemu monitoringu do kalibracji modelu hydraulicznego. Zastosowanie tego
systemu pozwala realizować następujące zadania:
•
identyfikacja stanu technicznego sieci wodociągowej i jej poszczególnych obiektów
•
identyfikacja odcinków sieci najbardziej naraŜonych na awarie
•
wyznaczenie trendów awaryjności dla całej sieci, jej poszczególnych obszarów i pojedynczych obiektów
•
generowanie scenariuszy prac rewitalizacyjnych według stopnia ich waŜności, to znaczy
większej lub mniejszej potrzeby ich realizacji
•
określenie moŜliwości inwestycyjnych przedsiębiorstwa
•
wybór scenariusza rewitalizacji do realizacji
•
opracowanie scenariusza do optymalnego zarządzania siecią wodociągową w funkcji potrzeb i moŜliwości przedsiębiorstwa.
CARE-W prototype
“CARE-W MANAGER”
Graphical user interface (GUI)
CARE-W central database
Performance
indicators
(PI tool)
Identify the
performance of a
water supply system
for monitoring,
target setting and
benchmarking
Failure
forecasting
Water supply
reliability
Long-term
rehabilitation
planning
Annual
rehabilitation
planning
Identify individual
pipes and areas with
a high failure
potential
Identify the most
vulnerable points in
a water supply
system and the
associated pipes
Explore the future
rehab investment
needs and
consequences and
define the optimal
rehab strategy
Select the most
cost-efficient
rehab projects for
an annual rehab
programme under
consideration of
various criteria
8 / 29
Rys. 3. Schemat funkcjonalny systemu CARE-W
Źródło: Materiał szkoleniowy SINTEF, 2007 [3]
Schemat systemu CARE-W jest pokazany na rys. 3. Ma on budowę modułową, gdzie poszczególne moduły realizują wymienione wyŜej zadania. Podstawowym elementem systemu jest
branŜowa baza danych, w której są zgromadzone wszystkie moŜliwe informacje na temat stanu
170
Jan Studziński
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę
171
sieci, jej obiektów, parametry techniczne, technologiczne i dane znamionowe tych obiektów a takŜe dane archiwalne i bieŜące dotyczące stanów awaryjnych, ich lokalizacji i przyczyn. Na podstawie tych ostatnich danych dokonuje się prognoz statystycznych awaryjności w odniesieniu do poszczególnych obiektów sieci i jej wybranych fragmentów.
Przedstawiony system jest bardzo skuteczny pod warunkiem, Ŝe dane zebrane i zgromadzone
w branŜowej bazie danych są rzetelne i wyczerpujące, to znaczy, gdy badane przedsiębiorstwo prowadzi dokładną rejestrację wszystkich zdarzeń związanych z siecią a takŜe gdy sieć znajduje się
pod ciągłą kontrolą i jest właściwie serwisowana. Wtedy opracowywane prognozy awaryjności są
trafne a prowadzone według opracowanych planów rewitalizacji prace inwestycyjne są efektywne.
Pokazuje to rys. 4, na którym przedstawiono przykładowy pozytywny wpływ dokonywanej rewitalizacji sieci wodociągowej na jej awaryjność: w miarę wykonywanych inwestycji liczba awarii na
sieci wyraźnie maleje.
Jednak taka sytuacja zdarza się niestety dosyć rzadko i regułą, przynajmniej w krajowych
przedsiębiorstwach wodociągowych, jest, Ŝe dane archiwalne o sieci są niekompletne, nieaktualne
lub wręcz nieprawdziwe i nie prowadzi się równieŜ dokładnej rejestracji o awariach występujących
na sieci. Ponadto wymagania systemu CARE-W są takie, Ŝe w przedsiębiorstwie wodociągowym
powinna juŜ być zainstalowana mapa numeryczna sieci wodociągowej oraz powinien być skalibrowany i uruchomiony model hydrauliczny, co wymaga z kolei posiadania na sieci dosyć rozbudowanego systemu monitoringu. Niestety, te wymagania nie są spełnione w sposób zadowalający
praktycznie w Ŝadnym przedsiębiorstwie wodociągowym w Polsce, co oznacza, Ŝe bezpośrednie
zastosowanie tego systemu w prezentowanej postaci nie jest moŜliwe.
Z kolei wadą samego systemu jest jego duŜa złoŜoność, mała przejrzystość i konieczność
wprowadzenia ogromnej liczby danych, co sprawia duŜe trudności inŜynierom i pracownikom
branŜowym zajmującym się eksploatacją sieci wodociągowej. Dlatego obecnie system CARE-W
ma raczej charakter akademicki i raczej wyznacza kierunek rozwoju narzędzi minimalizujących
liczbę sytuacji kryzysowych na sieci wodociągowej, niŜ sam jest takim uŜytecznym narzędziem.
Indicators, example
17 / 29
Rys. 4. Przykład skuteczności działania systemu CARE-W
Źródło: Materiał szkoleniowy SINTEF, 2007 [3]
172
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
4. Metoda lokalizacji zaistniałych awarii
Ostatnia prezentowana tu metoda zwalczania sytuacji kryzysowych na sieci wodociągowej
polega na minimalizowaniu strat spowodowanych awarią w momencie, gdy taka awaria juŜ wystąpiła. Zadaniem tej metody jest szybka i wiarygodna lokalizacja awarii i sygnalizacja o tym zdarzeniu do operatora sieci w celu wysłania brygady remontowej do jej usunięcia.
Do zastosowania tej metody wymaga się, podobnie jak poprzednio w metodzie drugiej, określonego stopnia informatyzacji przedsiębiorstwa wodociągowego. W tym przypadku przedsiębiorstwo powinno dysponować co najmniej skalibrowanym modelem hydraulicznym sieci wodociągowej oraz odpowiednio rozbudowanym systemem monitoringu zainstalowanym na sieci. Prace
związane z rozwijaniem i stosowaniem tej metody są prowadzone między innymi w Niemczech
przez firmę REUS [9] i takŜe w Polsce w Instytucie Badań Systemowych PAN.
Algorytm działania metody jest następujący:
• Wyznaczyć za pomocą modelu hydraulicznego rozkład ciśnień i rozkład przepływów w sieci
wodociągowej dla typowych (standardowych) stanów pracy sieci.
• Wyznaczyć za pomocą modelu hydraulicznego powierzchnie rozkładów ciśnień i przepływów
dla zdarzeń awaryjnych (wycieków) symulowanych kolejno w kaŜdym węźle sieci wodociągowej.
• Monitorować stan pracy sieci za pomocą systemu monitoringu, którego punkty pomiarowe są
w miarę równomiernie rozmieszczone na sieci.
• Porównywać wartości ciśnień i przepływów monitorowane w punktach pomiarowych z wartościami tych parametrów właściwymi dla wyznaczonych wcześniej standardowych powierzchni
rozkładów.
• W przypadku zauwaŜenia niezgodności między wartościami zmierzonymi i wartościami obliczonymi dla rozkładów standardowych, znaleźć w zbiorze powierzchni rozkładów wyznaczonych podczas symulowania wycieków taką powierzchnię, która najbardziej odpowiada zmienionym wartościom mierzonych parametrów.
• Sygnalizować operatorowi sieci wodociągowej stan awaryjny w punkcie (węźle) sieci, dla którego była wyznaczona znaleziona (zidentyfikowana) powierzchnia rozkładów.
172
Jan Studziński
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę
173
Rys. 5. Ekran programu OHIO do obliczeń hydraulicznych sieci wodociągowej
Źródło: materiał własny
Na rys. 5 pokazano ekran programu OHIO (Obliczenia Hydrauliczne I Optymalizacji) do obliczeń hydraulicznych sieci wodociągowej, który został opracowany w Instytucie Badań Systemowych PAN i wdroŜony w wodociągach rzeszowskich [1].
Przedstawiony algorytm wydaje się prosty, jednak jego realizacja jest związana z koniecznością wykonania ogromnej liczby obliczeń symulacyjnych i zapamiętania podobnie duŜej liczby
tabel z zapisanymi w nich powierzchniami rozkładów ciśnień i przepływów oraz z koniecznością
instalacji na sieci odpowiednio rozbudowanego systemu monitoringu. Po pierwsze, samych rozkładów standardowych jest co najmniej kilkanaście: dla róŜnych pór roku, dla róŜnych dni tygodnia,
dla róŜnych typowych godzin obciąŜenia sieci: szczytu porannego, szczytu wieczornego, godzin
dziennych południowych, godzin nocnych itp.
Ponadto, w zaleŜności od wielkości sieci wodociągowej, otrzymujemy odpowiednio duŜą
liczbę powierzchni rozkładów odpowiadającą liczbie węzłów sieci. NaleŜy pamiętać, Ŝe średniej
wielkości sieć wodociągowa ma około kilku tysięcy węzłów i kilku tysięcy odcinków.
W końcu, o dokładności lokalizacji awarii decyduje równieŜ liczba punktów pomiarowych
w systemie monitoringu. Przy małej liczbie punktów dokładność takiej lokalizacji jest mała. Jed-
174
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
nocześnie koszty inwestycyjne i równieŜ eksploatacyjne systemu monitoringu sieci wodociągowej
są dosyć wysokie i dlatego niewiele przedsiębiorstw wodociągowych decyduje się na takie przedsięwzięcia.
Reasumując moŜna stwierdzić, Ŝe omawiana metoda, chociaŜ łatwiejsza do realizacji, niŜ metoda druga, jest równieŜ dosyć uciąŜliwa tak w implementacji, jak i w późniejszej eksploatacji,
i obecnie jest rzadko stosowana w praktyce a w Polsce nie jest stosowana w Ŝadnym przedsiębiorstwie wodociągowym.
Podobną koncepcję lokalizacji awarii w złoŜonej (pierścieniowej) miejskiej sieci wodociągowej bada się na Politechnice Śląskiej [11]. W prowadzonych tam badaniach stosuje się takŜe
model sieci wodociągowej do symulowania wycieków w róŜnych punktach sieci oraz rejestruje się
rozkłady ciśnień i przepływów zmieniające się w zaleŜności od lokalizacji symulowanego wycieku,
aby móc później porównywać te rozkłady z rozkładem aktualnie mierzonym za pomocą zainstalowanego na sieci systemu monitoringu. RóŜnica w metodach polega na tym, Ŝe w tych badaniach
sieć wodociągową modeluje się za pomocą sieci neuronowej i równieŜ sieci neuronowe stosuje się
do identyfikacji awaryjnych rozkładów ciśnień i przepływów, podczas gdy poprzednia metoda posługuje się modelem fizykalnym (hydraulicznym) sieci, opracowanym na podstawie klasycznych
równań Kirchhoffa, zaadoptowanych z elektrotechniki [1].
5. Uwagi końcowe
Przedstawiono trzy metody przeciwdziałania sytuacjom kryzysowym lub minimalizowania
ich skutków w systemach zaopatrzenia w wodę, przy czym metody te są bardzo zróŜnicowane pod
względem złoŜoności, skuteczności a takŜe stopnia skomputeryzowania.
Najprostsza jest metoda wyznaczania ryzyka awarii: zasadniczo nie wymaga ona wysokiego
stopnia zinformatyzowania badanego przedsiębiorstwa wodociągowego a jedynie archiwizację
danych o stanach awaryjnych dla wyznaczenia prawdopodobieństw ich zajścia, wykorzystywanych
przy szacowaniu stopni ryzyka zdarzeń awaryjnych. Ta prostota jest jej zaletą, lecz jednocześnie
wadą, poniewaŜ zmniejsza dokładność i przez to wiarygodność wyznaczanych scenariuszy działań
(barier) obronnych.
Najbardziej złoŜona jest metoda planowania prac rewitalizacyjnych: wymaga ona wysokiego
stopnia informatyzacji przedsiębiorstwa wodociągowego i ogromnej liczby danych wprowadzanych do systemu informatycznego, nie zawsze moŜliwych do uzyskania w sposób rzetelny w badanym przedsiębiorstwie. Dlatego obsługa systemu realizującego tą metodę jest bardzo uciąŜliwa
i właściwie nie są znane przypadki uŜycia jej w praktyce. Ta złoŜoność jej wadą, lecz jednocześnie
zaletą, poniewaŜ w przypadku spełnienia wszystkich wymagań metody zapewnia ona duŜą skuteczność w eliminowaniu przyczyn zdarzeń awaryjnych.
Metoda lokalizacji awarii plasuje się pośrodku między wymienionymi dwiema metodami: jest
mniej złoŜona od metody drugiej i bardziej skuteczna od metody pierwszej. Niemniej jej właściwe
zastosowanie jest równieŜ uciąŜliwe, w szczególności w odniesieniu do konieczności wyznaczania
powierzchni rozkładów ciśnień i przepływów dla symulowanych wycieków we wszystkich węzłach
sieci. Dlatego nie dziwi, Ŝe właściwie nie jest ona szeroko stosowana.
Reasumując naleŜy stwierdzić, Ŝe właściwie wszystkie przedstawione metody mają obecnie
charakter raczej akademicki a nie uŜytkowy, co oznacza, Ŝe dalszym ciągu istnieje potrzeba opracowywania i testowania w praktyce nowych metod względnie wprowadzania ukierunkowanych
aplikacyjnie zmian w metodach przedstawionych.
174
Jan Studziński
Metody zwalczania sytuacji kryzysowych w miejskich systemach zaopatrzenia w wodę
175
W Instytucie Badań Systemowych PAN prowadzi się obecnie prace związane z opracowaniem algorytmów rewitalizacji sieci wodociągowych, podobnych do tych działających w norweskim systemie CARE-W, jednak prostszych w obsłudze i wymagających mniejszej liczby przyjmowanych arbitralnie załoŜeń. Algorytmy te będą włączone do struktury systemu informatycznego
rozwijanego w IBS PAN i wdraŜanego w Rzeszowie do zarządzania tamtejszą siecią wodociągową
[10].
Podobnie prowadzi się prace związane z modyfikacją metod lokalizacji awarii i ich adaptacją
do moŜliwości technicznych krajowych przedsiębiorstw wodociągowych na przykładzie przedsiębiorstwa wodociągowego w Rzeszowie. Przy tym są rozwijane algorytmy lokalizacji awarii wykorzystujące do symulacji sieci wodociągowej zarówno deterministyczny (fizykalny) model hydrauliczny sieci (na przykład wspomniany wcześniej model OHIO [1]), jak i model w postaci sieci neuronowych. W tym pierwszym przypadku korzysta się z doświadczeń niemieckich i bezpośrednich
kontaktów z firmą REUS [9], w drugim przypadku korzysta się z wyników prac prowadzonych na
Politechnice Śląskiej [11].
6. Literatura
1.
Barski A., Pawlak A., Studzinski J.: Komputerowy model hydrauliczny miejskiej sieci
wodociągowej. W: Badania Operacyjne i Systemowe: Środowisko Naturalne, Przestrzeń,
Optymalizacja. PAN IBS, Seria Badania Systemowe, tom 63, 99-116, Warszawa 2008.
2. CARE-S: System rewitalizacji sieci kanalizacyjnych. Prezentacja SINTEF, Politechnika
Krakowska 2007.
3. CARE-W: System rewitalizacji sieci wodociągowych. Prezentacja SINTEF, Politechnika
Krakowska 2007.
4. Rak J.: Istota ryzyka w funkcjonowaniu systemu zaopatrzenia w wodę. Oficyna
Wydawnicza Politechniki Rzeszowskiej, 1-113, Rzeszów 2004.
5. Rak J.: Podstawy bezpieczeństwa systemów zaopatrzenia w wodę. Wydawnictwo PAN Komitet InŜynierii Środowiska, tom 28, 1-215, 2005.
6. Rak J., Tchórzewska-Cieślak B.: Metody analizy i oceny ryzyka w systemie zaopatrzenia
w wodę. Oficyna Wydawnicza Politechniki Rzeszowskiej. Rzeszów 2005.
7. Rak. J., Tchórzewska-Cieślak B.: Czynniki ryzyka w eksploatacji systemów zaopatrzenia
w wodę. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 2007.
8. Rak J., Tchórzowska-Cieślak B., Studzinski J.: Wybrane problemy bezpieczeństwa
systemu zaopatrzenia w wodę. Gaz, Woda i Technika Sanitarna 2009 (w druku)
9. Straubel R.: REH: Programm zur Rechnergestützten EntscheidungsHilfe. REUS GmbH,
Berlin 2007.
10. Studzinski J.: Projektowanie zintegrowanego systemu informatycznego zarządzania
miejską siecią wodociągową. Studia i Materiały PSZW (A. Januszewski, red.) tom 17,
PSZW Bydgoszcz 2008, 185-198.
11. Wyczółkowski R.: Inteligentny system monitorowania sieci wodociągowych. Eksploatacja
i Niezawodność, 1/2008, 33-36.
176
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
METHODS OF CRISIS EVENTS CONTROL IN COMMUNAL WATER
DISTRIBUTION SYSTEMS
Summary
In the paper some methods of forecasting and preventing the crisis situations
arising in complex communal water distribution systems are described. A crisis
situation in such the systems is mostly a failure of the water net pipe that results with
water losses in the network and with breaks in water supply to the end users of the
water net. This results farther with the financial losses for the waterworks and also
with some social losses concerning the people removed from water for many times
and for longer time. To avoid such threats different remedy methods are developed
which are based on the forecasting of failure events for their elimination and on the
fast identification of failures when they have already arisen. They all are the computer aided methods in the form of individual programs or complex information system for decisions making. Three of such the methods are presented in the paper.
Key words: Computer knowledge management, decisions making systems, computer management
of crisis situations, municipal waterworks and water networks
Jan Studzinski
Instytut Badań Systemowych PAN Warszawa
e-mail: [email protected]
176
Jan Studziński, Andrzej Ziółkowski
Komputerowe wspomaganie zarządzania projektami badawczymi
177
JAN STUDZINSKI
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
ANDRZEJ ZIÓŁKOWSKI
WSISiZ Warszawa
KOMPUTEROWE WSPOMAGANIE ZARZĄDZANIA PROJEKTAMI BADAWCZYMI1
Streszczenie
W artykule przedstawiono koncepcję i realizację systemu komputerowego
wspomagającego zarządzanie, to znaczy kontrolę przebiegu, administrację i prowadzenie duŜych projektów badawczych o charakterze badawczym, rozwojowym i
wdroŜeniowym. System pod nazwą STUDIO-7 został opracowany w Instytucie Badań
Systemowych PAN i przetestowany przy realizacji duŜego projektu związanego z
opracowaniem i wdroŜeniem komputerowego systemu wspomagania decyzji dla operatora miejskiej sieci wodociągowej.
Słowa kluczowe: Komputerowe zarządzanie wiedzą, systemy wspomagania decyzji, komputerowe
zarządzanie projektami badawczymi
1. Wprowadzenie
DuŜe projekty badawcze wymagają profesjonalnego zarządzania. System projektów badawczych został wprowadzony w Polsce na początku lat 90-tych ubiegłego wieku jako mechanizm
wspomagający finansowanie pracowników naukowych i instytutów badawczych. Przyznawaniem
projektów i dystrybucja środków finansowych na ich realizację zajmował się specjalnie utworzony
do tego celu Komitet Badań Naukowych. Początkowo były to nieduŜe projekty dotyczące badań
podstawowych i ze stosunkowo niskim finansowaniem. Stopniowo system projektów rozszerzał się
i obecnie obejmuje juŜ liczne programy badawcze, wśród których kluczowe role zajmują: program
grantów, program projektów celowych i program projektów rozwojowych. Granty w dalszym ciągu
dotyczą badań podstawowych, projekty celowe badań wdroŜeniowych a projekty rozwojowe dotyczą tzw. badań przed-aplikacyjnych, czyli takich, które wyszły juŜ z fazy badań podstawowych ale
nie kończą się jeszcze konkretnym wdroŜeniem.
Włączenie badań aplikacyjnych i prac wdroŜeniowych do systemu projektów badawczych
spowodowało, Ŝe same projekty zaczęły być coraz bardziej złoŜone i jednocześnie znacznie wzrosły kwoty ich dofinansowania. Wzrost rozmiarów, a więc i rangi projektów, spowodował, Ŝe wzrosła ranga samego Komitetu Badań Naukowych, który został przekształcony w Ministerstwo Nauki i
Szkolnictwa WyŜszego, odpowiedzialne obecnie za przyznawanie projektów i przydział środków
finansowych do ich wykonywania, ale wzrosła tez złoŜoność projektów, co spowodowało, Ŝe ich
realizacja stała się znacznie bardziej skomplikowana, niŜ poprzednio. Projekty o charakterze aplikacyjno-wdroŜeniowym są na ogół interdyscyplinarne, to znaczy wymagają do realizacji specjalistów z róŜnych dziedzin, ponadto duŜy rozmiar projektu wymaga równieŜ większego zespołu reali1
Praca wykonana w ramach realizacji projektu rozwojowego MNiSzW nr R11 001 01.
178
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
zacyjnego. Wszystko to utrudnia znacznie ich wykonanie.
Jednocześnie nie zmieniła się w instytutach badawczych forma nadzorowania i prowadzenia
projektów, wyglądająca identycznie, jak w przypadku realizowanych wcześniej i jedynych wówczas projektów grantowych. Granty są zwykle monotematyczne i mało-zadaniowe, więc administracja nimi nie wymaga wiele pracy. Projektem kieruje kierownik projektu i zdany jest on przy
tym na pracowników administracji instytutu, dla których zainteresowanie danym projektem jest
zwykle zadaniem bardzo ubocznym. Dlatego przy duŜych projektach zaczynają się problemy o
charakterze organizacyjno-logistycznym i kierownik projektu zaczyna większość czasu poświęcać
na sprawy administracyjne kosztem prac merytorycznych.
Biorąc to pod uwagę opracowano koncepcję systemu komputerowego STUDIO-7, który ma
wspomagać kierownika duŜego projektu badawczego w jego pracy organizacyjnej. System został
przetestowany na przykładzie danych dotyczących realizacji duŜego projektu związanego z opracowaniem i wdroŜeniem komputerowego systemu wspomagania decyzji dla operatora miejskiej
sieci wodociągowej. W projekcie uczestniczyło kilkadziesiąt osób z kilkunastu instytutów, firm
usługowych i przedsiębiorstw produkcyjnych, zlokalizowanych na terenie całego kraju, i realizacja
tego projektu przed zastosowaniem systemu STUDIO-7 była niezwykle uciąŜliwa, co się zmieniło i
usystematyzowało po opracowaniu i implementacji systemu.
2. Funkcje systemu
System STUDIO-7 jest aplikacją internetową wspomagającą zarządzanie projektami badawczymi. Jego drugą, niemniej waŜną funkcja, jest zdalne prowadzenie zajęć dydaktycznych w szkołach wyŜszych. Funkcje dydaktyczne systemu STUDIO-7 zostały dokładnie przedstawione w pracy
[10] i nie będą tu omawiane.
Do zarządzania projektami badawczymi moŜna uŜywać standardowych narzędzi pakietów
biurowych, które zawierają rozbudowane funkcje harmonogramowania np. MS Project lub ułatwiają tworzenie zestawień finansowych, na przykład MS Excel. Aby zapewnić wymianę informacji
między uczestnikami projektu badawczego moŜna wykorzystać pocztę elektroniczną, czat lub komunikatory głosowe na przykład Skype. Korzystanie ze standardowych rozwiązań nie zawsze jest
wygodne. Najczęściej potrzebujemy niewielką część funkcji udostępnianych przez bardzo uniwersalne programy, natomiast pewne potrzebne nam funkcje są niedostępne a ich realizacja jest trudna.
System STUDIO-7 jest prostym systemem wspomagającym zarządzanie projektami badawczymi, w którym uwzględniono fatyczne potrzeby uŜytkowników i aktualną praktykę i doświadczenie autorów.
Podstawowe funkcje realizowane przez system STUDIO-7 to:
• Utrzymywanie hierarchicznej struktury projektów, tematów i zadań ułatwiającej szybki
dostęp i szybką aktualizacje informacji.
• Zapewnienie wymiany informacji z wykonawcami.
• Kontrola harmonogramów realizowanych projektów badawczych.
• Tworzenie planów finansowych i kontrola ich wykonania.
• Wspomaganie wystawiania umów i kontrola realizacji wykonania.
• Tworzenie listy publikacji opracowanych w ramach projektu badawczego.
Jan Studziński, Andrzej Ziółkowski
Komputerowe wspomaganie zarządzania projektami badawczymi
179
3. Zastosowane technologie informatyczne
System STUDIO-7 jest typową aplikacją internetową dostępną za pośrednictwem ogólnie
dostępnych przeglądarek internetowych. System zrealizowano w języku PHP wykorzystując bazę
danych MySQL do przechowywania danych tekstowych i graficznych. Aby zapewnić wygodny
interfejs uŜytkownika, wykorzystano język JavaScript. Edycja udostępnianych treści moŜe być
wykonywana w standardowym edytorze tekstowym lub edytorze HTML typu WYSIWYG.
Zastosowano odpowiednio zintegrowany z całą aplikacją edytor TinyMCE.
UŜyte technologie nie wymagają dodatkowych licencji ani opłat.
4. UŜytkownicy systemu
WyróŜniamy dwie podstawowe grupy uŜytkowników systemu STUDIO-7:
• Administratorzy zarządzający projektami.
• Wykonawcy projektów.
Do pierwszej grupy uŜytkowników, administratorów, zaliczamy osoby przygotowujące materiały warte zapoznania się z nimi przez wykonawców projektu, formułujące zadania i podzadania
badawcze, określające terminy wykonania tych zadań, odbierające i oceniające raporty i sprawozdania z wykonanych prac, zajmujące się równieŜ wystawianiem umów na wykonanie zamówionych
prac. Osoby te mają pełne moŜliwości edycji treści materiałów i zadań badawczych, które mogą
udostępniać względnie zlecać wybranym grupom uczestników względnie indywidualnym uczestnikom projektu.
Druga grupa uŜytkowników, wykonawcy, moŜe przeglądać udostępnione treści, wykonywać
zlecone zadania i sprawdzać oceny i odpowiedzi opracowane przez administratorów. MoŜliwości
edycji są w tym przypadku ograniczone. Mogą edytować oni jedynie wyniki przydzielonych do
wykonania zadań.
Dostęp do zasobów systemu uŜytkownicy uzyskują po zalogowaniu. Do indywidualnego logowania się w systemie wykorzystuje się adres e-mailowy uŜytkownika i 6-cio znakowe hasło generowane przez system na podstawie tego adresu. Hasła są zapamiętywane w systemie. Jeśli uŜytkownik zapomni swojego hasła, to po podaniu podczas logowania adresu e-mailowego bez hasła
zostanie mu wysłane przypomnienie hasła na podany adres e-mailowy.
Rys. 1. Sposób logowania się w systemie STUDIO-7
180
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Nowi uŜytkownicy muszą być zarejestrowani w systemie. Najczęściej uczestnicy rejestrują
się sami na wybrany temat, kurs lub projekt po udostępnieniu przez administratora nazwy tematu,
kursu lub projektu i odpowiedniego hasła rejestracji. Zalogowania uczestnika szkolenia moŜe dokonać równieŜ administrator systemu, znający jego adres e-mailowy.
5. Struktura informacji
Informacje gromadzone w systemie Studio-7 tworzą strukturę hierarchiczną zbudowaną z następujących składników / poziomów:
• Instytucja
• Projekt
• Temat
• Zadanie
• Podzadanie
• Materiał pomocowy
• Rezultaty
• Pytania i odpowiedzi
Na rys. 2 pokazano przykładowy ekran systemu. Z lewej strony ekranu znajduje się rozwijalne menu ze składnikami hierarchicznej struktury, przy czym róŜnymi kolorami oznacza się róŜne
jej poziomy. Poziom Instytucji, to w tym przypadku IBS PAN, czyli Instytut Badań Systemowych
Polskiej Akademii Nauk; poziom Projektu, to na przykład Sieci wodociągowe i kanalizacyjne; poziom tematu, to na przykład Struktura bazy danych; poziom zadań to na przykład Baza danych sieci wodociągowej z wydzielonymi elementami: finanse i publikacje.
W górnej części ekranu znajduje się pasek zadaniowy z ikonami dostępnych funkcji wyświetlanymi w zaleŜności od uprawnień uŜytkownika i rodzaju wybranego elementu menu. Korzystając
z tych funkcji uprawniony uŜytkownik moŜe dodawać lub usuwać projekty, tematy i zadania oraz
edytować ich treść.
Do edycji treści wykorzystano edytor TinyMCE stron HTML. Jest to edytor typu WYSIWYG, którego interfejs jest wzorowany na interfejsie programów biurowych (np. MS WORD) do
edycji dokumentów. Zastosowanie formatu HTML pozwala zamieszczać tabele, listy, rysunki oraz
odpowiednio formatować zamieszczane teksty.
Ekran edycji systemu pokazano na rys. 3. Na górze ekranu w pasku narzędziowym znajdują
się ikony zmiany widoku struktury oraz uruchamiania róŜnych funkcji edycyjnych systemu: kopiowania, wstawiania nowych składników struktury, dodawania elementów (na tym samym poziomie
struktury), dodawania pod-elementów (na niŜszym poziomie struktury), usuwania składników
(elementów, pod-elementów) oraz edycji w trybie tekstowym lub w trybie WYSIWYG (dołączania
do danych poziomów struktury materiałów pomocowych: odpowiedniej literatury, tekstów artykułów i referatów, wybranych tekstów ksiąŜkowych).
Jan Studziński, Andrzej Ziółkowski
Komputerowe wspomaganie zarządzania projektami badawczymi
Rys. 2. Ekran z przykładową strukturą informacji w systemie Studio-7
Rys. 3. Ekran edycji treści tematu wykorzystujący edytor TinyMCE
181
182
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
6. Harmonogramy
Dla poszczególnych składników struktury moŜna ustalać indywidualnie okres ich realizacji,
przy czym okres kolejnego poziomu jest zawsze podzbiorem poziomu wyŜszego. Informacje o terminie rozpoczęcia i zakończenia tematu projektu pozwala wyświetlać harmonogram realizacji projektu w rozbiciu na tematy a terminy rozpoczęcia i zakończenia pozwalają wyświetlać harmonogramy realizacji tematów w rozbiciu na zadania i podzadania (rysunki 4 i 5).
Rys. 4. Przedstawienie harmonogramu projektu.
Rys. 5. Ekran edycji harmonogramu
Jan Studziński, Andrzej Ziółkowski
Komputerowe wspomaganie zarządzania projektami badawczymi
183
7. Zarządzanie finansami projektu
WaŜnym elementem zarządzania projektem badawczym jest dokładne i terminowe śledzenie
wydatkowania środków finansowych oraz zgodności ponoszonych kosztów z harmonogramem zadaniowo-finansowym projektu.
Rys. 6. Edycja planowanych kosztów projektu
Zwykle pracami tymi zajmuje się dział finansowo-księgowy instytutu, jednak praca takiego
działu charakteryzuje się duŜą bezwładnością i pozyskiwanie stamtąd informacji na temat aktualnego stanu finansowego projektu nie jest moŜliwe na Ŝądanie a jedynie po upływie określonego
czasu, zwykle kilku tygodni, to znaczy po zakończeniu danego miesiąca rozliczeniowego. Nie jest
to problemem w przypadku realizacji projektów grantowych, natomiast staje się istotnym utrudnieniem w przypadku projektów aplikacyjnych i wdroŜeniowych, gdy zawiera się liczne umowy na
wykonanie prac z wieloma podmiotami zewnętrznymi.
Rys. 7. Ekran edycji umów zawieranych podczas realizacji projektu
184
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Rys. 8. Wprowadzanie danych osobowych związanych z realizacją umów
System STUDIO-7 umoŜliwia dlatego prowadzenie ewidencji umów zawieranych przy realizacji poszczególnych tematów, zadań i podzadań projektu. Opis umowy zawiera datę rozpoczęcia i
zakończenia, kwotę umowy i kwotę realizacji. W zaleŜności od rodzaju umowy (umowa o dzieło,
umowa na pracę zleconą, umowa z pracownikiem instytutu macierzystego lub z pracownikiem
podmiotu zewnętrznego) obliczane jest automatycznie obciąŜenie tematu. Do kaŜdego opisu umowy moŜna dołączyć plik zawierający szczegóły umowy (tekst umowy).
W systemie przechowywane są w postaci zakodowanej dane osób, z którymi zawarto umowy.
Dane te są potrzebne przy wystawianiu rachunków oraz dokumentów sprawozdawczych. Na rysunkach 6, 7 i 8 pokazano ekrany systemu związane z działaniami finansowymi podczas realizacji
projektu.
8.Tworzenie list publikacji
Przydatnym a nawet niezbędnym elementem systemu STUDIO-7 jest moŜliwość tworzenia listy publikacji opracowanych i wydanych przez uczestników projektu oraz przechowywania tekstów tych publikacji w formie elektronicznej. Rozliczanie projektu badawczo-rozwojowego w Ministerstwie odbywa się między innymi na podstawie liczby i rangi wykonanych publikacji i dlatego
skrupulatna sprawozdawczość w tym zakresie jest bardzo istotna. Na rys. 8 pokazano ekran systemu związany z rejestracją i archiwizacją publikacji wykonanych przez uczestników projektu.
Jan Studziński, Andrzej Ziółkowski
Komputerowe wspomaganie zarządzania projektami badawczymi
185
Rys. 8. Edycja listy publikacji.
9. Uwagi końcowe
Przedstawiono system informatyczny wspomagający zarządzanie złoŜonymi projektami badawczymi. Jest on rozwinięciem wcześniejszego systemu opracowanego do elektronicznego
wspomagania nauczania w szkołach wyŜszych, opisanego w pracy [10]. Pięć głównych funkcji
prezentowanego systemu, to rejestracja uczestników projektu; rozdział między nich zadań badawczych do wykonania; harmonogramowanie wykonania tych zadań; prowadzenie księgowości projektu; oraz rejestracja i archiwizacja opublikowanych materiałów, to znaczy raportów badawczych,
artykułów, referatów i wydawnictw ksiąŜkowych.
System został przetestowany na przykładzie realizacji jednego projektu badawczego i zapewnił istotną pomoc w jego prowadzeniu, szczególnie w zakresie ciągłego nadzoru nad wykonaniem
zadań projektowych, systematyzacji całokształtu prac badawczych i wdroŜeniowych oraz bieŜącej
kontroli wydatków.
Jednocześnie jest to system otwarty, znajdujący się w ciągłej fazie rozbudowy i doskonalenia
i są w nim na bieŜąco uwzględniane wszelkie uwagi krytyczne i pomysły słuŜące jego ulepszeniu.
Podobne systemy juŜ istnieją, jednak autorzy zdecydowali się na opracowanie własnego programu
głównie dlatego, Ŝe stwarzało to moŜliwość adaptacji w nim własnych pomysłów i rozwiązań a takŜe tworzenia indywidualnych form raportów, sprawozdań i innych dokumentów zgodnie z własnymi wymaganiami i równieŜ wymaganiami lub sugestiami określonymi przez Ministerstwo lub przez
współwykonawców projektu. Kolejnym krokiem w rozbudowie systemu będzie stworzenie funkcji
umoŜliwiającej sporządzanie raportów rocznych i końcowych zgodnie z wymaganiami Ministerstwa i odpowiednio do rodzaju realizowanego projektu, to znaczy grantu, projektu celowego lub
projektu rozwojowego.
186
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
10. Literatura
1.
Andersen T., Elloumi F.: Theory and practice of on-line learning. Athabasca University
2004.
2. Bednarek J., Lubina E.: Kształcenie na odległość. Podstawy dydaktyki. MIKOM PWN,
Warszawa 2008.
3. Clarke A.: e-learning - nauka na odległość. Wydawnictwo Komunikacji i Łączności,
Warszawa 2007.
4. Gogołek W.: Technologie informacyjne w edukacji. W: e-edukacja.net (M. Dąbrowski,
M. Zając, red.) FPAKE, Warszawa 2007.
5. Hormon W., Hormon K.: e-learning tools and technologies. John Wiley & Sons,
Indianapolis 2003.
6. http://cde.athabascau.ca/online_book
7. http://docs.moodle.org
8. Hyla M.: Przewodnik po e-learningu. Oficyna Ekonomiczna, Kraków 2005.
9. Stone D.E., Koskinen C.L.: Planning and design for High-Tech webbased training. Artech
House, Norwood 2002.
10. Studzinski J., Ziółkowski A.: Komputerowe wspomaganie edukacji personalizowanym elearningiem. Studia i Materiały PSZW (A. Januszewski, red.) tom 17, PSZW Bydgoszcz
2008, 199-212.
COMPUTER AIDED MANAGEMENT OF RESEARCH PROJECTS
Summary
In the paper the idea and realization of an information system supporting the
management, i.e. the monitoring, administration and performing of big research
projects of pure scientific, development and implementation type are presented. The
system called STUDIO-7 has been developed at the Research Systems Institute of
Polish Academy of Sciences and tested by the carrying out of a rather big project
whose goal was to develop and implement a decisions making system for the operator of a municipal water network.
Key words: Computer management of knowledge, decisions making information systems, research
project management
Jan Studzinski
Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
e-mail: [email protected]
Andrzej Ziolkowski
WSISiZ Warszawa
Piotr Sulikowski, Tomasz Zdziebko
Analiza zachowań klientów a wzrost konkurencyjności przedsiębiorstw
187
PIOTR SULIKOWSKI
Zachodniopomorski Uniwersytet Technologiczny
TOMASZ ZDZIEBKO
Uniwersytet Szczeciński
ANALIZA ZACHOWAŃ KLIENTÓW A WZROST KONKURENCYJNOŚCI
PRZEDSIĘBIORSTW
Streszczenie
Problem analizy zachowań klientów na potrzeby odkrywania wiedzy pozwalającej na podnoszenie konkurencyjności przedsiębiorstw ma istotne znaczenie, szczególnie w dobie spowolnienia gospodarczego. Celem artykułu jest prezentacja moŜliwości metod odkrywana wiedzy w analizie zachowań uŜytkowników serwisów internetowych oraz zachowań uŜytkowników telefonii komórkowej w kontekście zjawiska
rezygnacji. Omówiono proces odkrywania wiedzy, źródła i kategorie danych oraz
stosowane metody eksploracji danych wraz z przykładowymi rezultatami, jakie moŜna dzięki nim uzyskać.
Słowa kluczowe: eksploracja danych, odkrywanie wiedzy z baz danych, zachowania klientów,
analiza rezygnacji, eksploracja korzystania z sieci
1. Wprowadzenie
W czasach prosperity gospodarczej przedsiębiorstwa zarządzane bardzo dobrze, dobrze,
a często nawet słabo, są w stanie generować zyski i trwać na rynku. JednakŜe w czasach spowolnienia gospodarczego, skutkującego ograniczeniami wydatków konsumpcyjnych i inwestycyjnych,
tylko najsilniejsze przedsiębiorstwa są w stanie przetrwać ten trudny okres, jednocześnie umacniając swoją pozycję. Jednym ze sposobów budowania przewagi konkurencyjnej jest optymalizacja
wartości, jaką uzyskuje klient, korzystając z produktów bądź usług firmy. Proces zarządzania przez
wartość dla klienta, jak podkreśla Szymura-Tyc[1], obejmuje swoim zasięgiem przede wszystkim
informacyjne procesy związane z pozyskiwaniem i przetwarzaniem wiedzy o szczególnych potrzebach i oczekiwaniach klientów w zakresie wartości i czynnikach, które je kształtują. W myśl koncepcji zarządzania relacjami z klientami CRM [ang. Customer Relationship Management] organizacja powinna skupić się na budowie i kultywowaniu związków z klientami w celu zapewnienia ich
zadowolenia i lojalności. Aby jednak lepiej troszczyć się o klientów, naleŜy poznać ich potrzeby
i preferencje oraz zrozumieć ich zachowania. Dopiero dogłębna analiza danych biznesowych,
w tym szczególnie danych dotyczących klientów, i wypływające z niej wnioski mogą pomóc przedsiębiorstwu w zaspokajaniu potrzeb klientów na odpowiednim poziomie, jak i w realizacji pozostałych celów.
KaŜdego dnia przedsiębiorstwa w wyniku realizowanej działalności operacyjnej gromadzą dane o swoich klientach, produktach, transakcjach. Ogromna ilość tych danych wymaga zastosowania
odpowiednich metod analizy w celu ekstrakcji cennej wiedzy. Proces odkrywania wiedzy z baz
danych KDD [ang. Knowledge Discovery in Databases] często prowadzony jest zgodnie z metodo-
188
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
logią CRISP-DM [ang. Cross-Industry Standard Process for Data Mining], która pozwala na uporządkowanie prowadzonych działań analitycznych. Metodologia ta wyodrębnia w procesie sześć
etapów, które mogą być realizowane ze sprzęŜeniem zwrotnym.
Odkrywanie wiedzy z baz danych stosowane jest w wielu dziedzinach nauki, np. fizyce, medycynie, astronomii. W kontekście biznesowej działalności gospodarczej proces odkrywania wiedzy
realizowany moŜe być m.in. dla celów podnoszenia poziomu sprzedaŜy krzyŜowej [ang. crossselling] lub rozszerzonej [ang. up-selling], targetowania kampanii marketingowych, wykrywania
oszustw i naduŜyć [ang. fraud detection], segmentacji klientów, prognozowania sprzedaŜy, określania grupy klientów skłonnych do rezygnacji z usług firmy [ang. churn analysis] oraz analizy
zachowań uŜytkowników firmowego serwisu internetowego.
Jednym z zastosowań KDD jest takŜe identyfikacja klientów skłonnych do rezygnacji z usług
lub inaczej odejścia. Zjawisko to ma szczególne znaczenie w dobie rosnącej konkurencji. Np. na
rynku usług telefonii komórkowej liczba dostępnych ofert, jak i swoboda zmiany operatora są coraz większe, a klienci – coraz mniej lojalni. Odsetek klientów rezygnujących z danego operatora
telefonii komórkowej w ciągu roku w Europie i Stanach Zjednoczonych wynosi przeciętnie 2436% [2, s. 132-133] i wykazuje on tendencję wzrostową. Polscy operatorzy znajdują się w ścisłej
„czołówce” – według Urzędu Komunikacji Elektronicznej odsetek klientów odchodzących wynosił
w roku 2007 nawet 37,2%, kiedy to odłączono wtedy w sumie aŜ 13,5 mln (sic!) kart SIM. Coraz
większego znaczenia nabiera więc zrozumienie zjawiska rezygnacji, pozwalające na bardziej efektywną reakcję ze strony zagroŜonego odejściem dostawcy.
W dobie rosnącego znaczenia Internetu w działalności informacyjnej, promocyjnej i handlowej szczególnie istotne staje się takŜe zrozumienie zachowania uŜytkowników firmowych serwisów WWW. Według prognoz Forrester Research przychody amerykańskich sklepów internetowych w roku 2008 wyniosą 204 mld dolarów [3], co stanowi znaczny wzrost w porównaniu do
roku 2007, kiedy to wartość sprzedaŜy osiągnęła 175 mld. Mimo bardzo dobrych wyników branŜy
e-commerce w ostatnich latach nawet ona moŜe odczuć skutki spowolnienia gospodarczego. Dlatego teŜ, wartościowych informacji moŜe dostarczyć analiza zachowań internautów korzystających
zarówno z serwisów handlu internetowego, jak i innych rodzajów serwisów WWW, pełniących
istotne role w działalności przedsiębiorstw.
W kolejnym rozdziale opisano wykorzystanie metod eksploracji danych do odkrywania wiedzy o zachowaniach internautów, zaś w rozdziale trzecim omówiono zastosowanie data mining w
analizie zachowań klientów operatora telefonii komórkowej pod kątem ich moŜliwej rezygnacji.
Oba obszary odkrywania wiedzy wydają się szczególnie interesujące z racji moŜliwości uzyskiwania wartościowego oglądu zachowań klientów, tak by przedsiębiorstwo było w stanie sprostać ich
oczekiwaniom i ich utrzymać. Celem artykułu jest prezentacja moŜliwości metod odkrywana wiedzy w analizie zachowań klientów – internautów oraz uŜytkowników telefonii komórkowej.
2. Analiza zachowań uŜytkowników serwisu internetowego
Proces odkrywania wiedzy o zachowaniach uŜytkowników serwisów internetowych składa się
z reguły z trzech etapów: wstępnego przetwarzania, eksploracji danych oraz analizy odkrytej wiedzy. Nim jednak moŜliwe będzie przystąpienie do tego procesu konieczne jest zgromadzenie niezbędnych danych. W procesie tym wykorzystywane jest szerokie spektrum danych, które moŜna
podzielić na następujące kategorie [4]:
Piotr Sulikowski, Tomasz Zdziebko
Analiza zachowań klientów a wzrost konkurencyjności przedsiębiorstw
189
dane o dostępie do stron serwisu [ang. usage data] – obejmują dane o odwołaniach do
poszczególnych elementów serwisu. Najczęstszym źródłem tych danych są logi serwera
WWW. Coraz częściej zbierane są równieŜ po stronie klienta (przeglądarki internetowej)
przy uŜyciu języka JavaScript. Poziom szczegółowości zbieranych danych zaleŜy od zastosowanej metody. Przy uŜyciu logów serwera WWW moŜliwe jest rejestrowanie Ŝądania dostępu do poszczególnych składników serwisu. Z kolei zastosowanie monitorowania zdarzeń
po stronie klienta, pozwala na śledzenie takich akcji jak przemieszczanie kursora myszy
nad poszczególnymi elementami witryny, przewijanie treści czy korzystanie z klawiatury.
Spektrum rejestrowanych zdarzeń po stronie klienta uwarunkowane jest implementacją poziomu modelu DOM [ang. Document Object Model].
dane o treści witryn [ang. content data] – opisują zbiór obiektów witryny i powiązań występujących między nimi. Najczęściej są to treści prezentowane na witrynie – w postaci tekstu oraz multimediów. Treści te dodatkowo mogą być wzbogacone o semantyczne lub
strukturalne metadane, takie jak słowa kluczowe, atrybuty dokumentów, semantyczne tagi,
zmienne HTTP czy teŜ dane ontologiczne.
dane o strukturze [ang. structure data] – opisują powiązania między poszczególnymi elementami wchodzącymi w skład witryny. Przedstawiają zarówno powiązania pomiędzy poszczególnymi stronami serwisu, jak równieŜ pomiędzy obiektami zawartymi wewnątrz poszczególnych podstron serwisu.
dane o uŜytkownikach [ang. user data] – zawierające dodatkowe informacje o profilach
uŜytkowników witryny. Takie dane z reguły zawierają dane demograficzne, historię transakcji, informacje o zainteresowaniach oraz oceny obiektów/produktów oferowanych przez
serwis.
Wykorzystanie wszystkich przedstawionych powyŜej kategorii danych nie jest konieczne do realizacji procesu odkrywania wiedzy o zachowaniach uŜytkowników. Jednak dla uzyskania moŜliwie najbardziej kompletnej wiedzy konieczne staje się zebranie danych z wielu źródeł. W pierwszym etapie procesu KDD zgromadzone dane muszą zostać poddane przetwarzaniu wstępnemu w
celu przygotowania ich do etapu eksploracji. Przebieg procesu przetwarzania uzaleŜniony jest od
struktury i kategorii zgromadzonych danych. W przypadku badania zachowań internautów, proces
ten składa się z reguły z następujących po sobie faz: oczyszczania, identyfikacji odwołań, identyfikacji uŜytkowników, identyfikacji sesji, oraz integracji danych [1]. Proces ten ze względu na liczbę
problemów, z jakimi musi zmierzyć się analityk, często stanowi najdłuŜszy etap procesu KDD.
Efektem wstępnego przetwarzania jest zbiór danych przygotowanych pod kątem algorytmu wykorzystywanego na etapie właściwej eksploracji danych. Jej celem jest poszukiwanie i ekstrakcja
prawidłowości zawartych w danych. Wykorzystywać tu moŜna róŜne metody eksploracji danych,
róŜne algorytmy postępowania. Przykłady metod stosowanych w procesie odkrywania wiedzy
o zachowania uŜytkowników serwisów internetowych zostały przedstawione poniŜej.
Odkrywanie reguł asocjacyjnych ma na celu odkrycie zaleŜności polegających na współwystępowaniu pewnych obiektów razem. W kontekście analizy zachowania uŜytkowników odkryte reguły mogą wskazywać na strony oglądane jednocześnie w ramach jednej sesji. Z tak uzyskanych informacji moŜe na przykład wynikać, iŜ dane produkty są przeglądane razem. Wiedza ta moŜe zostać wykorzystana do reorganizacji struktury witryny lub wykorzystana w procesie personalizacji
[5].
Kolejna z metod eksploracji, jaką jest odkrywanie wzorców sekwencji, polega na znajdowaniu
190
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
zaleŜności w czasie pomiędzy działaniami podejmowanymi przez internautów. Dzięki temu moŜna
ustalić, iŜ istnieje wysokie prawdopodobieństwo, iŜ osoba, która odwiedziła stronę A, w przyszłości odwiedzi stronę B. W wyniku tej analizy moŜna uzyskać wiedzę niezbędną do przewidywania
przyszłych zachowań uŜytkowników. Jest to szczególnie istotne w obszarze handlu elektronicznego, gdzie moŜe to zostać wykorzystane do usprawnienia działań marketingowych.
Odkrywanie częstych ścieŜek nawigacji słuŜy do wykrycia ścieŜek, jakimi poruszają się uŜytkownicy. ŚcieŜki takie róŜnią się od wzorców sekwencji omówionych powyŜej, gdyŜ dotyczą odwołań następujących bezpośrednio po sobie, a nie sekwencji odwołań, które mogą następować
w odległych od siebie momentach czasu. Częste ścieŜki nawigacji mogą posłuŜyć do ręcznej optymalizacji struktury nawigacji witryny lub teŜ zautomatyzowania tego procesu poprzez zastosowanie metod personalizacji.
Metody grupowania mają na celu zgrupowanie obiektów jak najbardziej podobnych do siebie,
a jednocześnie jak najbardziej róŜniących się od obiektów z pozostałych grup. W kontekście analizy uŜytkowania serwisów internetowych wyróŜnia się dwa główne podejścia: grupowanie uŜytkowników i grupowanie obiektów. W grupowaniu uŜytkowników dzieleni są oni na grupy cechujące się wysokim podobieństwem zachowań uŜytkowników, np. oglądających te same produkty lub
oceniających je podobnie. W tym drugim przypadku podział następuje na podstawie podobieństwa
w ocenach nadanych produktom przez wszystkich uŜytkowników. Odkryte grupy mogą zostać wykorzystane w procesie personalizacji oraz optymalizacji strategii marketingowej.
Ostatni etap procesu odkrywania wiedzy polega na analizie odkrytych zaleŜności. Nierzadko
liczba odkrytych reguł asocjacyjnych, ścieŜek sekwencji czy teŜ nawigacji przekracza tysiące,
a nawet dziesiątki tysięcy. Ze zbioru odkrytych reguł jedynie nieznaczna część moŜe wyraŜać nietrywialne, potencjalnie interesujące informacje. Celem analityka jest taka analiza odkrytych zaleŜności i odpowiednia selekcja wiedzy, aby jej zastosowanie przyniosło wymierne korzyści. Jak
wspomniano w trakcie omawiania poszczególnych metod eksploracji danych obszary praktycznego
zastosowania odkrytej wiedzy to: optymalizacja struktury serwisu i prezentowanych treści i oferty,
personalizacja serwisu realizowana np. w formie systemu rekomendacyjnego, czy teŜ optymalizacja działań marketingowych. Wszystkie te działania mogą w znaczący sposób wpłynąć na wyniki
finansowe firmy poprzez wzmocnienie więzi z klientami, podniesienie poziomu sprzedaŜy czy teŜ
racjonalizację kosztów.
3. Analiza zachowań klientów operatora telefonii komórkowej
Odkrywanie wiedzy z baz danych moŜe takŜe w istotny sposób przyczynić się do utrzymania
klientów. Sprawne wykorzystanie wiedzy o tym, kim są ci, których nie udało się zatrzymać, często
prowadzi do przewagi konkurencyjnej danego przedsiębiorstwa. Umiejętność identyfikacji sytuacji
wysokiego ryzyka, w której klient zastanawia się nad rezygnacją, i w której są jeszcze duŜe szanse
jego utrzymania wydaje się nieoceniona, zwłaszcza w kontekście rosnącej konkurencyjności rynku
i spadku dynamiki wzrostu gospodarczego. Tym bardziej, Ŝe koszt działań zapobiegających odejściom wcale nie musi być wysoki – czasem wystarczy przeprowadzenie ankiety czy zwykłej rozmowy telefonicznej i zapytanie klienta o satysfakcję z oferowanych mu usług czy produktów [6]
[7, s. 10-17]. Powszechne jest przekonanie, iŜ koszty utrzymania i rozwoju współpracy z klientami,
którzy korzystali juŜ z produktów czy usług danego dostawcy, są ogólnie duŜo niŜsze niŜ koszty
pozyskiwania klientów nowych.
Przykładową strukturę procesu zarządzania rezygnacjami według Strouse [2, s. 141] zaprezen-
Piotr Sulikowski, Tomasz Zdziebko
Analiza zachowań klientów a wzrost konkurencyjności przedsiębiorstw
191
towano na rycinie 1. MoŜna zauwaŜyć, Ŝe na podstawie danych zgromadzonych w bazie lub hurtowni danych następuje identyfikacja potencjalnych odchodzących oraz obliczanie Ŝyciowej wartości klientów LTV [ang. LifeTime Value], co wykorzystywane jest do ich dalszej klasyfikacji.
Klienci nierentowni powinni być sprawdzani pod kątem moŜliwości ich przekształcenia w klientów rentownych, np. poprzez zaproponowanie oferty bardziej dopasowanej do ich potrzeb, co wpisuje się w kanony współczesnego marketingu. Jeśli okaŜe się to niemoŜliwe, przedsiębiorstwo powinno rozwaŜyć ewentualną rezygnację z tych klientów i uznać ich za kandydatów do odejścia
przymusowego. Klienci rentowni lub mający przynajmniej odpowiedni potencjał rentowności zasługują na wysiłki marketingowe zmierzające do ich utrzymania. Efekty tych wysiłków, podobnie
jak wyniki eksploracji źródłowych danych wykorzystywane są do przewidywania przyszłych zachowań klientów. To z kolei pozwala na udoskonalanie całego procesu i próbę eliminacji niektórych przyczyn rezygnacji.
baza
danych
eliminacja
przyczyn
rezygnacji
kandydaci
do odejścia
przymusowego
identyfikacja
potencjalnych
odchodzących
predykcja
zachowań
klientów
klienci
nierentowni
obliczanie
LTV
klientów
transformacja
w klienta
rentownego
klienci
rentowni
tworzenie
i realizacja
strategii
utrzymania
Rys. 1. Proces zarządzania rezygnacjami
Źródło: opracowanie własne na podstawie [2, s. 141]
W zbiorze danych analizowanym dla celów identyfikacji potencjalnych rezygnujących wyróŜnić moŜna szereg kategorii danych opisujących moŜliwe determinanty zjawiska. Np. w obszarze
telefonii komórkowej mogłyby one wyglądać następująco:
dane demograficzne – obejmujące takie zmienne jak wiek, płeć, dane dot. miejscowości
czy dzielnicy zamieszkania itp.,
dane lojalnościowe – np. staŜ klienta w sieci, dane o umowie aktywacyjnej i ostatnim kontrakcie lojalnościowym, liczba punktów i odebrane nagrody w programie lojalnościowym,
192
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
fakt zainteresowania klienta moŜliwością deaktywacji, poziom satysfakcji klienta, względna
subiektywna ocena oferty danego operatora względem innych,
dane finansowe – średni abonament i jego zmiany, przeciętna wysokość faktury i jej zmiany itp.,
dane billingowe – najbardziej obszerna kategoria danych opisujących intensywność i dynamikę korzystania z połączeń telefonicznych, przesyłu danych, SMS-ów, MMS-ów itd.
oraz faktu uruchomienia innych usług, np. zastrzeŜenie numeru CLIR,
dane dot. sieci – dane opisujące zasięg i jakość sieci, dane o ofercie taryfowej operatora,
przeszłych i trwających kampaniach marketingowych, dane z biura obsługi klienta itd.
Oczywiście ze względu na charakter niektórych czynników, zbiór danych często jest niepełny
lub niepewny. Powinno to wpływać na konstrukcję procedury badawczej stosowanej do klasyfikacji klientów w kontekście zjawiska rezygnacji i nie tylko. W analizie danych pobranych wprost ze
zbiorów operatora przed zastosowaniem metody głównej zwykle niezbędne okazuje się wspomniane juŜ wstępne przetwarzanie danych. Pozwala ono uzyskać bardziej wiarygodne i zrozumiałe wyniki końcowe procesu odkrywania wiedzy. Ponadto część spośród wstępnie zidentyfikowanych
zmiennych moŜe okazać się tak mało znacząca, Ŝe ze względu na szybkość odkrywania wiedzy
uzasadnione moŜe być ograniczenie zbioru predyktorów. Istotne jest takŜe bardzo dokładne zdefiniowanie zmiennej decyzyjnej, gdyŜ moŜna brać pod uwagę róŜne odmiany rezygnacji (np. całkowita lub częściowa, przymusowa lub dobrowolna itp.) [8].
W zaleŜności od wyboru metody głównej (np. metoda zbiorów przybliŜonych) wstępne przetwarzanie danych moŜe obejmować róŜny zakres czynności, w tym: określenie załoŜeń i przygotowanie danych (w tym rozwiązanie problemu brakujących lub prawdopodobnie błędnych wartości),
przeglądową analizę danych, segmentację klientów, analizę korelacji, badanie współliniowości,
regresję logistyczną z metodą wyboru krokowego i końcową preparację danych z dyskretyzacją
włącznie. Warto zaznaczyć, Ŝe podobnie jak w metodologii CRISP-DM zakładano sprzęŜenie
zwrotne w realizacji poszczególnych faz procesu odkrywania wiedzy, tak i tutaj w ramach samego
wstępnego przetwarzania danych wskazany moŜe być powrót do czynności wcześniejszych – dla
osiągnięcia jak najlepszych rezultatów końcowych analizy.
Po wstępnym przetwarzaniu warto zastosować metodę główną osobno dla kaŜdego ze zidentyfikowanych segmentów wstępnie przetworzonego zbioru danych. Wówczas dla względnie jednorodnych grup uzyskać moŜna wiedzę o zachowaniach klientów – w przypadku metody zbiorów
przybliŜonych będą to łatwo interpretowalne reguły probabilistyczne i deterministyczne typu JEŚLI-TO. KaŜdą taką regułę opisuje się dodatkowo szeregiem wskaźników, takich jak wsparcie,
siła, pokrycie czy pewność. Pozwalają one zrozumieć wagę znaczenia poszczególnych reguł oraz
wskazać najwaŜniejsze z nich. Podczas analizy odkrytej wiedzy warto takŜe zwrócić uwagę na takie wielkości jak współczynnik ekstrakcji wiedzy czy teŜ stosunek liczby reguł probabilistycznych
do deterministycznych.
Uzyskany regułowy model rezygnacji, o ile uzyska pozytywne oceny jakości klasyfikacji,
moŜe słuŜyć do predykcji zachowań klientów operatora obecnie, jak i w przyszłości, zwłaszcza
gdy zapewniona będzie regularna aktualizacja zbioru reguł. Reguły pozwalają wskazać klientów,
którzy prawdopodobnie pozostaną klientami i tych, którzy prawdopodobnie odejdą. W przypadku
dodatkowego zastosowania np. sieci neuro-rozmytych moŜna takŜe pokusić się o dokładne szacowanie poszczególnych prawdopodobieństw. MoŜna powiedzieć, Ŝe dzięki poznaniu dotychczasowych zachowań klientów lojalnych, jak i tych utraconych, zyskuje się moŜliwość zarządzania przy-
Piotr Sulikowski, Tomasz Zdziebko
Analiza zachowań klientów a wzrost konkurencyjności przedsiębiorstw
193
szłością, utrzymywania satysfakcji klientów oraz zapewnienia stabilności i wzrostu przychodów z
działalności podstawowej przedsiębiorstwa [9].
4. Uwagi końcowe
Jak widać, realizacja procesu odkrywania wiedzy z baz danych moŜe niewątpliwie przyczynić
się do lepszego poznania klientów, np. uŜytkowników serwisu internetowego czy teŜ abonentów
sieci komórkowej. Lepsze zrozumienie odbiorców swoich treści czy usług przez dane przedsiębiorstwo skutkować moŜe lepszym zaspokajaniem potrzeb klientów i efektywniejszym stosowaniem działań marketingowych, np. poprzez ich indywidualizację. Oba przedstawione obszary odkrywania wiedzy potwierdzają, Ŝe stosowanie eksploracji danych moŜe pozwolić organizacjom
podejmować „lepsze, bardziej proaktywne i zorientowane na klienta decyzje poprzez uczenie się
z przeszłości, zrozumienie teraźniejszości i przewidywanie przyszłości” [9].
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Szymura-Tyc M.: Zarządzanie przez wartość dla klienta - budowa wartości firmy [online].
Instytut Zarządzania Technologii Informatyki, 2001 [dostęp 26-11-2008]. Dostępny
w Internecie: <http://www.zti.com.pl/instytut/pp/referaty/ref4_full.html>.
Strouse K.G.: Customer-Centered: Telecommunications Services Marketing. Norwood,
MA: Artech House, 2004.
Rosencrance L.: Online retail sales in the U.S. to hit $204B in '08. W: „Computerworld”
[online],
08-04-2008
[dostęp
27-11-2008].
Dostępny
w
Internecie:
<http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId
=9075759>.
Mobasher B.: Web Usage Mining and Personalization. In: Munindar P. Singh (ed.):
Practical Handbook of Internet Computing. Boca Raton, FL: CRC Press, 2005.
Fu, X., Budzik, J., Hammond, K.J.: Mining navigation history for recommendation. In:
Proceedings of the 2000 International Conference on Intelligent User Interfaces. New
Orleans, LA: ACM Press, 2000.
Burez J., Van den Poel D.: CRM at a Pay-TV Company: Using Analytical Models to
Reduce Customer Attrition by Targeted Marketing for Subscription Services. „Expert
Systems with Applications” 2007, Nr 32(2), s. 277-288.
Allen D.R., Rao T.R.: Analysis of Customer Satisfaction Data. ASQ Quality Press, 2000.
Sulikowski. P.: Metoda klasyfikacji klientów operatora telefonii komórkowej w analizie
zjawiska rezygnacji. Rozprawa doktorska. Szczecin: Wydział Informatyki Politechniki
Szczecińskiej, 2008.
Phelan S.: Customer Information as a Strategic Asset. „DM Review” [online]. Apr 2002
[dostęp 16 maja 2008]. Dostępny w Internecie: <http://www.dmreview.com/
dmdirect/20020419/5047-1.html>.
194
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
CUSTOMER BEHAVIOUR ANALYSIS AND INCREASING COMPANY
COMPETITIVENESS
Summary
The problem of customer behaviour analysis in discovering knowledge which
enables a company to increase its competitiveness is a grave one, particularly in the
days of economic slowdown. This paper focuses on analysing the behaviour of web
users and the behaviour of customers with regard to churn. It discusses the process
of knowledge discovery, data sources and categories as well as popular data mining
methods together with exemplary results they may lead to.
Keywords: data mining, knowledge discovery in databases, customer behaviour, churn analysis,
web usage mining
Piotr Sulikowski
Katedra InŜynierii Systemów Informacyjnych
Wydział Informatyki
Zachodniopomorski Uniwersytet Technologiczny
e-mail: [email protected]
Tomasz Zdziebko
Katedra Metod Informatyki Stosowanej
Instytut Informatyki w Zarządzaniu
Wydział Nauk Ekonomicznych i Zarządzania
Uniwersytet Szczeciński
e-mail: [email protected]
Jarosław Wątróbski, Monika Stolarska
Model oceny gotowości informacyjnej w systemach klasy SIK
195
JAROSŁAW WĄTRÓBSKI,
MONIKA STOLARSKA
Politechnika Szczecińska
MODEL OCENY GOTOWOŚCI INFORMACYJNEJ W SYSTEMACH KLASY SIK
Streszczenie
Celem niniejszego artykułu jest ocena gotowości informacyjnej w systemach informowania kierownictwa (SIK). W artykule przedstawiono znaczenie wspomagania
procesów decyzyjnych dla funkcjonowania przedsiębiorstwa, przybliŜono wybrane
metody oceny systemów informatycznych oraz dokonano oceny grupy systemów SIK
przy uŜyciu wskazanych metod. Całość kończą wnioski z przeprowadzonych badań.
Słowa kluczowe: systemy informowania kierownictwa, wielokryterialne wspomaganie decyzji
1. Wprowadzenie
Sukces współczesnego biznesu zaleŜy od dostępności i odpowiedniego przystosowania zasobów informacyjnych do potrzeb organizacji [1]. Informacja jest zjawiskiem złoŜonym, o charakterystycznych cechach uŜytkowych, ekonomicznych i względem obszarów analiz informacji. Nie jest
zuŜywana podczas powielania i przenoszenia, moŜe być akumulowana w długim czasie, a jej wartość jest uzaleŜniona od momentu uŜycia i od podmiotu przez jaki jest wykorzystywana [2]. Gotowością informacyjną określa się umiejętność do podjęcia zadań informacyjnych i moŜliwość dostosowania ich do zmieniających sie warunków, w jakich maja być wykonane. Cecha ta wpływa w
istotny sposób na wymianę informacji, uzaleŜniając ją całkowicie od jednoczesnej gotowości
wszystkich komponentów procesu komunikacyjnego [3].
Powszechny proces gromadzenia informacji w przedsiębiorstwie przyczynia się często do powstawania zjawiska nadmiarowości informacji na szczeblu kierowniczym [4]. Dla prawidłowego
funkcjonowania przedsiębiorstwa konieczne jest wyselekcjonowanie z duŜych zbiorów informacji
jedynie tych, które są waŜne dla decydenta i odgrywają kluczowe znaczenie w procesie podejmowania decyzji. Prawidłowa agregacja, przejrzysta prezentacja danych (w postaci sumarycznych
i syntetycznych wskaźników) prowadzi do uzyskania gotowości informacyjnej zapewniającej kierownictwu ogólny obraz kondycji przedsiębiorstwa, a takŜe jest punktem wyjścia do sprawnego
wykorzystania analitycznych narzędzi drąŜenia danych [5,6].
Pozycję firmy na rynku warunkuje stopień realizacji i efektywność podejmowanych krytycznych procesów biznesowych. Za dostarczenie kierownictwu syntetycznej informacji i wspomaganie
decyzji strategicznych odpowiedzialne są systemy informatyczne [7]. Gotowość informacyjna tych
rozwiązań odgrywa kluczową rolę, pozwala ukierunkować zarząd na „monitorowanie konkretnych
problemów zarządczych” i prezentację rzeczywistej sytuacji w wybranych, krytycznych dla funkcjonowania firmy obszarach. Efektywność systemów zaleŜy od narzędzi raportujących (w odróŜnieniu od tradycyjnych raportów rozwiązanie takie pozwala na agregację danych i wybór najistotniejszych informacji, zapewniających dostęp do zewnętrznych źródeł danych (tj. internet czy intranet korporacyjny), baz transakcyjnych i hurtowni danych [8]. Dostęp do zewnętrznych danych (do-
196
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
tyczących na przykład krótko- i długoterminowego horyzontu inwestycyjnego i trendów w danej
branŜy, rentowności w poszczególnych oddziałach firmy, wydajności na zatrudnionego, dystrybucji) umoŜliwia przetwarzanie i zamianę informacji w prognozy [9].
2. Systemy informowania kierownictwa
W grupie systemów informacyjnych wymienia się systemy informatyczne zarządzania (MIS–
ang. Management Information System), systemy informowania kierownictwa (EIS–ang. Executive
Information System, ESS–ang. Executive Support Systems), systemy wspomagania decyzji (DSS–
ang. Decision Support System), systemy eksperckie (ES – ang. Export System) [10].
Według definicji przedstawionej przez E. Turbana system informowania kierownictwa (SIK)
jest systemem formalnym, opartym na technice komputerowej, z zadaniem wyszukiwania, wybierania i integrowania danych z róŜnych źródeł w celu dostarczenia informacji terminowych słuŜących podejmowaniu decyzji zarządczych [11]. B. Stefanowicz wskazuje, Ŝe systemy SIK mają za
zadanie usprawnić i zracjonalizować procesy informacyjno-decyzyjne w obszarze zarządzania,
dostarczać syntetycznych informacji o stanie bieŜącej działalności organizacji gospodarczej, prowadzić ewidencję poleceń słuŜbowych i informacji o ich wykonaniu, dostarczać danych do oceny
kontrahentów. Podstawowymi cechami tych rozwiązań jest współdziałanie z dziedzinowymi systemami ewidencyjnymi (które stanowią dla nich źródło danych), dostarczanie informacji strukturalizowanych według schematu określonego podczas projektowania systemu, obsługa wewnętrznych
procesów informacyjnych organizacji gospodarczej [12]. Wśród najistotniejszych cech, z punktu
widzenia dyrektora przedsiębiorstwa, mających zapewnić sukces firmie wskazuje się: przystosowanie systemu do indywidualnych potrzeb uŜytkownika, prezentację danych w dogodnej postaci,
korzystanie systemu z lokalnych i zdalnych baz danych, filtrację i śledzenie waŜnych danych. Pojęcie systemów EIS obejmuje równieŜ obszerniejszą kategorię systemów wsparcia szefa firmy ESS
(Executive Support System), zawierającą dodatkowe udogodnienia typu poczta elektroniczna, terminarz grupowy oraz moŜliwości dogłębnej analizy danych (arkusze obliczeniowe, pakiety statystyczne, bezpośredni dostęp do baz danych itp.).
Zwiększone wymagania co do terminowości i jakości produkcji powodują, Ŝe systemy informacyjne powinny zapewniać o bieŜącym stanie działalności operacyjnej firmy. Wartość takiej informacji powinna być doceniana zarówno przez przedsiębiorstwa produkcyjne, jak i instytucje finansowe. Dla wielu firm systemy informacyjne są juŜ obecnie stałym elementem działalności, spełniającym rolę wygodnego interfejsu do innych aplikacji i integrującym się z popularnymi aplikacjami
biurowymi [13].
Aplikacje i moduły MIS stanowią znaczącą część systemów do wspierania zarządzania lub środowisk do monitorowania i planowania działań firmy [14]. Odgrywają istotną rolę dla kierownictwa wysokiego szczebla zarządzania. UmoŜliwiają bezpośredni dostęp do informacji i raportów z
róŜnych źródeł o dowolnym stopniu szczegółowości. Systemy te, spersonalizowane i łatwe w obsłudze, pozwalają na dokonanie analizy wybranych obszarów przedsiębiorstwa [15]. Wpływają
one bezpośrednio na jakość podejmowanych decyzji poprzez moŜliwości zapamiętania, odtworzenia i przetworzenia informacji otrzymywanych przez decydenta. Modelowanie problemów decyzyjnych, a takŜe sprawne projektowanie kanałów informacyjnych pozwala rozpoznawać rzeczywiste potrzeby informacyjne kierownictwa i szybko przetwarzać dane [16].
Konieczność posiadania systemów informowania kierownictwa (SIK) przez przedsiębiorstwa
uzasadnia się występowaniem określonej, zewnętrznej i wewnętrznej grupy czynników. Czynniki
Jarosław Wątróbski, Monika Stolarska
Model oceny gotowości informacyjnej w systemach klasy SIK
197
zewnętrzne to konieczność dostosowania działalności firmy do zmieniającego się otoczenia
i szybką reakcję na zaostrzającą się konkurencję, wewnętrzne wynikają z potrzeby dostępu do systemów wczesnego ostrzegania i dostępu do najbardziej aktualnych danych [17].
UŜytkownik
pytanie
Analiza i wyszukiwanie
informacji
Odpowiedź
Bazy danych
Rys. 1. Funkcjonowanie Systemu Informowania Kierownictwa
Źródło: Kisielnicki J.: MIS Systemy informatyczne zarządzania, Placet, 2008.
System informowania kierownictwa funkcjonuje w momencie spełnienia dwóch warunków:
świadomego zapotrzebowania kierownictwa na taki system oraz integracji technologii i zaplecza
informatycznego z oczekiwaniami kierownictwa. [18] Do budowy systemu konieczne jest „opracowanie i implementacja hierarchicznej struktury wskaźnikowej w narzędziu informatycznym”
oraz „wyróŜnienie procesów krytycznych i wspomagających oraz zdefiniowania dla kaŜdego procesu wskaźników monitorujących jego osiągi w kontekście oczekiwań klienta procesu” [19].
3.Wybrane metody oceny systemów informatycznych
W literaturze przedmiotu wyróŜnia się wiele metod oceny systemów informatycznych:
- metody wielowymiarowe [20], w których w zaleŜności od sposobu wyboru poszczególnych wskaźników i przypisanych im wag wyróŜnia się dwa rodzaje syntetycznych systemów wskaźnikowych,
- metoda AHP,
- metoda punktowa,
- statystyczna analiza wielowymiarowa [21], opierająca się na pojęciach obiektu i zmiennej (obiektem jest najmniejszy poddawany obserwacji element dostarczający podstawowych informacji z punktu widzenia sformułowanej hipotezy zmienną zaś jest charakterystyka opisująca zbiór obiektów, opisu zjawisk obserwowanych na obiektach),
- metody taksonomii.
Jednoznaczna ocena systemów informatycznych według W.Chmielarza „nie jest ani moŜliwa,
ani prawdopodobnie celowa” z uwagi na fakt, iŜ dostępne modele matematyczne i stosowane praktyczne rozwiązania nie umoŜliwiają dokonania wyboru w pełni obiektywnego. Ocena systemów
informatycznych wymaga analizy i określenia klas kryteriów. MoŜliwe jest jedynie rozwiązanie
problemu wyboru najlepszego rozwiązania w obszarze oddziaływania między sobą (mimo deklaratywnej autonomiczności) kryteriów. Przy konstrukcji modelu oceny powinno się uwzględnić: wieloaspektowość problemu oceny, ścisłą zaleŜność modelu od wielkości przedsiębiorstwa, czas
198
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
(w trakcie przeliczania kryteriów wartościowych), porównywalność kryteriów za pomocą określonej skali, włączenie do modelu preferencji uŜytkowników, stopień ryzyka [22].
3.1. Metoda AHP
AHP to narzędzie, które słuŜy wspomaganiu decyzji, umoŜliwia połączenie jakościowych oraz
ilościowych kryteriów w procesie decyzyjnym. Pozwala na hierarchiczne przedstawienie modelu, a
dzięki temu moŜliwe jest wyraźne zaznaczenie w procesie decydowania relacji pomiędzy celem,
kryteriami wyboru i alternatywami. Hierarchia słuŜy tworzeniu struktury pierwszeństwa związanego z określonym problemem decyzji [23].
Podstawowa procedura AHP składa się z porównania par czynników w komplecie wzajemnych
macierzy kontrolowanych współczynnikiem niespójności. Wartości w macierzy ułoŜone są w taki
sposób, aby jednoznacznie wskazywać, który element dominuje ze względu na dane kryterium nad
innym.
Saaty uŜywa 9-stopniowej skali waŜności kryteriów. Nadanie kryteriom stopni waŜności umoŜliwia ich porównanie. Decydent subiektywnie ocenia dane kryteria za pomocą skali. Ocena kryteriów ma przede wszystkim charakter jakościowy.
Dane stanowiące oceny cząstkowe poddaje się następnie agregacji zgodnie z hierarchiczną reprezentacją problemu. Wskaźniki syntetyczne stanowią wartości funkcji uŜyteczności kolejnych
wariantów decyzyjnych i wyznaczane są przy uŜyciu formy addytywnej:
n
U ( A i ) = ∑ wij * eij
j =1
gdzie: U(Aj) oznacza wartości funkcji uŜyteczności i-tego wariantu decyzyjnego, ei – wartość i-tej
alternatywy ze względu na j-ty atrybut (kryterium), wj – waga i-tego kryterium.
A. Gospodarowicz wskazuje, Ŝe wyniki liczbowe metody Saaty’ego zaleŜą w głównej mierze
od niesprzeczności macierzy porównań waŜności kryteriów oraz ocen realizacji poszczególnych
kryteriów przez porównywane produkty [21]. Wynika to z faktu, iŜ decydent poddaje kryteria subiektywnej ocenie. Określa on liczbowo stopień istotności danego kryterium względem innego
jedną z 9-ciu dostępnych ocen. Oceny te mogą być rozbieŜne i moŜe to prowadzić do konieczności
ponownego zdefiniowania problemu oraz zmiany kryteriów oceny. W sytuacji gdy wskaźnik CR
przekroczy wartość uznaną za potwierdzenie zgodności, wiarygodność decydenta poddana jest
w wątpliwość.
3.2. Metoda punktowa
Model punktowy oceny jest złoŜeniem sumy waŜonej kryteriów na wszystkich poziomach. Wyniki prezentowane są w skali punktowej w postaci bezwzględnej lub standaryzowanej (tak, aby
zawierały się w przedziale od 0 do 1 – w zaleŜności od przyjętej metodologii ujmowanej w modelu
oceny). Punkty przyznawane są w subiektywnej ocenie decydenta za istnienie lub brak określonej
funkcji/kryterium. Wybór rozwiązania dokonywany jest poprzez porównanie sumy punktów uzyskanej w szacunkach poszczególnych kryteriów [24].
3.3. Metody taksonomiczne
Za J.Brzostek-Pawłowską [25] wskazuje się dwie metody taksonomiczne oceny systemów
wspomagania zarządzania: metodę opartą o hierarchiczną strukturę kryteriów do samodzielnego
Jarosław Wątróbski, Monika Stolarska
Model oceny gotowości informacyjnej w systemach klasy SIK
199
stosowania przez potencjalnego nabywcę systemu oraz tzw. taksonomię wrocławską, która pozwala uzyskać uporządkowany zbiór elementów w przestrzeni ich cech. Obie metody oparte są o kryteria oceny i wstępną selekcję systemów dla danego nabywcy.
Podstawą obliczeń w przedstawionych metodach jest zbudowanie tablicy o strukturze odpowiadającej hierarchicznej strukturze kryteriów (cech/właściwości). Hierarchię tę przedstawia się
poprzez zapis znakami +, +/-, - (odpowiednikami wartości 1, 0.5, 0) dla wybranych systemów.
4. Model oceny gotowości informacyjnej wybranych systemów klasy SIK
Specyfika produktów klasy SIK powoduje, Ŝe istnieje ograniczona grupa gotowych i handlowo dostępnych systemów. Ze względu na wysoki koszt rozwiązania te (równieŜ w formie modułów
programowych, stanowiących często uzupełnienie juŜ zaimplementowanego oprogramowania) są
zwykle wykonywane na zamówienie i dostosowywane do indywidualnych potrzeb przedsiębiorstwa i jego kadry kierowniczej.
Dobór najlepszego systemu dla przedsiębiorstwa wymaga uzyskania pełnej informacji
o badanych systemach w zakresie oferowanych przez nich funkcjonalności oraz określenia kryteriów ich oceny przez przedsiębiorstwo.
Do budowy modelu wybrano 8 gotowych i dostępnych handlowo rozwiązań, 8 modułów
i systemów informowania kierownictwa z pełnymi danymi i funkcjonalnościami mającymi wpływ
na ocenę gotowości informacyjnej. Następnie przyjęto 6 głównych kryteriów oceny: K1 moŜliwości
przetwarzania danych (K1.2 szybkość przetwarzania danych i generowania informacji, K1.2 dostarczanie informacji w odpowiedniej formie), K2 niezawodność (K2.1 bezpieczeństwo systemu poprzez ograniczenie dostępu do wybranych danych, K2.2 przechowywanie danych, K2.3 dostarczanie
informacji na określony przez uŜytkownika czas), K3 personalizacja systemu (dopasowanie rozwiązania do uŜytkownika), K4 dostępne moduły, K5 bazy danych, K6 interfejs uŜytkownika.
Wybrane rozwiązania oceniono trzema przykładowymi metodami: punktową W.Chmielarza,
AHP i taksonomii. Zestawienie otrzymanych wyników posłuŜy za podstawę do porównania zastosowanych metod.
Do oceny gotowości informacyjnej systemów informowania kierownictwa metodą taksonomii
wybrano systemy i moduły zakwalifikowane we wstępnej selekcji jako funkcjonalne. Kryteriom
i właściwościom nie przypisano jednoznacznie róŜnych wag, a zatem zakłada się ich równowaŜność. Tabela 1 przedstawia tablicę pomiarową zawierającą dane o stopniu spełnienia właściwości
i kryteriów. Tablica ta stanowi punkt wyjścia do budowy algorytmów oceny i wskazania czytelnego rankingu dla decydenta.
200
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Tabela 1. Hierarchiczna struktura kryteriów do oceny systemów SIK
Softmaks.pl
Comarch
BENTEN
Dostępne
moduły
Logotec
Personalizacja
JEMAR
Niezawodność
ISK(dla systemu
Dynamice GP)
Przetwarzanie
danych
Właściwość
prokHARD
Kryterium
ADAPTIX/IK
Nazwa producenta/systemu
Szybkość
przetwarzania
danych
i moŜliwości
generowania
informacji
+
+/-
-
+/-
+
+/-
+/-
+/-
Dostarczanie
informacji
w odpowiedniej
formie
+
+/-
+
+/-
+
+
+
+
% spełnienia
właściwości
100
50
50
50
100
75
75
75
Bezpieczeństwo
(ograniczenie
dostępu do
danych strategicznych)
+
-
-
+/-
+
+/-
-
+
Przechowywanie
danych
+
+
+/-
+
+
+
+
+
Dostarczenie
informacji na
czas
-
+/-
-
+/-
+
-
+/-
+
% spełnienia
właściwości
66
50
16
66
100
50
50
100
+
+
-
+
+
+
+
+
% spełnienia
właściwości
100
100
0
100
100
100
100
100
+
+
-
+/-
+
-
+
+
100
100
0
50
100
0
100
100
+
+
+/-
+
+
+/-
+
+/-
100
100
50
100
100
50
100
50
+/-
+/-
+
+
+/-
+/-
+/-
+/-
50
50
100
100
50
50
50
50
86
75
36
78
92
54
79
79
% spełnienia
właściwości
Bazy danych
% spełnienia
właściwości
Interfejs
uŜytkownika
% spełnienia
właściwości
% spełnienia kryteriów
Źródło: opracowanie własne.
201
Jarosław Wątróbski, Monika Stolarska
Model oceny gotowości informacyjnej w systemach klasy SIK
Tabela 2. Ocena systemów SIK według algorytmów metod taksonomii
Właściwości
ADAPTIX/IK
proHARD
ISK
JEMAR
Logotec
Softmaks.pl
Comarch
BENTEN
Kryteria
Maksymalna
liczba + do
uzyskania
Liczba + uzyskana
dla wszystkich
właściwości
Uzyskane
+/-
Stopień spełnienia
wszystkich właściwości
[w %]
Liczba
kryteriów
9
9
9
9
9
9
9
9
7
4
2
4
8
3
5
6
1
4
2
5
1
4
3
3
77,8
44,4
22,2
44,4
88,9
33,3
55,6
66,7
6
6
6
6
6
6
6
6
Stopień
spełniania
wszystkich
kryteriów
[w %]
86
75
36
77,7
91,7
54
79,2
79,2
Źródło: opracowanie własne.
Otrzymane wyniki wskazują, Ŝe system Logotec w najwyŜszym stopniu (91,7%) spełnia kryteria zadane przez decydenta. Stanowi on zatem najlepszy dla niego wybór. NajniŜsze noty w rankingu otrzymał system ISK z 36-procentowym stopniem spełnienia kryteriów.
W drugim etapie badań zastosowano metodę punktową. Systemy oceniono za pomocą miar:
gdzie: 0 – brak cechy, 0,25 – niski poziom cechy, 0,5 – średni poziom cechy, 0,75 – wysoki poziom cechy, 1 – bardzo wysoki poziom cechy. Wyniki oceny przedstawiono w Tabeli 3.
Dostarczenie informacji w odpowiedniej
formie
bezpieczeństwo
Przechowywanie
danych
Dostarczenie informacji na czas
personalizacja
Dostępne moduły
Bazy danych
Interfejs uŜytkownika
1
0,5
0,75
0,75
0,5
0,25
0,75
0,5
0
0,75
0,75
0,5
1
0,5
0,75
1
0,25
0,25
0,75
0,75
0,25
0,75
0,75
0,5
0,5
0,5
0,75
7,25
5
4
0,5
1
0,75
0,75
1
0,5
1
0,75
0,5
0,75
0,25
1
0,25
0,5
1
1
1
1
1
1
0,5
1
0,75
0,75
1
0,75
1
1
0,75
1
0,5
1
0
1
1
0,75
1
0,5
1
0,5
0,75
0,75
0,5
0,5
0,5
5,5
8,75
5,5
6,75
7,75
Przetwarzanie
danych
Nazwa systemu
/producenta
ADAPTIX/IK
prokHARD
ISK (dla systemu
Dynamice GP)
JEMAR
Logotec
Softmaks.pl
Comarch
BENTEN
Źródło: opracowanie własne.
Niezawodność
RAZEM
Szybkość przetwarzania
Tabela 3. Punktowe zasady oceny kryteriów do oceny modułów i systemów SIK
202
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
Otrzymane wyniki wskazują, Ŝe najlepszym rozwiązaniem jest Logotec, najniŜszą ocenę
otrzymał ISK.
W trzecim, ostatnim etapie badań zastosowano metodę AHP. Macierz waŜności kryteriów
przedstawiono w Tabeli 4, uzyskany ranking rozwiązań - w Tabeli 6.
Tabela 4. Macierz waŜności kryteriów
K1
K2
K3
K4
K5
K6
K1
1,00
1,00
3,00
1,00
0,33
1,00
K2
1,00
1,00
1,00
0,20
1,00
3,00
K3
0,33
1,00
1,00
0,33
0,33
1,00
K4
1,00
5,00
3,00
1,00
1,00
3,00
K5
3,00
1,00
3,00
1,00
1,00
3,00
K6
SUMA
1,00
0,33
1,00
0,33
0,33
1,00
7,33
9,33
12,00
3,87
4,00
12,00
Źródło: opracowanie własne.
Tabela 5 Wagi kryteriów
K1
K2
K3
K4
K5
K6
WAGA
K1
0,14
0,11
0,25
0,26
0,08
0,08
0,1531
K2
0,14
0,11
0,08
0,05
0,25
0,25
0,1464
K3
0,05
0,11
0,08
0,09
0,08
0,08
0,0815
K4
0,14
0,54
0,25
0,26
0,25
0,25
0,2801
K5
0,41
0,11
0,25
0,26
0,25
0,25
0,2541
K6
0,14
0,04
0,08
0,09
0,08
0,08
0,0847
Źródło: opracowanie własne.
Tabela 6. Macierz priorytetów dla rankingu systemów SIK
K1
K2
K3
K4
K5
K6
Funkcja
uŜyteczności
A1
0,2033
0,1686
0,2238
0,1261
0,1468
0,0807
0,1535
A2
0,0772
0,1048
0,0677
0,1442
0,1666
0,0997
0,1238
A3
0,0741
0,0382
0,0361
0,0453
0,0528
0,1585
0,0594
A4
0,0967
0,0977
0,1220
0,1135
0,1666
0,2241
0,1322
A5
0,1702
0,1758
0,1492
0,1615
0,2007
0,1807
0,1755
A6
0,1259
0,1036
0,1493
0,0919
0,1223
0,1319
0,1146
A7
0,0419
0,0404
0,0449
0,0748
0,0891
0,0437
0,0633
A8
0,2108
0,2709
0,2071
0,2428
0,0551
0,0807
0,1777
Źródło: opracowanie własne.
Jarosław Wątróbski, Monika Stolarska
Model oceny gotowości informacyjnej w systemach klasy SIK
Tabela 7. Graficzna prezentacja wyników rankingu systemów wybranymi metodami oceny
Metoda taksonomii
79,2%
BENTEN
79,2%
Comarch
54%
Softmaks.pl
91,7%
Logotec
77,7%
JEMAR
ISK
36%
75%
proHARD
86%
ADAPTIX/IK
Metoda punktowa
7,75
BENTEN
6,75
Comarch
5,5
Softmaks.pl
8,75
Logotec
5,5
JEMAR
4
ISK
5
proHARD
7,25
ADAPTIX/IK
Metoda AHP
0,1777
BENTEN
Comarch
0,0633
0,1146
Softmaks.pl
0,1755
Logotec
0,1322
JEMAR
ISK
proHARD
ADAPTIX/IK
Źródło: opracowanie własne.
0,0594
0,1238
0,1535
203
204
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
5. Wnioski
Ocena wybranych systemów informowania kierownictwa przy wykorzystaniu zaproponowanych metod daje czytelną dla informację dla decydenta w jakim stopniu systemy spełniają określone przez niego wymagania.
W metodzie punktowej i taksonomii otrzymano jednakowe wyniki. Najlepiej oceniony został
system Logotec, najgorzej system ISK. Prosty mechanizm pozyskiwania i agregacji ocen w obu
metodach stanowi o tym, Ŝe szybko generują czytelny dla decydenta ranking rozwiązań. Nie
uwzględnia się jednak postulatu względnej waŜności kryteriów, co moŜe powodować nieobiektywną ocenę systemów. W metodzie AHP najlepsze wyniki w rankingu uzyskał system BENTEN, najniŜej oceniony został ISK. W przypadku tej metody zarówno wielopoziomowa strukturalizacja
problemu jak i określenie relatywnej waŜności kryteriów pozwalają na wybór systemu w sposób
w pełni zgodny z systemem preferencji decydenta niwelując tym samym niedostatki wcześniej uŜytych metod. Dodatkowo dokonana analiza wraŜliwości rozwiązania wskazała, Ŝe bez względu na
to, które kryterium lokalne (właściwość) systemu dominuje, ranking końcowy rozwiązań nie zmienia się, co stanowi o silnym umocowaniu pozyskanego rankingu rozwiązań
W konkluzjach badawczych warto zaznaczyć, Ŝe zaproponowane modele oceny nie są pozbawione niedostatków. Uwzględnienie postulatów dialogu z decydentem w języku naturalnym czy
agregacji ocen w środowisku wielu ekspertów wymagałoby rozszerzenia prezentowanego pojęcia
o rozmyte rozwinięcia wskazanych metod.
6. Literatura
1.
Kisielnicki J., Sroka H. Systemy informacyjne biznesu. Agencja Wydawnicza Placet,
1999.
2. Olender-Skorek M., Wydro K.B. Wartość informacji. Telekomunikacja i Techniki
Informacyjne 1-2/2007.
3. Furmanek W.: Kluzowe umiejętności technologii informacyjnych (eksplikacja pojęć).
[w:] Juszczyk S.: Edukacja medialna w społeczeństwie informacyjnym. Wydawnictwo
Adam Marszałek, 2002.
4. Juchnowicz M., Rostkowski T., Sienkiewicz Ł. Narzędzia i praktyka zarządzania
zasobami ludzkimi. Poltext, 2003.
5. Budziński R. System naczelnego kierownictwa w zarządzaniu. Wydawnictwo Instytutu
Informatyki Politechniki Szczecińskiej, 1997.
6. Kolbusz E., Nowakowski A. Informatyka w zarządzaniu. Metody i systemy.Wydawnictwo
Zachodniopomoskiej Szkoły Biznesu, 1999.
7. Kuterek I., IMG Polska, http://informatyzacja.cire.pl [on-line: 07.12.2008]
8. Januszewski A. Funkcjonalność informatycznych systemów zarządzania. Tom 1.
Wydawnictwo Naukowe PWN, 2008.
9. Kubiak B.F., Korowicki A.: Zdolność organizacji do zmian i jej wpływ na zastosowania
technologii informacji, [w:] Human-computer interaction. Wydawnictwo Akwila, 2001.
10. Jędrzejowicz P. Informatyczne systemy zarządzania. Wydawnictwo uczelniane WSM
w Gdyni, 1996.
11. Turban E., Decision Support Systems, McMillan, New York 1990.
Jarosław Wątróbski, Monika Stolarska
Model oceny gotowości informacyjnej w systemach klasy SIK
205
12. Stefanowicz B.: Informacyjne systemy zarządzania. Przewodnik. Wydawnictwo Szkoły
Głównej Handlowej w Warszawie, 2007.
13. Łakomy M.: Systemy informowania kierownictwa. Computerworld. 30.08.1993
14. Mejssner M. : Szef wie najlepiej. TELEINFO nr 01/2000.
15. Kijewska A. Systemy informatyczne w zarządzaniu. Wydawnictwo Politechniki Śląskiej,
2005.
16. Budziński R. System naczelnego kierownictwa w zarządzaniu. Wydawnictwo Instytutu
Informatyki Politechniki Szczecińskiej, 1997.
17. Kuterek I., IMG Polska, http://informatyzacja.cire.pl [on-line: 07.12.2008]
18. Rydnar Z.: Systemy informowania kierownictwa banku uniwersalnego. http://ceo.cxo.pl
[on-line: 07.12.2008]
19. Kuterek I., IMG Polska, http://informatyzacja.cire.pl [on-line: 07.12.2008]
20. Studziński J., Drelichowski L., Hryniewicz O.: Komputerowe wspomaganie zarządzania
i procesów decyzyjnych w gospodarce, Polska Akademia Nauk, Badania Systemowe Tom
31, 2002.
21. Gospodarowicz A.: Metody analizy i oceny pakietów programowych, Wydawnictwo
Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, Wrocław 1997.
22. Mamaghani F.: Methodology to select security software, Information Management &
Computer Security, volume: 10, issue: 1, 2002.
23. Studziński J., Drelichowski L., Hryniewicz O.: Komputerowe wspomaganie zarządzania
i procesów decyzyjnych w gospodarce, Polska Akademia Nauk, Badania Systemowe Tom
31, 2002.
24. Gospodarowicz A.: Metody analizy i oceny pakietów programowych, Wydawnictwo
Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, Wrocław 1997.
25. Brzostek-Pawłowska J.: Metody taksonomii w praktycznym zastosowaniu do oceny
systemów wspomagania zarządzania, Instytut Maszyn Matematycznych, Warszawa.
206
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr 19, 2009
EVALUATION MODEL OF SELECTED MANAGEMENT INFORMATION SYSTEMS
Summary
The purpose of this paper is an attempt to apply selected multidimensional
methods in evaluation of MIS systems. The article presents a recapitulation of research conducted hitherto on the evaluation of MIS systems. Respectively, the concept of multi-dimensional methods was presented and an evaluation model of the
functional quality of MIS systems applying the taxonomic and AHP methods was
constructed. Conclusion table from the research conducted ends the study.
Keywords: MIS, Analytic Hierarchy Process
Jarosław Wątróbski
Monika Stolarska
Instytut Systemów Informatycznych,
Szczecin, śołnierska 49
e-mail: [email protected]
[email protected]
Andrzej Straszak
Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów
207
Doniesienie naukowe
ANDRZEJ STRASZAK
Szkoła WyŜsza im. Pawła Włodkowica w Płocku
INFORMATYKA JAKO SIŁA SPRAWCZA GWAŁTOWEGO ROZWOJU I KRYZYSÓW
Streszczenie
Dzisiaj jesteśmy w środku lub na początku „wyprodukowanego” w USA drugiego kryzysu rynkowego od 2000 roku, który zagraŜa całemu światu. Stany Zjednoczone osiągnęły korzyści z eksportu toksycznych kredytów hipotecznych do świata, co
wymaga teraz całego świata, aby z tym się uporać.
Informatyka była w pewnym sensie siłą sprawczą dwu gwałtownych i wymuszonych wzrostów i dwu kryzysów rynkowych od 1995 roku. Rynki nie mogą rządzić same sobą.
Słowa kluczowe: gwałtowne wzrosty rynków, kryzysy rynków finansowych, informatyka globalnego sektora finansów
1. Wprowadzenie
Informatyka nazywana dzisiaj takŜe infotech jest dzisiaj jedną z najwaŜniejszych dziedzin
technologii, ogromną stale rozrastającą się dziedziną róŜnorodnych zastosowań, w tym w szczególności powstawania społeczeństwa informacyjnego czy internetowego czy nawet nowej cywilizacji cyfrowej. Cywilizacja cyfrowa obejmuje juŜ dzisiaj ponad 4 miliardy uŜytkowników na całym
świecie a więc więcej niŜ połowę całej ludności. Najbardziej zinformatyzowanym globalnym sektorem jest globalny sektor finansów, wydatki na informatykę liczone na jednego zatrudnionego w
tym sektorze są wielokrotnością wydatków na jednego zatrudnionego w innych sektorach gospodarczych czy przemysłowych.
Informatyka powstała wraz z produkcją seryjną automatycznych elektronicznych maszyn matematycznych dla potrzeb tradycyjnego wojska, wojskowej fizyki atomowej i wojskowych badań
systemowych w USA oraz wraz z podjęciem ich budowy w sektorze nauki i szkolnictwa wyŜszego
w innych krajach w tym w Polsce a więc 60 lat temu.
Seryjna produkcja elektronicznych komputerów dla potrzeb cywilnej gospodarki w USA i W.
Brytanii rozpoczęła się dopiero 50 lat temu. Masowa produkcja komputerów dla potrzeb osobistych kaŜdego człowieka rozpoczęła się zaledwie 30 lat temu, z tym, Ŝe rynek komputerów oferuje
dzisiaj komputery we względnie przystępnej cenie o parametrach 30 lat temu niewyobraŜalnych.
E-gospodarka - kryzysy finansowe i gospodarcze
Masowa elektroniczna gospodarka, e-gospodarka liczy sobie zaledwie 15 lat, tzn. gdy zaczęły
powstawać pierwsze przedsiębiorstwa internetowe, tak zwane dotcomy. Jedną z pierwszych firm
208
Andrzej Straszak
Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów
internetowych jest Amazon.com, pierwsza e-księgarnia na świecie. Firma ta została załoŜona przez
Jeffa Bezosa – informatyka, – który posiadał wizję nowego ładu gospodarczego opartego na efektywnym i jednocześnie etycznym wykorzystaniu Internetu do handlu, handlu jednocześnie globalnego i lokalnego. Amazon.com jest jednocześnie firmą innowacyjną i liderem handlu elektronicznego na świecie.
Amazon.com jest firmą internetową, która tylko jednego najbardziej intensywnego pod
względem zakupów dnia – 15 grudnia 2008 roku – musiała obsłuŜyć ponad 6.3 Miliona ezamówień. W grudniu 2008 będąc jednym z klientów tej firmy mogłem osobiście stwierdzić jej
wysoką sprawność, choć nastąpiło pewne niewielkie opóźnienie w dostawie.
Rok wcześniej takŜe w dniu o największej liczbie e-zakupów Amazon.com zrealizował „tylko” 5.4 Miliona zamówień. Obecne rekordowe e-zamówienia to juŜ piąte z rzędu, gdy w dniu o
najwyŜszych obrotach liczba zamówień w Amazon.com rośnie, co najmniej kilkanaście procent.
Amazon.com zawsze uchodził za lidera cenowego. Pod wieloma względami przypomina on WalMart, tylko w wersji on-line, a w czasach recesji klienci chętniej robią zakupy tam, gdzie jest taniej. Amazon.com jest takŜe dla mnie i innych źródłem e-wiedzy.
Amazon.com jest wzorcowym przykładem handlu elektronicznego w cywilizacji cyfrowej.
W Święta BoŜego Narodzenie w 2008 roku w USA wartość sprzedaŜy on-line była o 2.3%
niŜsza niŜ w podobnym okresie 2007 roku, ale znacznie gorzej było w handlu tradycyjnym, gdzie
obroty spadły od 5.5% do 8%. Okres ten jest bardzo waŜny, biorąc pod uwagę to, Ŝe w tym okresie
ma miejsce 30% do 50% rocznych obrotów handlowych.
Pierwszy kryzys gospodarki internetowej rozpoczął się 10 lat temu, w piątym roku istnienia
tej przyszłościowej gospodarki. Było to wynikiem gwałtownego (gwałtowego) wzrostu, dzisiaj
moŜemy powiedzieć takŜe wymuszonego i „kreatywnego”, w złym sensie wzrostu notowań firm
internetowych na tak zwanej internetowej giełdzie technologicznej NASDAQ.
W drugiej połowie lat XX wieku, waŜną organizatorską rolę, ale moŜe nie tylko organizatorską rolę w tym odegrali bracia Madoff. W ciągu zaledwie kilku lat na giełdzie NADSAQ stworzono
„bańkę dotkomową”. Interesujące, Ŝe firma Amazon.com nie skorzystała z „dobrodziejstw” giełdy
NASDAQ w tamtym czasie, mimo nie najlepszych wówczas wyników finansowych, przy sukcesie
marketingowym i dynamice wielkości sprzedaŜy. Po pęknięciu „bańki dotkomowej” gospodarka
internetowa straciła opinię w bankach, co spowodowało bankructwo korporacji ENRON lidera
sprzedaŜy internetowej swoich produktów i lidera wzrostu korporacyjnego. ENRON na krótko pojawił się w czołówce korporacji giełdowych USA, ale jak później się okazało było to takŜe wynikiem nowego oszustwa informatycznego tak zwanej „kreatywnej księgowości”.
Pierwszy kryzys gospodarki internetowej zahamował tempo elektronicznej, informatycznej
i internetowej rewolucji. W drugiej połowie lat 90, XX wieku po raz pierwszy informatyka stała się
w USA waŜnym czynnikiem wzrostu PKB.
Skutki pierwszego kryzysu gospodarki internetowej odczuła takŜe gospodarka tradycyjna,
gdyŜ zjawisko informatycznej „kreatywnej księgowości” wystąpiło takŜe w innych korporacjach
i nie tylko USA, choć nie miało to jeszcze charakteru masowego.
Szybki wzrost informatyzacji i internetyzacji gospodarki światowej przyczynił się przyspieszenia jej globalizacji w drugiej połowie lat 90, XX wieku.
Informatyka, internetyzacja i rozpowszechnianie tak zwanej ‘inŜynierii finansowej” przyczyniła się do gwałtownego rozwoju w obecnej dekadzie XXI wieku innego sektora rynku finansowego a mianowicie sektora kredytów hipotecznych. ZadłuŜenie na tym rynku w latach 2003-2006
Andrzej Straszak
Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów
209
wzrosło z 6 000 Mld USD do 12 000 Mld USD, to znaczy podwoiło się o wartość, która wzrastała
stopniowo od 1949 do 2002 roku.
Zdaniem George Sorosa (Soros, 2008) po krachu spółek internetowych stworzono warunki
w sektorze finansowym USA, które umoŜliwiły powstawanie „super bańki” na rynku nieruchomości.
Według Josepha Stiglitz „wyprodukowany w USA” obecny kryzys finansowy wymaga głębokiego, bardziej globalnego szerokiego przeglądu (Stiglitz, 2008) dla ratowania gospodarki światowej, moŜna by powiedzieć badań systemowych globalnej gospodarki i gospodarki Unii Europejskiej, a takŜe Polski a w szczególności sektora finansów w tym w szczególności banków.
Stany Zjednoczone osiągnęły korzyści z eksportu toksycznych kredytów hipotecznych do
świata. Rynki finansowe nie mogą rządzić same sobą (Stiglitz, 2009). Zjawisko to było dostrzegane lokalnie, niedostrzeŜono, Ŝe sektor finansów USA jest tylko częścią globalnego sektora finansów i instrumenty finansowe kredytów hipotecznych udzielanych w USA w naszej cywilizacji cyfrowej były szeroko dystrybuowane na całym świecie (Zaharia, 2009).
Gwałtowne wzrosty na rynkach finansowych wywołują takŜe tzw. „pokusy naduŜycia” (Soros, 2008). TakŜe i tym razem kryzys ujawnia nowe naduŜycia, które bez informatyki i internetu
byłyby niemoŜliwe takie jak na przykład „kreatywne zarządzanie pieniędzmi klientów”, które zastosowała wielce zasłuŜona dla gospodarki internetowej postać – B. Madoff. Oszustwo wyszło na
jaw, gdy na początku grudnia 2008 roku grupa klientów zaŜądała wypłaty z jego firmy 7 Mld USD.
Okazało się, Ŝe kasa firmy Madoffa jest pusta a wartość popełnionych oszustw on sam oszacował
na 50 Mld USD. Dzisiaj takŜe juŜ wiemy, Ŝe ta nieduŜa firma z Nowego Jorku była juŜ firmą globalną a nie lokalną i straty, które ona spowodowała to straty na finansowym rynku globalnym a nie
tylko lokalnym.
Obecny kryzys niektórzy porównują do Wielkiego Kryzysu Gospodarczego z lat 20, XX wieku, a więc kryzysu Ery Przemysłowej, dzisiaj w Erze Informatyki i Internetu, w Cywilizacji Cyfrowej wszystko jest inne i będzie inne.
MoŜe jednak mieć rację G.Soros, gdy pisze, Ŝe obecny kryzys to nie tylko zwykły kryzys, ale
to koniec obecnej ery stymulowania rozwoju gospodarczego(Soros, 2008).
Rozpoczęta w ostatniej dekadzie XX wieku Era Informatyki i Internetu jak pisał w 2001 roku
Michael Dertouzos jest dopiero w pierwszej fazie tej niezakończonej rewolucji, zakończenie
pierwszej fazy tej rewolucji przewidywał dopiero po 2020 roku (Dertouzos, 2001).
Rozpoczęta 60 lat temu rewolucja informatyczna to rewolucja nie na wiele dekad, ale wiele
stuleci a nawet tysiącleci. Rewolucja informatyczna jest coraz bardziej wielowymiarowa i wielowątkowa, będzie potrzebowała do swojego rozwoju wielkiej róŜnorodności, nieliniowych zjawisk
fizyki, chemii i biologii, wielkich konstrukcji i rozwiązań inŜynierskich oraz wielkich energii.
Globalne rynki finansowe dla swego rozwoju będą wymagały coraz bardziej zaangaŜowanej
a jednocześnie wiarygodnej informatyki i internetu semantycznego, coraz bardziej zaawansowanego i sprawnego audytu informatycznego, a takŜe nowego audytu systemowego.
śyjemy obecnie w społeczeństwie i gospodarce coraz bardziej zinformatyzowanej i zinternetowanej, dla których głównym imperatywem są oparcie się na wiedzy, kreatywności a nie „kreatywności” i innowacyjności (Tapscott, 1996). Potrzebna jest strategia oparta na inŜynierii wizji
i kultury oraz sprzęŜeniach zwrotnych (Rys 1.). NaleŜy takŜe wykorzystać zaawansowane metody
zarządzania ryzykiem w oparciu o inŜynierię nadsystemów systemów (system of systems – SOS)
(Sage, 2008).
210
Andrzej Straszak
Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów
Rys.1 – Strategie oparte o inŜynierię wizji kultury oraz sprzęŜeniach zwrotnych (Straszak, 2009)
Uwagi końcowe
Społeczeństwa internetowe i gospodarka internetowa nie jest i nie będzie wolna od Wielkich
Wstrząsów Rozwojowych (Straszak, 2009).
Stanisław Lem, który bardzo wcześnie przeczytał w oryginale ksiąŜkę N. Wienera „Cybernetyka” i wykorzystał zawartą w niej wiedzę do swojej genialnej twórczości, w której przewidywał
wielki rozwój informatyki i powstanie w przyszłości internetu, w późniejszym okresie swojej twórczości uŜył nazwy Megabitowa Bomba (Lem, 1999). Obecny Drugi Kryzys Gospodarki (Internetowej), który wybuchł znienacka to w pewnym sensie eksplozja bomby (superbańki), która rozsadziła obecny globalny sektor finansów.
Era Informatyki i Internetu to era jednostek zachłannych na wiedzę, w tym e-wiedzę i mądrość, ale równieŜ jednostek zachłannych na pieniądze, w tym e-pieniądze, które mogą zbyt gwałtownie rosnąć, ale równieŜ znikać.
Literatura.
1.
2.
3.
4.
Soros G.:– The Credit Crisis of 2008 and What it Means. W: The New Paradigm for
Financial Market, New York, ISBN 9781586486839
Stiglitz J.: - Global Crisis Made in America – W: Spiegel On-line International, Nov 12,
2008, http://www.spiegel.de/international/business/0,1518,590028,00.html
Wiener N.: - Cybernetics – Or the Control and Communication in the Animal and the
Machine, Paris 1948, Libraire Hermann & Cie, and Cambridge , MA: MIT Press:
Cambridge, MA: MIT Press
Times On-Line: - Wall Street Legend Bernard Madoff arrested over $50 bilion Ponzi
scheme. W: Times On-Line, Dec. 12, 2008,
http://www.timesonline.co.uk/tol/news/world/us_and_americas/article5331997.ece
Andrzej Straszak
Informatyka jako siła sprawcza gwałtowego rozwoju i kryzysów
211
5.
6.
Lem S.: - Bomba megabitowa. W: Wydawnictwo Literackie, 1999
Heckman L.: - Research and Information Guides in Business, Industry, and Economic
Institution. W: Routledge; 1st edition, 2001, ISBN: 978-0815321187
7. McLean B.: - The Smartest Guys in the Room: The Amazing Rise and Scandalous Fall of
Enron. W: Portfolio Trade, 2004, ISBN: 978-1591840534
8. Sage A.P.: Risk in Systems of Systems Engineering and Management. W:Journal of
Industrial and Management and Optimization, Vol 4 No. 3, 2008
9. Dertouzos M.: The Unfinished Revolution. W: Harpercollins Publisher, New Jork, 2001,
ISBN 0-06-662067-8.
10. Straszak A.: Społeczeństwo internetowe oparte na wiedzy – wielkie wstrząsy rozwojowe.
W: Pracy Zbiorowej – problemy globalnego społeczeństwa informacyjnego pod redakcją
Szewczyk A, Wydawnictwo Uniwersytetu Szczecińskiego, 2003
11. Stiglitz J.: Market can’t rule themselves. W: Newsweek Issues 2009.
http://www.newsweek.com/id/177447?from=rss?nav=slate
12. Zaharia S.: Writing the Rules for a New World. W: Newsweek Issues 2009.
http://www.newsweek.com/id/177385
13. Chmielewski J.: Zarządzanie Wiedzą w Warunkach Kryzysu Finansowego Gospodarki Spojrzenie przez E-wiedzę. W: Artykuł na VI Kongres Polskiego Stowarzyszenia
Zarządzania Wiedzą, 2009
INFORMATICS AS A DRIVING FORCES OF THE VIOLENT GROWTH AND CRISES
Summary
Today, we are in the middle o the beginning of a “made in the USA” the second
crisis since 2000 that is threatening the entire world. The United States benefited
from its export of toxic mortgages. Wall Street exported troubles to the world; it
needs world help to fix them.
Informatics was a driving force of the two violent growth and two crises since
1995. Market can not rule themselves.
Keywords: the violent growth, crisis, markets, informatics within global financial sector
Andrzej Straszak
Szkoła WyŜsza im. Pawła Włodkowica w Płocku

Podobne dokumenty