studia i materiały polskiego stowarzyszenia zarządzania wiedzą

Transkrypt

studia i materiały polskiego stowarzyszenia zarządzania wiedzą
STUDIA I MATERIAŁY
POLSKIEGO STOWARZYSZENIA
ZARZĄDZANIA WIEDZĄ
Redaktor tomu
dr inż. Waldemar Bojar
Komitet Redakcyjny:
Prof. dr hab. Janusz Kacprzyk
Prof. dr hab. Inż. Ludosław Drelichowski
Polskie Stowarzyszenie Zarządzania Wiedzą
Bydgoszcz 2006
2
Recenzenci:
Prof. dr hab. inż. Ludosław Drelichowski
Prof. dr hab. Janusz Kacprzyk
Opracowanie redakcyjne i korekta
inż. Waldemar Kępa
inż. Ewa Dziemianko
ISSN 1732-324X
Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc
3
Spis treści
RYSZARD BUDZIŃSKI, ANDRZEJ SZARANEK............................................................. 4
Zastosowanie reguł asocjacyjnych do eksploracji baz danych
RYSZARD BUDZIŃSKI, AGATA WAWRZYNIAK........................................................ 11
Identyfikacja outsourcingu informatycznego w jednostkach samorządowych
LILIANA BYCZKOWSKA, JANUSZ LIPIŃSKI, PIOTR MACHOWSKI ................... 20
Systemy zarządzania zasobami teleinformatycznymi
WITOLD CHMIELARZ ...................................................................................................... 29
Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego
LUDOSŁAW DRELICHOWSKI, MACIEJ NOSAL ........................................................ 39
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
ANNA KEMPA...................................................................................................................... 51
Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz........................................
JOLANTA KONDRATOWICZ-POZORSKA................................................................... 60
Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami
istotnymi dla gospodarki żywnościowej
MAŁGORZATA NYCZ, BARBARA SMOK..................................................................... 70
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
KAZIMIERZ PERECHUDA, ZBIGNIEW TELEC.......................................................... 81
Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce
ANDRZEJ PIEGAT, BARBARA WĄSIKOWSKA .......................................................... 86
Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych
WITOLD RZEPIŃSKI ......................................................................................................... 94
Wiedza jako czynnik rozwoju polskiego agrobiznesu
ANDRZEJ STRASZAK........................................................................................................ 99
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
JAN STUDZIŃSKI.............................................................................................................. 111
Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym
TATIANA TRETYAKOVA ............................................................................................... 122
Zarządzanie wiedzą przez zastosowanie ontologii dziedzin..............................................................
LEONID WOROBJOW...................................................................................................... 131
Produktywność i efektywność przedsiębiorstwa
KAROLINA WOŹNICKA ................................................................................................. 137
Strategia przodownictwa kosztowego w walce z konkurencją
GRAŻYNA WÓJCIK, ZDZISŁAW SZYJEWSKI.......................................................... 147
Przekształcanie wiedzy ukrytej w wiedzę jawną
ZYGMUNT ZYGMUNTOWICZ ...................................................................................... 159
Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej
nieruchomości
Ryszard Budziński, Andrzej Szaranek
Zastosowanie reguł asocjacyjnych do eksploracji baz danych
4
RYSZARD BUDZIŃSKI
ANDRZEJ SZARANEK
Uniwersytet Szczeciński
Wydział Nauk Ekonomicznych i Zarządzania
ZASTOSOWANIE REGUŁ ASOCJACYJNYCH DO EKSPLORACJI BAZ DANYCH
Streszczenie
W artykule omówiono teorię i zastosowanie praktyczne wybranych metod eksploracji reguł asocjacyjnych. Przedstawiono zarys rozwoju systemów wspomagających podejmowanie decyzji w przedsiębiorstwach, omówiono genezę i potrzeby wykorzystania reguł asocjacyjnych, oraz przedstawiono przykład ich działania.
Słowa kluczowe: reguły asocjacyjne, eksploracja baz danych, KDD
1. Wprowadzenie
Ogromny postęp technologiczny ostatnich lat oraz związane z nim rozpowszechnienie się systemów komputerowych w licznych przedsiębiorstwach zaowocowało nagromadzeniem się bardzo
dużych zasobów danych jakie przechowywane są w bazach danych. Ilość informacji z czasem
przerosła ludzkie możliwości analizy oraz utrudniła podejmowanie decyzji na ich podstawie. Sytuacja taka sprawiała, że w ciągu ostatnich lat systemy informatyczne ewoluowały zwiększając
swoją funkcjonalność i niezawodność. Początkowo byliśmy świadkami powstawania systemów
wspomagania decyzji (ang. Decision Support Systems), w których znaczącą rolę odgrywała wiedza częściowo pochodząca z baz danych, a częściowo od ekspertów w danej dziedzinie. Wyniki
analiz dostarczane były w postaci raportów np.: w postaci wartości sprzedanych produktów w
określonym kwartale. Kolejne systemy pozwalały użytkownikowi na zadawanie zapytań oraz na
analizę zawartości baz danych np. przy pomocy technologii OLAP (ang. Online Analytical Processing). OLAP umożliwiała wielowymiarową prezentację agregowanych danych z pośród wybranych atrybutów pochodzących z jednej lub wielu relacji. Użytkownik miał możliwość przygotowania pewnej hipotezy, której poprawność następnie weryfikował stosując metodologię OLAP.
Jakość tego typu systemów zależna była od wiedzy i kreatywności ekspertów, którzy definiowali
hipotezy.
Obecnie nową i ciągle rozwijającą się gałąź systemów informatycznych stanowią systemy automatycznie poszukujące wiedzy wśród zbiorów ogromnych ilości danych gromadzonych w bazach danych. Dziedzina informatyki badająca tego typu oprogramowanie znana jest pod nazwą
„odkrywania wiedzy w bazach danych” (ang. Knowledge Discovery in Databases) w skrócie
KDD. Z KDD ściśle związane są technologie eksploracji danych (ang. Data Mining). Odkrywanie
wiedzy nie wymaga od użytkownika zakładania żadnych hipotez, gdyż są generowane automatycznie i weryfikowane przez system komputerowy. Zadaniem eksperta jest jedynie ocena wygenerowanej wiedzy, zazwyczaj w postaci reguł, sprowadzająca się do odrzucenia lub przyjęcia
wyników na podstawie określonych wskaźników statystycznych.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
5
Eksploracja danych (ang. Data mining ) definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych zbiorach danych. Do metod eksploracji danych zalicza
się :
•
klasyfikację,
•
odkrywanie sekwencji,
•
klastrowanie,
•
odkrywanie charakterystyk,
•
wykrywanie zmian i odchyleń,
•
odkrywanie podobieństw w przebiegach czasowych,
•
odkrywanie asocjacji.
2. Zastosowanie reguł asocjacyjnych
Eksploracja reguł asocjacyjnych stosowana jest do rozwiązywania problemów w licznych
dziedzinach nauki, ekonomii, marketingu oraz wielu innych związanych z naszym codziennym
życiem. Najbardziej znanym przykładem wykorzystania odkrywania reguł asocjacyjnych jest
analiza koszykowa. Przykładowo można uzyskać regułę: gdy ludzie kupują świeże pieczywo, w
30% przypadków kupują również jogurt. Tego typu wiedza pomaga kierownikom sklepu podejmować słuszne decyzje dotyczące, np.:
• promocji i obniżek cen – zwykle nie ma sensu dokonywać jednocześnie obniżki na pieczywo i jogurty. Lepiej obniżyć cenę jednego produktu, aby zwiększyć sprzedaż obu.
• reklam i akcji marketingowych – w niektórych przypadkach pokazanie w reklamie dwóch
produktów jednocześnie daje lepszy efekt niż prezentowanie ich oddzielnie. Można również obok produktu lub nawet na opakowaniu produktu umieścić reklamę produktu z nim
powiązanego. Pełniejsze zaspokajanie potrzeb dodatkowo utrwala w kliencie pozytywne
wrażenie.
• rozmieszczenia produktów na półkach sklepowych – umieszczenie na jednej półce produktów o silnie skorelowanej sprzedaży zwiększy ich sprzedaż. W niektórych sytuacjach
jednak bardziej skuteczne okazuje się duże oddalenie produktów, gdyż klient pokonując
drogę między nimi musi minąć regały z innymi towarami.
Wyszukiwanie reguł asocjacyjnych ma za zadanie zwiększyć wydajność systemów baz danych
pod względem funkcjonalności umożliwiając zadawanie złożonych zapytań przykładowo w postaci:
• Znajdź wszystkie reguły, których konsekwencją jest sprzedaż produktu X.
• Znajomość reguł tego typu pozwoli podnieść sprzedaż produktu X.
• Znajdź wszystkie reguły, które powstały w wyniku sprzedaży produktu X.
• Odkryj te reguły, które powstały w konsekwencji sprzedaży produktu X. Powyższe reguły mają określić jaki wpływ na sprzedaż wskazanych produktów może mieć zaprzestanie
sprzedaży produktu X.
• Znajdź wszystkie reguły, które powstały w wyniku sprzedaży X, a które spowodowały, że
wzrosła sprzedaż Y. Tego typu zapytania mogą wskazać jakie produkty należy sprzedawać razem z X tak by wzrosła sprzedaż Y.
• Znajdź wszystkie reguły, które wiążą ze sobą produkty umieszczone na półce A oraz półce B w sklepie.
6
Ryszard Budziński, Andrzej Szaranek
Zastosowanie reguł asocjacyjnych do eksploracji baz danych
Obecnie towary kupowane w supermarketach posiadają kody kreskowe, które umożliwiają sprzedawcom detalicznym śledzenie sprzedaży produktów i jeżeli sklep posiada karty lojalnościowe
możliwe jest analizowanie zakupów dokonywanych przez poszczególnych klientów. Statystyczny
klient odwiedza ten sam sklep wiele razy w ciągu roku. Transakcja odnosi się do pojedynczej
wizyty i jest powiązana z określoną datą i listą zakupów. Poprzez analizę koszykową sprzedawca
może wyciągać informacje, które pozwolą usprawnić jego działalność. Przykładem może tutaj być
sytuacja, w której klienci kupujący produkty dla niemowląt kupują też gotowe zupy w kartonach.
Taka informacja może być wykorzystana np. w marketingu bezpośrednim (wysłanie ulotki z ofertą
promocyjną gotowych zup w kartonach do osób, które kupowały produkty dla dzieci).
3. Teoria reguł asocjacyjnych
Zbiory częste dają informację o tym, że pewne elementy występują razem w określonej części
transakcji z bazy danych. Na bazie zbiorów częstych można zdefiniować reguły asocjacyjne1.
Pozwalają one przedstawić odkrywaną wiedzę w postaci implikacji. Przy założeniu, że zbiory
częste A,B zawierają elementy transakcji z bazy D, A ∩ B = ∅ , A = ∅ , oraz B = ∅ reguła
asocjacyjna ma postać A ⇒ B . Zbiór A nazywany jest poprzednikiem reguły, a zbiór B następnikiem reguły. Taka reguła oznacza, że zbiór B ma tendencję do występowania razem w transakcji
ze zbiorem A.
Długość reguły jest sumaryczną liczbą elementów występujących w poprzedniku i następniku
reguły, tzn. A ∪ B . Reguła o długości k będzie określana jako k-reguła.
Dla reguł asocjacyjnych występują dwie podstawowe miary przydatności: wsparcie i zaufanie.
Sposób ich obliczania wygląda następująco:
wsparcie( A ⇒ B) = wsparcie( A ∪ B)
(1)
zaufanie( A ⇒ B) = wsparcie( A ∪ B) / wsparcie( A)
(2)
Wsparcie określa w jakiej części transakcji z bazy danych występuje dana zależność. Zaufanie
określa z jakim prawdopodobieństwem występowanie w transakcji poprzednika implikuje wystąpienie następnika. Przykładowo reguła uzyskana z danych o sprzedaży w sklepie spożywczym:
chleb ⇒ maslo, dzem o wsparciu 5% i zaufaniu 80% oznacza, że 80% ludzi, którzy kupili
chleb, kupiło również masło i dżem. Natomiast sytuacja taka zachodzi w 5% wszystkich transakcji
w sklepie. Przykładowo jeżeli np. produkt {mleko} pojawia się w wielu transakcjach, gdzie występuje również {margaryna, mleko}, można stworzyć następującą regułę asocjacyjną: {chleb,
margaryna} – {mleko). Procent transakcji które składają się z {chleb, margaryna} i jednocześnie
zawierają {mleko} będzie określany jako zaufanie. Wsparciem tej reguły jest liczba transakcji,
które zawierają {chleb, margaryna} oraz {mleko}.
Towary znajdujące się w koszyku klienta mogą być pogrupowane w różnej wielkości podzbiory, np. koszyk składający się z następujących towarów: {chleb, margaryna, mleko} może być
ułożony w podzbiory jednoelementowe, tj. {chleb}, {margaryna}, {mleko}; podzbiory dwuelementowe {chleb, margaryna}, {chleb, mleko}, {margaryna, mleko} oraz podzbiór trójelementowy
{chleb, margaryna, mleko}. Niektóre zestawy takie jak np. {chleb, margaryna} będą pojawiały się
w wielu różnych koszykach. Wsparcie określane będzie tutaj jako liczba transakcji, w których
1
http://www.statconsulting.com.pl/assoc_rules_pl.html
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
7
pojawia się dany zestaw. Każda reguła asocjacyjna może mieć wiele pozycji w poprzednikach,
oraz wiele pozycji po stronie następników. Reguła {mleko) - {chleb, margaryna} posiada poprzednik {mleko}, oraz następniki {chleb, margaryna}. Wsparcie takiej reguły jest takie samo jak
wsparcie reguły {chleb, margaryna} – {mleko}, lecz jej zaufanie może być inne.
Tabela 1. Przykładowe transakcje
IDTransakcji
Zakupione_Towary
1
chleb, mleko, pasta do zębów
2
chleb, mleko, margaryna
3
baton, chleb, kawa, margaryna
4
mleko, mięso
5
herbata, ciastka, pizza
6
mleko, kurczak wędzony, ziemniaki
7
margaryna, mleko, ciastka, chleb,
kakao
8
margaryna, herbata
9
kawa, margaryna, mleko, makaron,
chleb
10
boczek, jaja
W powyższej tabeli zestaw {chleb, margaryna} posiada wsparcie 4, dlatego, że występuje w
czterech transakcjach (2, 3, 4, 9). Zestaw {mleko} posiada wsparcie 6. zaufanie dla reguły {chleb,
margaryna} – {mleko} wynosi 75%, ponieważ 3 z transakcji zawierających {chleb, margaryna}
zawiera również {mleko}. Zaufanie dla reguły {mleko} - {chleb, margaryna} wynosi 50%, ponieważ mleko pojawia się w sześciu transakcjach i tylko trzy z nich zawiera {chleb, margaryna}.
4. Metody i algorytmy odkrywania reguł asocjacyjnych
Problem odkrywania reguł asocjacyjnych sprowadza się do wygenerowania wszystkich tych
reguł, które posiadają współczynniki wsparcia oraz pewności wyższe od zadanych przez użytkownika (minimalne wsparcie i minimalna pewność). Eksploracja reguł sprowadza się zatem do
dwóch zasadniczych podproblemów:
• znalezienie wszystkich kombinacji atrybutów, które mają większe wsparcie od pewnego
zadanego z góry progu zwanego minimalnym wsparciem (ang. minsupport). Te kombinacje nazywamy dużymi zbiorami elementów l zbiorami (ang. large itemsets). Wszystkie
kombinacje nie spełniające powyższych kryteriów (poniżej zadanego progu) nazywane są
małymi zbiorami elementów zbiorami (ang. small itemsets).
•
dla danych dużych zbiorów l-zbiorów (zbiorów częstych) Y =
generowane są wszystkie reguły, które wykorzystują elementy
dla wszystkich tych reguł powinien być podzbiór X ze zbioru
elementów a konkluzją jest podzbiór atrybutów Y-X. Do
i1, i2,..., ik gdzie k ≥ 2
ze zbioru Y. Przesłanką
Y, gdzie X posiada k-1
wygenerowania reguły
8
Ryszard Budziński, Andrzej Szaranek
Zastosowanie reguł asocjacyjnych do eksploracji baz danych
X ⇒ i j | conf X, gdzie X = i1, i2, ..., ij-1, ij+1, ...ik należy uwzględnić wsparcie zbioru Y
i podzielić przez wsparcie zbioru X. Jeśli uzyskany stosunek jest większy od conf, wówczas reguła jest akceptowana ze współczynnikiem conf, w przeciwnym wypadku reguła
jest odrzucana.
Mając określone zbiory częste rozwiązanie drugiego podproblemu jest w większości przypadków
zadaniem prostym. Należy zauważyć, że jeśli zbiór Y jest zbiorem częstym, wówczas każdy jego
podzbiór jest również zbiorem częstym. Reguły wywiedzione ze zbioru Y spełniają wszystkie
ograniczenia, gdyż zbiór Y jest sumą elementów będących konkluzjami bądź przesłankami każdej
w ten sposób utworzonej reguły.
Do odkrywania reguł asocjacyjnych stworzono algorytmy, z których dwa najczęściej stosowane
zostaną omówione.
Algorytm Apriori, oraz jego modyfikacja AprioriTid2, zostały zaproponowane jako rozwinięcie
koncepcji wcześniejszych algorytmów AIS3 i SETM4. Na jego przykładzie zostanie zaprezentowana zasada działania większości algorytmów do odkrywania reguł asocjacyjnych.
Algorytm Apriori wykonuje wielokrotny odczyt danych wejściowych. Podczas pierwszego czytania danych zliczane są wsparcia pojedynczych elementów, czyli zbiorów jednoelementowych.
Pozwala to określić czy są częste, tzn. czy spełniają warunek minimalnego wsparcia. Przed każdym kolejnym odczytem danych wykorzystywane są zbiory częste z poprzedniego odczytu jako
baza do generacji nowych zbiorów, które są potencjalnie częste. Są to tzw. zbiory kandydujące. W
trakcie odczytu obliczane jest wsparcie tych zbiorów. Następnie zostają określone zbiory są rzeczywiście częste. Stają się one bazą dla kolejnej fazy odczytu. Ten proces powtarza się aż do
chwili, gdy nie zostanie znaleziony żaden nowy zbiór częsty.
Algorytmy Apriori i AprioriTid różnią się zasadniczo od wcześniejszych algorytmów AIS i SETM
metodą generowania zbiorów potencjalnie częstych. W przypadku algorytmów AIS i SETM, zbiory kandydujące są tworzone na bieżąco podczas odczytu danych. W szczególności, po wczytaniu
transakcji, znajdywane są zbiory częste z poprzedniego odczytu, które występują w tej transakcji.
Nowe zbiory kandydujące wyznaczane są przez rozszerzanie znalezionych zbiorów o pozostałe
elementy znajdujące się w transakcji. Jednak wadą tego rozwiązania jest niepotrzebne generowanie zbyt dużej liczby zbiorów, które okazują się nie być częste.
Algorytmy Apriori i AprioriTid tworzą zbiory kandydujące wyłącznie w oparciu o zbiory częste
znalezione podczas poprzedniego odczytu danych. W procesie generacji zbiorów kandydujących
nie są uwzględniane transakcje z bazy danych. Jak wiadomo podzbiór zbioru częstego jest częsty.
Z tego powodu k-zbiory kandydujące mogą zostać utworzone poprzez łączenie (k-1)-zbiorów.
Dodatkowo można usuwać zbiory, których jakikolwiek podzbiór nie jest częsty. Takie podejście
prowadzi do generowania znacznie mniejszej liczby zbiorów kandydujących.
Algorytm AprioriTid ma dodatkową cechę polegającą na tym, że baza danych jest używana do
liczenia wsparcia tylko podczas pierwszego odczytu. Do tworzenia nowych zbiorów i obliczania
ich wsparcia używane są dodatkowe informacje opisujące zbiory wygenerowane w poprzedniej
fazie. W kolejnych fazach algorytmu rozmiar tych informacji staje się znacznie mniejszy od bazy
2
http://www.ru.lv/~peter/zinatne/pub/dbis2004.pps
Suh-Ying Wur, Yungho Leu - "An Effective Boolean Algorithm for Mining Association Rules in Large Databases" 6th
International Conference on Database Systems for Advanced Applications str. 179
4
Ibidium
3
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
9
danych, oszczędzając czas potrzebny do odczytu danych. W dalszej części zostanie to wyjaśnione
bardziej precyzyjnie.
5. Literatura
1.
2.
3.
4.
5.
6.
7.
Rakesh Agrawal, Srikant Ramakrishnan, 1994. Fast Algorithms for Mining Association
Rules. IBM Research Raport RJ9839, IBM Almaden Research Center
Heikki Mannila, Hannu Toivonen, 1997. Levelwise Search and Borders of Theoriesin
Knowledge Discovery. Department of Computer Science, University of Helsinki,
Finland.
Suh-Ying Wur, Yungho Leu. An Effective Boolean Algorithm for Mining Association
Rules in Large Databases. 6th International Conference on Database Systems for
Advanced Applications.
http://www.kie.ae.poznan.pl/~marek/edu/zw/zasoby/8.pdf
http://www.ploug.org.pl/konf_99/pdf/7.pdf
http://www.ru.lv/~peter/zinatne/pub/dbis2004.pps
http://www.webmining.pl/webmining/techniki13.html
10
Ryszard Budziński, Andrzej Szaranek
Zastosowanie reguł asocjacyjnych do eksploracji baz danych
APPLICATION OF ASSOCIATION RULES FOR EXPLORATION
OF THE DATA BASES
Summary
The article describes basic ideas of selected methods of association algorithms.
There is a short description of development of Decision Support Systems its genesis
and importance. There is also and practical usage of association rules.
Keywords: Decision Support Systems, Association Rules, Data Base Exploration, KDD
RYSZARD BUDZIŃSKI
rbudzinski.ps.pl
Uniwersytet Szczeciński
Instytut Informatyki w Zarządzaniu
ul. Mickiewicza 64
71-101 Szczecin
ANDRZEJ SZARANEK
[email protected]
Uniwersytet Szczeciński
Wydział Nauk Ekonomicznych i Zarządzania
ul. Mickiewicza 64, Szczecin
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
11
RYSZARD BUDZIŃSKI
AGATA WAWRZYNIAK
Uniwersytet Szczeciński
IDENTYFIKACJA OUTSOURCINGU INFORMATYCZNEGO W JEDNOSTKACH
SAMORZĄDOWYCH
Streszczenie
W artykule zaprezentowany został problem identyfikacji outsourcingu informatycznego w jednostkach samorządu terytorialnego. Główny nacisk został położony na
prezentację metod, które w badaniu będą zastosowane. Podjęto również próbę naszkicowania przyjętej procedury badawczej i scharakteryzowano jej etapy.
Słowa kluczowe: outsourcing, usługi informatyczne, jednostki samorządowe, taksonomia rozmyta, teoria zbiorów przybliżonych
1. Wprowadzenie
Profesjonalne usługi zewnętrzne, inaczej nazywane outsourcingiem1, są nowoczesną strategią
zarządzania, która polega na przekazywaniu zadań, funkcji, projektów i procesów, które nie są
związane bezpośrednio z podstawową działalnością danego podmiotu, do realizacji firmie zewnętrznej. Podstawową korzyścią wynikającą z takiego rozwiązania jest redukcja kosztów, ponieważ outsourcing jest stosowany, gdy dostępne zasoby zewnętrzne są tańsze od własnych. Istotne są także inne czynniki, takie jak dążenie do realizacji usług na najwyższym poziomie, specjalizacja pracy, koncentracja na obszarach, w których osiągana jest przewaga konkurencyjna oraz
dostęp do specjalistycznej wiedzy. Jak ważny jest problem outsourcingu może świadczyć fakt, że z
konieczności istnienia tego typu usług zdawano sobie sprawę już w początkach XX wieku. Znany
wszystkim potentat samochodowy, Henry Ford, już w latach dwudziestych minionego wieku powiedział: " Nastały ciężkie czasy. Ekonomia jest na takim poziomie, na jakim powinna być, a
konkurencja otacza nas ze wszystkich stron świata. Zatem jeśli jest coś, czego nie potrafimy zrobić
wydajniej, taniej i lepiej niż nasi konkurenci, nie ma sensu, żebyśmy to robili. Powinniśmy zatrudnić do wykonania tej pracy kogoś, kto zrobi to lepiej". Była to pierwsza definicja outsourcingu.
Pół wieku później zasada ta stała się mottem ogólnoświatowego rynku2. Obecnie w zasadzie jest
normą, że np. małe przedsiębiorstwa nie prowadzą samodzielnie księgowości, ale korzystają z
usług biur rachunkowych.
Outsourcing jako szczególna forma współpracy znalazł swoje poczesne miejsce zwłaszcza na
gruncie IT (technologii informatycznych), jako dziedziny ściśle podlegającej outsourcingowi.
Koszty związane z informatyzacją są zwykle zbyt wysokie aby można było sobie pozwolić na
własny dział informatyczny (a często nawet na zatrudnienie pojedynczego informatyka) czy też na
korzystanie z najnowszego oprogramowania wspomagającego prowadzenie działalności. Rozwią1
Termin outsourcing pochodzi z jęz. angielskiego i jest skrótem trzech słów: outside-resource-using, co oznacza korzystanie z zewnętrznych źródeł.
2
Por. [1, str.40-44].
12
Ryszard Budziński, Agata Wawrzyniak
Identyfikacja outsourcingu informatycznego w jednostkach samorządowych
zaniem tego problemu jest sięgnięcie po oferty firm specjalizujących się w świadczeniu tego typu
usług.
Jednak trzeba się również liczyć z faktem, iż zastosowanie outsourcingu nie koniecznie musi
oznaczać sukces. Wiele przedsiębiorstw chcących rozwiązywać swoje problemy w ten sposób nie
osiąga spodziewanych rezultatów. Powodem tego może być brak wytyczonego kierunku i precyzji
w określaniu realnych celów, a także dążenie do nieracjonalnych oszczędności poprzez wybór
usługodawców proponujących najniższe ceny, ale nie najwyższą jakość. Nasuwają się zatem podstawowe pytania: „Jak korzystać z outsourcingu, aby zagwarantować sobie sukces?” „Czy to się
rzeczywiście opłaca – jak mierzyć efektywność tego typu przedsięwzięć?” „Czy jest to rozwiązanie dla każdego przedsiębiorstwa, niezależnie od jego wielkości i branży, w której działa?”
Istnienie tych problemów skłoniło autorów niniejszego artykułu do zajęcia się tematem outsourcingu informatycznego w odniesieniu do specyficznego rodzaju organizacji, jakim są jednostki
samorządu terytorialnego. Wynika to z faktu istnienia luki badawczej – jak dotąd wszelkie opracowania dotyczące outsourcingu IT dotyczyły jedynie przedsiębiorstw. Podstawowymi przesłankami podjęcia badań były:
− zmiana w podejściu do prowadzenia działalności przez organizacje samorządowe – nie wszystko trzeba realizować samodzielnie, można korzystać z usług specjalistów – jest to efektywniejsze;
− skala, powszechność i powtarzalność korzystania z usług outsourcingowych;
− brak opracowanego wzorca obsługi informatycznej dla tego rodzaju organizacji;
− brak sprecyzowanych kryteriów oceny czy dla konkretnej organizacji korzystanie z outsourcingu jest opłacalne.
Celem artykułu jest zaprezentowanie procedury badawczej jaką zaplanowano zastosować w
ramach badań dotyczących identyfikacji outsourcingu informatycznego w jednostkach samorządowych (Rys.1).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
Czy istnieją prawidłowości i podobieństwa
w stosowaniu outsourcingu przez organizacje samorządowe?
Postawienie problemu
B
A
D
A
N
I
A
Opracowanie procedury
badawczej
Analiza rynku usług informatycznych
w obsłudze jednostek samorządowych
Klasyfikacja rozmyta organizacji samorządowych w woj.
zachodniopomorskim ze względu na poziom korzystania
z outsourcingu
Określenie kierunków
rozwoju tego typu usług
w regionie
Wypracowania wzorca
obsługi informatycznej
dla tego rodzaju organizacji
13
Badanie ankietowe i analiza
statystyczna uzyskanych danych
Taksonomia rozmyta
Teoria zbiorów przybliżonych
Rysunek 1. Proponowana procedura badawcza
Źródło: opracowanie własne.
2. Charakterystyka etapów w proponowanej procedurze badawczej
Aby zrealizować cel podjętych badań, tzn. zidentyfikować outsourcing IT w jednostkach samorządu terytorialnego, przyjęto następującą procedurę badawczą:
- I etap analiza rynku usług informatycznych w obsłudze jednostek samorządowych,
- II etap - klasyfikacja organizacji samorządowych objętych badaniem ze względu na poziom
korzystania z outsourcingu,
- III etap - wypracowanie wzorca obsługi informatycznej dla tego rodzaju organizacji.
W związku z tym w badaniach zastosowano trzy podstawowe metody:
1. badanie ankietowe,
2. taksonomia rozmyta,
3. teoria zbiorów przybliżonych.
2.1. Badanie ankietowe i analiza statystyczna rynku usług informatycznych w obsłudze jednostek samorządowych
Na potrzeby analizy rynku usług informatycznych opracowano kwestionariusz ankietowy
koncentrujący się na:
Ryszard Budziński, Agata Wawrzyniak
Identyfikacja outsourcingu informatycznego w jednostkach samorządowych
14
1. stopniu informatyzacji urzędu oraz liczbie zatrudnionych specjalistów z zakresu informatyki,szczegółowych danych dotyczących korzystania przez urząd z usług podmiotów zewnętrznych,
3. określeniu czynników decydujących o wyborze dostawców,ocenie jakości realizowanych
przez nich usług.Po zgromadzeniu danych z kwestionariuszy ankietowych dokonano weryfikacji formalnej i merytorycznej zebranego materiału oraz stworzono elektroniczną bazę danych. Dane z niej pochodzące stanowiły podstawę do wykonania obliczeń w oparciu o wybrane
metody analizy ilościowej zjawisk i procesów rynkowych, takie jak:
1.
2.
3.
4.
analiza struktury zjawisk rynkowych;
analiza dynamiki;
analiza związków przyczynowo-skutkowych;
analiza rynku w przestrzeni3.
Wyniki obliczeń statystycznych posłużyły następnie do sformułowania wniosków dotyczących
stanu przebadanej zbiorowości.
2.2. Klasyfikacja badanych organizacji samorządowych za pomocą taksonomii rozmytej
Klasyfikacja danych jest procesem, który przypisuje obiekty posiadające wspólne cechy do
określonych klas. Jest ona jedną z podstawowych operacji wykonywanych na danych zgromadzonych w bazach danych. Bazy danych stanowią często ogromne kolekcje danych stąd też wynika
duże znaczenie odpowiednich, wydajnych metod przeprowadzania klasyfikacji tych danych. Prawidłowo przeprowadzona klasyfikacja pomaga np. odkryć charakterystyki danych w sposób zrozumiały dla użytkownika, uogólniać dane lub też organizować dane zgodnie z zakładanymi strukturami zorientowanymi na wiedzę. Problem klasyfikacji można widzieć z perspektywy sposobu jej
przeprowadzania. Według [6] i [7] systematykę klasyfikacji można przedstawić w postaci drzewa
reprezentującego różne typy klasyfikacji (Rys. 2).
W klasycznym ujęciu klasyfikacji (taksonomii klasycznej) następuje podział zbioru Ω, który
zawiera obiekty O1, O2, ...., ON, opisywane przez cechy diagnostyczne X1, X2, ..., XK, na podzbiory
A1, A2, ...., AP, zwane grupami typologicznymi. Podział powinien być dokonany w taki sposób,
aby otrzymane grupy w sumie tworzyły zbiór wyjściowy Ω oraz były parami rozłączne. Natomiast
obiekty, które znajdują się w jednym podzbiorze były do siebie jak najbardziej podobne, a obiekty
znajdujące się w różnych podzbiorach były do siebie jak najmniej podobne. Konsekwencją takiego
działania mają być takie grupy typologiczne, w których odległości każdej pary obiektów, które
należą do jednej grupy, były mniejsze od odległości każdej pary obiektów, należących do różnych
podzbiorów.4 Jednak w praktyce występują trudności związane z przyporządkowaniem obiektów
do określonej grupy (np. ze względu na zbliżone przeciętne różnice między obiektami). W takiej
sytuacji granice między wydzielonymi grupami mogą być „nieostre” – rozmyte”.
3
4
Por. [3] i [4].
Por. [5, s. 70].
15
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
KLASYFIKACJE
Nie wykluczająca się
Wykluczająca się
(exclusive)
(nakładające się)
ROZMYTA
(fuzzy)
(overlapping)
Z NADZOREM
(supervised)
BEZ NADZORU
(unsupervised)
HIERARCHICZNA
(hierarchical)
Z PODZIAŁEM
(partional)
Rysunek 2. Systematyka klasyfikacji
Źródło: opracowano na podstawie [6, s. 355].
Twórcą w latach sześćdziesiątych teorii zbiorów rozmytych oraz logiki rozmytej jest L. A.
Zadech.5 Podstawowym pojęciem tej teorii jest zbiór rozmyty, który można zdefiniować następująco: zbiór rozmyty A na uniwersum Ω jest to zbiór par uporządkowanych ((Oi, fA(Oi)), gdzie Oi∈
Ω. Odwzorowanie fA(Oi): Ω→ <0, 1> nazywa się funkcją przynależności elementu Oi do zbioru
rozmytego A. Zbiór rozmyty można wiec zapisać następująco:
(1)
A = U (O i f A (O i ))
O i ∈Ω
Dla każdego elementu należącego do uniwersum określona jest funkcja, która przyjmuje wartości z przedziału <0, 1>. Funkcja ta określa w jakim stopniu element należy do zbioru rozmytego.
Zbiór rozmyty jest uogólnieniem zbioru w zwykłym sensie.
Zagadnienie klasyfikacji rozmytej można przedstawić następująco: niech zbiór Ω zawiera N
obiektów O1, O2, ...., ON. Każdy z tych obiektów jest opisywany przez wartości cech diagnostycznych X1, X2, ...., XK, tak, że dane są obserwacje xik (i = 1, 2, ..., N, k = 1, 2, ..., K). Należy określić
na elementach zbioru Ω rodziny zbiorów rozmytych (klas, grup) A1, A2, ...., AP – gdzie liczba P
jest dana, 1<P<N – tak, aby były spełnione warunki:
− 0 ≤ fip ≤ 1 (i = 1, 2, ..., N, p = 1, 2, ..., P)
(2)
−
P
∑f
p =1
5
ip
=1
(i = 1, 2, ..., N)
Z polskich prac na ten temat należy wymienić m.in. prace [8] i [9].
(3)
16
Ryszard Budziński, Agata Wawrzyniak
Identyfikacja outsourcingu informatycznego w jednostkach samorządowych
− obiekty o dużych wartościach funkcji przynależności do tego samego zbioru rozmytego są
bardzo podobne do siebie, natomiast obiekty odznaczające się dużymi stopniami przynależności do różnych klas są mało do siebie podobne.
Klasyfikacja rozmyta jest uogólnieniem klasyfikacji zwykłej. Niesie ona ze sobą bogatsze informacje o konfiguracji zbioru obiektów niż klasyfikacja zwykła, dzięki temu należenie do klasy,
jako zmienna zero-jedynkowa (1 - obiekt należy, 0- obiekt nie należy), zostaje zastąpione pojęciem „przynależność do klasy”, które formalnie jest przedstawione za pomocą zmiennej ciągłej
przyjmującej wartości z przedziału <0, 1>. Klasyfikacja rozmyta pozwala na bardziej precyzyjny
opis w przypadkach, gdy trudno jednoznacznie sklasyfikować obiekty. Ma to miejsce, gdy granice
między klasami są „nieostre” lub klasy nie są dobrze separowalne.
W ramach prowadzonych badań zostanie dokonana klasyfikacja rozmyta jednostek samorządowych w województwie zachodniopomorskim ze względu na poziom korzystania z zewnętrznych usług informatycznych. Pozwoli to na określenie kierunków rozwoju tego typu usług w danym regionie oraz będzie stanowić podstawę do wypracowania wzorca obsługi informatycznej dla
tych klas organizacji.
2.3. Wnioskowanie ze zbiorów przybliżonych
Teoria zbiorów przybliżonych eliminuje ograniczenia związane z określeniem zbioru kantorowskiego. Klasyczna, (kantorowska) teoria zbiorów zakłada, że dowolny element należy lub nie
należy do danego zbioru. W teorii zbiorów przybliżonych jest to możliwe poprzez odrzucenie
wymogu istnienia ściśle określonych granic zbioru.
Często celem systemu decyzyjnego opartego na zbiorach przybliżonych jest poszukiwanie
ukrytych, a więc niejawnych reguł, które legły u podstaw wyboru dokonywanego przez eksperta
(lub ekspertów). Takie procesy wydobywania wiedzy ze zbioru danych określane są anglojęzycznymi terminami, które nie mają jeszcze swoich polskich odpowiedników. Są to "knowledge discovery" i "data mining", co można przetłumaczyć jako "odkrywanie wiedzy" i "wydobywanie
reguł".
Autorem koncepcji zbiorów przybliżonych jest polski profesor Zdzisław Pawlak, który ogłosił
podstawy tej teorii na początku lat osiemdziesiątych ubiegłego wieku. Teoria ta szeroko upowszechniła się w świecie naukowym i stanowi obecnie jedną z szybciej rozwijających się metod
sztucznej inteligencji. Teoria zbiorów przybliżonych umożliwia rozwiązywanie rzeczywistych,
trudnych problemów ekonomicznych poprzez znajdowanie powiązań istniejących między atrybutami decyzyjnymi, ułatwiając w ten sposób podjęcie decyzji.
W ramach prowadzonych badań teoria zbiorów przybliżonych zostanie wykorzystana do
stworzenia bazy reguł, która będzie stanowić podstawę do podjęcia decyzji o zastosowaniu określonego typu zewnętrznych usług informatycznych w danej organizacji samorządowej. Dane pozyskane w ramach badania ankietowego zostały w poprzednich etapach badania uporządkowane w
postaci elektronicznej tabeli i stanowią pierwotną tabelę informacyjną, która następnie w wyniku
przeprowadzonej dyskretyzacji zostanie przekształcona we wtórną tabelę informacyjną. To z kolei
pozwoli wyznaczyć elementarne zbiory warunkowe i koncepty decyzyjne. Następnie podjęta zostanie próba redukcji zbędnych atrybutów warunkowych. Kolejnym etapem badania będzie budowa algorytmu decyzyjnego, który prawdopodobnie będzie musiał zostać uproszczony poprzez
wyeliminowanie reguł podobnych. W efekcie zostanie otrzymany zbiór reguł tworzących wzorzec
obsługi informatycznej dla jednostek samorządowych (por. Rys. 3).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
Pierwotna tabela
informacyjna
Wtórna tabela informacyjna
Stworzenie bazy
reguł decyzyjnych
17
Redukcja ilości
atrybutów
Ocena jakości i dokładności reguł decyzyjnych
Wnioski: stworzenie wzorca
obsługi informatycznej dla
jednostek samorządowych
Rysunek 3. Algorytm działań związanych z wnioskowaniem ze zbiorów przybliżonych
Źródło: opracowanie własne.
3. Podsumowanie
Przedstawiona procedura badawcza znalazła swoje zastosowanie w badaniach dotyczących
identyfikacji outsourcingu informatycznego w jednostkach samorządowych województwa zachodniopomorskiego. Dotychczas zrealizowano I etap badań, tzn. dokonano analizy rynku tych usług.
Badaniem objęte były wszystkie urzędy miejskie, miejsko-wiejskie i wiejskie województwa zachodniopomorskiego (n = 113)6. Badanie ankietowe w formie wywiadu bezpośredniego zostało
przeprowadzone w dniach 20.07.2005 – 15.09.2005. Na podstawie uzyskanych danych wykonano
zaplanowane obliczenia statystyczne, które następnie pozwoliły sformułować wnioski o stanie
badanej zbiorowości. Stwierdzono przykładowo, że:
− urzędy gminne w województwie zachodniopomorskim są dobrze wyposażone w komputery,
jeżeli chodzi o stosunek liczby komputerów do liczby pracowników (wskaźnik ten wynosi
0,88);
− ogólnie większość urzędów zatrudnia specjalistów z zakresu informatyki (63,7% wszystkich
gmin), jednak w przypadku urzędów w gminach wiejskich sytuacja jest odwrotna (50,9% gmin
wiejskich);
− w większości urzędów nie ma komórek organizacyjnych odpowiedzialnych za informatyzację
(90,3% urzędów);
− większość badanych urzędów korzysta z różnych form outsourcingu informatycznego (94%
gmin);
6
Z badania wyłączono Urząd Miasta Szczecina ze względu na jego wielkość i przez to trudność w porównywaniu z innymi
gminami w województwie.
Ryszard Budziński, Agata Wawrzyniak
Identyfikacja outsourcingu informatycznego w jednostkach samorządowych
18
− nie można jednoznacznie stwierdzić, że zastosowanie outsourcingu ma wpływ na redukcję
kosztów informatyki w urzędach gminnych (outsourcing nie zawsze jest stosowany w celu obniżenia kosztów);
− najczęstszymi korzyściami ze stosowania outsourcingu stwierdzonymi przez respondentów
była wyższa jakość obsługi informatycznej (68,52% wskazań) oraz szybsze i bardziej elastyczne dostosowywanie się do wymagań użytkowników (66,67% wskazań);
− większość respondentów potwierdziła, że zastosowanie outsourcingu podniosło sprawność
działania urzędów (w 83,3% urzędów to stwierdzono);
− 61,1% urzędów oceniło przebieg współpracy z firmami outsourcingowymi jako dobry.
Zamiarem autorów jest kontynuacja badań związanych z identyfikacją outsourcingu informatycznego w jednostkach samorządowych woj. zachodniopomorskiego w oparciu o zaproponowane
w artykule metody.
3. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
Gay Ch. L., Essinger J., 2002. Outsourcing strategiczny. Oficyna Ekonomiczna Kraków.
Jain A.K., Dubes R.C., 1988. Algotithms for clustering data. Prentice-Hall, Inc., A Division of Simon & Schuster, Englewood Cliffs New Jersey 07632.
Jajuga K., 1984. O sposobach określania liczby klas w zagadnieniach klasyfikacji i klasyfikacji rozmytej. Prace Nauk. AE we Wrocławiu 262.
Nowak E., 1990. Metody taksonomiczne w klasyfikacji obiektów społecznogospodarczych. PWE Warszawa.
Nycz M., 2003. Klasyfikacja danych w procesie inteligentnego pozyskiwania wiedzy
z baz danych, Pozyskiwanie wiedzy i zarządzanie wiedzą. Praca zbiorowa pod red. Nycz
M. i Owoca M., Wyd. AE we Wrocławiu, Wrocław.
Piegat A., 1999. Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wyd. Exit
Warszawa.
Praca zbiorowa pod red. Kędzior Z., 2005. Badania rynku – metody i zastosowania, PWE
Warszawa.
Praca zbiorowa pod red. Mruka. H., 2003. Analiza rynku. PWE Warszawa.
Trocki M., 2001. Outsourcing. PWE Warszawa.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
IDENTIFICATION OF COMPUTING OUTSOURCING
IN SELF-GOVERNMENT UNITS
Summary
The aim of this paper is the presentation of the problem of outsourcing IT in
units of local self-government. The main stress is laid on the selection of methods,
which will be used in the research (for example questionnaire research, fuzzy taxonomy, theory of rough sets). There is made an attempt to trace out a research procedure and its stages are described.
Keywords: outsourcing, fuzzy taxonomy, theory of rough sets
RYSZARD BUDZIŃSKI
e-mail: [email protected]
AGATA WAWRZYNIAK
e-mail: [email protected]
Uniwersytet Szczeciński
Instytut Informatyki w Zarządzaniu
ul. Mickiewicza 64
71-101 Szczecin
19
Liliana Byczkowska, Janusz Lipiński, Piotr Machowski
Systemy zarządzania zasobami teleinformatycznymi
20
LILIANA BYCZKOWSKA
Instytut Informatyki Politechniki Łódzkiej
JANUSZ LIPIŃSKI, PIOTR MACHOWSKI
Wyższa Szkoła Informatyki
SYSTEMY ZARZĄDZANIA ZASOBAMI TELEINFORMATYCZNYMI
Streszczenie
W pracy przedstawiono problemy instalacji i konfigurację systemu zarządzania
pracą sieci telekomunikacyjnej. Omówiono architekturę i problemy współpracy systemu zarządzania TMN z siecią telekomunikacyjną. Podano zasady opracowywania
bezpiecznego systemu zarządzania. Przedstawiono opis usługi zarządzania ruchem w
sieci telekomunikacyjnej i teleinformatycznej
Słowa kluczowe: zarządzanie, telekomunikacja
1. Wstęp
Telekomunikacyjne usługi multimedialne i szerokopasmowe sieci dostępowe stanowią obecnie najbardziej popularne i wzajemnie się przenikające dziedziny współczesnej wymiany wiadomości i danych. W celu ułatwienia wprowadzania nowoczesnych technologii w sieci na szybko
rozwijającym się rynku przesyłania wiadomości konieczne jest stosowanie rozwiązań:
pozwalających na efektywne zarządzanie zasobami telefonicznymi,
zapewniających szybkie i niezawodne usuwanie usterek sieci,
zarządzających ekipami technicznymi w procesach nadzorowania i utrzymania sieci teleinformatycznych. [3]
W pracy omówione zostanie pojęcie zarządzania zasobami sieci teletransmisyjnych oraz zastosowanie nowoczesnych rozwiązań wykorzystywanych w telekomunikacji.
2. Charakterystyka Systemu Zarządzania Siecią Telekomunikacyjną
Podczas projektowania sieci szerokopasmowej bardzo ważnym czynnikiem jest dobór odpowiedniego systemu zarządzania. Dobry system zarządzania zapewnia dodatkowe możliwości i
korzyści, które usprawniają pracę sieci. System zarządzania sieciami można zdefiniować jako
obszar działań obejmujący: administrowanie (wspomaganie świadczenia usług telekomunikacyjnych), sterowanie (działania adaptacyjne w stosunku do zmian zachodzących w otoczeniu telekomunikacji), utrzymanie (technika zapewniająca sprawne funkcjonowanie sieci), zabezpieczanie
(planowanie i przygotowanie do wdrożeń nowych usług w sieci).
Pojęcie zarządzania siecią telekomunikacyjną TMN (ang. Telecommunications Management
Network) wprowadzone zostało przez komitet konsultacyjny ds. międzynarodowej telefonii i telegrafii CCITT (ang. Consultative Commitee for International Telephony and Telegraphy) w dokumencie o numerze M.30 wydanym w 1988 roku. TMN nie jest rozwiązaniem technicznym, jest
normą przeznaczoną dla producentów i operatorów sieci telekomunikacyjnych. Normę tę stworzono w taki sposób, by mogła zostać zastosowana we wszystkich rodzajach sieci.
21
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
Określa ona struktury funkcji protokołów i wiadomości, które mogą zostać zastosowane przez
administratora w konkretnej istniejącej sieci.
Celem wprowadzenia architektury TMN jest ujednolicenie najważniejszych problemów:
sposobu reprezentacji informacji o zarządzanym elemencie w całym systemie,
zbioru wspólnych komend służących do komunikacji pomiędzy elementem zarządzanym a systemem zarządzającym.
Sieć TMN umożliwia zbieranie, przetwarzanie i przesyłanie danych dotyczących nadzoru sieci,
kontroli jej działania i utrzymania. Może ona zarządzać:
urządzeniami teletransmisyjnymi (multipleksery, translatory, łącza kablowe, łącza radiowe, łącza satelitarne, systemy SDH),
centralami, koncentratorami, sieciami WAN, LAN,
urządzeniami pomocniczymi (zasilanie i klimatyzacja, systemy alarmowe, testery).
3. Zasady współpracy sieci telekomunikacyjnej z systemem zarządzania TMN
Podstawowym celem TMN jest stworzenie zorganizowanej struktury, która powinna umożliwić współpracę różnych systemów zarządzania OS (ang. Operating System) i urządzeń telekomunikacyjnych na podstawie standardowych protokołów i interfejsów.
sieć telekomunikacyjna
1 2
4 5
1 2
3
1
6
7 8
9
8
#
*
4
2 3
5 6
7
8 9
*
8 #
3
1
2 3
4 5
6
7 8
9
7
8 9
8
#
*
8 #
*
4
węzły
komutacyjne
5 6
systemy
transmisyjne
stacja
robocza
stacja
robocza
transmisja danych
IBM
IBM
system
zarządzania
system
zarządzania
TMN
Rysunek 1. Połączenie systemu TMN w sieci telekomunikacyjnej
Włączony w strukturę sieci telekomunikacyjnej system zarządzania siecią TMN powinien zapewnić:
wymianę informacji dotyczących zarządzania pomiędzy siecią telekomunikacyjną a systemem TMN,
przesyłanie informacji zarządzania pomiędzy poszczególnymi modułami systemu
TMN,
Liliana Byczkowska, Janusz Lipiński, Piotr Machowski
Systemy zarządzania zasobami teleinformatycznymi
22
transfer formatu ujednoliconej postaci informacji zarządzania przesyłanej wewnątrz systemu TMN,
przetwarzanie informacji dotyczącej zarządzania (np: odpowiednie reakcje na otrzymaną informację, analiza otrzymanych danych),
dostarczenie informacji zarządzania do jej użytkownika,
konwersję informacji zarządzania do postaci użytecznej i zrozumiałej dla użytkownika,
ochronę i bezpieczeństwo dostępu do informacji zarządzania.
Wszystkie metody zabezpieczeń stosowane w sieci zarządzania telekomunikacją są określone
w rekomendacjach i standardach. Zarządzanie zgodne z polityką bezpieczeństwa wykracza poza typowe ramy techniczne i staje się obszarem organizacji przedsiębiorstw. Zarządzania bezpieczeństwem w żaden sposób nie można zautomatyzować, co wynika z charakteru spotykanych w rzeczywistości zagrożeń. [1]
4. Architektura Systemu TMN
Tworzenie bezpiecznego systemu TMN wymaga opracowania następujących etapów obejmujących:
fazę początkową,
fazę projektowania, przeglądu i zatwierdzenia,
fazę operacyjną
W fazie początkowej tworzy się specjalną grupę ekspertów sterujących procesem analizy,
wprowadzenia, realizacji zabezpieczeń. Grupa taka stanowi przekrój stron biorących udział w
zarządzaniu: użytkowników, przedstawicieli poszczególnych działów, ekonomistów, inżynierów
tworzących system.
W fazie projektowania, przeglądu i zatwierdzenia określona zostaje strategia zabezpieczeń,
strategiczne zasoby, dokonuje się analizy ryzyka. Następnie wybiera się rozwiązania dogodne pod
względem efektywnym i ekonomicznym.
Faza operacyjna to szkielet funkcjonowania zabezpieczeń w systemie. W fazie tej są wyróżniane etapy: wykrycia zdarzenia, przetwarzania danych związanych z bezpieczeństwem, oceny
zdarzenia.
Rozwój ataków na sieci, starzenie się algorytmów kryptograficznych, wzrost mocy obliczeniowej maszyn oraz przepustowość sieci prowadzi do konieczności ciągłej kontroli i modyfikacji
zabezpieczeń. Prawdopodobnym czynnikiem, który zdeterminuje wprowadzanie zabezpieczeń dla
systemu TMN będzie dynamiczny rozwój rynku telekomunikacyjnego. W ciągu kilku lat można
spodziewać się pojawienia platform z zaimplementowanymi silnymi mechanizmami kryptograficznymi. [3]
Architektura TMN zawiera trzy grupy, które są rozpatrywane oddzielnie podczas projektowania i planowania. Grupy te obejmują:
architekturę funkcjonalną – opisującą podstawowe funkcje określane jako składniki
funkcjonalne oznaczane symbolem FC (ang. Functional Component). Składniki te łączone są w bloki funkcjonalne oznaczane FB (ang. Function Block). Miejsca symbolizujące połączenie między blokami określane są punktami odniesienia (ang. reference
point). Oznacza to funkcjonalność, która umożliwia objęcie zasięgiem zarządzania całą
sieć i traktowanie jej jako jednego wirtualnego tworu. W większości przypadków takie
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
23
systemy udostępniają graficzną reprezentację sieci z widocznymi statusami urządzeń,
połączeniami, alarmami i innymi funkcjami specyficznymi dla danej sieci.
g
WSF
TMN
f
q
x
OSF
q
NEF
q
TF
m
Rysunek 2. Architektura funkcjonalna TMN
OSF- blok funkcjonalny systemów zarządzania, NEF- blok funkcjonalny pośredniczenia,
WSF- blok funkcjonalny stacji roboczej, TF- blok funkcjonalny transformacji
architekturę fizyczną – opisującą sposób implementacji funkcji TMN w części fizycznej. Poszczególne części dzielone są na bloki fizyczne oznaczane symbolem BB (ang.
Building Block), które w zależności od pełnionych funkcji, zawierają wybrane bloki
funkcjonalne. Bloki fizyczne dokonują wymiany danych pomiędzy sobą za pomocą
standardowych interfejsów. Komunikacja między systemami, a zarządzanymi urządzeniami odbywa się przez porty szeregowe (połączenie lokalne) lub przez protokoły
transmisji danych (połączenie zdalne). Realizują one podstawowe funkcje zarządzania
elementami sieciowymi, takimi jak przełączniki, routery i przeważnie wykorzystują do
tego standardowy protokół SNMP (ang. Simple Network Management Protocol).
24
Liliana Byczkowska, Janusz Lipiński, Piotr Machowski
Systemy zarządzania zasobami teleinformatycznymi
OS
TMN
OS
X
WS
F
DCN
Q
Q
Q
MD
Q
AD
Q
NE
NE
NE
Rysunek 3. Architektura fizyczna
OS- system zarządzania, AD- urządzenie adaptacyjne, MD- urządzenie pośredniczące,
NE- element sieci, WS- stacja robocza, DCN- sieć transmisji danych
architekturę informacyjną – opisującą sposób modelowania wymiany informacji zarządzania, który jest realizowany jako zarządca–agent. Wymiana informacji odbywa się
przy pomocy protokołu CMIP (ang. Common Management Information Protocol). Jest
to protokół zarządzania siecią oparty na modelu OSI, szczególnie przydatny do współpracy z publiczną, komutowaną siecią telefoniczną. Służy do formatowania wiadomości
i transmitowania informacji między programami zbierającymi dane. Przez usługę należy rozumieć przykładowo wirtualną linie dzierżawioną o określonej relacji oraz parametrach transmisyjnych, takich jak przepływność, opóźnienie. System zarządzania usługami monitoruje na bieżąco zakontraktowane przez użytkowników usług parametry i
tworzy raporty. Dla uproszczenia, systemy zarządzania elementami sieciowymi udostępniają graficzny interfejs z symulowanym obrazem urządzenia. Bardzo powszechne
staje się zarządzanie przez interfejs WWW (ang. World Wide Web). W tym przypadku
do zarządzania elementami sieciowymi może zostać użyta dowolna przeglądarka internetowa. [5]
Zarządzanie siecią polega na administrowaniu wszystkimi zasobami komunikacyjnymi danego
systemu. Jest ono realizowane przez aplikacyjne procesy zarządzania SMAP (ang. System Management Application Process), które przetwarzają i wymieniają między sobą informacje zarządzania.
Informacje te są przechowywane w specjalnej bazie określanej symbolem MIB (ang. Management Information Base). Baza taka zawiera w sobie obiekty zarządzane MO (ang. Managed
Objects), które odzwierciedlają fizyczne zasoby, którymi zarządza. Modelem zarządca-agent,
którego sposób zarządzania zawiera dwa typowe procesy. Są to:
proces zarządzania MP (ang. Managing Process) – zarządca wydający procesowi agenta polecenia wykonania operacji na obiekcie zarządzanym,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
25
proces agenta AP (ang. Agent Process) – przekazuje procesowi zarządcy informacje
o zmianach stanu zarządzanych obiektów.
5. Zastosowanie TMN do zarządzania systemami telekomunikacyjnymi
Od lat 70ych XX wieku dzięki rozwojowi technologii komputerowych transmisja analogowa
zaczęła być wypierana przez transmisje cyfrową. Przełączniki elektromagnetyczne zastępowane
były elektronicznymi układami przełączającymi sterowanymi komputerowo z użyciem sygnalizacji we wspólnym kanale. W rezultacie otrzymano sieć składającą się z dwóch logicznie różnych
podsieci, komutowana podsieć głosowa i podsieć sygnalizacyjna. Takie rozwiązanie daje dużą
elastyczność zarządzania siecią i kreowania nowych usług.
Wprowadzenie nowych możliwości objętych normami architektury sieci inteligentnej zdefiniowanej przez CCITT dotyczących definicji standardowych usług, interfejsów pomiędzy centralami w systemie, urządzeniami przetwarzającymi oraz platform do obliczeń komputerowych,
umożliwia tworzenie rozbudowanych sieci z użyciem sprzętu i oprogramowania różnych firm. [4]
W systemie TMN można wyróżnić pewnego rodzaju segmenty, które odpowiadają za realizację usług komunikacyjnych. Każdy z segmentów stanowi zbiór aplikacyjnych elementów usługowych ASE (ang. Application Service Elements) współpracujących ze sobą. Element usługowy
zawiera:
definicje realizowanych usług, zapisane w postaci zestawu operacji elementarnych,
protokół, który pozwala na wymianę elementarnych operacji.
Model warstwy aplikacji dla celów zarządzania siecią przedstawia rys.4.
SMASE
ACSE
CMISE
Inne ASE
ROSE
WARSTWA PREZENTACJI
Rysunek 4. Model warstwy aplikacji
W modelu warstwowym aplikacji wyróżniono następujące elementy:
SMAE (ang. Systems Management Application Entity) – jest to segment aplikacyjny zarządzania systemami,
SMASE (ang. Systems Management Application Sernice Element) – aplikacyjny element
usługowy zarządzania systemami,
ASE (ang. Application Service Element) – usługowy element aplikacyjny,
ACSE (ang. AssociationControl Service Element) – element usługowy sterowania skojarzeniami,
Liliana Byczkowska, Janusz Lipiński, Piotr Machowski
Systemy zarządzania zasobami teleinformatycznymi
26
CMISE (ang. Common Management Information Sernice Element) – element usługowy
wspólnej informacji zarządzania,
ROSE (ang. Remote Operations Service Element) – element usługowy zdalnych operacji.
Na rys.5. przedstawiony jest opis usługi zarządzania ruchem w sieci telekomunikacyjnej.
OS
NE
POMIARY
żadanie wykonania
pomiarów
WS
Inicjacja
monitorowania
sieci
dane z pomiarów
WSTĘPNE
PRZETWARZANIE
wskaźniki ruchu
dane o konfiguracji sieci
Gromadzenie
danych
Analiza
danych
Prezentacja
stanu ruchu
Wykrywanie
problemów
Realizacja działań
Korekcyjnych
działania korekcyjne
Podejmowaniei
zaniechanie działań
korekcyjnych
Rysunek 5. Zarządzanie ruchem w sieci telekomunikacyjnej
W zakresie zilustrowanej usługi można wyróżnić kilka znaczących funkcji:
Inicjacja monitorowania sieci – funkcja inicjacji polega na przekazywaniu do elementów
sieci żądań wykonania pomiarów przesyłanych przez użytkownika systemu za pośrednictwem stacji roboczej.
Pomiar – funkcja udostępniania danych z pomiarów jest realizowana przez elementy sieci. Dane z procesu pomiaru są przekazywane do systemu zarządzania bezpośrednio lub po
wstępnym przetworzeniu informacji pierwotnej (np: zdarzenia) w elementach sieci.
Zbieranie danych – funkcja gromadzenia danych w systemie zarządzania dotyczy zbierania danych z pomiarów odebranych od elementów sieciowych.
Analiza danych – funkcja analizy danych jest związana z obliczaniem wskaźników wydajnościowych na podstawie uzyskanych z pomiarów. Analiza danych bazuje na określonych algorytmach, które są opracowane lub modyfikowane w procesie eksploatacji systemu zarządzania.
Prezentacja stanu ruchu – funkcja stanu ruchu oferuje użytkownikowi możliwość obrazowania aktualnego poziomu wydajności lub obciążenia elementów sieci.
Wykrywanie problemów – funkcja wykrywania problemów w sieci dotyczy rozpoznawania sytuacji krytycznych z punktu widzenia kierowania ruchem. Otrzymane wyniki umożliwiają podjęcie decyzji o zastosowaniu działań korekcyjnych.
Podejmowanie i zaniechanie działań korekcyjnych – Funkcja ta umożliwia realizację decyzji podjętej np. przez zarządzającego ruchem za pośrednictwem stacji roboczej.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
27
6. Zarządzanie sieciami teleinformatycznymi
W miarę rozwoju przedsiębiorstw rosną ich zasoby informatyczne, a utrzymanie infrastruktury pociąga za sobą coraz to większe koszty. Taka sytuacja wymaga bardzo sprawnego mechanizmu kontroli efektywności wykorzystywania tych zasobów, dostosowania ich do potrzeb i wymagań przedsiębiorstwa.
W ramach zarządzania sieciami teleinformatycznymi stosuje się rozwiązania odpowiedzialne
zarówno za zarządzanie zasobami i infrastrukturą (zarządzanie sieciami, serwerami, centralami
czy bazami danych), jak i zarządzanie istotnymi aplikacjami w procesie podejmowania decyzji.
Firmy starają się wdrażać właściwe rozwiązania do zarządzania infrastrukturą zyskując wymierne
korzyści. Zastosowanie infrastruktury informatycznej dostosowanej do procesów kierujących
działaniem centrum zarządzania pozwala na podniesienie niezawodności, wzrostu efektywności
pracy i komfortu pracy branży IT (ang. Information Technology), udostępnienie narzędzi do planowania i kierowania rozwojem IT oraz kontrolę kosztów [1].
7. Podsumowanie
W dzisiejszych czasach coraz trudniej jest odróżnić telekomunikację od techniki komputerowej. Wzrost użycia komputerów, zarówno w centralach telekomunikacyjnych jak i zarządzania
siecią oznacza, iż podstawowym wyzwaniem przed jakim stoi większość kampanii telekomunikacyjnych jest optymalne rozwiązanie architektury sieci komunikujących się ze sobą komputerów.
Instalacja i właściwa konfiguracja systemu zarządzania siecią telekomunikacyjną otwiera
przed operatorem telekomunikacyjnym możliwości wprowadzenia szerokiej gamy nowych, atrakcyjnych ofert i usług telekomunikacyjnych.
Sieci telekomunikacyjne, dające ogromny wachlarz usług (telefonia, multimedia, Internet) stały się obecnie ważną częścią światowej oferty telekomunikacyjnej. Trudno dziś jest sobie wyobrazić funkcjonowanie nowoczesnej firmy bez dostępu do Internetu, czy automatycznego systemu
zapowiedzi głosowych podczas nawiązywania połączenia z klientami. Przykładów takich można
podawać bardzo dużo. Takie są realia dzisiejszego świata, takie są wymagania dzisiejszego rynku.
Rozwój nowych technologii, globalizacja rynku, konieczność współpracy międzyoperatorskiej i standaryzacja sieci zmusza producentów do stosowania takich rozwiązań technicznych,
które pozwolą połączyć lokalne, krajowe i międzynarodowe sieci telekomunikacyjne w jeden
system. To, jakie rozwiązanie z opisanych powyżej jest najlepsze i które należy wybierać, zależy
wyłącznie od możliwości finansowych i potrzeb operatora, który pragnie w swojej sieci zaimplementować system TMN.
Liliana Byczkowska, Janusz Lipiński, Piotr Machowski
Systemy zarządzania zasobami teleinformatycznymi
28
8. Literatura
1.
2.
3.
4.
5.
Barszewski M, 2003. Zarządzanie sieciami telekomunikacyjnymi. wydanie III poprawione Warszawa.
Brożyna J., 2005. Zarządzanie systemami i sieciami transportowymi w telekomunikacji.
BEL Studio Warszawa.
Łazarski J., 2005. Leksykon skrótów Telekomunikacja. Wydawnictwo Komunikacji
i Łączności Sp. z o. o. Wydanie I Warszawa.
Norris M., 2002. Communications Technology Explained - tłumaczenie z języka angielskiego na podstawie Galińskiego B. Teleinformatyka, Wydawnictwo Komunikacji
i Łączności Sp. z o. o. Wydanie I Warszawa.
Praca zbiorowa, opracowanie redakcyjne NetWorld, 1999. Vademecum teleinformatyka.
IDG Poland S.A. Wydanie I książkowe Warszawa.
MANAGEMENT SYSTEMS FOR DISTRIBIUTED NETWORKS
Summary
In the paper we discuss a number of issues related to performance of a telecommunication network. The architecture of a telecommunication management network (TMN )as well as interaction between TMN and a telecomm nation network
are presented. The rules for development of a secure management system are given.
Finally, we describe a management system to Control network flow for telecommunication & distributed networks
Keywords: Management, Telecommunications
L.BYCZKOWSKA
e-mail:[email protected]
93-005 Łódź, ul. Wólczańska 215
J.LIPIŃSKI
e-mail: [email protected]
93-008 Łódź, ul. Rzgowska 17A
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
29
WITOLD CHMIELARZ
Wydział Zarządzania Uniwersytetu Warszawskiego
TECHNIKI ZARZĄDZANIA WIEDZĄ W KONCEPCJI EKSPERCKIEGO SYSTEMU
INFORMATYCZNEGO
Streszczenie
Zasadniczym celem niniejszego artykułu jest sformułowanie zasad budowy modelu architektury systemu informatycznego wykorzystującego mechanizmy zarządzania wiedzą. Punktem wyjścia staje się przedstawienie założeń budowy systemu bazodanowego wraz ze współpracującym z nim systemem wspomagającym podejmowanie
decyzji. Następnie przedstawiono typowy system ekspercki z elementami zarządzania
wiedzą i koncepcję rozwinięcia tego modelu przez dodanie mechanizmu transformacji wewnętrznych informacji w modelu na wiedzę przechowywaną w systemie oraz
mechanizm porównań rzeczywistych wariantów rozwoju z przechowywanymi wzorcami. W ostatniej części artykułu przedstawiono techniki zarządzania wiedzą, postulowane do użycia w prezentowanej architekturze systemu.
Słowa kluczowe: system ekspercki, zarządzanie wiedzą, techniki zarządzania wiedzą.
1. Wstęp
Podstawowym celem niniejszego referatu jest analiza możliwości stopniowej wykorzystania
mechanizmów zarządzania wiedzą w systemie sterowania produkcją. Rozważania na ten temat
zostały oparte na doświadczeniach w pracach nad integracją systemów wspomagających sterowanie produkcją oraz wspomagających podejmowanie decyzji w zakładach przemysłowych. W wyniku stopniowych przekształceń integracyjnych ten tradycyjny system wspomagający zarządzanie
miał się przerodzić w nowoczesny system ekspercki wykorzystujący bazę wiedzy konstruowaną
na podstawie doświadczeń menedżerów zakładów. Ideą wiodącą jest tu stworzenie systemu
wspomagającego zarządzanie pozwalającego jednocześnie na automatyczne wybieranie optymalnych – wg zadanych kryteriów - wariantów rozwoju produkcji. W zamierzeniach system ma objąć
wszystkie sfery zarządzania przedsiębiorstwem: zaopatrzenie, produkcję, zbyt i księgowość. W
pracy skoncentrowano się na sferze produkcyjnej, najdokładniej rozpoznanej i przeanalizowanej i
odwzorowanej w postaci trzech, komplementarnych wobec siebie systemów. Ogólnie rzecz biorąc
można je określić jako system bieżącego zarządzania produkcją, system analiz i prognozowania
optymalnej struktury zaopatrzenia, produkcji i zbytu oraz system wyboru optymalnego wariantu
rozwojowego w określonej rzeczywistością sytuacji decyzyjnej. Pierwszy z tych systemów jest tak
skonstruowany, że posiada udokumentowane późniejszymi zastosowaniami walory uniwersalne,
pozwalające na zastosowanie go w wielu sferach gospodarki. W drugim – zostaje niejako odzwierciedlona – wiedza ekspertów na temat określonej, wąskiej, specyficznej branży gospodarowania. Trzecia funkcjonuje w chwili obecnej jedynie jako koncepcja badawcza. Kolejne kroki
konstruowania systemu polegają więc na:
1. Skonstruowaniu - opartego na bazie danych - systemu wspomagającego zarządzanie procesami produkcyjnymi (klasy systemów informacyjnych zarządzania),
Witold Chmielarz
Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego
30
2.
3.
4.
5.
6.
7.
8.
Dostosowaniu go w warstwie aplikacji do branżowego modelu informacyjnego,
Zbudowaniu ogólnego modelu matematycznego (zasilanego z bazy danych, z zewnątrz
oraz przez świadomego użytkownika) odzwierciedlającego procesy sterowania produkcją
dla danej branży, a także „wymiennych” elementów tego modelu, umożliwiających złożenie wariantowych submodeli wspomagających procesy decyzji cząstkowych,
Budowie systemu zarządzania bazą modeli – manipulowanie elementami (równaniami
matematycznymi), ograniczeniami, parametrami i wariantowymi składowymi funkcji celu (system wspomagający zarządzanie w sferze sterowania produkcją),
Budowie – na tej bazie – systemu eksperckiego zawierającego mechanizm transformacji
informacji zawartych w modelu na wiedzę przechowywaną w systemie,
Konstrukcji - w nim zawartego - mechanizmu porównań rzeczywistych wariantów rozwoju z przechowywanymi wzorcami,
Budowie procedur przetwarzania wiedzy zawartej w systemie,
Wdrożeniu zintegrowanego systemu eksperckiego opartego na zarządzaniu wiedzą.
Najważniejsze etapy budowy modelu systemu opisano poniżej.
System wspomagający zarządzanie procesami produkcyjnymi jest oparty na bazie danych.
Wokół bazy danych zbudowano system aplikacji branżowych dzięki specyficznemu użyciu generacyjnej struktury programowania. Użytkowa praca z systemem polega na aktywizacji kolejnych
funkcji przetwarzania. W warstwie aplikacji następuje dostosowanie systemu do branżowego
modelu informacyjnego. System wspomagający zarządzanie, po oprogramowaniu może zostać
wdrożony w organizacji branżowej [1]. Wdrożenie to powinno być poprzedzone pełną analizą
organizacyjno-informacyjną organizacji przeprowadzoną pod kątem wdrożenia systemu generacyjnego, założeniami wdrożenia systemu i zebraniem danych niezbędnych dla realizacji kolejnych
aplikacji. Na tej podstawie można dopiero skonstruować i rozwijać na tej bazie system optymalizacyjny wspomagania decyzji. Podstawowa struktura informacyjna, uzyskana dzięki początkowym analizom staje się podstawą zarówno do stworzenia systemu bieżącego sterowania produkcją, jak też systemu podejmowania decyzji. Stworzony dzięki rozpoznaniu system programów
aplikacyjnych obejmuje trzy zasadnicze sfery zarządzania organizacją branżową: zaopatrzenie,
produkcję oraz zbyt, wspomagane przez wspólną bazę danych.
Nad tą strukturą zbudowano system optymalizacji oparty o bazę modeli i system manipulowania modelami. Wsparty jest oprogramowaniem modułu obliczeniowego (solvera). Wykorzystanie podsystemu w sposób użytkowy polega na interakcyjnej generacji kolejnych modeli i ich przetworzeniu. Proces ten jest kierowany przez moduł menu systemu, wspólny dla modułu obliczeniowego (solvera) i modułu generacji i modyfikacji modeli. Po zakończeniu kreacji postaci obliczeniowej modelu następuje powrót do modułu menu i wykonanie dalszych czynności. Postać
obliczeniowa modelu powstaje poprzez operowanie systemem menu na: względnie stałej strukturze ogólnej modelu (wnętrze tablicy simpleksowej), przez określanie wierszy/kolumn aktywnych w danym przetworzeniu w sesji obliczeniowej, wariantowych lub zmiennych ograniczeniach
(ograniczenia górne/dolne, stany normatywne itp.), postaci funkcji celu, z określonego repertuaru
funkcji celu i/lub ich bieżącej kombinacji.
Przetworzenie może być dokonywane wielokrotnie dla tej samej postaci wnętrza tablicy simpleksowej z różnymi wartościami ograniczeń bądź funkcji celu lub też jednokrotnie dla zafiksowanej lub zmienionej postaci obliczeniowej modelu. Kolejne formy postaci modelu są zapamiętywane, tak, aby nie następowało w jednej sesji powtórne obliczanie tej samej postaci modelu.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
31
Wszelkie operacje dokonywane są na bieżącej postaci modelu. Dokonanie jednego przetworzenia
w jednej sesji obliczeniowej jest procesem zamkniętym i do momentu jej zakończenia użytkownik
nie ma możliwości ingerencji w proces obliczeniowy, za wyjątkiem funkcji przerwania i powrotu
do głównego menu.
Różnice technologiczne i proceduralne sprawiają, że oprogramowanie powodujące przetworzenie w systemie optymalizacji dzieli się na następujące podsystemy:
- podsystem menu (katalogów opcji),
- podsystem kreacji i modyfikacji modeli,
- podsystem obliczeniowy (solver),
- podsystem transmisji z/do podsystemu.
2. Koncepcja wykorzystania systemu eksperckiego przez mechanizmy zarządzania wiedzą
W skład modelowej struktury systemu eksperckiego opartego o bazę wiedzy oprócz wymienionych uprzednio elementów dochodzą mechanizmy następujące [5]:
- podsystem dostarczania wiedzy,
- baza wiedzy,
- specjalny interfejs - edytor użytkownika,
- podsystem objaśniający (justyfikator),
- system udoskonalania wiedzy.
Podsystem dostarczania wiedzy określa sposób gromadzenia, transferu oraz transformacji ze
źródeł eksperckich lub dokumentów wiedzy do postaci dającej się skategoryzować i przechowywać w bazie wiedzy. Potencjalne źródła takiego systemu zawierają zarówno możliwości skatalogowania wiedzy ludzkich ekspertów, jak i tradycyjną, „papierową” wiedzę książkową, wiadomości multimedialne, bazy danych publiczne i prywatne, wewnętrzne i zewnętrzne, raporty badawcze
oraz informacje z sieci Internetu. W bardziej skomplikowanych przypadkach zakłada się współdziałanie w procesie transformacji „żywego” eksperta lub specjalnego programu interpretującego i
integrującego wiedzę ludzką na analogie, przykłady i wzorce.
Baza wiedzy zawiera kwantum zrelatywizowanej informacji niezbędnej dla zrozumienia,
sformułowania i rozwiązania problemu. Dzieli się ona na dwa podstawowe elementy: fakty oraz
zasady przypisania faktów do metod rozwiązywania zdefiniowanych problemów (wzorce) przez
mechanizm wnioskowania opartego na zasadach podejmowania decyzji wyspecyfikowanych dla
danej organizacji.
W rozwiniętej postaci mechanizm wnioskowania przyjmuje postać „maszyny” wnioskującej
(inference engine), która udziela użytkownikowi wskazówek o sposobie używania systemu wiedzy
(kontroluje procedurę połączeń pomiędzy interfejsem, bazą wiedzy a pozostałymi elementami
systemu).
Interfejs użytkownika, służący komunikacji pomiędzy użytkownikiem a systemem zawiera na
ogół różne formy menu, ikon, grafiki lub interakcyjnego języka opartego na podejściu pytanieodpowiedź. W systemie eksperckim rozbudowywany jest o różnego typu edytory (blackboard),
służące uzupełnianiu podręcznej bazy danych o charakterystyki bieżącego problemu w postaci
danych wejściowych oraz zapamiętywania pośrednich decyzji i hipotez (wariantów wyboru). Proces decyzyjny może być na przykład zapamiętywany jako: plan działania, warianty potencjalnych
akcji do podjęcia oraz ścieżki rozwiązania problemów.
32
Witold Chmielarz
Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego
Podsystem objaśniający (justifikator) tłumaczy skutki podejmowania określonych decyzji,
wyjaśniając związki przyczynowo-skutkowe pomiędzy wprowadzonymi informacjami (faktami) a
wyborem wzorca postępowania (decyzji) z bazy wiedzy (tzn. np. dlaczego zwrócono się z takim
problemem do systemu eksperckiego, w jaki sposób wyciągnięto powyższy wniosek, dlaczego
odrzucono określone alternatywy działania, jaki jest plan działania w celu rozwiązania zdefiniowanego problemu itd.).
System udoskonalania wiedzy analizuje zasoby wiedzy „ludzkiego” eksperta i uczy się od
niego oraz rozwija w trakcie przyszłych konsultacji. Z drugiej strony może to prowadzić również
do usprawnienia możliwości korzystania z bazy wiedzy i bardziej efektywnego procesu wnioskowania.
Strukturę systemu wspomagającego podejmowanie decyzji uzupełnionego o mechanizmy zarządzania wiedzą prezentuje Rys.1.
Zarządzanie wiedzą to efektywne wykorzystanie przez użytkownika mechanizmów manipulacji informacją w celu usprawnienia procesów kierowania organizacją [2]. Z drugiej strony zarządzanie wiedzą - to efektywność zastosowania systemów informacji gospodarczej w celu zaspokajania potrzeb użytkownika. Można je przeprowadzać na wiele sposobów i w oparciu o różne narzędzia, których dostarcza architektura systemu informatycznego. W systemach opartych jedynie o
bazę danych najbardziej efektywnym narzędziem zarządzania wiedzą jest automatyczne wyszukiwanie informacji (data-mining).Data-Mining jest to proces automatycznej ekstrakcji użytecznej i
wartościowej informacji z dużych baz danych. W systemach opartych również o bazę modeli informacje te mogą być dodatkowo przetworzone przy pomocy modeli matematycznych, a ujawnione w ten sposób ukryte trendy, korelacje i wzorce w danych wspomagać mogą procesy decyzyjne
w przedsiębiorstwie. Podstawa zarządzania wiedzą w takich systemach wymaga gromadzenia
masowych danych, potężnych mocy przetworzeniowych i skutecznych algorytmów wyszukiwawczych. Ale postępowanie wspomagające podejmowanie decyzji polega tu głównie na automatycznym przewidywaniu trendów na podstawie danych uzyskanych z bazy danych i co najwyżej z
niektórych źródeł zewnętrznych. Brakuje mechanizmów dalszej selekcji oraz gromadzenia wyników działania modeli decyzyjnych przy przyjętych założeniach. Czegoś co moglibyśmy nazwać
wzorcem postępowania w określonych warunkach. Procedury zapamiętywania takich sytuacji
(wzorców) decyzyjnych oraz automatyczne odkrywanie nieznanych uprzednio wzorców zależności i zachowań na podstawie już zgromadzonych dostarczają dopiero systemy wyposażone w bazę
wiedzy. Spowodowane jest to faktem, że w wielkich bazach danych niezbędne dla zarządzania
dane są często głęboko ukryte, modele bywają zbyt ogólne lub wyabstrahowane z rzeczywistości,
a przechowywać można jedynie rezultaty przeszukiwań i obliczeń a nie drogi dojścia do nich w
ciągłym procesie decyzyjnym (związki przyczynowo skutkowe i inne relacje).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
33
Użytkownik
System bieżącego sterowania produkcją – aplikacje z
programu generacyjnego
System interakcji z użytkownikiem menu
Generacja raportów
Edytor użytkownika blackboard
System zarządzania bazą
danych
Transformacje i
konwersje międzymodułowe
Baza
danych
System kreacji i
modyfikacji
modeli
Baza modeli
Moduł obliczeniowy (solver)
Podsystem
objaśniający
Mechanizm
wnioskowania
Baza wiedzy
System udoskonalania wiedzy
Rysunek 1. Struktura modelowego systemu eksperckiego opartego o bazę wiedzy
Ten – w gruncie rzeczy - proces transformacji informacji w wiedzę przebiega w sposób następujący:
- zebranie danych w bazie danych systemu,
- wstępne przetworzenie danych i gromadzenie ich w hurtowniach danych,
- transformacja danych w elementy modelu w celu przygotowania ich do tworzenia wariantów rozwoju organizacji,
- dalsza analiza przygotowana z użyciem narzędzi automatycznych,
- porównania stworzonego modelu z modelami zgromadzonymi w bazie modeli,
Witold Chmielarz
Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego
34
-
w przypadku powstania nowego wariantu rozwoju, określenie jego efektywności (analiza ryzyka, warunków sukcesu itp.) i zapamiętanie w bazie wiedzy, w postaci służącej
ostatecznemu podjęciu decyzji.
W powyższym ujęciu koncepcja architektury systemu zarządzania wiedzą, przedstawiona w
sposób modelowy uprzednio, musiałaby zostać uzupełniona i wyposażona w następujące atrybuty
[3]:
- Moduł pytający - interakcyjny mechanizm zapytań (język użytkownika),
- Identyfikator - zebranie danych. Opis problemu za pomocą atrybutów, funkcji i procesów,
- Selektor - kategoryzacja danych i elementów modeli (wyszczególnienie nowych),
- Ewaluator - mechanizm porównania z bazą modeli (dodanie nowych),
- Asocjator - powiązanie problemu z właściwą metodą jego rozwiązania,
- Baza rozwiązań – zbiór metod rozwiązywania problemów,
- Solver - automatyczne rozwiązanie problemu lub przełączenia na właściwe narzędzie
wspomagające typu I-CASE tool (gdy brak jest gotowego rozwiązania),
- Translator – podsystem objaśniający klasę zagadnienia i sposób przekierowania go do
odpowiedniego modułu systemu,
- Modyfikator - zmiana modelu lub stworzenie nowego, na podstawie wzorców przechowywanych w bazie wiedzy,
- Adapter – system udoskonalania wiedzy, tworzenia nowych wzorców lub korzystania z
wbudowanego narzędzia klasy I-Case.
Dodatkowe elementy architektoniczne – w stosunku do konstrukcji modelowej – przedstawiono na rysunku 2.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
Użytkownik
System bieżącego sterowania produkcją –
aplikacje z programu
generacyjnego
System interakcji z użytkownikiem – system zapytań i
podpowiedzi
Generacja raportów, w tym
raportów decyzyjnych
Edytor użytkownika – język
zapytań, język formułowania
koncepcji
System zarządzania hurtownią danych,
mechanizmy
data-mining
Identyfikator – opis problemu
funkcjonalny, procesowy,
atrybutowy
Selektor– kategoryzacja
danych i elementów
modeli, wybór nowych
Modyfikator
kreacji
i
modeli
Transformacje i
konwersje międzymodułowe
Hurtownia
danych
Hurtownie branżowe
Ewaluator – ocena i
dodanie nowych
modeli do BM
Moduł obliczeniowy (solver)
Baza
rozwiązań
Translator podsystem
objaśniający
system
modyfikacji
Asocjator–
kojarzenie z
metodą
rozwiązania
Konkludor mechanizm
wnioskowania
Baza
modeli
Baza wiedzy
(wzorce)
Adapter - system udoskonalania
wiedzy, tworzenie wzorców lub ICASE
Rysunek 2. Struktura rozwiniętego systemu eksperckiego opartego o bazę wiedzy
35
36
Witold Chmielarz
Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego
3. Techniki zarządzania wiedzą w koncepcji systemu eksperckiego informatycznego
Najbardziej krytycznymi obszarami w realizacji właściwego funkcjonowania zaprezentowanego modelu są elementy i procedury sprzężenia zwrotnego obsługujące bazę wiedzy i bazę modeli. W sferze bazy wiedzy mają one za zadanie przekształcenie wiedzy na postać akceptowalną do
przechowywania na komputerze i jednocześnie właściwie zorganizowaną dla wykorzystania przez
użytkownika końcowego systemu. Pierwszy może w tym przypadku być np. oparty bazę reguł
(rules base), gdzie baza wiedzy jest reprezentowana w postaci grupowanych dla danej sytuacji
zbiorów związków przyczynowo-skutkowych, łączących warunki i wynikające z nich konkluzje
dla specyficznych sytuacji modelowych rozwiązywanych w analizowanym systemie. Reguły mogą
występować w dwóch postaciach: deklaratywnej (stan faktów oraz relacji pomiędzy nimi dotyczących danego problemu) oraz wniosków (procedur – objaśniających jak postępować by rozwiązać
zadany problem). Reguły są łatwe do zrozumienia i komunikatywne, ponieważ odzwierciedlają
naturalne zasady reprezentacji wiedzy w zarządzaniu. Łatwo też konstruować na podstawie reguł
wnioski i wyjaśnienia oraz modyfikacje, a reguły da się łatwo wyodrębnić od innych. Może tez
być rozwiązana na podstawie par relacji warunku-akcji (jeżeli-to). Jeżeli warunek jest spełniony
wtedy określona akcja (czy rezultat, czy wniosek, czy konsekwencja działania) zostaje podjęta. Na
tej podstawie można konstruować drzewa decyzyjne, albo wzorce obiektów.
Głównym zadaniem stojącym tu przed systemem jest przekształcenie wiedzy eksperta na
zbiór reguł wykorzystywanych następnie przez mechanizm wnioskowania. Mechanizm wnioskowania w trakcie procesu rozwiązywania decyzji złożonych łączy ze sobą szereg pojedynczych
zasad, zgodnie z narzuconymi z góry warunkami ograniczającymi jego działanie w obszarze decyzji dopuszczalnych. Mechanizm wnioskowania posługuje się dwoma możliwymi technologiami:
wnioskowania wstępującego i postępowania zstępującego. W pierwszy przypadku przyjęta na
początku startowa reguła daje asumpt do wyciągnięcia różnych wniosków, które są z kolei podstawą do wyboru kolejnych reguł a te z kolei prowadzą do następnego spektrum wniosków. Warunki ograniczające (ewentualnie dodatkowa funkcja celu – minimalizacja odległości od wzorca)
pozwalają na wybranie optymalnej ścieżki wnioskowania w tym przypadku. Drugi przypadek jest
odwrotnością pierwszego. Startuje się z wniosku docelowego, zakładając że jest prawdziwy. Następnie bada się łańcuch możliwych ścieżek dojść do tego wniosku, badając wszystkie możliwe
sytuacje oraz wybierając najlepsze ze względu na przyjęte kryteria rozwiązania. Stosuje się tu
wiele metod wnioskowania: indukcyjne (od faktów do uogólnienia), dedukcyjne (od ogółu do
szczegółu) , analogowe (porównanie z analogiczną sytuacją), formalne (syntaktyczna manipulacja
struktura danych w celu osiągnięcia nowych faktów), proceduralne (użycie modeli matematycznych), adaptacyjne (wyjaśniające - wynikające z zarejestrowanej wiedzy o faktach i zasadach ich
powstawania) [4].
Przedstawiona koncepcja jest zgodna w swojej warstwie opisowej z metodyką procesu inżynierii-wiedzy, składającej się z pięciu kroków: dostarczania wiedzy (acquisition), reprezentacji
(representation) wiedzy, oceny (validation) wiedzy, wnioskowaniem (inferencing) oraz wyjaśnieniem (explanation) i uzasadnieniem (justification).Wiedza dostarczana jest do systemu przez ludzkich ekspertów, książki, dokumenty, sensory lub w postaci zbiorów elektronicznych. Następnie
jest przekształcana w postać czytelną dla komputera, czyli bazę wiedzy droga transformacji i mapowania. Tak zdobyta i zarejestrowana wiedza jest oceniana i weryfikowana (np. metoda testów)
dopóki nie stanie się użyteczna. Na jej podstawie budowany jest mechanizm wnioskowania po-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
37
zwalający na użycie bazy wiedzy przez nieprofesjonalistów. Ostatnim z mechanizmów jest objaśnienie racjonalności podejmowanych decyzji (wysnutych wniosków). Elementy te zostały ujęte
w przedstawionej koncepcji.
Dotychczas jest to niestety jedynie koncepcja, będąca w stanie konstrukcji. Jak dotąd zrealizowano dokładne rozpracowanie systemu aplikacji opartego na bazie danych oraz połączonego z
nim systemu podejmowania decyzji wspomaganego przez bazę modeli. Dalszy rozwój tego modelu powinien iść w kierunku stworzenia narzędzi zarządzania wiedzą i włączenia ich w architekturę
systemu. Polegać on powinien na skonstruowaniu automatycznego narzędzia wybierającego najlepsze rozwiązanie spośród dostępnych lub – w przypadku braku takiego – współpracujące z użytkownikiem w stworzeniu takiego, które będzie akceptowalne dla użytkownika końcowego.
4. Literatura
1.
2.
3.
4.
Chmielarz W. 2001. Informacyjne aspekty integracji systemów wspomagających zarządzanie produkcją cz. I. [W:] Zarządzanie Przedsiębiorstwem nr 1-2, Kwartalnik Naukowo-Techniczny pod red. R. Knosali Opole. 16-23.
Chmielarz W. 2001. Tendencje rozwoju narzędzi automatycznego wyszukiwania danych
(data-mining). [W:] Mat. Konf. Systemy Wspomagania Organizacji. Praca naukowa pod
red. Gołuchowskiego J. i Sroki H., Wydawnictwa Akademii Ekonomicznej w Katowicach, 182-190.
Chmielarz W. 2005. System zarządzania wiedzą jako element systemu wspomagania organizacji. Podrozdział rozdziału III pt. Zarządzanie wiedzą i rozwiązania Business Intelligence, [W:] Praca zbiorowa pod red. Porębskiej-Miąc T i Sroki H. Wydawnictwa Akademii Ekonomicznej w Katowicach, 275-282 Generowanie wiedzy dla przedsiębiorstwa. Metody i techniki pod red. Nycz M., 2005. Wydawnictwa AE we Wrocławiu.
Turban E., Aronson J., Liang T. 2005. Decision Support System and Intelligent Systems.
Pearson-Prentice Hall Upper Saddle River.
38
Witold Chmielarz
Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego
THE KNOWLEDGE MANAGEMENT TECHNIQUES
IN CONCEPT OF EXPERT SYSTEM
Summary
The main goal of the article is formulating of the rules of information system
model construction architecture using of knowledge management mechanism. The
starting point are assumptions of building of database system cooperating with decision support system. Next the standard expert system with elements of knowledge
management is introduced. and concept of model development by adding transformation mechanism of internal model information to knowledge stored in system and
comparison mechanism of real variants development with stored patterns are presented. In final part of article proposed in model architecture techniques of knowledge management were introduced.
Keywords: Expert System, Knowledge Management, Technique of Knowledge Management
WITOLD CHMIELARZ
[email protected]
Wydział Zarządzania Uniwersytetu Warszawskiego
ul. Szturmowa 1/3; 02-678 Warszawa
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
39
LUDOSŁAW DRELICHOWSKI
MACIEJ NOSAL
Akademia Rolnicza w Szczecinie
UWARUNKOWANIA TWORZENIA METADANYCH DO WSPOMAGANIA
ZARZĄDZANIA WIEDZĄ W UCZELNI
Streszczenie
W pracy zaprezentowano koncepcję prac badawczych zapewniających opracowanie hurtowni danych na podstawie wieloletnich danych transakcyjnych oraz zastosowania systemów automatycznej analizy danych OLAP (On-Line Analytical Process). W procesie tworzenia hurtowni danych niezbędne jest tworzenia metadanych
ułatwiające wykorzystanie tych informacji w jednorodnej strukturze powiązanych
wieloletnich baz danych pochodzących ze zbiorów transakcyjnych uczelni.
Słowa kluczowe: bazy wiedzy, hurtownie danych, metadane, OLAP – On Line Analytical Process
(automatyczna bieżąca analiza danych)
1. Wprowadzenie
Zarządzanie wiedzą w szkolnictwie wyższym może być rozpatrywane jako zastosowanie zaawansowanych technologii informacyjnych do wspomagania zarządzania uczelnią ukierunkowaną
na poprawę efektywności tego procesu. Do wskazanych technologii przetwarzania należy wymienić budowę hurtowni danych oraz zastosowania oprogramowania data mining lub systemów
OLAP (On Line Analitycal Process) do wspomagania zarządzania strategicznego uczelniami (niektóre polskie uczelnie wdrażają już te standardy). Są to działania, które mogą stanowić źródła
przewagi konkurencyjnej w warunkach malejących naborów kandydatów na studia w związku z
konsekwencjami niżu demograficznego.
Inne aspekty dotyczą zastosowań technologii informacyjnych w standardzie zarządzania wiedzą, o której piszą Baborski i Bonner1, Kisielnicki2, Drelichowski3, a które w polskiej literaturze
również w zakresie informatyki ekonomicznej znajdują szerokie omówienie. Problematykę wirtualizacji organizacji w aspekcie rozwiązań zarządzania wiedzą prezentują w różnych aspektach
prace Gwiazdy4 oraz Januszewskiego i Drelichowskiego5. Wirtualne Branżowe Systemy Wspomagania Decyzji, zdaniem Gwiazdy (2005), stanowią rozwojowy model kreowania, dystrybucji i
zastosowań wiedzy w organizacjach wirtualnych z zastosowaniem wielu proponowanych przez
autora modeli wspomagania decyzji. Inne przesłanki stanowiły punkt wyjścia kreowania wirtual1
Baborski A., Bonner R., Zarządzanie wiedzą korporacyjną – dwa podejścia. Zarządzanie wiedzą w systemach informacyjnych. AE Wrocław s. 19-27.
2
Kisielnicki J.(2004), Zarządzanie wiedzą we współczesnych organizacjach. Zarządzanie wiedzą w systemach informacyjnych. AE Wrocław s. 27 - 52
3
Drelichowski L.(2004), Podstawy inżynierii zarządzania wiedzą. Studia i materiały nr 1, PSZW Bydgoszcz
4
Gwiazda T., (2005) Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa s. 123-142.
5
Januszewski A, Drelichowski L., (2005) Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa s.66-79
40
Ludosław Drelichowski, Maciej Nosal
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
nej organizacji w pracy Januszewskiego i Drelichowskiego (2005), w której przesłankę rozwoju
bazy wiedzy dla organizacji wirtualnej stanowią rozwiązania integrujące potencjał wykonawczy
małych i średnich firm regionu, umożliwiające wykonawstwo środkami lokalnych firm projektów
znacznej rangi, dofinansowanych ze środków UE.
Problemem, który wymaga podjęcia systematycznych badań dla zaawansowania merytorycznych – w mniejszym stopniu technologiczno-softwearowych aspektów zarządzania wiedzą – są
rozwiązania procesów dydaktycznych związanych z tworzeniem hurtowni danych na bazie ekwiwalentnie dużych zbiorów danych.
Proces tworzenia hurtowni danych musi uwzględniać zmianę struktury kodowej rekordów
wynikających ze zmiany w tym czasie przepisów prawnych oraz głęboką przebudowę stosowanego w poszczególnych latach planu kont. Jest to klasyczny problem leżący na pograniczu kompetencji pracowników organizacji wdrażającej system i dostawcy oprogramowania oraz implementacji systemu dla użytkownika. Podobnej natury problem dotyczy interpretacji rezultatów wydobywania wiedzy poprzez procedury automatycznej analizy danych OLAP lub Data Mining. Zdaniem
autora zewnętrzny zespół wdrażający tego typu rozwiązania softwearowe w organizacjach sporadycznie będzie w stanie nadać właściwą merytorycznie interpretację wszystkich ważnych dla
strategii firmy i przewagi konkurencyjnej parametrów.
Cytowane wyżej uwarunkowania przesądzają, że w procesie edukacji informatycznej studentów wydziałów o profilu ekonomii i zarządzania, należy przygotować środki do przekazu wiedzy
pozwalające na zapewnienie aktywnego uczestnictwa we wdrażaniu technologii informacyjnych w
zakresie hurtowni danych i wykorzystania wyników automatycznych analiz.
2. Uwarunkowania tworzenia algorytmów niezbędnych w procesie tworzenia metadanych
Tworzenie standardów oprogramowania w powiązaniu z niezbędnymi dla zaawansowanych
zastosowań IT wymaga często gigabajtowych baz danych, tworzonych na podstawie rzeczywistych zbiorów transakcyjnych, co nie należy do łatwych przedsięwzięć. Nawet pracownicy uczelni
uczestniczący we wdrażaniu tego typu przedsięwzięć składają oświadczenia o nie upowszechnianiu udostępnionych im baz danych dla innych celów.
Utworzenie zweryfikowanego zbioru ośmio metadanych, pozwoli na efektywne zastosowanie
oprogramowania OLAP. Warunek uzyskania jednorodnego precyzyjnie identyfikowanego zbioru
metadanych stanowi zbudowanie zbiorów konwersji kodów pozwalających zinterpretować zmieniające się plany kont w systemie finansowo-księgowym Uczelni oraz zmiany wynikające z ustawy o ubezpieczeniach społecznych oraz księgowości.
Dane pochodzące z Akademii Rolniczej w Szczecinie dotyczą podsystemów: FinansowoKsięgowego, Kadrowo-Płacowego, Gospodarki Materiałowej oraz Ewidencji Środków Trwałych,
z ośmiu lat. Zeskładowane bazy danych mają w jednym przypadku objętość GB w drugim natomiast 4,7 GB zaskładowane są w standardzie bazy danych PROGESS i wymagają dokonania
konwersji na zbiory MS ACCESS Ponieważ zbiory zawierają realne dane z dokumentów transakcyjnych występujących w okresie dynamicznych zmian systemowych w latach 1994 do 2004 to
precyzowanie zadań dla zespołów może być niezwykle atrakcyjne merytorycznie.
Dokonanie algorytmizacji konstrukcji konwersji zbiorów z poszczególnych lat przetwarzania
danych na struktury metadanych wymaga dokonania analizy zmian rozwiązań formalnoprawnych. Ponieważ w ośmioletnim okresie archiwizacji danych dokonywano wielu zasadniczych
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
41
zmian prawno-skarbowych, to posłużymy się specyfikacją zmian systemu podatkowego jako
składnika determinującego jednoznaczną identyfikację informacji w strukturze metadanych.
Zasadnicza reforma systemu podatkowego rozpoczęła się w 1991 roku, kiedy to na mocy
ustawy wprowadzono podatek dochodowy od osób fizycznych, a zaraz po nim podatek dochodowy od osób prawnych. Wówczas w Polsce pojawiło się kilkanaście milionów nowych podatników
- osób fizycznych, którzy osiągali dochody ze stosunku pracy, a do tej pory nie byli zobowiązani
do opłacania podatku z tego tytułu. Do tego momentu nie musieli składać żadnych zeznań podatkowych, gromadzić rachunków dokumentujących wydatki, czy prowadzić ewidencji podatkowej.
Pierwsze zeznania podatkowe złożyli Polacy nie prowadzący działalności gospodarczej na rachunek własny za rok podatkowy 1992.
W 1991 roku zostaje również uchwalona ustawa o podatkach i opłatach lokalnych, w której to
znalazły się uregulowania dotyczące podatków stanowiących dochody gmin. Regulacje te dotyczyły podatku od nieruchomości, podatku od środków transportu, opłat lokalnych tj. administracyjnej, miejscowej i targowej.
Kolejną ważną datą w tworzeniu systemu podatkowego był 5 lipca 1993 roku, kiedy to
wprowadzono w życie ustawę o podatku od towarów i usług VAT i podatku akcyzowym.
Prawne podstawy do nakładania obowiązków podatkowych stanowi Konstytucja Rzeczypospolitej
Polskiej z dnia 2 kwietnia 1997 roku. Art. 217 Konstytucji RP mówi, że nakładanie podatków i
innych danin publicznych oraz określanie podmiotów opodatkowania, przedmiotów opodatkowania, stawek podatkowych, kategorii pomiotów zwolnionych od podatków, zasad przyznawania ulg
i umorzeń podatkowych może następować wyłącznie w drodze ustawy.
W dniu 29 sierpnia 1997 roku została uchwalona ordynacja podatkowa. Akt o randze ustawy
regulował w sposób całościowy zasady postępowania, wykonywania i wygasania zobowiązań
podatkowych. Dawała ona pewną spójność przepisów podatkowych i eliminowała problemy dotyczące interpretacji. Przepisami ordynacji podatkowej objęte zostały podatki jak również opłaty i
inne nie podatkowe należności budżetu państwa i budżetów jednostek samorządu terytorialnego,
do których ustalania uprawnione są organy podatkowe.
Następne poważne prace nad pakietem zmian w systemie podatkowym były prowadzone w
1999 roku i skończyły się wetem Prezydenta w odniesieniu do podatku dochodowego od osób
fizycznych. Podpisana została ustawa o podatku dochodowym od osób prawnych. To doprowadziło do zróżnicowania zasad opodatkowania dochodów podatników w zależności od tego czy są
osobami fizycznymi, czy też osobami prawnymi. I tak w latach 2001-2003 osoby fizyczne płacą
zgodnie z progresją stawki 19 %, 30 %, 40 %, a osoby prawne według skali liniowej 28%.
Inną zmianą wprowadzoną 4 września 2000 roku było objęcie rolnictwa podatkiem VAT, co
oznacza, iż polscy rolnicy mogą być podatnikami VAT na ogólnych zasadach lub korzystać ze
zryczałtowanego zwrotu podatku w wysokości 3 % dokonanej przez nich sprzedaży.
W 2001 roku weszły w życie przepisy nowej ustawy o opłacie skarbowej i ustawy o podatku
od czynności cywilno prawnych.
W 2001 roku nastąpiła zmiana ekipy rządzącej i pojawiły się zmiany głównie w konstrukcji
podatku dochodowego od osób fizycznych. Główne punkty zmian to 5:
• od 1 marca 2002 roku wprowadzono podatek z odsetek od środków pieniężnych
zgromadzonych na rachunkach bankowych,
• na lata 2002/2003 zamrożono skalę podatkową, jedynie podwyższono kwotę wolną
od podatku,
• zlikwidowano i ograniczono wiele zwolnień podatkowych,
42
Ludosław Drelichowski, Maciej Nosal
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
• zlikwidowano ulgę z tytułu zakupu działki,
• tzw. dużą ulgę budowlaną zastąpiono odliczeniem od dochodu odsetek od kredytów
zaciągniętych na własne cele mieszkaniowe.
Zmiany dotknęły również konstrukcji podatku VAT i akcyzowego, a związane były z poprawą strony dochodów budżetu państwa. Główne kierunki zmian to:
• opodatkowanie VAT-em obrotu licencjami, który do tej pory nie podlegał temu podatkowi,
• wprowadzenie zakazu odliczania podatku naliczonego z tytułu zakupu oleju napędowego oraz gazu do samochodów osobowych,
Podatek dochodowy od osób fizycznych należy do grupy podatków bezpośrednich. Obowiązek podatkowy został wprowadzony przepisami ustawy z dnia 26 lipca 1991roku 6 , a wszedł w
życie z dniem 1 stycznia 1992 roku. Podatnikiem tego podatku są osoby fizyczne uzyskujące dochody, na których ciąży obowiązek podatkowy.
W rozumieniu ustawy dochód, który jest podstawą do opodatkowania, to nadwyżka przychodów nad kosztami ich uzyskania w danym roku podatkowym.
DOCHÓD = PRZYCHÓD - KOSZTY UZYSKANIA PRZYCHODU
W przypadku, gdy podatnik uzyskuje dochody z więcej niż jednego źródła, przedmiotem
opodatkowania jest suma wszystkich dochodów uzyskanych z różnych źródeł w danym roku podatkowym.
Źródła przychodów, z których dochody podlegają opodatkowaniu :
1.
Wynagrodzenia i inne przychody ze stosunku służbowego, stosunku pracy oraz
pracy nakładczej.
2.
Emerytury i renty krajowe.
3.
Zasiłki pieniężne z ubezpieczenia społecznego.
4.
Stypendia.
5.
Przychody z działalności wykonywanej osobiście (między innymi od umów zlecenia, umów o dzieło, kontraktów menedżerskich, zasiadania w radach nadzorczych,
pełnienia obowiązków społecznych).
6.
Przychody z praw autorskich i innych praw majątkowych.
7.
Świadczenia wypłacane z Funduszu Pracy lub Funduszu Gwarantowanych Świadczeń Pracowniczych.
8.
Przychody z pozarolniczej działalności gospodarczej, jak również z wykonywania
wolnego zawodu.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
43
Skala podatkowa
Podatek dochodowy od osób fizycznych płacony jest w skali progresywnej. Skala podatkowa nie ma jedynie zastosowania do dochodów opodatkowanych w formie ryczałtu, a jedynie do dochodów opodatkowanych na zasadach ogólnych. W latach 1992 - 2003 skala podatkowa zmieniała się.
SKALA PODATKOWA - 2003 r.
SPOSÓB OBLICZENIA PODATKU
do 37.024,00
19% minus kwota 530,08
37.024,00 do 74.048,00
ponad 74.048,00
6.504,48 + 30% od nadwyżki ponad 37.024,00
17.611,68 + 40% od nadwyżki ponad 74.048,00
SKALA PODATKOWA - 2002 r.
SPOSÓB OBLICZENIA. PODATKU
do 37.024,00
19% minus kwota 518,16
37.024,00 do 74.048,00
ponad 74.048,00
6.516,40 + 30% od nadwyżki ponad 37.024,00
17.623,60 + 40% od nadwyżki ponad 74.048,00
SKALA PODATKOWA - 2001 r.
SPOSÓB OBLICZENIA. PODATKU
do 37.024,00
37.024,00 do 74.048,00
ponad 74.048,00
19% minus kwota 493,32
6.541,24 + 30% od nadwyżki ponad 37.024,00
17.648,44 + 40% od nadwyżki ponad 74.048,00
44
Ludosław Drelichowski, Maciej Nosal
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
SKALA PODATKOWA - 2000 r.
SPOSÓB OBLICZENIA. PODATKU
do 32.736,00
32.736,00 do 65.472,00
ponad 65.472,00
19% minus kwota 436,20
5.783,64 + 30% od nadwyżki ponad 32.736,00
15.604,44 + 40% od nadwyżki ponad 65.472,00
SKALA PODATKOWA - 1999 r.
SPOSÓB OBLICZENIA. PODATKU
do 29.624,00
19% minus kwota 394,80
29.624,00 do 59.248,00
5.233,76 + 30% od nadwyżki ponad 29.624,00
ponad 59.248,00
14.120,96 + 40% od nadwyżki ponad 59.248,00
SKALA PODATKOWA - 1998 r.
SPOSÓB OBLICZENIA. PODATKU
do 25.252,00
19% minus kwota 336,60
25.252,00 do 50.504,00
4.461,28 + 30% od nadwyżki ponad 25.252,00
ponad 50.504,00
2.036,88 + 40% od nadwyżki ponad 50.504,00
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
SKALA PODATKOWA - 1997 r.
SPOSÓB OBLICZENIA. PODATKU
do 20.868,00
20% minus kwota 278,20
20.868,00 do 41.736,00
3.895,40 + 32% od nadwyżki ponad 20.868,00
ponad 41.736,00
10.573,16 + 44% od nadwyżki ponad 41.736,00
SKALA PODATKOWA - 1996 r.
SPOSÓB OBLICZENIA. PODATKU
Do 16.380,00
16.380,00 do 32.760,00td
ponad 32.760,00
21% minus kwota 218,40
3.221,40 + 33% od nadwyżki ponad 16.380,00
8.626,80 + 45% od nadwyżki ponad 32.760,00
SKALA PODATKOWA - 1995 r.
SPOSÓB OBLICZENIA. PODATKU
do 12.400,00
21% minus kwota 165,60
12.400,00 do 24.800,00
2.438,40 + 33% od nadwyżki ponad 12.400,00
ponad 24.800,00
6.530,40 + 45% od nadwyżki ponad 24.800,00
45
46
Ludosław Drelichowski, Maciej Nosal
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
SKALA PODATKOWA - 1994 r.
SPOSÓB OBLICZENIA. PODATKU
do 90.800.000
21% minus kwota 1.212.000
90.800.000 do 181.600.000
17.856.000 + 33% od nadwyżki ponad 90.800.000
ponad 181.600.000
47.820.000 + 45% od nadwyżki ponad 181.600.000
SKALA PODATKOWA - 1993 r.
SPOSÓB OBLICZENIA. PODATKU
do 64.800.000
20% minus kwota 864.000
64.800.000 do 129.600.000
12.096.000 + 30% od nadwyżki ponad 64.800.000
ponad 129.600.000
31.536.000 + 40% od nadwyżki ponad 129.600.000
SKALA PODATKOWA - 1992 r.
SPOSÓB OBLICZENIA. PODATKU
do 64.800.000
20% minus kwota 864.000
64.800.000 do 129.600.000
12.096.000 + 30% od nadwyżki ponad 64.800.000
ponad 129.600.000
31.536.000 + 40% od nadwyżki ponad 129.600.000
W pierwszych latach obowiązywania podatku (1992 - 1993) stawki wynosiły 20 %, 30 %, 40
%, a już w latach 1994 -1996 obowiązywały stawki 21 %, 33 %, 45 %. W kolejnym roku, a więc
1997, zostały obniżone niewiele, ale wynosiły 20 %, 32 %, 44 %. Natomiast od roku 1998 stawki
zmieniono na 19 %, 30 %, 40 % i takie obowiązują w chwili obecnej czyli w 2003 roku. Obowiązek ustalania sali podatkowej spoczywa na Ministrze Finansów, który musi skalę podatkową na
dany rok podać w formie rozporządzenia do 30 listopada roku poprzedzającego rok podatkowy.
Jeśli chodzi o kwotę wolną od opodatkowania, jedynie w pierwszych dwóch latach obowiązywania podatku, czyli w latach 1992 - 1993, pozostawała na tym samym poziomie, natomiast w
ciągu następnych lat wzrastała.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
47
Progi podatkowe w latach 1992 - 1993 pozostawały na niezmienionym poziomie, w następnych latach wzrastały, aż do roku 2001 i znowu zostały zamrożone na tym samym poziomie, na
razie na rok 2003.
Pobór podatku dochodowego od osób fizycznych jest dwufazowy:
• w ciągu roku podatkowego płatnik nalicza zaliczki na poczet podatku dochodowego od
osób fizycznych i odprowadza naliczone kwoty do właściwego Urzędu Skarbowego,
• po zakończeniu roku podatkowego następuje rozliczenie z podatku, którego może dokonać podatnik lub płatnik w ciągu 4 miesięcy od zakończenia roku podatkowego.
Opisywana baza danych stanowi zbiór tablic logicznie powiązanych ze sobą. Tablice składają
się z pól. Dla przykładu tablicą może być plan kont systemu, którego polami będą m.in.: konto
syntetyczne, jego pełna nazwa, ilość subkont, nazwa słownika opisującego subkonta, itd.. Powiązanie pomiędzy tablicami istnieje w przypadku, gdy to samo pole występuje w dwóch tablicach.
Przykładem może być pole „nazwa słownika subkont”, które występując w tablicy „słowniki subkont” musi wystąpić również w tablicy „plan kont”. Mamy tu przykład połączenia jeden do wielu:
jedna nazwa słownika subkont może być przydzielona tylko do jednego słownika, ale jeden słownik może występować w opisie wielu kont syntetycznych. Techniczne rozwiązania identyfikacji
poszczególnych rekordów w zbiorze metadanych wymagały będą uściślenia i dostosowania do
standardów oferowanych w ramach oprogamowania hurtowni danych dostępnych w MS SQL
Serverze.
W perspektywie federacji Akademii Medycznej w Szczecinie z Akademią Rolniczą w Szczecinie powstaje dylemat czy wraz z nową formą organizacyjną ograniczymy dotychczasową bazę
danych dla celów archiwalnych? Czy też możliwe będzie utworzenie hurtowni danych, która w
specyficzny sposób umożliwiałaby syntezę najważniejszych komponentów baz wiedzy dla celów
automatycznych analiz?
Przytoczone wyżej problemy merytoryczne generują określone problemy badawcze, dotyczące zarówno rozwiązań softwearowo-bazodanowych niezbędnych dla procesów dydaktycznych, ale
również niezwykle ważnych dla gospodarki problemów absorbcji wiedzy w warunkach konsolidacji wspomnianych już uczelni. Problem ten ma bardziej uniwersalne znaczenie w polskiej gospodarce, co ilustrować mogą przykłady konsolidacji Spółdzielni Mleczarskich Bydgoszczy i Inowrocławia z holdingiem spółdzielczym Grajewo, czy Spółdzielni Mleczarskiej w Toruniu z korporacją
Spółdzielczą MLEKOWITA.
48
Ludosław Drelichowski, Maciej Nosal
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
3. Koncepcja etapów prac w zakresie tworzenia hurtowni danych i automatycznej analizy
OLAP
Punktem wyjścia w opracowanym projekcie jest wdrożenie MS SQL-serwerowej wersji systemu informatycznego HMS, wdrażanego w wielu uczelniach w kraju pod bazą danych PROGRESS 8, eksploatowanego w AR w Szczecinie. Standard ten będzie rozbudowany o system hurtowni danych i opracowania zestawu aplikacji automatycznej analizy OLAP.
Zastosowanie hurtowni danych w standardzie oprogramowania Microsoft ma na celu minimalizację nakładów wdrożenia systemów wypracowanych w obydwu uczelniach oraz standardów
transformacji danych, pozwalających na szerszą skalę wdrożeń w innych uczelniach średniej wielkości.
Hurtownie danych i automatyczna analiza danych OLAP stają się podstawą strategicznego zarządzania organizacjami. Rosnąca konkurencyjność organizacji edukacyjnych powoduje, że tworzenie strategii przetrwania i rozwoju uczelni wymaga stosowania coraz bardziej zaawansowanych
metod wspomagania decyzji. W przypadku uczelni średniej wielkości, do których należą Akademia Rolnicza w sztywnym ograniczeniem jest wybór standardów oprogramowania możliwego do
sfinansowania ze skromnych środków finansowych możliwych do przeznaczenia na realizację
tego celu. Zarządzanie wiedzą staje się dziedziną rozwoju technik informacyjnokomunikacyjnych, których celem jest ograniczanie barier różnych grup użytkowników do wspomagania działalności podstawowej bazami wiedzy niezbędnymi w danej dziedzinie działalności.
Spośród wielu coraz szerzej dostępnych publikacji wymienić można monografię Drelichowskiego
(2004), zawierającą szersze omówienie różnych aspektów problematyki zarządzania wiedzą. Do
kierunkowych opracowań należą również prace Drelichowski (2002) Drelichowski (2003a)6,
Drelichowski (2003b)7, Drelichowski (2005)8 uwzględniające różne aspekty finansowania wiedzy
i jej zastosowań w różnych działach gospodarki i agrobiznesie.
Przetwarzanie i analiza baz danych tworzonych z automatycznych systemów pomiarowych
staje się zagadnieniem coraz trudniejszym do rozwiązania, co wymaga zastosowania nowoczesnych standardów tworzenia, automatycznej analizy i zarządzania bazami wiedzy.
6
Drelichowski L.: Zastosowanie specjalistycznych baz wiedzy i szkoleń z podstaw inżynierii wiedzy środkiem doskonalenia
zarządzania w sektorze małych i średnich firm. Prace Naukowe AE Wrocław 2002 Nr 941 T-1 s. 189-186.
7
Drelichowski L.: Narzędzia, metody i środki finansowania zarządzania wiedzą w gospodarce, ochronie zdrowia i edukacji. IBSPAN 2003, Badania Systemowe t.3? s. 40-52.
8
Drelichowski L.: Czynniki determinujące rozwój zastosowań technologii informacyjnych zarządzania wiedzą w przedsiębiorstwach agrobiznsu. Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w Unii Europejskiej.
Wyd. SGGW Warszawa 2005
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
49
4. Podsumowanie i wnioski
Opracowanie bazowych standardów edukacji wdrażania oprogramowania hurtowni danych i
systemów automatycznej analizy OLAP i data mining wymaga opracowania jednostek dydaktycznych uwzględniających odpowiednie zasoby danych transakcyjnych. Dysponowanie realnymi
bazami danych z dwóch uczelni oraz kilkunastoosobowym zespołem badawczym stwarza szansę
na realizację celów badań sformułowanych w niniejszej pracy. Uzyskanie grantu badawczego,
pozwalającego na wypracowanie podstawowych rozwiązań oprogramowania dydaktycznego z
niezbędnymi bazami danych i uzupełniających zakupów sprzętu, pozwoli na wypracowanie podstaw rozwiązania problemu edukacji zaawansowanych zastosowań IT. Te doświadczenia oraz
doświadczenia, możliwe do uzyskania w ramach konsolidacji hurtowni danych z dwu uczelni,
mogą stanowić podstawę do inicjowania tego typu prac ukierunkowanych utylitarnie w ramach
projektów dofinansowanych z funduszy Unii Europejskiej.
5. Literatura
1.
Baborski A., Bonner R., 2004. Zarządzanie wiedzą korporacyjną – dwa podejścia. Zarządzanie wiedzą w systemach informacyjnych. Prace Nauk. AE we Wrocławiu, 19-27.
2. Drelichowski L., 2004. Podstawy inżynierii zarządzania wiedzą. Studia i materiały nr 1.
PSZW Bydgoszcz
3. Drelichowski L., 2004. Podstawy inżynierii zarządzania wiedzą. Polskie Stowarzyszenie
Zarządzania Wiedzą nr 1, 160.
4. Drelichowski L. 2002. Społeczeństwo informacyjne a rozwój zrównoważony i dystrybucja wiedzy akademickiej, Konf. Nauk. Udział bibliotek w kształtowaniu społeczeństwa
informacyjnego w Polsce – Potencjał, możliwości, potrzeby. Wyd. ATR Bydgoszcz, 1930
5. Gwiazda T., 2005. Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW
Warszawa, 123-142.
6. Januszewski A, Drelichowski L. 2005. Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa, 66-79.
7. Kisielnicki J., 2004. Zarządzanie wiedzą we współczesnych organizacjach. Zarządzanie
wiedzą w systemach informacyjnych. Prace Nauk. AE we Wrocławiu, 27 – 5214.
8. Ewolucja systemu podatkowego w Polsce po 1990 roku.
http://falco.man.bialystok.pl/zse/podatki/wnioski.htm.
9. Partner handlowy rozwijający oprogramowanie HMS – firma Kalasoft
WWW.kalasoft.com.pl
10. Strona główna twórcy programu HM WWW.softkam.com.pl.
11. Internetowy System Aktów Prawnych. isip.sejm.gov.pl
50
Ludosław Drelichowski, Maciej Nosal
Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni
SUPPORTING KNOWLEDGE MANAGEMENT IN THE UNIVERSITIES
Summary
In this paper author presents conception research work organisation ensuring
building data ware houses on the base multiyear transactions data and usage automatic data system analysis OLAP. Hardware necessity for building this application
includes servers using the only for processing this applications in archiving metadata and the structure data ware houses in process of facilitating of usage of these
technologies in practical classes. Testing of worked out didactic modules in a process of realization of classes concerning the structure of the data ware houses using
multiyear the databases coming from the university research and application of
automatic metadata analysis software will ensure methodical knowledge from this
scope.
Keywords: Knowledge Bases, Data Warehouses, Metadata, OLAP On Line Analytical Process
LUDOSŁAW DRELICHOWSKI
MACIEJ NOSAL
Akademia Rolnicza w Szczecinie
ul. Żołnierska 49, 71- 210 Szczecin
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
51
ANNA KEMPA
Akademia Ekonomiczna w Katowicach
METODY I NARZĘDZIA WSPOMAGAJĄCE WYSZUKIWANIE EKSPERTÓW
I EKSPERTYZ
Streszczenie
W artykule przedstawiono metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz. Po przedstawieniu ich rozwoju od systemów opartych na uzupełnianych ręcznie przez ekspertów bazach danych do systemów automatycznie pozyskujących informacje o ekspertach z różnych źródeł - uwagę skoncentrowano na
wybranych systemach: Expert Seeker oraz Preciseer, które stanowią przykłady różnych podejść pozyskania wiedzy niejawnej w organizacji.
Słowa kluczowe: wyszukiwanie ekspertów, wyszukiwanie ekspertyz
1. Wstęp
Jedną z motywacji do doskonalenia technologii informacji jest potrzeba pozyskania wiedzy w
organizacji. Próby stworzenia jednego wielkiego serwera wiedzy organizacji na wzór encyklopedii
są skazane na niepowodzenie. Jeśli technologia ma sprzyjać efektywnemu wykorzystaniu wiedzy
w organizacji, powinna dostarczać nie tylko dostępu do jawnych dokumentów, ale także wiedzy
niejawnej tkwiącej w poszczególnych osobach i relacjach między nimi. Poprzez uzewnętrznianie
niejawnej wiedzy, technologie mogą ułatwić współpracę i dzielenie się wiedzą w organizacji.
Rozpoznanie potrzeb w zakresie dzielenia się wiedzą jest od jakiegoś czasu celem wysiłków
podejmowanych m.in. przez specjalistów zajmujących się problematyką zarządzania wiedzą
(Knowledge Management) oraz komputerowo wspomaganej pracy grupowej (Computer Supported Collaborative Work). Powstały nowe koncepcje, m.in.: kapitalizacja ekspertyzy, wydobywanie
wiedzy o zdolnościach (skill mining), zarządzanie kompetencjami, zarządzanie intelektualnym
kapitałem, sieci ekspertyz, systemy dzielenia wiedzy. Zasadniczym problemem zarządzania wiedzą jest jednakże ustalenie osoby, która może być źródłem poszukiwanej wiedzy, innymi słowy:
osoby, która tę wiedzę może udostępnić – eksperta.
Celem niniejszej pracy jest przedstawienie metod wspomagających wyszukiwanie ekspertów i
ekspertyz. Zarysowano główne kierunki rozwoju systemów wyszukiwania ekspertów oraz zaprezentowano przykłady. Należy podkreślić, że wyszukiwanie ekspertów i ekspertyz stanowi jedną z
części obszaru zarządzania wiedzą. Wyszukiwanie ekspertyz nie będzie w pełni satysfakcjonujące,
jeśli nie będzie jednoczesnych wysiłków nad rozwojem pozostałych aspektów zarządzania wiedzą
w organizacji.
52
Anna Kempa
Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz
2. Motywy poszukiwania ekspertów
Na podstawie wywiadów z przedstawicielami różnych instytucji badawczych zajmujących się
problemem wyszukiwania ekspertów jak i literatury przeprowadzone badania [3] identyfikują dwa
główne motywy poszukiwania eksperta. Jeden z nich określa szukanego eksperta „jako źródło
informacji”, a drugi „jako kogoś, kto potrafi wykonać określone funkcje”. Podział ten, mimo, że
nie do końca wyraźny, przydatny jest podczas analizy celów automatycznego wyszukiwania ekspertów.
Ludzie szukają eksperta „jako źródła informacji” w celu skompletowania swoich źródeł w postaci dokumentów czy baz danych w określonych przypadkach [3]:
• Dostęp do nie dokumentowanych informacji. Nie wszystkie informacje w organizacji mogą
być dokładnie udokumentowane. Niektóre z nich mogą zawierać się w praktyce zawodowej i
doświadczeniu konkretnych osób,
• Wymagania specyfikacji. Użytkownicy informacji w przypadku niebyt dobrze zdefiniowanego problemu potrzebują konsultacji z ekspertem,
• Poleganie na ekspertyzie innych. Użytkownicy często oczekują minimalizacji wysiłku i czasu
potrzebnego do znalezienia jakiejś porcji informacji – rozumując, że to co dla nich stanowi
„mnóstwo pracy” dla eksperta jest „niewielką pracą”,
• Potrzeba interpretacji. Użytkownicy czasami nie interesują się samą informacją, co jej interpretacją – konsekwencjami, implikacjami z nią związanymi,
• Potrzeby psychologiczne. Niektórzy użytkownicy cenią sobie bardziej ludzki wymiar bezpośrednich kontaktów z ekspertem, w którym istnieje znacznie większa interakcja niż w przypadku korzystania z dokumentów i zasobów komputera.
Poszukiwanie eksperta „jako kogoś, kto potrafi wykonać określone funkcje” wiąże się najczęściej z:
• Poszukiwaniem konsultanta, pracownika, kogoś kto wykona dane funkcje,
• Poszukiwaniem współpracownika, członka zespołu, recenzenta.
Motywację poszukiwania eksperta „jako źródła informacji” określono potrzebą informacji,
natomiast motywację poszukiwania eksperta „jako kogoś, kto potrafi wykonać określone funkcje”
- potrzebą ekspertyzy [3]. Użytkownicy mający potrzebę ekspertyzy tworzą swoje zapytanie w
oparciu o większą ilość jakościowych i ilościowych parametrów. Przykładowo, szukając eksperta
„jako źródła informacji” zadają najczęściej proste pytanie „Kto wie o temacie X?”, natomiast
szukając ekspertyzy pytają „Jak dobrze Y zna się na problemach X?”, „Co jeszcze wie Y?”, „Jak
Y wypada w porównaniu z innymi znawcami problemu X?”.
3. Automatyczne wspomaganie poszukiwania ekspertów – tradycyjne podejście
Ludzie szukający ekspertów potrzebują całego zestawu danych i usług związanych z ludzką
ekspertyzą. W odpowiedzi na te zapotrzebowania tworzone są systemy mające na celu zautomatyzowanie procesu wyszukiwań.
Jedna z dróg automatyzacji procesu wyszukiwania polega na rozwijaniu baz ekspertów (map
wiedzy, katalogów wiedzy) poprzez ręczne wprowadzanie danych o ekspertach. Systemy takie jak
Microsoft’s SPUD, Hewlett-Packard’s CONNEX (http://www.carrozza.com/connex/) oraz SAGE
People Finder są przykładami takiego podejścia. Wadami takich rozwiązań są [3]:
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
53
•
•
Ręczne uzupełnianie baz danych jest pracochłonne i kosztowne,
Bazy danych są zwykle obciążone skłonnością ekspertów do sporządzania zbyt szczegółowego opisu swoich ekspertyz lub odwrotnie - bywają niekompletne i zbyt ogólne,
• Biorąc pod uwagę zmienny charakter cech opisujących stan wiedzy, zdolności i doświadczenie człowieka – wiele ręcznie prowadzonych baz zawiera przestarzałe dane.
Strony internetowe, które prowadzą pracownicy dostarczać mogą wiele informacji o nich samych i
ich specjalizacji i są także wykorzystywane przez osoby poszukujące ekspertyzy. Przeszukiwanie
Internetu lub Intranetu może doprowadzić nas do stron ekspertów z danej dziedziny. Wprawdzie
takie strony internetowe mogą okazać się dobrym źródłem na temat ekspertów, jednak proste mechanizmy wyszukiwania dostępne w zwykłych wyszukiwarkach nie dają efektywnych rezultatów.
Ponadto wówczas zadanie ekstrakcji, kompilacji i analizy danych leży całkowicie po stronie użytkownika.
4. Systemy automatycznego wyszukiwania ekspertów
Twórcy systemów wyszukiwania ekspertów (expert finders, expert recommenders) starają się
ograniczyć wady, które ujawniły się przy pierwszych próbach automatycznego wyszukiwania. W
systemach tych próbuje się automatycznie pozyskać dane o ekspertyzie na podstawie ukrytych i
drugorzędnych źródeł zamiast polegać jedynie na ekspertach i zasobach kadrowych.
Jednym z pierwszych systemów typu expert finders był system HelpNet (1986). System ten
po przyjęciu zapytania dotyczącego wymaganych informacji generuje odpowiedź w postaci listy
osób uporządkowanej wg prawdopodobieństwa, że dana osoba może dostarczyć satysfakcjonującej odpowiedzi. Prawdopodobieństwo jest obliczane przy użyciu modelu wyszukiwania informacji
(IR), który wiąże oszacowaną ekspertyzę zawartą w odpowiedziach z prawdopodobieństwem, że
dany użytkownik mógłby być usatysfakcjonowany odpowiedzią ze znalezionego źródła.
Inny znany system z tej kategorii to Expert/Expert-Locator (EEL) z roku 1988 (zwany także
Bellcore Advisor). System ten pobiera zapytanie w języku naturalnym i przy użyciu metody Latent
Semantic Indexing (LSI) zwraca odnośniki do pobliskich (dziedzinowo) grup badaczy. System
EEL tworzy indeks ekspertyz grup badaczy opierając się na reprezentatywnej kolekcji dokumentów technicznych, które oni napisali [3].
Powstały także systemy profilujące ekspertów na podstawie ich kontaktów – głównie poprzez
wewnętrzną pocztę elektroniczną (m.in. KnowledgeMail TM firmy Tacit Knowledge Systems
Inc.). Na rynku polskim także powstają takie systemy – przykładowo Preciser firmy Prosto Technologies (prezentowany w dalszej części) [4].
Expert Seeker jest przykładem systemu wykorzystującego do pozyskiwania wiedzy o ekspertach technologię text mining. Zadaniem systemu jest lokalizowanie intelektualnego kapitału wewnątrz organizacji na wszystkich poziomach – od techników do profesorów (także prezentowany
w dalszej części) [1].
5. Ogólny model systemów wyszukiwania ekspertów i ekspertyz
Analizując powstałe systemy szukające ekspertów i ekspertyz autorzy [3] stworzyli model
dziedzinowy identyfikujący siedem aspektów, których uwzględnienia wymaga budowa takich
systemów:
54
Anna Kempa
Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz
1.
Podstawy pozyskania ekspertyzy. Systemy wyszukujące ekspertów używają różnego typu
materiałów dokumentujących ekspertyzę. Ogólnie można podzielić materiały na jawne i ukryte.
2. Ekstrakcja ekspertyzy. Gdy źródła zostaną zidentyfikowane – następuje ekstrakcja ekspertyzy.
3. Model ekspertyzy. Model ekspertyzy to meta-opis ekspertyzy człowieka, jego zdolności itp.
Taki model różni się od rekordu w bazie danych ekspertów, głównie tym, że zawiera pewien
stopień niepewności odnośnie zgodności z rzeczywistą ekspertyzą człowieka.
4. Mechanizm zapytań. System może wymagać od użytkownika jawnego zapytania systemu o
ekspertów lub może wnioskować potrzeby ekspertyzy na podstawie aktywności użytkownika.
5. Dopasowanie operacji. W celu zidentyfikowania ekspertów – informacje i potrzeby ekspertyz
są dopasowywane do modeli ekspertów używanych przez techniki wyszukiwania takie jak
dopasowanie słów kluczowych lub dopasowanie na podstawie podobieństwa (model wektorowy). Niektóre z systemów mogą być wyposażone w mechanizm wnioskujący.
6. Prezentacja wyników. Systemy wyszukujące ekspertów mogą prezentować wyniki w różnym
stopniu szczegółowości.
7. Adaptacja i nauka systemu. Operacje wykonane przez użytkownika podczas poprzednich
wyszukiwań ekspertów mogą zostać wykorzystane do określenia profilu preferencji użytkownika.
Wymienione aspekty wyznaczają jednocześnie etapy działania systemów wyszukiwania ekspertów. Powstające systemy różnią się między sobą doborem rozwiązań w poszczególnych etapach. Najbardziej istotna różnica kształtuje się już w etapie pierwszym – wyboru pozyskania podstawy ekspertyzy. Rola systemów, które bazują tylko na wiedzy jawnej (np. samoocenie ekspertów, danych kadrowych) sprowadza się głównie do realizacji sprawnego wyszukiwania danych o
ekspertach i ich prezentacji. Natomiast systemy aspirujące do korzystania z wiedzy niejawnej –
muszą być dodatkowo wyposażone w zdolność do jej pozyskiwania i gromadzenia.
6. Przykłady systemów wyszukiwania ekspertów
Zaprezentowane zostaną dwa systemy wyszukiwania ekspertów – oba starają się pozyskiwać
wiedzę niejawną, ale każdy w nieco inny sposób. System Expert Seeker podejmuje działania w
kierunku automatycznego pozyskiwania wiedzy o ekspertach angażując w tym celu zaawansowane technologie pozyskiwania informacji (m.in. data mining). System – Preciseer to przykład implementacji na polskim rynku, który zaprojektowano tak, aby zachęcić pracowników do ujawniania swojej wiedzy.
6.1. System Expert Seeker
Systemy nazywane People-Finder Systems – to składnice wiedzy, które próbują zarządzać
wiedzą przez gromadzenie odnośników do ekspertów, którzy posiadają specyficzną wiedzę wewnątrz organizacji. Intencją rozwoju takich systemów jest katalogowanie wiedzy o kompetencjach, włączając informacje pochwycone z innych niż tradycyjne źródła (takie jak systemy kadrowe) [1]. Expert Seeker (ES) jest systemem typu People-Finder KMS, używanym do lokalizacji
ekspertów w NASA. ES reprezentuje ważny krok w kierunku osiągnięcia celu automatycznego i
intuicyjnego odkrywania i identyfikowania intelektualnego kapitału w organizacji. Wiele systemów polega na samoocenie, autorzy ES rozpoznają potencjał technologii sztucznej inteligencji,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
55
szczególnie data mining i clustering techniques w odkrywaniu i tworzeniu map ekspertyz w organizacji.
Expert Seeker – jest dostępny w sieci Intranetu Centrum Kosmicznym Kennedy’ego. System
pozwala użytkownikowi wyszukiwać wiele szczegółów odnośnie osiągnięć ekspertów, włączając
takie informacje jak własność intelektualna, zdolności i kompetencje. ES dostarcza dostęp do
informacji, które nie są dostępne w typowych systemach kadrowych – takie jak wykonane projekty, patenty, hobby.
Główny interfejs zapytań systemu ES wykorzystuje pola tekstowe do szukania obszarów ekspertyzy wg słów kluczowych. Informacje są gromadzone w oparciu o multimedialne bazy danych.
Celem ES jest zunifikowanie połączonych zbiorów danych w dostępnym w sieci repozytorium,
które może być łatwo przeszukiwane.
Rozwój ES wymaga wykorzystania jak tylko to możliwe istniejących danych. ES wykorzystuje dane zawarte w bazach kadrowych (takie jak formalna edukacja); bazę zdolności, która profiluje
obszary kompetencji każdego pracownika; katalog zawierający informacje o kontaktach pracowników (X.500 Directory); system samooceny pracowników (GPES); oraz bazy systemu zarządzania projektami (PRMS). Ponadto system korzysta z innych istotnych w ustalaniu profilu ekspertów
informacji – takich jak zdjęcia pracownika, dane o projektach, w których brał udział, hobby.
Dodatkowym źródłem systemu jest repozytorium dokumentów tworzonych przez pracowników. Przy użyciu technik data mining na podstawie treści dokumentów tworzona jest tematyczna
macierz ekspertów. Autorzy systemu wykorzystali algorytm TFIDF do zmierzenia niepowtarzalności i trafności treści dokumentu w kolekcji dokumentów pod względem użycia słów kluczowych. Algorytm TFIDF posługuje się następującym wzorem:
wij = tfij * log(N/n), gdzie w jest wynikiem dla termu i w dokumencie j, natomiast tf jest częstością termu i w dokumencie j. N – ilość wszystkich dokumentów, n – ilość dokumentów zawierających term i niewiele razy. Rysunek 1 przedstawia architekturę systemu ES.
Expert Seeker
GUI Web Based
Generate
Employee
Profiles
User
Sprcified
Data
X 500
Directory
Skills
Database
Update
Employee
Profiles
HR Database
PRMS
GPES
Electronic
Document
Manag.
Rysunek 1. Architektura systemu Expert Seeker, źródło: [1]
Twórcy dążyli do automatycznego wydobywania danych. Sięgnięto w tym celu po techniki z
obszaru data mining dostosowanych do warunków pracy w sieci internetowej [2].
56
Anna Kempa
Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz
Tradycyjne metody wydobywania wiedzy (data mining) bazują na uporządkowanych, zwartych grupach informacji zamieszczonych w bazach danych. Sieć Web ma natomiast luźną strukturę, cechuje ją brak centralnego punktu przechowywania informacji i nieuporządkowanie danych.
W zależności od postaci danych wyróżnia się kilka typów web data mining [2], m.in. Web Content
Mining – inteligentne szukanie wskazanych danych w zasobach sieciowych różnego typu, w tym:
w tekście oraz danych multimedialnych,
Web Content Mining bazuje na text mining i technikach wyszukiwania informacji (IR). W tradycyjnym systemie IR użytkownik zadaje pytanie i system zwraca wszystkie dokumenty, które
pasują do wprowadzonych słów kluczowych. Expert Seeker opiera się na technikach IR, które idą
nieco dalej. Kiedy użytkownik wprowadza pytanie system początkowo przeszukuje dokumenty wg
wprowadzonych danych. Jednak kiedy użytkownik szuka ekspertów w specyficznej dziedzinie,
system zwraca nazwiska tych pracowników, których nazwiska ukazują się w dopasowanych dokumentach. Stopień relacji między nazwą pracownika a słowem kluczowym wewnątrz dokumentu
nie jest rozważany. Ekspertyza jest określana w oparciu o założenie, że jeśli pracownik powtarza
się w wielu dokumentach, to powinien mieć pewną wiedzę na temat danego termu.
Technologie użyte w implementacji systemu Expert Seeker: Cold Fusion 4.0, Java Script; Active Server Pages ASP (Coding and Programming); SQL Server 7.0 (Databases); Verity (Search
capabilities); Adobe Phototshop 5.0 (GUI); HTML i inne narzędzia internetowe.
6.2. System Preciseer
Wiedza w systemie Preciseer znajduje się zarówno w katalogach zawierających dokumenty,
jak również jest ona wnioskowana przez mechanizmy ekspertowe. Użytkownik systemu Preciser
w celu zlokalizowania wiedzy może wykorzystać następujące mechanizmy [4]:
• Przegląd katalogu dokumentów,
• Zaawansowane wyszukiwanie wiedzy,
• Lokalizacja ekspertów z każdej dziedziny wiedzy.
W bazie wiedzy znajdują się połączone relacjami dokumenty oraz odnośniki do zasobów zewnętrznych. Część dokumentów połączona jest ze sobą relacją struktury drzewiastej. Pozycja
dokumentu wskazuje znaczenie dokumentu w bazie oraz domenę wiedzy, którą reprezentuje.
Preciseer udostępnia użytkownikowi narzędzie do lokalizowania informacji w katalogu wiedzy. Wyszukiwanie ekspertów w systemie zwraca nie dokumenty, ale listę ekspertów z wyszukiwanej dziedziny. Zadawanie pytań odbywa się przy pomocy sformułowań typu: Podaj ekspertów z
dziedziny X, Podaj ekspertów z dziedziny Y, ale nie z X, Podaj ekspertów z dziedziny Z i/lub X.
Preciseer pozwala użytkownikowi na dokonanie oceny każdego dokumentu, do którego posiada uprawnienia. Pracownicy mogą przypisać ocenę procentową, która wg nich odpowiada danemu dokumentowi pod względem trafności udzielonej odpowiedzi. Każda ocena dokumentu jest
rejestrowana w systemie.
Jednym z istotnych zadań Preciseer jest szacowanie wiedzy pracowników w poszczególnych
dziedzinach wiedzy. System znając nazwiska autorów dokumentów oraz oceny pracowników
czytających te dokumenty szacuje na tej podstawie stopień fachowości ekspertów. Użytkownik w
wyszukiwarce ekspertów po zadaniu zapytania otrzymuje listę ekspertów z podaną przy każdym
szacowaną wiedzą eksperta w poszukiwanej dziedzinie (w procentach).
Po zlokalizowaniu eksperta użytkownik zadaje mu pytanie. Odbywa się to często przy pomocy poczty elektronicznej. Moduł QA Vehilce dostarcza mechanizm zadawania pytań i wysyłania
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
57
odpowiedzi za pośrednictwem poczty elektronicznej. Osoba pytająca może subiektywnie ocenić
otrzymaną odpowiedź, co będzie stanowiło kolejną podstawę szacunku oceny ekspertów. W systemie prowadzone są karty ekspertów, oprócz danych osobowych zawierają: ilość pytań, które
otrzymał pracownik, ilość pytań, na które pracownik odpowiedział, średnią wartość ocen jego
odpowiedzi, średni czas odpowiedzi. QA Vehicle stanowi nie tylko mechanizm komunikacji, ale
także fundamenty do szacowania wiedzy o pracowniku, o jego zainteresowaniach, zaangażowaniu
oraz aktywności.
Proces wyszukiwania ekspertów nie może być skuteczny bez zaangażowania ze strony pracowników – muszą oni chcieć dzielić się swoją wiedzą, publikować swoje dokumenty, odpowiadać na pytania. System spełniać ma zatem rolę nie tylko rejestratora wydarzeń, ale na nie wpływać
– motywując pracowników do otwarcia się na wspólne użytkowanie wiedzy w organizacji.
Preciseer System wykonany jest w architekturze trójwarstwowej z interfejsem typu „cienki
klient”, dzięki czemu funkcjonalność aplikacji dostępna jest za pomocą przeglądarki internetowej
z każdego komputera podłączonego do sieci firmowej. W Preciseer wykorzystano dodatkowe
elementy systemowe w postaci rozszerzeń [4]: Internet Explorer Add-in, MS Office Plugin, MS
Outlook, Windows Shell Extension.
7. Uwagi końcowe
Systemy wyszukujące ekspertów i ekspertyz zajmują podobszar funkcjonalności systemów
wspomagających zarządzanie wiedzą w całej organizacji. Skuteczność zarządzania wiedzą zależy
często od dialogu pomiędzy pracownikami organizacji. Wiedza zawarta w monologach (dokumenty zawierające samoocenę, CV itp.) może nie wystarczyć do wydobycia pełnej informacji na temat dostępnych w organizacji ekspertyz. Początkowo prace nad automatyzacją procesu wyszukiwania ekspertów były ukierunkowane głównie na udostępnienie użytkownikom możliwie wygodnych narzędzi przeszukiwania jawnych zbiorów danych, obecnie jednak kładzie się nacisk na rolę
dialogu w kształtowaniu wiedzy w organizacji. „Podsłuchiwanie” takiego dialogu nie jest łatwe.
Wydaje się, że postawienie problemu: „eksperci sobie, systemy wyszukujące ekspertów sobie” nie
pozwoli uzyskać satysfakcjonujących rezultatów. Eksperci powinni chcieć dzielić się swoją wiedzą, tak aby stosowane metody jej automatycznego pozyskiwania nie przypominały za bardzo
pracy tajnych agentów. Dialog musi w organizacji zaistnieć i należy zachęcić pracowników, aby
zostawiali ślady po nim w postaci możliwych do analizy komputerowej źródeł. Odchodzi się od
koncepcji systemów wyszukiwania ekspertów narzucających na ekspertów obowiązek stałego
uzupełniania ustalonych baz ekspertyz, na rzecz systemów samodzielnie pobierających sobie potrzebne informacje z różnych źródeł i dokonujących wstępnej analizy. Prezentowany system
Expert Seeker próbuje uzyskać wiedzę na temat ekspertyz przy użyciu technologii data mining.
Stosuje się także inne inteligentne metody, w tym systemy ekspertowe, które mają na celu wspomóc uzupełnianie repozytorium wiedzy w organizacji.
Dobór metod wyszukiwania ekspertów zależy od wybranych do współpracy z systemem źródeł ekspertyz. Systemy polegające jedynie na oficjalnych zasobach kadrowych wykorzystują typowe metody wyszukiwania informacji (IR). W im większym stopniu system ma polegać na zasobach rozproszonych, różnorodnych – tym silniej musi zostać wyposażony w elementy inteligentnego pozyskiwania informacji. Ponieważ wiedza o ekspertyzach jest najczęściej zapisana w naturalnym języku – metody automatycznego pozyskiwania wiedzy muszą być wyposażone w techniki analizy tekstu.
Anna Kempa
Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz
58
Omawiany system Preciseer stosuje system motywacyjny oparty o oceny ekspertów i ich ekspertyz. System ten nie obciąża pracowników koniecznością tworzenia i uzupełniania bazy - repozytorium, ale zachęca do zostawiania licznych śladów w systemie – w postaci publikowanych
dokumentów, w treści korespondencji elektronicznej. Dyskusyjny może być sposób motywacji
(procentowe oceny dokumentów i odpowiedzi na listy). Nie jest on wolny od zagrożeń – nietrudno
sobie wyobrazić „rozgadanych ekspertów”, którzy w większym stopniu zbierają punkty niż faktycznie pracują i pomnażają swoją i cudzą wiedzę. Idea dzielenia się wiedzą jest obarczona pewnymi ograniczeniami, jedne wynikają z poziomu uprawnień, a pozostałe związane są z gospodarowaniem czasem poszczególnych osób. Wzajemna wymiana wiedzy ma pomagać tworzyć kapitał
wiedzy w organizacji, ale nie może polegać na chaotycznym szmerze, gdzie każdy w każdej chwili
może każdemu przeszkodzić i zadać pytanie. Powstające systemy powinny szanować zarówno
czasową niedostępność eksperta jak i jego prywatność.
Koncepcja systemu motywującego pracowników do współpracy (ze sobą i z samym systemem) jest warta uwagi. Uwidacznia ona wzajemne powiązania technologii i zarządzania w organizacji. Sprawność systemów wyszukujących ekspertów zależy nie tylko od zastosowanych metod
informatycznych, ale także podejścia samych pracowników do koncepcji dzielenia się wiedzą i
prowadzenia dialogu.
Dalsze prace nad systemami tego typu będą miały na celu rozwój narzędzi ekstrakcji danych,
dobór metod ułatwiających tworzenie profilów ekspertów oraz doskonalenie sposobów wizualizacji wyników [3].
8. Literatura
1.
2.
3.
4.
Becerra-Fernandez I., 2000. Facilitating the Online Search of Experts at NASA using Expert Seeker People-Finder. Third International Conference on Practical Aspects of
Knowledge Management. Basel Switzerland.
Becerra-Fernandez I., 2001. Searching for Experts with Expertise-Locator Knowledge
Management Systems. Proceedings of the Association for Computational Linguistics
Conference Workshop on Human Language Technology and Knowledge Management.
Toulouse France.
Yimam-Seid D., Kobsa A., 2002. Expert Finding Systems for Organizations: Problem
and Domain Analysis and the DEMOIR Approach. Journal of Organizational Computing
and Electronic Commerce.
Materiały na temat systemu Preciseer zawarte na stronie producenta firmy Prosto Technologies z Rzeszowa http://www.proosto.com/cms/go/27
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
59
METHODS AND TOOLS SUPPORTING EXPERT AND EXPERTISE SEARCH
Summary
The article presents methods and tools supporting expert and expertise search.
After the presentation of their development from systems based on databases created manually by experts to systems gaining information automatically from various
sources – the paper concentrates on the selected systems: Expert Seeker and Preciseer, as examples of different approaches to gain tacit knowledge in an organization.
Keywords: Expert Search, Expertise Search
ANNA KEMPA
Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach
40-287 Katowice, ul. 1 Maja 50
e-mail: [email protected]
Jolanta Kondratowicz-Pozorska
Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami
i podmiotami istotnymi dla gospodarki żywnościowej
60
JOLANTA KONDRATOWICZ-POZORSKA
Akademia Rolnicza w Szczecinie
POWIĄZANIA GOSPODARCZO-INFORMACYJNE POMIĘDZY ROLNIKAMI
A ORGANIZACJAMI I PODMIOTAMI ISTOTNYMI DLA GOSPODARKI
ŻYWNOŚCIOWEJ
Streszczenie
W warunkach gospodarki konkurencyjnej ogół informacji niezbędnych do
sprawnego funkcjonowania firmy jest koniecznością i nosi miano systemu informacyjnego. W pracy przedstawiono rodzaje i źródła informacji. Poddane ocenie stopnia
zainteresowania rolników poszczególnymi źródłami wiedzy wraz z ich użytecznością
marketingową
Słowa kluczowe: źródła informacji, rodzaje informacji, sposoby wykorzystania informacji
1. Wstęp
Podstawowym ogniwem surowcowym gospodarki żywnościowej jest rolnik identyfikowany
jako działający w rozproszeniu producent surowców dla przetwórstwa żywności. Pozycja rolnika
w łańcuchu logistycznym, zależy od pozostałych następujących po sobie ogniw: przemysłu przetwórczego, handlu hurtowego i detalicznego a także konsumentów. Istotne jest pytanie czy rolnicy
mają takie same szanse poszukiwania informacji, gromadzenia i przetwarzania wiedzy jak pozostali uczestnicy życia gospodarczego? Próba odpowiedzi na to pytanie stanowi podstawę zamieszczonych poniżej rozważań.
Istnieje wiele publikacji naukowych polskich i zagranicznych, które niezbicie dowodzą, że
współczesna gospodarka opiera się w coraz to większym stopniu na wiedzy i niematerialnych
formach kapitału, które uzupełniając kapitał materialny i finansowy przynoszą wzrost produkcji,
większą efektywność gospodarowania i poprawę dobrobytu ludności.1 Uwzględniając do tego
zmianę w przedsiębiorstwach z orientacji produkcyjnej na marketingową ważnym zadaniem stojącym przed przedsiębiorcą jest właściwa organizacja procesu planowania marketingowego, który
pozwala zmniejszyć prawdopodobieństwo nieudanych decyzji. Szczególnie dużego znaczenia
nabiera ona w rolnictwie, gdzie podejmowanie decyzji w dłuższym okresie czasu jest koniecznością (np. wyznaczonym procesami wegetacyjnymi roślin lub cyklem produkcji zwierzęcej).
Rolnik hodowca, jak każdy przedsiębiorca, chce odnosić sukcesy oraz planować dalszy rozwój swojego gospodarstwa. Podejmowanie decyzji marketingowych wymaga od niego nie tylko
bardzo szerokich i dokładnych informacji marketingowych napływających w sposób ciągły, usystematyzowany, ale także umiejętności wykorzystania tych informacji. Uważa się, że racjonalne
decyzje mogą być podejmowane na podstawie2:
1
D. Oleszczuk Zarządzanie wiedzą w agrobiznesie. W: Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w UE. Prace Naukowe nr 35, SGGW, Warszawa 2005, s.13
2
W. Wrzos (red), Strategie marketingowe. PWE, Warszawa 2004, s.37
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
61
• 80% informacji,
• 10% pomysłowości,
• 10% intuicji (doświadczenia) menedżera (właściciela).
W warunkach gospodarki konkurencyjnej ogół informacji niezbędnych do sprawnego funkcjonowania firmy jest koniecznością i nosi miano systemu informacji.
W pracy przedstawiono rodzaje i źródła informacji otrzymano na podstawie próby statystycznej, w ramach której badano stopień zainteresowania rolników poszczególnymi rodzajami źródeł
wiedzy, jej przetwarzania i zastosowania w postaci konkretnych strategii marketingowych.
2. Rodzaje i źródła informacji niezbędnych w agrobiznesie
Ogół informacji niezbędnych do sprawnego funkcjonowania firmy można podzielić na informacje regulacyjne, o organizacji i technice, oraz o koniunkturze gospodarczej3. Informacje regulacyjne określają warunki powstawania i funkcjonowania firmy (np. regulacje systemu prawnego,
finansowego). Informacje o organizacji i technice wspomagają organizację pracy i produkcji (np.
wskaźniki, rozwiązania techniczne i technologiczne). Informacje o koniunkturze gospodarczej
determinują strategię działalności i rozwoju firmy (np. informacje statystyczne). Inny podział
informacji istotnych dla firmy to informacje o4:
1. konkurentach – producentach tych samych lub konkurencyjnych produktów, ich strategiach marketingowych, zamiarach na przyszłość,
2. rynkach zaopatrzeniowych – konkurentach zaopatrujących się na tych samych rynkach;
3. nabywcach instytucjonalnych – strategiach na przyszłość, planowanych technologiach
itp.,
4. ogniwach dystrybucji i ich strukturach organizacyjnych,
5. kooperantach systemu agrobiznesu,
6. polityce kredytowej banków wobec przedsiębiorstw rolniczych,
7. polityce państwa i działaniach agencji rolniczych.
Obecnie ważnymi informacjami będą także wynegocjowane w skupie ceny, a także ilości towaru –
limity surowca , które zostaną odkupione od rolnika. Wynegocjowane warunki i obowiązujące
akty prawne Unii Europejskiej w zakresie wspólnej polityki rolnej nabierają niezaprzeczalnie
coraz większego znaczenia i są ważnym bodźcem do podjęcia określonej produkcji rolniczej.
Po uwzględnieniu wszystkich powyższych informacji rolnik nie może też pominąć sygnałów płynących od samych konsumentów. Istotnymi informacjami są tu preferencje nabywców, obecne
trendy mody w żywieniu zalecenia dietetyczne (np. uważa się, że mięso drobiowe jest zdrowsze
niż wieprzowe), itp.
Rodzaje informacji napływających do rolnika są zróżnicowane oraz źródła tych informacji
mogą być różne. Strukturę rynków informacji w Polsce można przedstawić następująco5:
• rynki informacji rządowej i branżowej,
3
J. Orylska, System informacji gospodarczej dla agrobiznesu (w: )Przemiany strukturalne w rolnictwie, AR Szczecin, 1993,
s.167-168
4
B.Dobiegała-Korona, K.Duczkowska-Małysz, M. Duczkowska-Piasecka, J. Małysz, Marketing w agrobiznesie, CIM,
Warszawa 1995
5
J. Gołębiewski, Informacja rynkowa a sprawność łańcuchów dystrybucji produktów żywnościowych (W:) Zarządzanie
wiedzą…., SGGW, Warszawa 2005, s.366 - 368
62
Jolanta Kondratowicz-Pozorska
Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami
i podmiotami istotnymi dla gospodarki żywnościowej
• rynki czasopism, książek i opracowań,
• rynki informacji odpłatnej oferowanej przez agencje i ośrodki badań marketingowych.
Pierwszy rodzaj rynków informacji obejmuje przede wszystkim podmioty dostarczające dane
statystyczne, np. GUS, WUS oraz ważny element tego rynku - Zintegrowany System Rolniczej
Informacji Rynkowej stworzony przez Ministerstwo Rolnictwa i Rozwoju Wsi. Pozwala on na:
• opracowywanie metodologii rolniczych badań rynkowych,
• zbieranie danych rynkowych,
• tworzenie i zarządzanie elektroniczną bazą danych obejmującą dane rynkowe oraz ich
zabezpieczanie,
• przetwarzanie oraz analiza danych rynkowych,
• udostępnianie i rozpowszechnianie wyników badań rynkowych,
• szkolenie w zakresie rolniczych badań rynkowych.
Zakres zbieranych danych dotyczy cen: skupu, sprzedaży, giełdowych, targowiskowych, hurtowych, producenta, importera oraz wielkości obrotu.
W ramach tych badań prowadzone są też analizy rynków branżowych, których wyniki publikowane są w postaci biuletynów informacyjnych lub na stronie internetowej właściwego urzędu ministerstwa.
Drugi rodzaj rynku informacji to publikacje uczelni rolniczych i ekonomicznych, Instytutu
Ekonomiki Rolnictwa i Gospodarki Żywnościowej oraz około 60 czasopism poświęconych tej
problematyce. Coraz częściej informacje o stanie rynku można znaleźć na stronach internetowych
bezpłatnych branżowych czasopism elektronicznych.
Kolejnym rynkiem są wyspecjalizowane agencje zajmujące się badaniami, których wyniki są
oferowane odpłatnie. Jednak rolnicy korzystają z tego źródła bardzo rzadko ze względu na brak
środków finansowych.
Dobrze funkcjonujący system informacji firmy bądź gospodarstwa rolnego musi uwzględnić wszystkie źródła danych istotnych dla działalności gospodarczej (rys.1)
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
Eksporterzy/
importerzy
Zagraniczne Izby
Handlowe
63
Firmy produkują- Firmy konsultingowe
ce
Giełdy i targi
Banki krajowe i
zagraniczne
Centra handlowe i targi
Inwestorzy
Urząd Wojewódzki
Izby Gospodarcze
WUS i GUS
Wyspecjalizowane
Agencje
Pozostali uczestnicy rynku
Ośrodek przetwarzania informacji
gospodarczej dla
agrobiznesu
Firmy handlujące
Firmy pośredniczące
Firmy zaopatrzeniowe
Środki masowego
przekazu
Rysunek 1. Model gromadzenia i udostępniania informacji gospodarczej dla firm i agrobiznesu
Źródło: Orylska J., 1993. System informacji gospodarczej dla agrobiznesu. [W:] Przemiany strukturalne w rolnictwie, Wyd. AR w Szczecinie, 170.
3. Badanie stopnia wykorzystania źródeł informacji oraz wdrożenia przez rolnika
zdobytej wiedzy w doskonalenie procesu gospodarczego
W latach 2002-2004 przeprowadzono badania, które miały określić stopień zaawansowania
prac w przekształcaniu tradycyjnych gospodarstw rolnych w gospodarstwa przyszłości. Skierowano do losowo wybranych rolników ankietę, która zawierała pytania dotyczące charakterystyki
rolnika i jego gospodarstwa, a przede wszystkim pytania o podjęte przez niego działania na rzecz
przyjęcia orientacji marketingowej. Wybrano 498 gospodarstw małych (0-5 ha), 114 średnich (515 ha) i 100 gospodarstw dużych (15-więcej ha) mających swoje siedziby na terenie województwa
zachodniopomorskiego.
Analizie poddano instrumenty działań marketingowych, które są niezbędne do wprowadzenia
w gospodarstwach, aby w warunkach ostrej konkurencji mogły rywalizować z polskimi i innymi
gospodarstwami zjednoczonej Europy (tab.1)6.
Z badań wynika, że najwięcej instrumentów polityki produktu wprowadziły gospodarstwa duże posiadające znaczny potencjał produkcyjny i rezerwy finansowe na wdrażanie nowych rodzajów produkcji, technologii i podnoszenie kwalifikacji. Małe i średnie firmy sprzedające najczęściej
6
J.Kondratowicz-Pozorska, Zmiana roli gospodarstw rolnych i przekształcenie ich w nowoczesne firmy przyszłości (W:)
Marketing przyszłości, ZN US nr , Szczecin 2005,s.367
Jolanta Kondratowicz-Pozorska
Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami
i podmiotami istotnymi dla gospodarki żywnościowej
64
produkty nieprzetworzone i powszechnie używane nie są zainteresowane znakami firmowymi i
markami handlowymi. Nie zwracają również należytej uwagi na opakowanie własnych wyrobów.
Tabela. 1. Procent gospodarstw w województwie zachodniopomorskim
wdrażających instrumenty systemu marketingowego
Instrumenty wybranej polityki wchodzącej
Gospodarstwa
Gospodarstwa
Gospodarstwa
w skład systemu marketingowego
małe
średnie
duże
Polityka produktu
1. wprowadzenie nowych technologii produkcji
5
22
40
2. wprowadzenie nowej produkcji (odmian, ras, itp.)
3
13
25
3. podnoszenie własnych kwalifikacji zawodowych i umiejętności
-
15
20
4. produkcja ekologiczna
9
6
4
5. produkty przetworzone lub uszlachetnione
-
-
10
6. znaki firmowe i marki handlowe
-
1
10
7. wprowadzenie opakowań
-
-
4
8. inne
1
1
2
80
45
20
1
15
65
8
53
81
1. korzystanie z istniejących kanałów dystrybucji
100
100
100
2. poszukiwanie nowych kanałów dystrybucji
12
24
60
3. tworzenie nowych kanałów dystrybucji
-
2
15
4. inne
-
-
2
Polityka cenowa
1. gospodarstwa, które nie są w stanie wpływać na ceny tzw.
,,biorcy cen’’
2. gospodarstwa, które mogą kontrolować sprzedaż produktu i
wpływać na wysokość cen (np. poprzez magazynowanie)
3. ceny kontraktacyjne, negocjowane
4. inne
Polityka dystrybucji
Polityka promocji
1. przekazywanie informacji o własnym produkcie
-
-
10
2. pobudzanie zainteresowania nabywców i kształtowanie popytu
-
-
2
1
1
2
na własne wyroby
3. inne
Źródło: opracowanie własne
Z dostępnych materiałów wynika, że małe gospodarstwa rolne nie są w stanie samodzielnie realizować działań marketingowych niezbędnych w warunkach gospodarki rynkowej. Z tego powodu
duża rola w tym względzie przypada doradztwu rolniczemu i ekonomicznemu.
Następnym celem badawczym było ustalenie źródeł wiedzy wykorzystywanej przez rolników
wyszczególnionych w dziewięciu następujących grupach.:
• [1] rolnicy z wykształceniem podstawowym i zasadniczym, posiadający małe gospodarstwa,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
•
•
•
•
•
•
•
•
65
[2] rolnicy z wykształceniem średnim, posiadający małe gospodarstwa,
[3] rolnicy z wykształceniem wyższym, posiadający małe gospodarstwa,
[4] rolnicy z wykształceniem podstawowym i zasadniczym, posiadający średnie gospodarstwa,
[5] rolnicy z wykształceniem średnim, posiadający średnie gospodarstwa
[6] rolnicy z wykształceniem wyższym, posiadający średnie gospodarstwa,
[7] rolnicy z wykształceniem podstawowym i zasadniczym, posiadający duże gospodarstwa,
[8] rolnicy z wykształceniem średnim, posiadający duże gospodarstwa,
[9] rolnicy z wykształceniem wyższym, posiadający duże gospodarstwa.
W tabeli 2 przedstawiono drogi pozyskiwania niezbędnych informacji przez wyodrębnione
grupy rolników pomagające określić metody i kierunki gospodarowania. Najliczniej korzystano z
opracowań płatnych wtedy, gdy właściciele mieli duże, wysoko towarowe gospodarstwa, zaś sami
legitymowali się przynajmniej wykształceniem średnim. Natomiast nie korzystano z tego typu
opracowań, bez względu na poziom wykształcenia rolnika, w przypadku gospodarstw małych oraz
średnich (oprócz jednego przypadku). Innym spostrzeżeniem jest to, że rolnicy chętniej sięgają do
specjalistycznych opracowań im wyższe wykształcenie i większy areał gospodarstwa. Dla przykładu na 498 rolników dysponujących małym gospodarstwem 206 osób z wykształceniem podstawowym lub zasadniczym w 100% potwierdziło, że korzysta z wiedzy ludzi z którymi spotyka
się na co dzień, sąsiadów lub ludzi, którym - jak uważają - ,,lepiej się powodzi’’. Około 98% pytanych czerpie informacje z telewizji, radia i Internetu. Jeden na czterech zapytanych przyznaje, że
zagląda czasami do specjalistycznych czasopism. Dodatkowo trzech na czterech zapytanych w tej
grupie podaje także inne źródła zdobywania informacji.
Stu pięciu ankietowanych z wykształceniem średnim gospodarujących na małych areałach
podkreśliło znaczenie informacji pochodzących ze środków przekazu publicznego (takich jak
wymienione w tabeli 2) – 100% wszystkich wypowiedzi w tej grupie. Około 83% przyznało, że
korzysta z doradztwa rolniczego, a 51% głosów wskazywało, że ważną rolę doradczą odgrywają
sąsiedzi. Pozostali rolnicy (tj. 187 osób, które ukończyły studia) w tej grupie gospodarstw najchętniej liczyli na fachową pomoc ODR-ów i szkolenia informujące o założeniach WPR.
W drugiej grupie obserwacyjnej, do której należą rolnicy ze średnią wielkością gospodarstw,
głównym źródłem danych jest:
- rynek informacji rządowych i branżowych – tu prawie każdy pytany rolnik, bez względu na wykształcenie, odpowiadał twierdząco na pytanie, czy korzysta z tego rodzaju rynku informacji;
- rynek czasopism, książek i opracowań (odpowiednio: 100, 75,5 i 64,3% odpowiedzi)
- środki przekazu publicznego – 85% twierdzących odpowiedzi wśród pytanych z najniższym
wykształceniem i po 100%odpowiedzi u pozostałych ankietowanych;
- dane zebrane w Agencjach Rynku Rolnego, ODR-ach, AR i MR są najciekawszą formą pozyskiwania wiedzy dla rolników ze średnim (95,5%) i wyższym wykształceniem (100%). Im wyższe
wykształcenie gospodarza, tym więcej źródeł czerpania wiedzy o sposobach i jakości gospodarowania.
66
Jolanta Kondratowicz-Pozorska
Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami
i podmiotami istotnymi dla gospodarki żywnościowej
Charakterystyczne jest także pewne zjawisko wyraźnego ,,oglądania się’’ na sąsiadów. Założeniami WPR zainteresowani byli wszyscy właściciele średnich gospodarstw z wykształceniem
wyższym i około 87% rolników z wykształceniem średnim.
Przy średniej powierzchni gospodarstw wymagane jest zazwyczaj zatrudnianie w okresie wiosenno - jesiennym pracowników sezonowych, a tylko właściciele są zatrudnieni na stałe. Na nich to
spoczywa cały wysiłek poszukiwania informacji, jej gromadzenia, przetwarzania i wykorzystywania.
Ostatnia stuosobowa grupa najzamożniejszych rolników, najchętniej korzysta z dwóch pierwszych źródeł wiedzy (powyżej 90% wszystkich odpowiedzi) oraz ze środków przekazu publicznego (100% odpowiedzi), spotkań i informatorów na temat WPR. Ich poczynania i zdobyta wiedza
są gromadzone przez - specjalnie w tym celu - zatrudnionych pracowników, których zadaniem jest
bieżące śledzenie wszelkich zmian w polityce i gospodarce państwa polskiego oraz wszystkich
członków Unii Europejskiej. Zmiany te są na bieżąco analizowane i na ich podstawie opracowywane są różne strategie postępowania. Właściciel liczy się z doświadczeniem zatrudnionych u
siebie pracowników, wymagając jednocześnie poszerzania wiedzy i doskonalenia umiejętności.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
67
[1]
23
56
[2]
42
33
[3]
65
121
[4]
27
27
[5]
43
34
[6]
42
27
[7]
34
35
[8]
33
32
[9]
27
27
Źródło: obliczenia własne
x
x
x
x
x
1
3
13
12
31
87
110
6
43
42
27
33
19
3
25
147
12
39
42
22
31
27
201
105
187
23
45
42
38
35
27
pozostałe
Najbliższe otoczenie rolnika
Rynki informacji ogólnodo-
stępnej (TV, RTV, Internet)
ce z prowadzenia WPR
Rynki informacji wynikają-
go
rynki informacji bezpłatnej
agencji doradztwa rolnicze-
gowych
agencji i
ośrodków badań marketin-
rynki informacji odpłatnej
opracowań
rynki czasopism, książek i
i branżowej
rynki informacji rządowej
Grupy
rolników
Tabela 2. Źródła czerpania informacji na temat gospodarki żywnościowej przez wybrane grupy rolników
województwa zachodniopomorskiego
206
54
22
21
36
29
15
27
14
157
32
40
16
19
16
21
6
7
Jolanta Kondratowicz-Pozorska
Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami
i podmiotami istotnymi dla gospodarki żywnościowej
68
4. Uwagi końcowe
Zarządzanie wiedzą w podmiotach gospodarczych można sprowadzić do umiejętności najlepszego użytku z wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy oraz zwiększanie świadomości i zrozumienia otaczającej rzeczywistości. Analiza tablicy 1 i 2 pozwala sprecyzować stwierdzenie, że tylko duże gospodarstwa rolnicze są na tyle silne aby budować wizerunek
nowoczesnych gospodarstw rolniczych, a wykształcenie właściciela gospodarstwa nie ma zasadniczego znaczenia dla rozwoju i strategii przyszłościowych takich podmiotów, ponieważ za stan
gospodarstwa odpowiedzialny jest odpowiednio wyselekcjonowany sztab ludzi o odpowiednich
umiejętnościach. Prowadzona przez nich strategia zarządzania wskazują, że wdrażane instrumenty
systemu marketingowego są korzystne dla firmy.
Gospodarstwa średniej wielkości, mimo znacznie szczuplejszych środków finansowych i
uboższych możliwości pozyskiwania fachowej załogi budują przyszłość poprzez samodoskonalenie się właścicieli, korzystanie z wiedzy sprawdzonych specjalistów i fachowej literatury. Na podkreślenie zasługuje fakt, że rolnicy ze średnim i wyższym wykształceniem wykorzystują wszystkie
okazje do pozyskiwania informacji przydatnej w opracowaniu strategii firmy.
Stosunkowo najgorszą sytuację rozwojową mają gospodarstwa małe, które najczęściej nie korzystają z trzech podstawowych rynków informacji, a dominującym źródłem informacji są sąsiedzi
i wiadomości ze środków masowego przekazu. Nie ma też pozytywnych sygnałów wdrażania
instrumentów systemu marketingowego.
5. Literatura
1.
2.
3.
4.
5.
6.
Dobiegała-Korona B., Duczkowska-Małysz K., Duczkowska-Piasecka M., Małysz J.,
1995. Marketing w agrobiznesie. CIM, Warszawa.
Gołębiewski J., 2005. Informacja rynkowa a sprawność łańcuchów dystrybucji produktów żywnościowych [W:] Zarządzanie wiedzą w agrobiznesie w warunkach polskiego
członkostwa w UE. SGGW Warszawa, 366 – 368.
Kondratowicz-Pozorska J., 2005. Zmiana roli gospodarstw rolnych i przekształcenie ich
w nowoczesne firmy przyszłości (W:) Marketing przyszłości. ZN US nr 3 Szczecin, 367.
Oleszczuk D., 2005. Zarządzanie wiedzą w agrobiznesie. [W:] Zarządzanie wiedzą w
agrobiznesie w warunkach polskiego członkostwa w UE. Prace Naukowe nr 35. SGGW
Warszawa, 13.
Orylska J., 1993. System informacji gospodarczej dla agrobiznesu [W: ] Przemiany strukturalne w rolnictwie. AR Szczecin, 167-168.
Wrzos W. (red), 2004. Strategie marketingowe. PWE Warszawa, 37.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
INFORMATION AND ECONOMIC CONNECTIONS BETWEEN FARMERS WITH
CRITICAL ORGANIZATIONS AND FOOD ECONOMY ENTITY
Summary
System of information it’s all information needful for efficient activities of a company under
competitive economy conditions. This publication contains different types and sources of information. Degree of farmers particular interest of knowledge sources or knowledge processing and creating in solid policy marketing is based on the statistical trial.
Keywords: Sources of Information, Types of Information, Methods of Information Using,
Information Retrieval
JOLANTA KONDRATOWICZ-POZORSKA
Akademia Rolnicza w Szczecinie
Katedra Statystyki Matematycznej
Szczecin ul. Monte Cassino 16
[email protected]
69
Małgorzata Nycz, Barbara Smok
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
70
MAŁGORZATA NYCZ
BARBARA SMOK
Katedra Systemów Sztucznej Inteligencji
Akademia Ekonomiczna we Wrocławiu
ROLA I ZNACZENIE WIEDZY W SPOŁECZEŃSTWIE INFORMACYJNYM
Streszczenie
Żyjemy w czasach charakteryzujących się bardzo szybkimi przemianami spowodowanymi rozwojem technik informacyjno-komunikacyjnych. Szczególnego znaczenia nabiera wiedza, jej zdobywanie , wykorzystywanie i wymiana poprzez sieci komunikacyjne. Referat poświęcony jest wiedzy i jej znaczeniu we współczesnym społeczeństwie określanym jako społeczeństwo informacyjne.
Słowa kluczowe: wiedza, zarządzanie wiedzą, społeczeństwo informacyjne
1. Wprowadzenie
W ostatnim dziesięcioleciu wzrastało znaczenie działalności gospodarczej realizowanej w skali międzynarodowej. Rozwijały się różne formy współpracy firm o różnej lokalizacji geograficznej. Ten etap przemian, w którym obecnie znajduje się gospodarka światowa określa się mianem
globalizacji. Jej podstawą jest rozwój najnowszych technologii, który zmienia m. in. organizację
współczesnych przedsiębiorstw, która wiąże się z globalnym rynkiem, przepływem kapitału, towarów i ludzi, którzy sprzedają swoje umiejętności. Duże znaczenie zaczynają odgrywać międzynarodowe korporacje, które kierując się generowaniem zysku przeobrażają swoją siłę ekonomiczną
w polityczną. Wykorzystują one procesy decyzyjne rządów i przy pomocy umów międzynarodowych zmieniają zasady handlu celem osiągnięcia maksimum zysku bez względu na ponoszone
przez całe narody konsekwencje społeczne. Proces ten przebiega dynamicznie i jego skutki obserwujemy także w naszym kraju. W swoich działaniach przedsiębiorstwa muszą przewidzieć wpływ
globalizacji na sytuację bieżącą i w przyszłości firmy, gdyż inaczej nie będą się liczyć na dynamicznie zmieniającym się rynku.
Obserwujemy pojawienie się nowej gospodarki, która nie podlega tradycyjnym analizom i narzędziom. Przemiany są widoczne nie tylko na poziomie poszczególnych przedsiębiorstw ale i
również całego świata. Przedsiębiorstwa zainicjowały w tym czasie elektroniczną transmisję danych, wykorzystując standardy EDI oraz sieć WAN. Następnie powstawały pakiety CAD (Computer-Aided Design), CAE (Computer Aided Engineering) oraz CAM (Computer-Aided Manufacturing), które umożliwiły inżynierom, projektantom i technikom pracę nad projektowaniem opisów
technicznych, rysunków inżynieryjnych i technicznej dokumentacji, szybciej i dokładniej przy
wykorzystaniu wewnętrznej sieci komunikacyjnej przedsiębiorstwa. Upowszechnienie Internetu
przyczyniło się do wykorzystania technologii e-commerce nawet przez najmniejsze przedsiębiorstwa, które mogły się komunikować elektronicznie. Ta sytuacja umożliwiła rozwój i wdrażanie
nowych metod, jak np. komunikacji z potencjalnym klientem, sprzedaży produktów i usług drogą
elektroniczną.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
71
Umiejętność dostosowania się do nowego rynku wymaga ciągłego doskonalenia i rozszerzania swoich umiejętności. Istnieje zapotrzebowanie na pracowników z doświadczeniem w danej
dziedzinie. Poszukiwani będą pracownicy, którzy będą szybciej przystosowywać się do zmieniających się potrzeb przedsiębiorstwa.
Przedsiębiorstwa wykorzystując m.in. internet w swoich kontaktach mogą wzmocnić swoją
pozycję na rynku poprzez np. zwiększenie wydajności transakcji handlowych, kontrolę nad kanałami dystrybucyjnymi, szybką reakcję na potrzeby klientów.
Na dynamicznie zmieniający się rynek zareagowała także UE. Strategia Lizbońska postawiła
przed krajami członkowskim Unii Europejskiej zadanie stworzenia do 2010 r. najbardziej konkurencyjnej gospodarki opartej na wiedzy. Na założeniach tej Strategii oparto plany działań związane
z budową i rozwojem społeczeństwa informacyjnego w krajach Unii Europejskiej.
Podstawą gospodarki opartej na wiedzy jest edukacja, nauka oraz rozwój społeczeństwa informacyjnego. Są to obszary gospodarki, które powinny rozwijać się i zapewniać dopływ wykwalifikowanych kadr oraz nowoczesnych rozwiązań technologicznych.
Próbuje się uchwycić najważniejsze cechy rozwijającego się społeczeństwa informacyjnego (zw. także społeczeństwem wiedzy, społeczeństwem XXI wieku, czy elektronicznym). Należą
do nich informacja (wiedza), nauka, oraz technologie teleinformatyczne umożliwiające rozpowszechnianie informacji przez środki masowego komunikowania (m.in. przez telewizję). Nowe
środki przekazywania informacji w zasadniczy sposób zmieniają szeroko rozumianą strukturę
społeczną i charakter kontaktów pomiędzy jednostkami, grupami, narodami.
Żyjemy w czasach określanych jako epoka oparta na wiedzy. Zatem posiadanie wiedzy jest
tym zasobem, który decyduje o powodzeniu zarówno jednostek, jak i organizacji gospodarczych.
Globalizacja, której sprzyjał szybki rozwój cywilizacyjny, rozpowszechnienie się stosowania techniki komputerowej, rozwój sieci komputerowych, ułatwia dotarcie do żądanych informacji oraz
ich wymianę ułatwiając pracę różnym zespołom. Mówi się, że jesteśmy (a w każdym razie dążymy w tym kierunku) społeczeństwem informacyjnym, w którym o wartości przedsiębiorstwa decyduje zawarta w nim wiedza.
Dzisiaj pojęcie "społeczeństwo informacyjne" stało się synonimem nowoczesności, kreatywności, aktywności, wolności oraz dobrobytu ogółu ludzi.
2. Społeczeństwo informacyjne
Wkroczyliśmy w erę, gdzie najcenniejszym zasobem stała się informacja. Coraz częściej możemy zaobserwować powstanie nowego typu społeczeństwa, które związane jest z rozwojem
technologii teleinformatycznych. Telefonia komórkowa czy Internet umożliwiają komunikację i
dostęp do informacji na szeroką skalę i są istotne w porozumiewaniu się i przekazywaniu wiedzy
na odległość. Obserwuje się szybki rozwój technologii, które umożliwiają wykorzystanie, pozyskiwanie, przesyłanie i analizę informacji.
Celem budowy społeczeństwa informacyjnego u nas powinno być tworzenie potencjału gospodarczego umożliwiającego przedsiębiorstwom aktywne konkurowanie w globalnej gospodarce
opartej na wiedzy. Nowa gospodarka jest źródłem wielu szans, ale należy zadbać o aspekty rozwoju gospodarczego i społecznego, które zapewnią konkurencyjność w skali globalnej.
Istotą społeczeństwa informacyjnego jest przede informacja (wiedza) oraz potrzebne narzędzia (jak np. Internet), które umożliwią dostęp do niej. W określeniach społeczeństwo informacyjne i społeczeństwo wiedzy, pojęcia informacja i wiedza są stosowane zamiennie, lecz nie należy
72
Małgorzata Nycz, Barbara Smok
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
utożsamiać informacji i wiedzy, ponieważ informacje są to uporządkowane dane, docierające
powszechnie do większości ludzi za pomocą radia, telewizji, gazet itp. natomiast wiedza jest
czymś więcej niż informacją, jest umiejętnością wykorzystania informacji, która wciąż dostępna
jest mniejszemu gronu ludzi. Informacja staje się coraz częściej towarem bardzo dochodowym.
Nie ma jednej obowiązującej definicji Społeczeństwa Informacyjnego. Zwykle pod tym pojęciem rozumie się społeczeństwo wykorzystujące komputery i techniki informatyczne. Większość
definicji kładzie się nacisk na znaczenie informacji:
„Społeczeństwo charakteryzujące się przygotowaniem i zdolnością do użytkowania systemów informatycznych, skomputeryzowane i wykorzystujące usługi telekomunikacji do przesyłania i zdalnego przetwarzania informacji"1.
Termin ten jest znany już od dawna. Po raz pierwszy użył go w 1963 roku T. Umesamo w artykule o społeczeństwie przetwarzającym informację w japońskiej sytuacji gospodarczej.
Cechy społeczeństwa informacyjnego sformułował m.in. D. Bell [8] w 1973r., zaliczając do
nich:
•
Dominacja sektora usług w gospodarce, a głównie rozwój finansów, ubezpieczeń, służby
zdrowia, oświaty i nauki,
•
Dominacja specjalistów i naukowców w strukturze zawodowej,
•
Wzrost znaczenia wiedzy teoretycznej jako źródła innowacji i polityki,
•
Dążenie do społecznej kontroli nad rozwojem techniki,
•
Tworzenie „technologii intelektualnych” jako podstawy podejmowania decyzji politycznych i społecznych.
Od 1999 roku w Unii Europejskiej wykorzystuje się "eEurope - An Information Society for
All", który ma na celu m.in. wprowadzenie Europejczyków w erę informacji we wszystkich sferach aktywności społeczno-zawodowej, tworzenie Europy konkurencyjnej w stosunku do innych
krajów, pracę w gospodarce opartej na wiedzy (knowledge-based economy), powszechne korzystanie z gospodarki opartej na wiedzy.
Ze społeczeństwem informacyjnym związana jest gospodarka oparta na wiedzy (GOW).
Termin ten pojawił się na początku lat 90-tych był używany w stosunku do Stanów Zjednoczonych, a później rozszerzono go na najbardziej rozwinięte gospodarki świata. Pojęcie to kojarzy się
z technologiami informacyjno-komunikacyjnymi, postępem technicznym i innowacyjnością.
GOW cechuje rosnące znaczenie globalizacji, nauki i wiedzy, które są podstawą współczesnych
przemian. Rośnie zapotrzebowanie na wiedzę i wykwalifikowanych pracowników umysłowych.
Technologie informacyjne szybko się rozprzestrzeniają i dotyczą każdego z nas. Rewolucja informacyjna zakładająca ciągły dostęp do wiedzy i technologii, wpływa na styl życia, pracy i nauki.
Współzależność telekomunikacji, multimediów i technologii informacyjnych jest siłą w procesie
tworzenia nowych produktów i usług oraz wpływa na sposoby prowadzenia biznesu i handlu.
Globalne Społeczeństwo Informacyjne stało się jednym z kluczowych elementów strategii
Komisji Europejskiej, której celem jest wzmocnienie konkurencyjności europejskiej gospodarki2.
Wejście Polski do struktur UE spowodowało zmiany w obszarze ICT (technologii informacyjnych
i komunikacyjnych) w naszym kraju m.in. w zakresie społeczeństwa informacyjnego i gospodarki
opartej na wiedzy.
1
2
Kongres Informatyki Polskiej, 1994, na podstawie Raportu Bangemana dla Rady Europy
http://histmag.org/archiwalia/mag45-46/#fn3
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
73
Konkurencyjność na dynamicznie zmieniającym się rynku wymaga tworzenia i wprowadzaniu na rynek innowacji, ciągłego podnoszenia kompetencji, tworzenia i przyswajania nowej wiedzy.
W naszym kraju dokumentami dotyczącym budowy Społeczeństwa Informacyjnego są m.in.
ePolska czy Program Operacyjny „Nauka, nowoczesne technologie i społeczeństwo informacyjne,
2007-2013” z czerwca 2005r., opracowany przez Ministra Nauki i Informatyzacji. W ramach ePolski kładzie się nacisk na informowanie i przygotowywanie naszego społeczeństwa na przemiany społeczne oraz na zmiany na rynku pracy. Podkreśla się też rolę dostosowania prawa do zjawisk związanych z rozwojem technologii teleinformatycznych oraz przystosowanie administracji
do powszechnego stosowania narzędzi informatycznych. Zaś Program Operacyjny zawiera wytyczne odnośnie działań, które mają być podejmowane tak, by nasze społeczeństwo spełniało wymogi społeczeństwa informacyjnego.
Wyróżnikiem ery informacji i wiedzy jest technologia informacyjna obejmująca informatykę,
telekomunikację, narzędzia i inne technologie związane z informacją. Dostarcza ona użytkownikom narzędzi informatycznych, za pomocą których mogą pozyskiwać informacje, selekcjonować
je, analizować, przetwarzać i przekazywać innym ludziom.
Społeczeństwo informacyjne czy gospodarka oparta na wiedzy związana jest z takimi pojęciami, jak: dane, informacja, wiedza, teleinformatyka, innowacyjność, konkurencyjność itp. Opracowania dotyczące ery informacji traktują wiedzę jako zasób wpływający na kierunki rozwoju
społeczno - gospodarczego oraz wskazują główne problemy, jakim należy sprostać zaczynając od
rozwoju infrastruktury technicznej, która umożliwia magazynowanie informacji, sieci telekomunikacyjnych usprawniających ich wymianę, poprzez regulacje państwa w zakresie ochrony praw
własności intelektualnej i na dostosowaniu edukacji do potrzeb rynku kończąc.
W warunkach globalizacji i konkurencji takie podejście do przepływu i przetwarzania wiedzy
już nie wystarcza. Konieczne staje się przejście do zarządzania wiedzą wspomagane nowoczesną
technologią.
W społeczeństwie informacyjnym dominującą rolę odgrywa wiedza. Zasobem strategicznym
staje się kapitał intelektualny będący sumą wiedzy posiadanej przez ludzi tworzących organizację
oraz nieuchwytną wartością określającą ogólną wartość firmy lecz różną od wartości finansowej.
Jest on połączeniem wiedzy, umiejętności, kompetencji i innowacyjności wszystkich pracowników firmy. Jego zadaniem jest dodawanie lub też powiększanie wartości istniejącej w firmie. Jest
on istotną wartością przedsiębiorstwa. Ma szczególne znaczenie w firmach bazujących na wiedzy,
których silna pozycja na rynku jest zapewniona poprzez ich przewagę kadrową nad konkurencją.
Gospodarka oparta na wiedzy jest kolejnym etapem rozwoju gospodarki światowej. Zasadniczym czynnikiem, od którego zależy wzrost gospodarczy jest kapitał ludzki, zaś o jego bogactwie
decydują zasoby ludzkich umiejętności. O konkurencyjności firmy decydują posiadane zasoby
kadrowe, których atutem jest jakość jej kapitału intelektualnego. Każda firma musi być strategicznie zorientowana na najwyższy poziom własnego kapitału intelektualnego oraz uczestnictwo w
rywalizacji w obszarze tworzenia i wprowadzania innowacji do swojej oferty rynkowej. Dlatego
kluczowe znaczenie zaczyna mieć technologia gromadzenia, analizy, selekcji i korzystania z globalnych informacji o innowacjach, oraz zdolność firmy do pozyskiwania tych innowacji, stosowania ich we własnych produktach i rozwijania ich.
74
Małgorzata Nycz, Barbara Smok
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
3. Wiedza w przedsiębiorstwie
Dzisiaj wiedza uważana jest za jeden z kluczowych zasobów, który pozwala uzyskać przewagę
nad konkurencją. Często też jest określana mianem zasobu, a więc można nią zarządzać, jak
zasobami materialnymi. W celu optymalizacji zarządzania zasobami materialnymi rozwinięto
metodykę zarządzania łańcuchem dostaw (Supply Chain Management - SCM). Rozwinięto różne
podejścia do SCM, z których każde miało na celu zmniejszenie kosztów związanych z
przepływem surowców, produktów - zasobów w procesie produkcji od momentu dostawy aż do
sprzedaży. Wraz z rozwojem nowoczesnych środków transportu i wykorzystaniem rozwiązań
teleinformatycznych zaczęto coraz częściej stosować opracowaną w Japonii metodykę "just-intime". Celem tego podejścia było jak najszybsze dostarczanie odpowiednich zasobów, w
odpowiedniej ilości, minimalizując jednocześnie koszty magazynowania. Dzisiejsze
przedsiębiorstwa coraz częściej są zorganizowane wokół wiedzy, a technika informatyczna wnosi
znaczny wkład w możliwości zarządzania wiedzą, która staje się zasobem strategicznym.
Wszystkie przedsiębiorstwa posiadają i wykorzystują jakąś wiedzę. Istnieje wiedza werbalna i
niewerbalna, kodyfikowana i nie kodyfikowana, zbiorowa i indywidualna, wiedza dla pracownika,
wiedza pracownika. Istnieje wiele sposobów definiowania i klasyfikowania wiedzy. Coraz więcej
ludzi postrzega wiedzę jako kapitał.
Trudno jest precyzyjnie określić wiedzę. Trudno jest także określić granice pomiędzy informacją,
wiedzą, a mądrością. Wiedzą, jak każdym innym zasobem należy zarządzać, a więc
wykorzystywać, pozyskiwać, gromadzić i pielęgnować. Problemem jest uchwycenie wiedzy
(informacji) użytecznej dla przedsiębiorstwa i przetworzenie jej i prezentacji tak, aby możliwa
była do wykorzystania. Większość informacji na rynku nie można bezpośrednio wykorzystać w
procesie zarządzania. Informacje te muszą zostać poddane analizom, a tego potrzebna jest
odpowiednia technologia informatyczna. Rozwój systemów informatycznych objął swym
zasięgiem również technologie wspomagające zarządzanie w przedsiębiorstwach. Można
zaobserwować przejście od pojęcia przetwarzania danych do pojęcia zarządzania i przetwarzania
wiedzy. Dane i informacje są związane ze sprzętem i systemami informatycznymi. Natomiast
wiedza i mądrość związana jest z ludźmi (rys.1). Wiedza potrzebna jest w każdej dziedzinie życia,
a potocznie na ogół jest kojarzona z erudycją i z zasobami danych. Istnieje jednak inny aspekt
wiedzy, jako narzędzia umożliwiającego wyciąganie wniosków z sytuacji. W sztucznej inteligencji
ten właśnie aspekt wiedzy ma podstawowe znaczenie i można ją zdefiniować następująco [1]:
wiedza jest to zbiór informacji dający możliwość wyciągania wniosków na podstawie przesłanek.
Mądrość to sztuka i umiejętność przewidywania różnych stanów rzeczy oraz wyboru z wielu
możliwości tego, co jest najbardziej optymalnym w danej sytuacji. Odkrycie nowej wiedzy i
przetworzenie jej w mądrość powinno umożliwić firmie osiągnięcie przewagi konkurencyjnej.
Rys.1. Interpretacja wiedzy
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
75
Wiedza, która coraz częściej jest postrzegana jako ważny element potencjału strategicznego przedsiębiorstwa, powoli staje się aktywem podlegającym procesom zarządzania. Jest niematerialnym zasobem przedsiębiorstwa, w skład którego wchodzą m.in.: pracownicy (ich wiedza i
umiejętności), powiązania z klientami i partnerami na rynku, własność intelektualna (znaki handlowe, marki, licencje, patenty, prawa wyłączności, prawa autorskie), zasoby organizacyjne (stosowane procesy, procedury, zasady postępowania), zasady relacyjne (umowy, alianse, powiązania
z innymi podmiotami).
Zarządzanie wiedzą prowadzi do osiągania korzyści przez organizację oraz bardziej sprawnego
i efektywnego realizowania jej misji i celów strategicznych. Jest zasadniczą zmianą zarządzania
przedsiębiorstwem polegającą na efektywnym wykorzystaniu zasobów niematerialnych a głównie
kapitału intelektualnego. Racjonalne wykorzystanie tego kapitału jest możliwe tylko przy wykorzystaniu odpowiednich narzędzi i form zarządzania.
Wiedza [TIWA03, s.60] jest płynną mieszaniną kontekstowych doświadczeń, wartości, informacji i umiejętności tworzącą ramy dla oceny rozumienia i przyswojenia nowych doświadczeń i
informacji. Tego typu wiedza znajduje odzwierciedlenie nie tylko w dokumentach i repozytoriach
ale również w zwyczajach, procesach, praktykach i normach organizacji.
Wiedza to informacje [TIWA03, s.61] umożliwiające podejmowanie działań – informacje
głębsze, bogatsze i praktyczniejsze. Jest dostępna we właściwym kontekście, tam gdzie wymagane
jest podejmowanie właściwych decyzji. Jest aktualną informacją posiadającą znaczenie, kontekst i
cel, dzięki którym wywiera stale wpływ na podejmowanie decyzji. Wiedza jest podzbiorem kapitału intelektualnego.
4. Kapitał intelektualny
Kapitał intelektualny to aktywa takie, jak wiedza, zbiorowe kompetencje, klientela i renoma
firmy (good will), wartość marki, patenty, których nie da się zmierzyć tradycyjnymi metodami
księgowymi, ale mimo to przynoszą firmie korzyści. Umiejętności i kompetencje ludzi, pozycja
rynkowa, renoma i stała klientela firmy, uznanie, osiągnięcia, patenty, kontakty, poparcie i
partnerzy są różnymi aspektami kapitału intelektualnego.
Wg Międzynarodowego Stowarzyszenia Księgowych [3] kapitał intelektualny jest
całkowitym kapitałem przedsiębiorstwa (odnosi się do zawartej w nim wiedzy), na który składają
się wiedza, doświadczenie pracowników, zaufanie, marka, umowy z partnerami, systemy
informacyjne, procedury administracyjne, patenty, znaki handlowe, efektywność procesów.
Wartość kapitału intelektualnego można obliczyć jako różnicę pomiędzy wartością księgową a
rynkowa przedsiębiorstwa.
W ramach kapitału intelektualnego wyróżnia się:
• kapitał ludzki (umiejętności i wiedza ludzi),
• kapitał innowacyjny (zdolność do innowacji),
• kapitał procesowy (procesy, techniki, narzędzia wykorzystywane w organizacji).
Kapitał intelektualny jest oparty na wiedzy, chociaż obejmuje jeszcze inne wymiary tworzenia
wartości przedsiębiorstwa (np. marka handlowa, powiązania z zewnętrznymi zainteresowanymi
itp.) [BRST01, s.69]. Często do jego składników zalicza się:
•
kapitał społeczny rozumiany jako kapitał strukturalny (powiązania w sieci, konfiguracja
sieci, odpowiedzialność organizacji), stosunki międzyludzkie (zaufanie, normy, zobowią-
76
Małgorzata Nycz, Barbara Smok
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
zania, identyfikacja), kapitał poznawczy (wspólnie podzielane słowniki, wspólny język,
wspólnie dzielone opowieści),
•
kapitał ludzki to kompetentność (umiejętności, wiedza teoretyczna, talenty), zręczność intelektualna (innowacyjność ludzi, zdolność do naśladowania, przedsiębiorczość, zdolność
do zmian), motywacja (chęci działania, predyspozycje osobowościowe, zaangażowanie w
procesy organizacyjne, skłonności do zachowań etycznych, władza organizacyjna, przywództwo menedżerskie),
•
kapitał organizacyjny tworzy struktura wewnętrzna (struktura organizacyjna, systemy
działania, własność intelektualna, procesy wewnętrzne, kultura organizacyjna), struktura
zewnętrzna (zasoby rynkowe, powiązania z dostawcami i partnerami odbiorców strategicznych i zainteresowanymi w otoczeniu przedsiębiorstwa) oraz kapitał rozwojowy (innowacyjność przedsiębiorstwa, organizacyjne uczenie się, zamierzenia strategiczne, cele i
strategie przedsiębiorstwa, procesy tworzenia strategii, gotowość do zmian).
Obserwacje dotyczące zmian w gospodarkach krajów wysoko rozwiniętych ekonomicznie
wskazują na kapitał społeczny jako znaczący czynnik rozwoju gospodarczego. Kapitał ludzki jest
zasobem niematerialnym, który w dużej mierze warunkuje efektywne funkcjonowanie gospodarki.
Kapitał społeczny obejmuje zasoby umiejętności, informacji, kultury, wiedzy i kreatywności jednostek oraz związki pomiędzy ludźmi i organizacjami. Znaczenie wymienionych zasobów w rozwoju gospodarczym w tym kontekście Rozwój społeczno-gospodarczy Polski w nadchodzących
latach będzie zależał od zdolności tworzenia kapitału społecznego na poziomie strategicznym jak i
operacyjnym. To szczególne wyzwanie w sytuacji nierównomiernego dostępu do kultury.
Społeczeństwo uznaje się za informacyjne, jeśli wykorzystuje ono rozbudowaną nowoczesną
sieć telekomunikacyjną (zasięg obejmuje wszystkich obywateli) oraz rozbudowane zasoby informacyjne dostępne publicznie, które mogą wykorzystywać środki masowej komunikacji i informacji. W społeczeństwie informacyjnym informacja zaczyna być traktowana równorzędnie z surowcami, ziemią i siłą roboczą.
Zarządzanie wiedzą to świadome i zaplanowane wykorzystanie kapitału intelektualnego pracowników i informacji zgromadzonych w firmie. Modele zarządzania wiedzą, prezentują teoretyczne podejście do dziedziny. Dla praktyków najważniejsze są zastosowania oraz możliwość
zmierzenia wyników określonego podejścia w biznesie. Wyznaczenie odpowiednich miar skuteczności procesów zarządzania wiedzą jest trudnym zagadnieniem. Mamy do czynienia z wiedzą,
której wartość nie zawsze w danej chwili jest możliwa do zmierzenia, również i w przedsiębiorstwie występują znaczne trudności w pomiarze istotnych wielkości je charakteryzujących. Często
stosuje się estymacje, przybliżenia wartości, prognozy i modele statystyczne z różnych powodów.
Wraz z kapitałem intelektualnym pojawia się nowe spojrzenie na rolę i wartość ludzi w przedsiębiorstwie. Zasobowe myślenie o ludziach w przedsiębiorstwie ma wpływ na zwiększenie korzyści m.in. z ich wykorzystania.
W GOW istnieje konieczność narastającego tworzenia i użytkowania zasobów materialnych, a
więc istnieje potrzeba ich pomiaru.
Propozycję zestawu miar do mierzenia efektywności zarządzania wiedzą w przedsiębiorstwie
podał Mark Van Buren3 wraz z grupą złożoną z praktyków zarządzania wiedzą i przemysłu. Zaproponował model zarządzania kapitałem intelektualnym, w którym kluczowym czynnikiem był
opracowany zestaw miar. Bardzo często w wielu przedsiębiorstwach nie mierzy się inwestycji w
3
Amerykańskie Towarzystwo Szkoleń i Rozwoju (American Society for Training and Development) – www.astd.org
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
77
kapitał intelektualny, jak również nie posiada informacji o wynikach tych inwestycji. Jedną z tego
rodzaju miar jest miara wartości kapitału intelektualnego firmy, a więc stosunek wartości rynkowej (cenę akcji pomnożoną przez ich ilość) do wartości księgowej przedsiębiorstwa. Wyceniając
wartość przedsiębiorstwa powyżej jego wartości księgowej, bierze się pod uwagę także wartość
jego kapitału intelektualnego. Jednak ta miara podlega ciągłym fluktuacjom i czynnikom psychologicznym oddziałującym na rynek.
Teoria zarządzania wiedzą jest nową koncepcją w naukach ekonomicznych. Głównymi podmiotami gospodarczymi, które przyczyniły się do rozpowszechnienia koncepcji związanych z
zarządzaniem wiedzą były firmy konsultingowe, które jako jedne z pierwszych, wprowadziły u
siebie systemy zarządzania wiedzą i zaczęły przenosić te rozwiązania do innych organizacji.
Wiedza bardzo często jest rozproszona, trudna do lokalizacji i udostępniania, niespójna i nadmiarowa, a w konsekwencji często ignorowana przy podejmowaniu optymalnych decyzji przedsiębiorstwa. Aby zachować konkurencyjność, firmy muszą skutecznie i wydajnie tworzyć, lokalizować, rejestrować i dzielić się wiedzą organizacji, a przede wszystkim stosować ją do rozwiązywania problemów i wykorzystywania nadarzających się możliwości. Przedsiębiorstwa powinny
dysponować mechanizmami dostępu do wiedzy w czasie rzeczywistym, aby móc ją stosować oraz
integrować w celu reakcji na dynamicznie zmieniający się rynek. Wymaga to dzielenia się wiedzą,
współpracy oraz mechanizmów ułatwiających szybką adaptację. Wiedza się starzeje, a wiec należy
ją aktualizować. Wiedza i zarządzanie relacjami funkcjonują najlepiej jako zintegrowany model
biznesowy.
Kapitał intelektualny jest jednym z czynników determinujących konkurencyjność oraz dynamikę organizacyjną przedsiębiorstwa w celu zwiększenia tworzonej wartości dodanej. Współczesne przedsiębiorstwo powinno się również koncentrować na kompetencjach, czyli wiedzy i umiejętnościach swoich pracowników, które powinny być stale rozwijane, gdyż jest to jedna z ważnych
cech nowoczesnego przedsiębiorstwa.
Pracownicy wykonują powierzone zadania, realizują postawione cele, wykorzystują technologie, kreują rzeczywistość i uczestniczą w niej. Od tego, kim są , co robią, jak robią, a więc od ich
kompetencji i zaangażowania w pracę zależy rozwój i sukces przedsiębiorstwa.
Wartość przedsiębiorstwa chociaż ma wymiar pieniężny, nie jest pojęciem jednoznacznym. Na
jego wartość wpływa wiele czynników zarówno w przedsiębiorstwie jak i w jego otoczeniu.
78
Małgorzata Nycz, Barbara Smok
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
Rys.2. Drzewo wartości przedsiębiorstwa
Opracowano na podstawie [BRST01, s.70]
Proces globalizacji przebiega dynamicznie i nie można go lekceważyć nie przewidując jego
skutków na przyszłość, jak i na podejmowanie decyzji odnośnie wszystkich typów przedsięwzięć.
Kompetencje to osobiste [11] dyspozycje w zakresie wiedzy umiejętności i postaw pozwalające realizować zadania zawodowe na odpowiednim poziomie. Są to zdolności ludzi do określonego zachowania co powoduje realizację postawionych zadań i generowanie rezultatów w danych
warunkach. Kompetencje to wiedza, umiejętności, uzdolnienia, style działania, osobowość, zainteresowania i inne cechy, które używane i rozwijane prowadzą do osiągania rezultatów zgodnych ze
strategicznymi zamierzeniami przedsiębiorstwa. Są to praktyczne umiejętności biznesowe pracowników.
Wg [4] kapitał jest wartością środków ekonomicznych skapitalizowanych w zasobach rzeczowych i ludzkich. Stopa kapitalizacji jest uwarunkowana przez naturalne i społeczne warunki
środowiska, w którym kapitał występuje i wzrasta.
5. Podsumowanie
Reakcja przedsiębiorstwa na wymagania otoczenia podnosi jego zdolność innowacyjną. Aby
odnosić sukcesy na rynku, powinno traktować dynamikę otoczenia jako sposobność do nowego
działania.
Obecnie gospodarka coraz częściej oparta jest na wiedzy. Bazuje na wytwarzaniu, dystrybucji
oraz wykorzystywaniu wiedzy jako podstawowego zasobu przedsiębiorstwa.
Różnice między Polską a krajami Unii Europejskiej w zakresie informatyzacji wpływają niekorzystnie na konkurencyjność polskiej gospodarki oraz jakość życia mieszkańców. Podejmowane
działania powinny dotyczyć m.in. zwiększania umiejętności w korzystaniu z nowych technologii,
a także dalszego rozwoju nowoczesnych usług dotyczących: elektronicznego biznesu (e-business),
elektronicznej administracji (e-government), nauczania na odległość (e-learning), usług medycznych na odległość (e-health), etc.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
79
Ważnym zadaniem dla nas jest włączenie się w proces budowy ery informacyjnej poprzez
tworzenie warunków dla zapewnienia bezpośredniego dostępu do informacji, kształtowanie świadomości społeczeństwa oraz rozwijanie jego potencjału intelektualnego i gospodarczego.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
18.
Baborski A.(red.), 1994. Efektywne zarządzanie a sztuczna inteligencja. Wyd. AE we
Wrocławiu, 20.
Chwistecka-Dudek H., Soroka W., 2000. Core Competencies – koncepcja strategiczna.
Przegląd Organizacji nr 3.
Dobija D., 2003. Pomiar i rozwój kapitału ludzkiego przedsiębiorstwa. PFPK Warszawa,
128.
Dobija D. 2004. Pomiar i sprawozdawczość kapitału intelektualnego przedsiębiorstwa.
Wyd. Wyższej Szkoły Przedsiębiorczości i zarządzania im. L. Koźmińskiego. Warszawa,
27.
Dobija M., 1998. How to Place Human Resources into Balance Sheet? Journal of Human
Resource Costing and Accounting, vol 3(1) , 83-93.
Drucker P., 2001. Myśli przewodnie Druckera. Warszawa.
Edvinsson L., Malone M. 2001. Kapitał intelektualny. PWN Warszawa.
Giza J., 2003. Historia społeczeństwa informacyjnego:
http://republika.pl/spoleczenstwoinformacyjne/historiaeur.html z dn. 5.11.
Gonez-Mejia L.R.,Balkin D.B., Cardy R.L., 2001. Managing Human Resources. Prentice
Hall New Jersey.
Goban-Klas T., 1999. Społeczeństwo informacyjne: szanse, zagrożenia, wyzwania. Kraków.
Juchowicz M., 2004. Kapitał ludzki a kształtowanie przedsiębiorczości. Poltext Warszawa, 249.
Kluszczyński R.W., 2001. Społeczeństwo informacyjne. Cyberkultura. Sztuka multimediów. Kraków.
Kukliński A., 2001. Gospodarka oparta na wiedzy. Wyzwanie dla Polski XXI wieku.
Warszawa.
Leonard-Barton D., 1992. Core Capabilities and Core Rigidities: A Paradox in Managing
New Product Development. Strategic Management Journal 13.
Mouritsen J., Larsen H. T., Bukh P. N., Johansen M.R., 2001. Reading an Intellectual
Capital statement. Describing and Prescribing Knowledge Management Strategies. Journal of Intellectual Capital, Vol. 2, Issue 4.
Nycz M., Smok B., 2005. Bariery wprowadzania zarządzania wiedzą w przedsiębiorstwie, [W]: Niedzielska E., Dyczkowski M., Dudycz H. (red.): Nowoczesne technologie
informacyjne w zarządzaniu. Prace Naukowe AE we Wrocławiu 1081, Nycz M., Smok
B., 2005. Jak mierzyć kapitał intelektualny, [W]: Porębska-Miąc T., Sroka H. (red.): Systemy wspomagania organizacji. Prace Naukowe AE w Katowicach.
Probst G., Raub S., Romhardt K., 2002. Zarządzanie wiedzą w organizacji. Oficyna Ekonomiczna Kraków.
80
Małgorzata Nycz, Barbara Smok
Rola i znaczenie wiedzy w społeczeństwie informacyjnym
19. Reinhardt R., Bornemann M., Pawlowsky P., Schneider U. 2001. Intellectual Capital and
Knowledge Management [W:] Dierkes H., Child J., Nonaka I. (red.), Handbook of Organizational Learning.
20. Rybak M., 2003. Kapitał ludzki a konkurencyjność przedsiębiorstw. POLTEXT Warszawa.
THE ROLE AND IMPORTANCE OF KNOWLEDGE IN THE INFORMATION SOCIETY
Summary
Times we live in, are changed very quickly, because of developing of information-communication
technology. Knowledge is of very importance, especially its gathering, using and exchange via
networks. The paper is sacrificed the importance of the knowledge in the present-day society,
which is described as the information society.
Keywords: Knowledge, Knowledge Management, Information Society
MAŁGORZATA NYCZ
[email protected]
BARBARA SMOK
[email protected]
Katedra Systemów Sztucznej Inteligencji
Akademia Ekonomiczna im. O. Langego
ul. Komandorska 118/120
53-456 Wrocław
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
81
KAZIMIERZ PERECHUDA
Katedra Zarządzania Informacją i Wiedzą
Akademia Ekonomiczna we Wrocławiu
ZBIGNIEW TELEC
Zakład Organizacji i Zarządzania
Akademia Wychowania Fizycznego we Wrocławiu
IDENTYFIKACJA ŁAŃCUCHA WARTOŚCI BIUR INFORMACJI GOSPODARCZEJ
(BIG) W POLSCE
Streszczenie
W artykule przedstawiono idee łańcucha wartości dodanej opartą na modelu
Portera. Zaprezentowano koncepcje transformacji łańcucha wartości Biur Informacji Gospodarczej z gospodarki klasycznej w kierunku gospodarki opartej na wiedzy.
Słowa kluczowe: Biura Informacji Gospodarczej, transformacja łańcuchów wartości BIG
1. Biura Informacji Gospodarczej
Biura Informacji Gospodarczej są to podmioty utworzone na podstawie Ustawy
o udostępnianiu informacji gospodarczych z dnia 14 lutego 2003 r.[1], które zajmują się pozyskiwaniem, przetwarzaniem i udostępnianiem informacji gospodarczych oraz prowadzą rejestr skradzionych lub podrobionych dokumentów, na podstawie których próbowano wyłudzić kredyt.
Liczba biur nie jest ograniczona prawnie. W Polsce działają na dzień 01.12.2005 r. cztery niezależne Biura Informacji Gospodarczej: KRD BIG S. A, KSV BIG S.A, Infomonitor BIG S.A, InFoScor BIG S.A.
Na dzień dzisiejszy zgodnie z ustawą, biura dostarczają dane i informacje gospodarczą. Zmiana zakresu ich działalności jest możliwa tylko pod warunkiem zmiany Ustawy o udostępnianiu
informacji gospodarczych. Wspomniana ustawa była już nowelizowana dwukrotnie w ciągu ostatnich dwóch lat. Zmiany w gospodarce, nowe potrzeby (produkty i usługi) klientów względem BIG
wymuszą kolejną nowelizację ustawy.
2. Łańcuch wartości dodanej Biur Informacji Gospodarczej
Zgodnie z Porterowską koncepcją łańcucha wartości dodanej, potencjalne źródła przewagi
konkurencyjnej biur umiejscowione są w funkcjach podstawowych (rys. 1). Polskie prawo mocno
ogranicza zakres działalności biur. Funkcje główne są determinowane ustawą o udostępnianiu
informacji gospodarczej. Do funkcji podstawowych (głównych) biura należy zaliczyć:
•
•
•
•
•
marketing, pozyskiwanie klientów,
zarządzanie informacją gospodarczą:
przekazywanie przez klientów informacji gospodarczych,
aktualizację informacji gospodarczych,
usuwanie informacji gospodarczych,
82
Kazimierz Perechuda, Zbigniew Telec
Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce
•
•
•
•
•
weryfikację danych,
prowadzenie rejestru zapytań (rejestr podmiotów, którym zostały ujawnione
informacje gospodarcze),
zarządzanie dokumentem (rejestr skradzionych i podrobionych dokumentów
tożsamości lub zaświadczeń o zarobkach, zatrudnieniu oraz rejestr prób posłużenia się
tymi dokumentami),
ujawnianie informacji gospodarczych,
monitoring przedsiębiorców.
Rysunek 1. Łańcuch wartości Biura Informacji Gospodarczej oparty na modelu M. E. Portera
Źródło: Opracowanie własne
Funkcje pomocnicze BIG nadzorują funkcje główne. Do funkcji pomocniczych w biurze należy zaliczyć:
• infrastrukturę firmy,
• zarządzanie zasobami ludzkimi (potencjał intelektualny pracowników),
• rozwój technologii informatycznych,
• zabezpieczenia informacji gospodarczych.
Każda z funkcji głównych biura może być źródłem wartości dodanej dla klienta. Obecnie łańcuch wartości BIG nastawiony jest na sprzedaż danych i informacji gospodarczych.
3. Transformacja łańcuchów wartości Biur Informacji Gospodarczej
Świadomość przynależności do określonej sieci gospodarczej stanowi ważny czynnik
w procesach:
• budowy modelu biznesu,
• inwestowania w określone kluczowe kompetencje,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
•
83
dostosowywania własnego łańcucha wartości do łańcucha wartości innych
uczestników grupy sieciowej,
• analizy własnego wkładu w kreowanie wartości dodanej sieci.
Właściciele i menedżerowie Biur Informacji Gospodarczej powinni uwzględniać powyższe
kryteria w procesie budowy przewagi konkurencyjnej na rynku usług informacji gospodarczej.
Organizacje sieciowe [2] są charakterystyczne dla tzw. nowej gospodarki, opartej
na przetwarzaniu informacji i wiedzy.
W powyższym kontekście traktować można BIG jako przedsiębiorstwo sieciowe charakteryzujące się następującymi cechami:
• sprzedażą informacji,
• pozyskiwaniem informacji z otoczenia, magazynowaniem i przetwarzaniem,
• informacja jest głównym towarem,
• informacja jest kluczowym zasobem.
Izolowane funkcjonowanie BIG jest niemożliwe. Stąd też przy pomocy instrumentów wywiadu gospodarczego [3] oraz badania i analizy informacji rynkowej, zmuszone one będą do pozyskiwania informacji w sposób jawny lub niejawny od wielu podmiotów zaangażowanych
w otoczeniu (NIK, Urzędy Skarbowe, banki, kooperanci, PIP, PIH, policja, urzędy administracji
państwowej i samorządowej, instytucje pośrednictwa kredytowego i in.).
W gospodarce opartej na wiedzy Biura Informacji Gospodarczej będą sieciami wirtualnymi,
w znaczeniu prowadzenia gry rynkowej na zasobach niematerialnych (informacji o klientach i ich
produktach).
Wydaje się, że obecnie BIG w małym stopniu pozyskują wiedzę o klientach i ich konkurentach. Istotne jest tutaj zwłaszcza pozyskiwanie wiedzy niejawnej o firmach dotyczącej m.in.:
• rzeczywistej struktury organizacyjnej,
• nowych modeli biznesu,
• nowych produktów,
• planowanych fuzji, aliansów, przejęć, itp.
Sprzedaż tzw. czystej informacji finansowej o danym podmiocie gospodarczym będzie coraz
bardziej utrudniana. Wypierana ona będzie w coraz większym stopniu przez sprzedaż wiedzy,
zwłaszcza niejawnej, o przedsiębiorstwach i ich podmiotach zaangażowanych.
Rynek informacji i wiedzy staje się coraz bardziej atrakcyjny. Następuje tutaj przesunięcie
w łańcuchach wartości od sprzedaży produktów i usług do sprzedaży informacji oraz docelowo
wiedzy (rys. 2).
Również BIG powinny przesuwać swój model biznesu od sprzedaży informacji do sprzedaży
wiedzy (rys. 2), co daje im kluczowe kompetencje w następujących obszarach:
• kojarzenia biznesów, nawet firm konkurujących,
• kojarzenia i uzgodnienia łańcuchów wiedzy niejawnej podmiotów gospodarczych,
• współudział w tworzeniu niekonkurencyjnej między organizacyjnej sieci biur
informacji gospodarczej w kraju i za granicą,
• redukcja incydentalnych projektów gospodarczych,
• "zapominania" informacji nieużytecznej.
84
Kazimierz Perechuda, Zbigniew Telec
Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce
Rysunek 2. Łańcuch wartości - proces transformacji
Źródło: Opracowanie własne
4. Literatura
1.
2.
3.
Ustawa z dnia 14 lutego 2003 r. o udostępnianiu informacji gospodarczych, Dz. U.
03.50.424
Perechuda K. 2005. Dyfuzja wiedzy w przedsiębiorstwie sieciowym, Akademia Ekonomiczna we Wrocławiu, Wrocław.
Borowiecki R., Kwieciński M. (red.), 2004. Informacja i wiedza w zintegrowanym systemie zarządzania, Zakamycze.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
85
IDENTIFICATION OF VALUE CHAIN IN ECONOMICAL INFORMATION OFFICES
(BIG) IN POLAND
Summary
In the article transformation of chains of value in BIG is presented. The article
includes reflections about BIG in new economy.
Keywords: Biura Informacji Gospodarczej, Transformation of Chains of Value in BIG
PROF. DR HAB. KAZIMIERZ PERECHUDA
Katedra Zarządzania Informacją i Wiedzą
Akademia Ekonomiczna im. Oskara Langego we Wrocławiu
53-345 Wrocław, ul. Komandorska 118/120
e-mail: [email protected]
Zakład Organizacji i Zarządzania
Akademia Wychowania Fizycznego we Wrocławiu
MGR INŻ. ZBIGNIEW TELEC
Katedra Zarządzania Informacją i Wiedzą
Akademia Ekonomiczna im. Oskara Langego we Wrocławiu
53-345 Wrocław, ul. Komandorska 118/120
e-mail: [email protected]
86
Andrzej Piegat, Barbara Wąsikowska
Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych
ANDRZEJ PIEGAT
BARBARA WĄSIKOWSKA
Uniwersytet Szczeciński
ZASTOSOWANIE METOD SZTUCZNEJ INTELIGENCJI DO IDENTYFIKACJI
CZYNNIKÓW EKONOMICZNYCH
Streszczenie
W artykule przedstawiony został problem identyfikacji czynników mających
wpływ na określone zjawisko ekonomiczne przy zastosowaniu niestandardowych metod modelowania - metod sztucznej inteligencji.
Słowa kluczowe: sieci neuronowe radialne, algorytmy genetyczne, teoria zbiorów przybliżonych,
identyfikacja czynników ekonomicznych
1. Wprowadzenie
W ostatnich latach wraz z dynamicznym rozwojem informatyki i dostarczanych przez nią coraz większych mocy obliczeniowych obserwuje się ogromny wzrost zainteresowania metodami
sztucznej inteligencji w takich dziedzinach jak: finanse, medycyna, zastosowania inżynierskie,
geologia czy fizyka. W dziedzinie ekonomii wymienić można takie obszary zastosowań jak: prognozowanie bankructw, kursów walut, notowań akcji, wskaźników finansowo-ekonomicznych,
klasyfikacji przedsiębiorstw, wycena kontraktów terminowych, spółek, nieruchomości, ocena
wiarygodności kredytowej, identyfikacja klientów według przedstawianej oferty.1 Obecnie wiele
znaczących placówek naukowych i badawczych na całym świecie zajmuje się zastosowaniami
sztucznej inteligencji. Stopień zaawansowania prac pozwolił na wydzielenie kilku kierunków
badań. Najważniejszymi z nich są sieci neuronowe (neural networks), logika rozmyta (fuzzy logic), algorytmy genetyczne (evolutionary algorithms) i teoria zbiorów przybliżonych (rough sets).
Metody te (w szczególności sieci neuronowe i algorytmy genetyczne) pozwalają na zautomatyzowanie niektórych, bardziej uciążliwych etapów procesu modelowania, co w dużej mierze ułatwia
budowę modelu danego zjawiska ekonomicznego.
Rozwój cywilizacji, postępu technicznego i gospodarki światowej prowadzi do powstawania
coraz bardziej skomplikowanej rzeczywistości ekonomicznej w otoczeniu człowieka. Zasadniczym celem pracy badacza-ekonomisty jest więc poznanie i w możliwie jak najprostszy sposób
opisanie i wyjaśnienie zjawisk ekonomicznych. Są one jednak zazwyczaj zjawiskami nieliniowymi, cechującymi się dużą liczbą zmiennych, względnie małą liczbą danych pomiarowych oraz
silną, często nieliniową korelacją zmiennych. W zjawiskach tych działają różnorodne prawa ekonomiczne, zależne od warunków ekonomicznych i polityki gospodarczej państwa. Bardzo ważnym
problemem jest również upływający czas. Model opisujący zjawisko ekonomiczne dla danej rzeczywistości może zupełnie nie odpowiadać stanowi przyszłemu, bowiem czynniki mające zasadniczy wpływ na to zjawisko w badanym okresie w innym czasie mogą nie mieć tak istotnego wpły-
1
Por. [3].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
87
wu lub nawet w ogóle nie występować. Wśród innych przyczyn powodujących ogromne trudności
w opisaniu otaczającej nas rzeczywistości ekonomicznej można wymienić takie jak:2
− istnienie wzajemnych, często bardzo skomplikowanych i trudnych do zdefiniowania
powiązań między czynnikami opisującymi badane zjawisko,
− występowanie obok informacji precyzyjnej, również informacji jakościowej i rozmytej,
− możliwość występowania błędów lub luk w zebranym materiale statystycznym,
− brak możliwości zmierzenia pewnych wielkości lub brak informacji na temat kształtowania się tych wielkości w pewnych okresach wcześniejszych,
− wystąpienie procesów, które nie zostały dotychczas zidentyfikowane.
Dodatkowym problemem, z którym musi zmierzyć się badacz chcący opisać dane zjawisko
ekonomiczne (zbudować model), to problem doboru czynników najbardziej istotnych dla kształtowania się tego zjawiska. Dokonując przeglądu literatury można zauważyć, że najczęściej stosowanymi metodami do opisu zjawisk wielkowymiarowych są metody statystycznej analizy wielowymiarowej (SAW), która jest działem statystyki teoretycznej i stosowanej.3 W zależności od
tego, jakie podejście zostało przyjęte w badaniu statystycznym stosowane są metody oparte na
podejściu stochastycznym lub metody oparte na podejściu opisowym. Inna klasyfikacja metod
SAW opiera się na kryterium istnienia hipotez badawczych o rozważanym zbiorze obserwacji.
Hipotezy te z reguły wynikają z wiedzy merytorycznej dotyczącej zjawisk złożonych, odnośnie do
których informacje są w wielowymiarowych obserwacjach. Ze względu na to kryterium metody
SAW dzieli się na: metody weryfikujące (potwierdzające) hipotezy o badanych zjawiskach oraz na
metody odkrywające właściwości badanych zjawisk. Należy przy tym zauważyć, że większość z
tych metod opiera się na badaniu modeli jednoargumentowych. W przypadku jednak zjawisk
wielkowymiarowych ich użyteczność jest ograniczona. Ograniczenie to związane jest z ogromną
redukcją informacji towarzyszącej przejściu z przestrzeni wielkowymiarowej do przestrzeni dwuwymiarowej.
Przesłanką napisania niniejszego artykułu była więc potrzeba wypełnienia luki metodycznej w
naukowym warsztacie badawczym dotyczącym modelowania systemów rzeczywistych. Stosowane metody nie są w stanie w pełni odzwierciedlić otaczającą nas złożoną rzeczywistość ekonomiczną. Nie istnieje bowiem uniwersalna metoda, która pozwalałaby tworzyć modele różnorodnych zjawisk ekonomicznych z taką samą, zadowalającą dokładnością (szczególnie dotyczy
to identyfikacji nieliniowej). W związku z tym stale poszukuje się nowych metod, które z większą
precyzją wyjaśniałyby zjawiska makroekonomiczne. Odpowiedzią na to zapotrzebowanie, może
być próba zastosowania niestandardowych metod modelowania procesów makroekonomicznych – metod sztucznej inteligencji takich jak: sieci neuronowe, algorytmy genetyczne, teoria
zbiorów przybliżonych. Dokonując przeglądu literatury przedmiotu można się przekonać że
pojęcia „standardowe (klasyczne) metody” i „niestandardowe (nieklasyczne) metody”, są różnie
interpretowane. W poniższym artykule słowo „standardowe” oznacza metody wcześniej opracowane, częściej wykorzystywane, czy też stosowane przy często powtarzających się założeniach.
Natomiast pojęcie „metody niestandardowe” odnosi się do metod nowych, rzadziej używanych do
opisu zjawisk ekonomicznych – metod sztucznej inteligencji.
2
3
Por. [7] oraz [9].
Por. [4].
88
Andrzej Piegat, Barbara Wąsikowska
Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych
2. Metody identyfikacji czynników ekonomicznych
Istnieje szereg metod doboru zmiennych do modelu. W literaturze przedmiotu najczęściej stosowanym kryterium podziału metod identyfikacji zmiennych jest rodzaj modelu jaki zamierza się
uzyskać tzn. liniowy czy nieliniowy (Rys. 1).
Metody identyfikacji zmiennych
Metody identyfikacji zmiennych do
modelu liniowego
Metody identyfikacji zmiennych do
modelu nieliniowego
Metoda S. Bartosiewicz
Metoda Z. Hellwiga
Metoda E. Nowaka
Metoda Z. Pawłowskiego
Metoda A. Bartkowiak i W.
Pieriegudowa
Metoda analizy grafów
Metoda transformacji
Metoda M. Kolupy
Analiza czynnikowa
Metoda krzywych rozmytych
(Lin i Cunninghama)
Analiza dyskryminacyjna
Metoda łukowo-kątowa
Analiza składowych głównych
Sieci RBF
Sieci perceptronowe
Metoda R. Jasińskiego
Jednokierunkowe sieci
wielowarstwowe
Rysunek 1. Klasyfikacja metod identyfikacji zmiennych
Źródło: opracowanie własne na podstawie [5]
W grupie metod służących do identyfikacji zmiennych do modelu nieliniowego bardzo intensywnie rozwijają się (w ciągu ostatnich kilkunastu lat) metody sztucznej inteligencji. Celem prowadzonych przez autorów niniejszego artykułu badań jest analiza stosowalności niestandardowych
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
89
metod modelowania (sieci neuronowych, algorytmów genetycznych, teorii zbiorów przybliżonych) do modelowania zjawisk ekonomicznych. Procedura badawcza została oparta na analizie
systemowej – metodzie badawczej służącej do poszukiwania wskazówek do podjęcia ważnych
decyzji gospodarczych. Przyjętym obszarem badawczym są uwarunkowania produkcji sprzedanej
przemysłu w Polsce, w okresie od grudnia 1993 do stycznia 2000 roku. Spośród metod sztucznej
inteligencji do budowy modeli zostały wybrane radialne sieci neuronowe, algorytmy genetyczne
oraz zbiory przybliżone.
3. Sieci neuronowe RBF
Tematyka sztucznych sieci neuronowych należy do interdyscyplinarnej dziedziny badań powiązanej z matematyką stosowaną, statystyką, automatyką, biocybernetyką, elektroniką, a nawet
medycyną. Sztuczne sieci neuronowe powstały na podstawie wiedzy o działaniu systemu nerwowego istot żywych i stanowią próbę wykorzystania zjawisk zachodzących w systemach nerwowych przy poszukiwaniu nowych rozwiązań. Sieci neuronowe można traktować jako nowoczesne
systemy obliczeniowe, które przetwarzają informacje wzorując się na zjawiskach zachodzących w
mózgu człowieka. Informacje te mają charakter danych numerycznych, na podstawie których sieć
neuronowa może na przykład posłużyć jako model obiektu o zupełnie nieznanej charakterystyce.
Sieci RBF stanowią specjalną odmianę sieci zawierającej neurony o radialnej funkcji bazowej
zazwyczaj typu gaussowskiego. Sieć może zawierać dowolną liczbę N wejść, określoną liczbę
neuronów ukrytych o radialnej funkcji aktywacji oraz tyle neuronów wyjściowych, ile wynosi
wymiar wektora zadanego d, wynikający ze specyfikacji problemu. Neurony wyjściowe są zwykle
liniowe i każdy z nich realizuje sumę wagową sygnałów pochodzących z neuronów radialnych
warstwy ukrytej.
Sieci radialne umożliwiają wystąpienie symetrii kołowej wokół neuronu, co w niektórych
przypadkach może zasadniczo zredukować liczbę neuronów potrzebną sieci do poprawnego działania. W sieciach radialnych nie występuje potrzeba stosowania wielu warstw ukrytych. Typowa
sieć radialna składa się z warstwy wejściowej, ukrytej z neuronami radialnymi i wyjściowej, w
której zadaniem neuronu jest tylko sumowanie wagowe sygnałów wychodzących z neuronów
ukrytych. Gaussowska postać funkcji radialnej z centrami ulokowanymi w ci (przy wartości p
równej liczbie danych uczących wektor centrum odpowiada współrzędnym xi wektora uczącego) i
szerokością si.
p
 || x − ci ||2 

F ( x) = ∑Wi exp −
2σ i2 
i =1

(1)
4. Algorytmy genetyczne
Algorytmy genetyczne stanowią bardzo silne narzędzie do rozwiązywania wielu problemów
optymalizacyjnych. Ich zasada działania oparta jest na mechanizmach doboru naturalnego oraz
dziedziczności. Algorytm ewolucyjny przetwarza populację osobników, z których każdy jest propozycją rozwiązania postawionego problemu. Działa on w środowisku, które można zdefiniować
na podstawie problemu rozwiązywanego przez algorytm. W środowisku każdemu osobnikowi jest
przyporządkowana wartość liczbowa, określająca jakość reprezentowanego przez niego rozwiązania; wartość ta jest nazywana przystosowaniem osobnika. Każdy osobnik jest wyposażony w in-
90
Andrzej Piegat, Barbara Wąsikowska
Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych
formację stanowiącą jego genotyp, będącą „przepisem” na utworzenie fenotypu – zestawu cech
określanych przez genotyp, podlegających ocenie środowiska.
Środowisko można opisać jako funkcję przystosowania, za pomocą której osobnikowi przypisuje się przystosowanie na podstawie jego fenotypu. Funkcja ta może być stacjonarna lub zmienna w czasie, może też zawierać element losowości. Działanie algorytmu genetycznego sprowadza
się do wykonania pętli przedstawionej na rys. 2, w której następuje po sobie reprodukcja, operacje
genetyczne, ocena i sukcesja.
Algorytm ewolucyjny
Inicjacja
Środowisko
Reprodukcja
Sukcesja
Operacje genetyczne
Ocena
Rysunek 2. Schemat algorytmu ewolucyjnego
Źródło: [1]
W literaturze przedmiotu, reprodukcję i sukcesję określa się łącznym mianem selekcji. Reprodukcja w połączeniu z operatorami genetycznymi modeluje rozmnażanie, podczas którego materiał genetyczny rodziców przekazywany jest potomkom. Podczas reprodukcji zostają powielone
losowo wybrane osobniki z populacji bazowej. Powstałe w wyniku reprodukcji kopie, zwane
osobnikami rodzicielskimi, poddawane są operacjom genetycznym takim jak mutacja i krzyżowanie. Populacja potomna jest poddawana ocenie środowiska, po czym następuje sukcesja – tworzy
się nową populację bazową, mogącą zawierać osobniki zarówno z populacji potomnej, jak i ze
starej populacji bazowej. Cykl ewolucji może się kończyć się wówczas, gdy przystosowanie osobników jest odpowiednio duże lub gdy stwierdzi się, że stan populacji bazowej świadczy o stagnacji algorytmu.
W przeprowadzonych badaniach algorytmy genetyczne wraz z siecią neuronową RBF zostały
użyte do identyfikacji czynników ekonomicznych mających wpływ na produkcję sprzedaną przemysłu w Polsce w latach 1993 – 2000.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
91
5. Teoria zbiorów przybliżonych
Źródłem teorii zbiorów przybliżonych są liczne badania z zakresu analizy i reprezentacji w
technikach informatycznych przeprowadzane przez polskich matematyków i informatyków w
latach siedemdziesiątych. Autorem koncepcji zbiorów przybliżonych jest profesor Zdzisław Pawlak, który ogłosił podstawy tej teorii w 1982 roku. Następnie została ona rozwinięta do postaci
aplikacji data mining przez profesora Andrzeja Skowrona. Obecnie jest ona jedną z najszybciej
rozwijających się dziedzin sztucznej inteligencji.
Teoria zbiorów przybliżonych stosowana jest do badania nieprecyzyjności, ogólnikowości i
niepewności w procesie analizy danych. Koncentruje się ona na dostarczaniu ogromnym zbiorom
danych niezbędnych wzorów, reguł oraz informacji. Zbiory przybliżone mogą być również instrumentem prognostycznym służącym do zapisywania doświadczeń ekspertów w formie reguł
decyzyjnych. Powstają one na bazie materiałów empirycznych i umożliwiają stosunkowo łatwe
przetwarzanie informacji. Poszczególne etapy postępowania w trakcie analizy danych przy pomocy zbiorów przybliżonych to:
1. zebranie materiału empirycznego (pierwotna tabela informacyjna),
2. dyskretyzacja danych,
3. zbudowanie wtórnej tabeli informacyjnej,
4. redukcja ilości atrybutów,
5. budowa bazy reguł decyzyjnych,
6. przeprowadzenie oceny jakości i dokładności reguł,
7. wyciągnięcie wniosków.
Poniżej przedstawiona została przykładowa indukcja reguł wnioskowania na podstawie zredukowanej tabeli informacyjnej (Tabela 1).
Tabela 1. Wtórna, zredukowana tabela informacyjna
Średnia
wysokość Prowizje
zarobków (q2)
(q4)
Przykład 1
Przykład 2
Przykład 3
Przykład 4
Przykład 5
mała
średnia
b. mała
duża
b. mała
tak
nie
tak
tak
nie
Decyzja: czy się zatrudnić?
tak
nie
nie
tak
nie
Źródło: opracowanie własne
Przykładowe reguły:
R1: Jeżeli (średnia wysokość zarobków = b. mała) i (prowizje = tak) to (zatrudnić się? = nie)
R2: Jeżeli (średnia wysokość zarobków = duża) i (prowizje = tak) to (zatrudnić się? = tak)
R3: Jeżeli (średnia wysokość zarobków = mała) i (prowizje = tak) to (zatrudnić się? = tak)
W przeprowadzonych badaniach teoria zbiorów przybliżonych została zastosowana do zbudowania bazy reguł, na podstawie której można stwierdzić, które z potencjalnych czynników i w
jakim stopniu mają wpływ na produkcję sprzedaną przemysłu w Polsce.
92
Andrzej Piegat, Barbara Wąsikowska
Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych
6. Podsumowanie
Opisane w artykule metody sztucznej inteligencji zostały użyte do identyfikacji czynników
wpływających na produkcję sprzedaną przemysłu w Polsce. Zbudowanych zostało kilka modeli
w oparciu o radialne sieci neuronowe, modele neuronowe połączone z algorytmem genetycznym,
oraz model oparty na teorii zbiorów przybliżonych.
Najlepszymi modelami okazały się modele łączące w sobie radialne sieci neuronowe z algorytmem genetycznym. Błędy poszczególnych modeli oraz numery zmiennych mających istotny
wpływ na badaną zmienną przedstawia poniższa tabela.
Tabela 2. Wyniki badań
Sieć RBF + Algorytm genetyczny
ilość neuronów w
warstwie ukrytej
ilość wejść
n=3
n=5
n=8
11
11
10
błąd modelu
wejścia
0,0619
1, 2, 5, 7, 13, 15,
17, 18, 19, 20, 21
0,0608
0,0601
1, 4, 5, 7, 12, 13, 1, 4, 5, 7, 9, 12,
14, 15, 18, 19, 20 14, 15, 18, 20
Źródło: opracowanie własne
Niestety wadą większości z tych metod jest czasochłonność. Na wygenerowanie modelu przy
zastosowaniu jedynie sieci radialnych, komputer o parametrach P4, 1,8 GHz, 512 MB RAM potrzebował około dwóch tygodni. Jednak połączenie sieci radialnych z algorytmem genetycznym
pozwoliło skrócić czas oczekiwania na wyniki do około 10 minut (tabela 3).
Tabela 3. Wyniki badań – cd.
ilość neuronów w
warstwie ukrytej
czas pracy komp.
błąd modelu
ilość wejść
wejścia
wspólnych 6 wejść
Sieć RBF
Sieć RBF + Algorytm genetyczny
n=3
n=3
2 tygodnie
10 minut
0,0619
0,0608
11
11
1, 2, 5, 7, 13, 15,
1, 4, 5, 7, 12, 13,
17, 18, 19, 20, 21
14, 15, 18, 19, 20
1, 5, 13, 15, 18, 20
Źródło: opracowanie własne
Zaletą tych metod jest za to większa dokładność otrzymanych modeli. Błąd średniokwadratowy większości zbudowanych modeli nie przekraczał 6,5%, co w przypadku modeli opisujących
bardzo złożoną rzeczywistość ekonomiczną można uznać za niewielki.
7. Literatura
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
1.
2.
3.
4.
5.
6.
7.
8.
9.
93
Arabas J., 2001. Wykłady z algorytmów ewolucyjnych. WNT Warszawa.
Goldberg D. E., 1995. Algorytmy genetyczne i ich zastosowania. WNT Warszawa.
Jajuga K., 1993. Statystyczna analiza wielowymiarowa. Wydawnictwo Naukowe PWN
Warszawa.
Korol J., Szczuciński P., 2005. Modele równań strukturalnych i sieci neuronowe w modelowaniu procesów rozwoju zrównoważonego. Gawe Akademickie Wydawnictwo Ekonomiczne.
Nowak E., 1984. Problemy doboru zmiennych do modelu ekonometrycznego. PWN Warszawa.
Ososwski S., 2000. Sieci neuronowe do przetwarzania informacji. Oficyna wydawnicza
Politechniki Warszawskiej Warszawa.
Piegat A. 1999., Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wyd. Exit Warszawa.
Tadeusiewicz R., 1993. Sieci neuronowe. Akademicka Oficyna Wydawnicza RM Warszawa.
Welfe A., 1996. Ekonometria stosowana. Państwowe Wydawnictwo Ekonomiczne Warszawa.
APLICATION OF ARTIFICIAL INTELLIGENCE FOR IDENTIFICATION OF ECONOMICAL FACTORS
Summary
The article presents the problem of the identification of factors, that have the influence on the particular economic phenomenon, by the application of non-standard
methods – methods of Artificial Intelligence.
Keywords: Radial Networks, Genetic Algorithms, Theory of Rough Sets, Identification of Economic Factors
ANDRZEJ PIEGAT
e-mail: [email protected]
BARBARA WĄSIKOWSKA
Uniwersytet Szczeciński
Instytut Informatyki w Zarządzaniu
71-101 Szczecin, ul. Mickiewicza 64
e-mail: [email protected]
Witold Rzepiński
Wiedza jako czynnik rozwoju polskiego agrobiznesu
94
WITOLD RZEPIŃSKI
Mazowiecki Ośrodek Doradztwa Rolniczego
WIEDZA JAKO CZYNNIK ROZWOJU POLSKIEGO AGROBIZNESU
Streszczenie
W niniejszej pracy skoncentrowano się na analizie dostępności wiedzy przez
producentów rolnych. Podjęto próbę oceny skutków interwencji edukacyjnej w szybkiej transmisji wiedzy do praktyki rolniczej. Rozwijający się polski agrobiznes nawiązujący do procesu globalizacji sprostał narastającej konkurencji z zachowaniem
światowych standardów jakościowych. W działaniach edukacyjnych znaczną rolę
odegrały ośrodki doradztwa rolniczego.
Słowa kluczowe: agrobiznes, dostępność wiedzy, standardy jakościowe, interwencja edukacyjna
1. Wprowadzenie
Funkcjonowanie gospodarstw rolnych w latach 1980 – 2000 poddane zostało procesowi transformacji – z tradycyjnie funkcjonującego rolnictwa przekształcono je w element agrobiznesu
funkcjonującego w warunkach współczesnego rynku. Wcześniej rolnicy byli przekonani, że gospodarstwo rolne nie może zbankrutować. Państwo uruchomiło w roku 1994 mechanizm preferencyjnego kredytowania, który pozwalał stopniowo dostosować się zarządzającym gospodarstwami
rolnymi do reguł rynkowych. Wielu, szczególnie młodych rolników skorzystało z tego wsparcia
finansowego dostosowując swoje gospodarstwa do nowoczesnych standardów ekonomicznych i
jakościowych.
Wcześniej dość często formułowano stwierdzenie, że „rolnicy są odporni na wiedzę i trudni
do zlikwidowania”. Mechanizm rynkowy, który objął rolnictwo sprawił, że młodzi rolnicy w sposób dość agresywny przystąpili do przekształcania swoich gospodarstw w nowoczesne warsztaty
pracy funkcjonujące na skomplikowanym rynku rolnym. Zaczęto o nich mówić, że „są ambitni i
chłonni wiedzy”.
Od 1991 roku, kiedy utworzono ośrodki doradztwa rolniczego, skupiły one swoje działania na
rozwoju przedsiębiorczości, ochronie środowiska, poprawie jakości produkcji. Do tego potrzebna
była wiedza. Jako, że liderów agrobiznesu było niewielu, a kraj nasz dążył do integracji z gospodarką europejską – czas naglił. Wówczas autor niniejszej pracy doszedł do wniosku, że rolników
należy zmusić do pogłębiania wiedzy rolniczej czyli interwencji edukacyjnej.
Interwencja edukacyjna to wywieranie zdecydowanego wpływu na społeczność wiejską zmierzającego do przyrostu wiedzy ogólnej i zawodowej, mającego na celu rozwój przedsiębiorczości
(aktywność zawodowa, zdolność do ponoszenia ryzyka, innowacje), prowadząca do wzrostu konkurencji w warunkach przemian strukturalnych, w nawiązaniu do ogólnoświatowych standardów
jakościowych – w efekcie zabezpieczenie bytu rodzinie wiejskiej [3].
Wiedza we współczesnym społeczeństwie jest zazwyczaj postrzegana jako informacja o rzeczywistości oraz wykorzystanie jej w bieżącej działalności.
W prowadzeniu nowoczesnych gospodarstw rolnych, młodzi rolnicy najczęściej będą korzystali z wiedzy typu know-how oraz know-who. Według Adamowicza [2005]:
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
95
−
Wiedza typu know-how, dotycząca umiejętności i zdolności do wykonywania różnych
działań, tworzona jest głównie przez edukację. Może mieć formę wiedzy naukowej, technicznej i organizacyjnej. Rozprzestrzenia się przez system gromadzenia i udostępniania,
poprzez wewnętrzne i zewnętrzne systemy i sieci komunikacji.
−
Wiedza typu know-who, to wiedza o tym, kto posiada zdolności i umiejętności w określonej
dziedzinie i sposób dostępu do różnych źródeł wiedzy. Ma istotne znaczenie dla pracy managerów i skuteczności bieżącego zarządzania organizacją.
Wydaje się, że aktualnie największym wsparciem dla dynamicznie rozwijającego się agrobiznesu w Polsce będzie dostępność wiedzy a ściśle rzecz biorąc zarządzanie wiedzą. Obiektywna
wiedza fachowa i ogólna jest dzisiaj w dobie agresywnego marketingu i wirtualnej informacji
najbardziej potrzebna. Wprawdzie fizyk i filozof A. Einstein dawno już stwierdził, że „wiedza to
doświadczenie reszta jest tylko informacją”. Bardziej precyzyjny był Johan Wolfgang Goethe
mówiąc „sama wiedza nie wystarczy, trzeba jeszcze umieć ją stosować”.
Zatem, należy przyjąć, że na każdym etapie rozwoju społeczeństw istotnym problemem było
wykorzystanie aktualnej wiedzy.
Celem niniejszej pracy jest wskazanie jak ważnym czynnikiem rozwoju polskiego agrobiznesu jest dostępność wiedzy.
2. Badania i dyskusja
Rozwój agrobiznesu oraz obszarów wiejskich w znacznym stopniu zależy od umiejętności i
możliwości wykorzystania wiedzy. W zasadzie we wszystkich sektorach polskiego agrobiznesu
odnotowuje się dynamiczny rozwój poszczególnych przedsiębiorstw. Często zarządzają nimi młodzi przedsiębiorcy, dynamiczni, wytrwali w działaniu ludzie, którzy współpracują z lokalnym
samorządem. Aktywność lokalnej władzy najczęściej wzmaga rozwój lokalnej przedsiębiorczości
co daje się mierzyć sprawnością funkcjonowania wiejskich instytucji. Niezmiernie ważna w tym
procesie jest wiedza, inicjatywa i innowacyjność lokalnej władzy wespół z lokalnymi podmiotami,
które wspólnie działając są w stanie zorganizować dopływ środków finansowych z zewnątrz i
współdziałać z właścicielem kapitału. Wiedza przekłada się wówczas na wspólnie realizowane
strategie, które dają szansę na ożywienie gospodarcze, tym samym jest podstawą egzystencji rodzin wiejskich. Agrobiznes sam w sobie pozwala na dywersyfikację dochodów społeczeństwa
wiejskiego, do czego jest potrzebna aktualna wiedza.
Stwierdzenie to zdaje się potwierdzać Tomczak [2004], który podaje, że w USA pojęcie
„wiejski” nie jest aktualnie synonimem „rolniczy”. Być może zanika tam już tradycyjne wiejsko –
rolnicze środowisko.
Rozwój agrobiznesu zależy w znacznym stopniu od wiedzy w zakresie dostępności publicznych środków finansowych, które adresowane są w ten sposób, aby przyczyniły się do jego rozwoju. W Polsce od 1994 roku wprowadzono system kredytów preferencyjnych adresowanych do
szeroko rozumianego agrobiznesu. Wówczas skutecznym narzędziem dopływu wiedzy do zarządzających tworzącym się agrobiznesem okazała się interwencja edukacyjna w wykonaniu ośrodków doradztwa rolniczego [3]. Wielu właścicieli gospodarstw rolnych zrozumiało wtedy, że jest to
stosowny czas, a może bardziej potrzeba chwili, aby swoje gospodarstwa niezwłocznie przestawić
na mechanizm zdecydowanie rynkowy, unowocześniając proces produkcji, dostosowując go do
europejskich wymogów ekonomiczno- jakościowych. Jak ważna była to decyzja podejmowana na
podstawie dostępnej wiedzy, niech świadczy fakt, że gospodarstwa te generują już dochody, które
96
Witold Rzepiński
Wiedza jako czynnik rozwoju polskiego agrobiznesu
stanowią gwarancję rozwoju rodzin je obsługujących. Co się zaś dzieje z gospodarstwami rolnymi,
których właściciele, zarządzający odrzucili oferowaną im wiedzę – wiele z nich stało się ekonomicznym bankrutem, nie produkują na rynek, brak podstaw ekonomicznego funkcjonowania tych
rodzin.
Podobna sytuacja zaistniała w sektorze przetwórstwa rolno – spożywczego, które otrzymało
szansę w postaci kredytów preferencyjnych oraz adresowanych środków finansowych w postaci
różnych projektów europejskich na dostosowanie produkcji do światowych wymogów ekonomiczno – jakościowych. Przykładem niech będą zakłady mleczarskie, mięsne, przetwarzające
owoce i warzywa, które dostosowały proces produkcji i zbytu swoich produktów do światowych
standardów. Te, które pozostały przy tradycyjnym zarządzaniu, a ich liderzy nie wykorzystali
oferowanej im wiedzy – przestały istnieć. Powstało też wiele nowych, nowoczesnych firm zarządzanych przez dynamicznych liderów korzystających z dostępnej, pochodzącej z różnych źródeł
wiedzy.
Z perspektywy czasu można stwierdzić, że wiedza, jej dostępność jest czynnikiem rozwoju
gospodarstw rolnych, których zarządzający (najczęściej właściciele) zdecydowali się na nowoczesny sposób produkcji w momencie, kiedy skierowano do nich duży strumień środków publicznych
na ich restrukturyzację. Wiedza, jaką wówczas przekazywały ośrodki doradztwa rolniczego jednoznacznie wskazywała na fakt, iż gwarancję zbytu mleka będą wypracowane przez gospodarstwo
rolne kwoty mleczne. Wiele gospodarstw „spóźniło się” lub nie podjęło takiego wyzwania, mimo
posiadanej wiedzy na ten temat. Wydaje się, że przyczyną jest niedostatecznie wykształcona
przedsiębiorczość u tych ludzi, szczególnie brak ponoszenia ryzyka w podejmowaniu różnych
przedsięwzięć. Dzisiaj przetacza się przez polską wieś fala niezadowolenia, ponieważ wiele gospodarstw rolnych wypada z produkcji mleka a także nie zostały dostosowane do europejskich
standardów technologiczno – jakościowych. Swoje niezadowolenie wyrażają również zarządzający gospodarstwami, które wypracowały zbyt małą pulę kwoty mlecznej, która ogranicza ich rozwój i dochody na przyszłość. O kwotowaniu produkcji mleka w krajach Unii Europejskiej polscy
rolnicy byli powszechnie informowani, zwracano uwagę, że ten system obowiązuje tam od 1984
roku.
Podobna sytuacja, choć nie wynika ona z zaniedbania rolników zaistniała na rynku cukru.
Otóż UE wprowadziła na tym rynku restrukturyzację polegającą na ograniczeniu poziomu kwot
produkcji cukru. Oznacza to, że zmniejszy się możliwość zbytu buraków cukrowych, co w znacznym stopniu ograniczy dochody polskich rolników w niektórych regionach kraju. Rolnicy, których
to dotyczy muszą zdecydować się na innego rodzaju produkcję, która zagwarantuje egzystencję
ich rodzin.
Zdaniem autora, takim segmentem, który może ożywić polski agrobiznes będzie produkcja
bioenergii - w najbliższym czasie bardzo dynamicznie rozwijający się sektor agrobiznesu. Za
takim stwierdzeniem stoją gwarancje wynikające z dokumentu „ Polityka energetyczna Polski do
2025 roku” przyjęty przez Radę Ministrów w styczniu 2005 roku. Wraz ze znowelizowanym Prawem energetycznym, wprowadzane są do polskiego prawa unijne regulacje w tym zakresie – dyrektywa 2001/77/WE oraz 7 Europejski Program Ramowy. Dużym segmentem w polskim rynku
będzie zapewne produkcja biopaliw na bazie produktów pochodzących z polskich gospodarstw
rolnych. Bezpieczeństwo energetyczne to przecież jeden z priorytetów polskiej gospodarki. Zatem,
szansą na najbliższe lata dla polskich producentów rolnych może być rolnictwo energetyczne. Ale
jak z tej szansy skorzystają? Działania rolników mogą wesprzeć samorządy lokalne, bowiem
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
97
nowelizacja ustawy Prawo energetyczne (obowiązuje od 1.10.2005r) nakłada na nie dodatkowe
obowiązki, szczególnie w zakresie promocji i wykorzystania odnawialnych źródeł energii.
Przyczynę niepowodzeń różnych działalności, jakie mogą podejmować rolnicy, autor upatruje
w braku prawa, które może ożywić polski agrobiznes, a także dość często jego nadinterpretacja.
Zdaniem autora podjęcie wspólnych działań gospodarczych w naszym agrobiznesie może ułatwić
zorganizowanie się podmiotów tam działających w klastry gospodarcze. Istota jego działania
sprawia, że, odpowiedzialność jest ograniczona do przedsięwzięcia, w jakim rolnik uczestniczy, co
oznacza, że nie traci on własnej tożsamości gospodarczej [4]. W Polsce brakuje uregulowań prawnych w tym zakresie. Dalszy rozwój polskiego agrobiznesu będzie zależał od szybkiego przyswojenia wiedzy z zakresu systemu przepisów prawnych UE, a w szczególności
z zakresu finansów publicznych. Polski system transmisji wiedzy w edukacji nie uwzględnia konsekwencji
społeczno – ekonomicznych, jakie wynikają z szybkich przemian cywilizacyjnych.
Bardzo ważne jest szybkie wdrożenia kierunków polityki spójności na lata 2007-2013 co będzie następnym etapem w rozwoju naszego agrobiznesu. Opublikowano już oficjalny dokument
Komisji Europejskiej w tym zakresie – „Polityka spójności wspierająca wzrost gospodarczy i
zatrudnienie. Strategiczne wytyczne Wspólnoty na lata 2007-2013”. Bruksela 5 lipca 2005r. [2].
Jednym z celów wspomnianej polityki jest pogłębianie wiedzy oraz innowacji na rzecz wzrostu
gospodarczego. Uwzględnia on takie działania, jak:
- wzrost i poprawa efektywności inwestycji w badania naukowe i rozwój,
- wprowadzenie innowacji i promowania przedsiębiorczości,
- promowanie społeczeństwa informacyjnego,
- prawo dostępu do finansowania.
Wdrożenie zasad wspólnej Polityki Rolnej na lata 2007 – 2013 stanowi pewne zagrożenie dla
części polskich gospodarstw rolnych. Niezmiernie trudnym do wprowadzenia elementu WPR
będzie przyjęta zasada wzajemnej zgodności – Cross – compliance. Polega ona na uzależnieniu
otrzymywania płatności bezpośrednich od spełnienia przez gospodarstwo określonych wymagań
dotyczących ochrony środowiska, dobrostanu zwierząt oraz bezpieczeństwa żywności. Spełnienie
powyższych warunków, ze względów ekonomicznych w wielu polskich gospodarstwach będzie
trudne.
Zatem, niezwłocznie należy przystąpić do kampanii informacyjnej skierowanej do osób zarządzających polskim agrobiznesem.
3. Podsumowanie
Istnieje potrzeba szerokiego, skutecznego informowania kadry zarządzającej polskim agrobiznesem o strategii funkcjonowania Wspólnot Europejskich w latach 2007 – 2013. Aby osiągnąć
najlepsze efekty z relacji zasad Wspólnej Polityki Rolnej już od 2007 roku należy wykorzystać
wszystkie możliwe formy edukacji. Wydaje się zasadne wprowadzenie skutecznej metody, jaką
jest interwencja edukacyjna. Działania te zapewne wpłyną na podniesienie konkurencyjności naszego agrobiznesu.
Witold Rzepiński
Wiedza jako czynnik rozwoju polskiego agrobiznesu
98
4. Literatura
1.
2.
3.
4.
5.
Adamowicz M., 2005. Wiedza i jej wpływ na tworzenie wartości i zarządzania organizacją. [W:] Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkowstwa
w Unii Europejskiej. Wydawnictwo SGGW Warszawa.
Monitor Europejski 2005 Nr 15.
Rzepiński W., 2004. Znaczenie projektów europejskich w rozwoju mleczarstwa na terenie
Polski północno – wschodniej. [W:] Rola Projektów Europejskich w rozwoju lokalnym
i regionalnym. Wydawnictwo SGGW Warszawa.
Rzepiński W., 2005. Klastry gospodarcze w agrobiznesie. [W:] Zarządzanie wiedzą
w agrobiznesie w warunkach polskiego członkostwa w Unii Europejskiej. Wydawnictwo
SGGW Warszawa.
Tomczak F., 2004. Od rolnictwa do agrobiznesu. Szkoła Główna Handlowa w Warszawie.
THE KNOWLEDGE AS DEVELOPMENT FACTOR IN POLISH AGRIBUSINESS
Summary
In the paper one can concentrated on analysis of availability of the knowledge
for agricultural producers. An attempt of evaluation of education intervention effects
concerning fast transmitting of the knowledge into agricultural practice was taken .
Developing Polish agribusiness being under circumstances of globalization faced increasing competition, saving the world quality standards. In teaching activities extension service centers played essential role.
Keywords: Agribusiness, Knowledge Availability, Quality Standards, Education Intervention
WITOLD RZEPIŃSKI
Mazowiecki Ośrodek Doradztwa Rolniczego
02-456 Warszawa, ul. Czereśniowa 98
[email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
99
ANDRZEJ STRASZAK
Wyższa Szkoła im. Pawła Włodkowica w Płocku
SYSTEMOWA FUZJA I INTEGRACJA E-DANYCH, E-INFORMACJI I E-WIEDZY
Streszczenie
Rewolucja Wiedzy, najważniejszy problem 2006 roku i lat następnych. Państwa i
firmy, które włączą się aktywnie w jej nurt będą zwycięzcami w globalnej konkurencji.
Ważne kwestie tej rewolucji według przedstawicieli gospodarki, polityki, mediów i nauki.
Krajowy system oparty na Wiedzy i jego podstawowe podsystemy niezbędne dzisiaj. Systemowe procesy w przestrzeniach e-danych, e-informacji i e-wiedzy.
Słowa kluczowe: Rewolucja Wiedzy, społeczeństwa wiedzy, gospodarki opartej na wiedzy, Krajowe Systemy Wiedzy, procesy systemowe, e-przestrzenie danych, informacji
i wiedzy
1. Wprowadzenie
Na pierwszej konferencji naszego Polskiego Stowarzyszenia Zarządzania Wiedzą w 2004 roku przedstawiłem referat p.t. „Miejsce sektora e-wiedzy w społeczeństwie internetowym” (Straszak 2004). Dzisiaj zaledwie dwa lata później, ogromnie wiele się dzieje w zakresie szybkiej cyfryzacji naszej Planety. W chwili obecnej powyżej miliarda osób korzysta z Internetu, z większości państw świata i ze wszystkich kontynentów. Cyfrową telefonią komórkową posługuje się około
dwu miliardów abonentów, w tym w listopadzie 2005 roku aż 388 milionów w Chinach, zaś w
ciągu pierwszych 11 miesięcy 2005 roku Chińczycy wysłali 274,3 miliarda cyfrowych wiadomości SMS. Liczba krajów, które osiągnęły praktycznie biorąc pełną cyfryzację swoich społeczeństw
szybko rośnie.
Przedstawienie prototypu taniego laptopa (tzw. laptopa za 100 dolarów) wraz z projektem systemowym jego produkcji i dystrybucji na świecie, na zakończenie Pierwszego Światowego Szczytu Społeczeństw Informacyjnych w Tunisie w listopadzie 2005 roku, stanowi przełom technologiczny i systemowy, a nawet cywilizacyjny, o wielkim znaczeniu strategicznym dla cyfryzacji
naszej Planety. Także w listopadzie 2005 roku w Kobe w Japonii odbył się Pierwszy Światowy
Kongres Międzynarodowej Federacji Badań Systemowych na temat Nowej Roli Nauk Systemowych dla Społeczeństw opartych na Wiedzy, w którym miałem zaszczyt uczestniczyć wraz z innymi członkami naszego stowarzyszenia. (Bogdan, Straszak, Studziński 2005) (Yoshida 2005)
W grudniu 2005 globalny tygodnik Newsweek opublikował specjalne wydanie grudzień 2005
– styczeń 2006, p.t. „The Knowledge Revolution. Why victory will go to the smartest nations and
companies”. Powyższa publikacja została wydana tradycyjnie wraz z nadchodzącym Światowym
Forum Gospodarczym (World Economic Forum), które odbędzie się w lutym 2006 roku.
Interesujące jest to co napisano we wstępie do powyższego wydania. „Every fall we invite
world leaders to write for our Special Edition on big issues of the year ahead and maybe half of
them beg off politely. Some never answer. This year, virtually every one said yes, quickly, includ-
100
Andrzej Straszak
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
ing very busy people like Tony Blair and Bill Gates, who have declined before, as well as the
prime ministers of Sweden and Singapore, the U.S. secretary of Education and CEOs of Google,
General Electric, Infosys and Cisco, not to mention both current and former CEOs of IBM. (...). Or
– and this is our best guess – we have hit on a theme that weighs heavily on global power players.
It is the growing competition among countries, companies and people to dominate the key strategic
asset of the emerging global knowledge economy: brains.”
Specjalne Wydanie Newsweeka 2005/2006 obejmuje artykuły 44 wybitnych autorów z gospodarki, polityki i nauki, zachęcałbym więc członków naszego Stowarzyszenia do przestudiowania całego 100 stronicowego Wydania Specjalnego, które ogłosiło światową Rewolucję Wiedzy na
rok 2006 i dalsze dwadzieścia pięć lat. Szkoda jedynie, że wydawca nie dołączył do wydania tradycyjnego zapisu elektronicznego na płycie DVD, gdyż wersja elektroniczna tego wydania umożliwiłaby lepiej wykorzystać dane, informacje i wiedzę, które znajdują się na stronach tej ogromnie
ważnej publikacji.
W tym miejscu chciałbym nawiązać do mojego referatu na naszej pierwszej konferencji, w
którym mówiłem o eksplozji danych, informacji i wiedzy, w tym głównie dostępnej w formie
elektronicznej.
Bez ciągłej i powszechnej cyfryzacji danych, informacji i wiedzy światowa Rewolucja Wiedzy jest już według mnie niemożliwa. Żyjemy już na Cyfrowej Planecie i elektroniczne dane,
informacje i wiedza są potrzebne nam i w szczególności tworzonym przez nas systemom, tak, jak
ziemskiej biosferze tlen. Co więcej, Rewolucja Wiedzy jest niemożliwa bez coraz większego zastosowania automatyzacji w przestrzeniach e-danych, e-informacji i e-wiedzy, a więc bez rozwoju
danomatyki, informatyki i wiedzomatyki, bez których niedługo nie będziemy mogli się obyć.
Przytoczę tutaj słowa B. Gatesa z artykułu kończącego cytowane Wydanie Specjalne
Newsweeka: „Smart software is turning mere data into real knowledge, (...) ‘Intelligent Agents’
and mind-mappers are taking our information democracy to the next stage”. “(...) a new generation
of ‘mind mapping’ software can also be used as a digital ‘blank slate’ to help connect and synthesize ideas and data – and ultimately create new knowledge.” “Researchers at Microsoft (...)
‘watch’ you working, then make suggestions about related subjects or ideas. Interestingly, even if
the software makes a bad guess, it can still be valuable in helping spark new ideas.” “These technologies promote consilience – literally the ‘jumping together’ of knowledge from different disciplines. They help people combine their own ideas with at least some existing knowledge far more
efficiently than was previously possible.” “ [the way] we can now search the Web for information
will revolutionize business, science and education.” (Gates 2005)
Dla poszerzenia pespektywy zamieszczę dodatkowo, w największym skrócie, istotne wypowiedzi z innych artykułów tej niezwykle ważnej debaty toczonej na łamach Wydania Specjalnego
Newsweeka.
„The dominant trend of our time is rapid diffusion of knowledge. Spreading wisdom is another matter.” - F. Zakaria. (F. Zakaria 2005)
“(...) fourth-grade math scores come to be greater strategic assets than nuclear weapons.” - T.
Friedman, autor słynnej książki “The World is Flat”. (T. Friedman 2005)
“The popular idea that America is one step smarter and more sophisticated than its rivals is a
dangerous myth (...).” - C. Prestowitz. (C. Prestowitz 2005)
“You don’t hear the Chinese complain about globalization, do you?” - T. Blair. (T. Blair
2005)
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
101
“Our openness and innovative climate has helped us to build a number of successful international companies such as Saab, IKEA, Volvo, Ericsson and Asea.” - G. Persson. (G. Persson 2005)
“We have a long tradition of gathering and trading goods, including knowledge, but in the
next phase, we are working to become creators as well.” - T.H. Loong. (T.H. Loong 2005)
“China’s journey toward the Knowledge Age is begging to look less like a shortcut and more
like a new Long March.” - M. Lin. (M. Lin 2005)
“Learning to share.” - R. Foroohar. (R. Foroohar 2005)
“The more broadly we disseminate each item of knowledge, the greater the social benefits.” D. Quah. (D. Quah 2005)
“We have focused on managing creativity and innovation, but that’s not the only thing that
matters at Google.” - E. Schmidt i H. Varian. (E. Schmidt, H. Varian 2005)
“By inviting some of our most savvy customers in for ‘Dreaming sessions’ we’ve found a not
too complicated path to real breakthroughs.” - J. Immelt. (J. Immelt 2005)
“The skeptics are wrong. In the online world, every consumer creates his or her own store, reducing the chaos of infinite options.” - Ch. Anderson. (Ch. Anderson 2005)
“By giving away hundreds of its patents, IBM has turned a philosophical movement into a
tangible business strategy. The company with the most to lose is Microsoft. A close-up look at the
software war.” - K.L. Miller. (K.L. Miller 2005)
“Just because the world is awash in information doesn’t mean that globalization will go
smoothly, indeed, we are as ignorant as ever.” - R. Samuleson. (R. Samuleson 2005)
“The information on Web is virtually limitless, if only we knew how to access it. Scientists
are working on a better way.” - F. Guterl i S. Upson. (F. Guterl, S. Upson 2005)
“Just seven years old, the company is already cast as a threat to rivals from Microsoft to WalMart.” - J. Battelle, autor książki pt. “The Search: How Google and its Rivals Rewrote the rules of
Business and Transforming our culture”. (J. Battelle 2005)
“I’m the head of Wikipedia, a volunteer group writing a free encyclopedia, but bad law treats
me no differently from a teen music pirate.” - J. Wales. (J. Wales 2005)
“The digitizing of entire library collections is producing an explosion of access to books that
has the potential to change the future of research once the lawsuits are settled.” - S. Levy. (S. Levy
2005)
“China is building new universities so fast that some players see a new bubble looming.” - D.
Hewitt i M. Lin. (D. Hewitt, M. Lin 2005)
“India skipped the normal development steps, emerging as a knowledge-economy powerhouse
while still a largely rural society.” - N. Nilekani. (N. Nilekani 2005)
“India is rising fast as a tech power and turning out 280.000 engineers a year. But according to
various analysts, as few as one in 25 is ready for international competition.” - R. Moreau i S.
Chaterjee. (R. Moreau, S. Chaterjee 2005)
“The Scandinavian countries are among the world leaders in educational investment and student performance.” - A. Schleicher. (A. Schleicher 2005)
W tej części Specjalnego Wydania na temat Rewolucji Wiedzy pojawia się Polska w swoim
osiągnięciu w zakresie umasowienia kształcenia wyższego. Polska znalazła się przed Norwegią, za
Finlandią, Szwecją i Islandią. Umasowienie w Polsce wyższych studiów jest dwa razy większe niż
w Niemczech. Thomas Friedman (2005) wprowadził nowe bardziej ogólne kryterium innowacyjności krajów a mianowicie według ilości opublikowanych prac naukowych od roku 2000:
U.S.A.
34%
102
Andrzej Straszak
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
Japonia
W. Brytania
Niemcy
Inni
Francja
Chiny
Kanada
Włochy
Rosja
Australia
Hiszpania
Holandia
9%
9%
9%
8%
6%
5%
4%
4%
3%
3%
3%
3%
Brak krajów skandynawskich wynika z ich małych rozmiarów, brak Polski wynika z 25-letniego
kryzysu w zakresie finansowania B + R w Polsce.
Miesiecznik „Wired” z grudnia 2005, w oparciu o dane CIA, NSB, OECD, World Bank
podaje wydatki na B + R w 2005 roku jak następuje:
Chiny
6.0 % PKB
Płd. Korea
4.0 % PKB
Rosja
4.0 % PKB
Szwecja
3.5 % PKB
Finlandia
3.2 % PKB
Japonia
2.8 % PKB
U.S.A.
2.7 % PKB
Belgia
2.6 % PKB
Austria
2.6 % PKB
Islandia
2.4 % PKB
Czechy
2.3 % PKB
Singapur
2.3 % PKB
Niemcy
2.2 % PKB
Kanada
2.2 % PKB
Francja
2.1 % PKB
Polska z wielkością 0.6% PKB w 2005 oczywiście nie jest notowana. Rozpoczynająca się w
obecnym roku światowa Rewolucja Wiedzy, zamienia dotychczasowy Wyścig Zbrojeń na Wyścig
B + R.
W roku poprzednim na konferencji naszego Stowarzyszenia przedstawiłem problemy realizowania w Polsce Strategii Lizbońskiej Unii Europejskiej w krótkim i długim terminie.
Światowa Rewolucja Wiedzy będzie przebiegała w ramach silnej konkurencji trzech kontynentów: europejskiego, amerykańskiego i azjatyckiego, ale także współpracy dwustronnej lub
trójstronnej. Australia i Nowa Zelandia nie mają szans na odgrywanie samodzielnej roli, ale wezmą aktywny udział w światowej Rewolucji Wiedzy. Szanse Europy w nowej Rewolucji Wiedzy
nie są stracone. Według materiałów opublikowanych we wspomnianym miesięczniku „Wired”
(12.2005), w roku 1990 Europa publikowała mniej prac naukowych niż USA, zaś w 2004 roku już
znacznie wyprzedziła USA – odpowiednio: 350.000 Europa, 255.000 USA.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
103
Zmodyfikowana w 2005 roku Strategia Lizbońska U.E. zakłada nadal osiągnięcie nakładów
na B + R w roku 2010 w wysokości 3.0 % PKB. Polska stała się więc krajem silnie hamującym
realizację Strategii Lizbońskiej w U.E. w zakresie najważniejszego wskaźnika.
U.E. rozpoczyna w 2006 prace badawcze nad nowymi metodami, narzędziami i środkami realizacji Strategii Lizbońskiej. Badania, na prowadzenie których przetarg rozstrzygnięto w grudniu
2005, będą trwały prawie trzy lata.
U.E. nie może zrezygnować ze Strategii Lizbońskiej w warunkach rozpoczynającej się pierwszej globalnej Rewolucji Wiedzy, która będzie trwała co najmniej kilka dziesięcioleci, gdyż ewentualna przegrana byłaby końcem Unii Europejskiej.
B. Gates (2005) nazwał swoje zakończenie „The New Road Ahead” – Nowa Droga Naprzód,
która „literally transforms how we think and helps us finally realize the potential of the truly
global knowledge economy.” Polska nie może nie uczestniczyć w światowej Rewolucji Wiedzy,
jeżeli chce istnieć na mapie i w świadomości świata 21 wieku.
2. Krajowy System, Podstawowe podsystemy oparte na wiedzy
Rozpoczynająca się Globalna Rewolucja Wiedzy wymaga tworzenia krajowej infrastruktury
informacji i wiedzy oraz krajowych sektorów Nauki i Edukacji opartych na wiedzy, wspomagania
politycznych instytucji w zakresie informacji i wiedzy. Gospodarka, administracja publiczna,
ochrona środowiska także maksymalnie muszą korzystać z wiedzy, w tym wiedzy elektronicznej
oraz badań naukowych w celu przekształcenia tych sektorów w sektory wysoce skuteczne (‘the
high performance sectors’).
104
Andrzej Straszak
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
Info. Know.
INFRASTRUCTURES
Knowledge based
Knowledge based
SCIENCE
ECONOMY
Knowledge based
PUBLIC
ADMINISTRATION
Knowledge based
Knowledge based
EDUCATION
ENVIRONMENT
Knowledge based
POLITICAL
STRUCTURES
Knowledge based
SOCIETY
Rysunek 1. National knowledege based System (Krajowy System oparty na Wiedzy) [źródło własne]
W systemach i podsystemach opartych na wiedzy należy uwzględniać użytkowników zwykłych, zaawansowanych i wysoce zaawansowanych. W systemach i podsystemach opartych na ewiedzy, e-informacja i e-wiedza winny one same ‘znajdować’ zwykłego użytkownika, same
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
105
‘przyciągać’ zaawansowanego użytkownika, ‘współdziałać’ z wysoce zaawansowanymi użytkownikami. Aby zrealizować powyższe działanie, e-dane, e-informacje i e-wiedza w systemach
wspomagających różnych użytkowników muszą wykorzystywać automatyczne szukanie, gromadzenie, przetwarzanie, fuzje i współdziałanie z użytkownikiem, a więc tworzyć układy i systemy
wiedzomatyczne. (Rys. 2)
OTHER SYSTEMS
DATA
TRANSFORMATION
e-DATA
e-INFORMATION
FORMALIZATION
INTERPRETATION
e-KNOWLEDGE
e-KNOWLEDGE FROM
ALL SOURCES
I2CT
ACTION
REAL REALITY
OR
VIRTUAL REALITY
Rysunek. 2. Wspomaganie wiedzomatyczne [źródło własne]
Andrzej Straszak
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
106
3. Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
Eksplozja przyrostu ilości e-danych, e-informacji i e-wiedzy stwarza konieczność nie tylko
ich gromadzenia , przetwarzania i dystrybucji, ale także ich fuzji i integracji w e-metadane, emetainformacje i e-metawiedzę.
E-dane, e-informacja i e-wiedza wymagają nie tylko szukania, śledzenia, odkrywania, ale także stosowanej (do potrzeb użytkownika) analizy, syntezy, fuzji i integracji systemowej a następnie
dopasowania do użytkowników i dystrybucji. (Rys. 3)
Szukanie
Śledzenie
Odkrywanie
Działanie
Stosowana
analiza
systemowa
Dopasowanie
dystrybucji
Stosowana
synteza
systemowa
Fuzja
i integracja
systemowa
Ryunek 3. Pętla procesów systemowych [źródło własne]
Realizacja konkretnych pętli procesów systemowych dla konkretnych użytkowników wymaga
czaso- i pracochłonnych badań systemowych. Na rys. 4 przedstawiono przykład złożonej struktury
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
107
e-wiedzy dla potrzeb zaawansowanego użytkownika z zakresu rozwiązywania problemów zarządzania jakością systemu wodnego. (Bogdan, Straszak, Studziński 2005)
OS and
problem
ontology
Systems
research
ICT process
instance
Computer
optimisation,
monitoring,
simulation
for water
Tech-biophysc-chem
process
Water system
dynamics
process
Metaontology
Generic process ontology
Modelling
process
instance
Modelling
process instancje for
Model ontology
Environmental process
demands
Socioeconomic
scence proc-
Business
process
instance
Water stress
mitigation
process
Supply –
chain management
Rysunek. 4 Złożona struktura e-wiedzy [źródło: Bogdan, Straszak, Studziński 2005]
4. Zakończenie
Przed badaniami systemowymi otwierają się ogromne możliwości zastosowań, w związku
z rozpoczynającą się Rewolucją Wiedzy, są to jednak w Polsce możliwości tylko potencjalne.
W 2003 roku, gdy było już wiadomo, że Polska otrzyma znaczne środki UE (12,8 mld euro)
na lata 2004-2006, złożyłem wraz z profesorem z RAND Europe wizytę członkowi kierownictwa
Ministerstwa Gospodarki i Pracy i złożyliśmy ofertę przeprowadzenia przez IBS PAN i RAND
Europe szybkich badań systemowych, w celu wykrycia nieuchronnych błędnych lub zbyt trudnych
rozwiązań systemowych związanych z procesami wykorzystania tych środków, gdyż system ten
był nowy i nie mógł być sprawdzony nawet częściowo. Otrzymaliśmy odpowiedź, że jest to dobry
system, że wszystkie jego ogniwa są w pełni przygotowane, a wszystkie środki UE będą w 99 %
wykorzystane właściwie i zgodnie z założonymi celami.
W roku 2004 i 2005 rzeczywiste wykorzystanie środków UE było jednak niewielkie, co nawet
zaniepokoiło U.E. Zobaczymy, jaki w roku 2006 będzie stopień wykorzystania środków przez
Andrzej Straszak
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
108
nowe Ministerstwo Rozwoju Regionalnego, które przejęło odpowiedzialność za wykorzystanie
środków U.E. z Ministerstwa Gospodarki.
Mam nadzieję, że administracja publiczna zdobyła już niezbędne doświadczenie, gdyż ‘system’ już ma za sobą praktykę dwu lat. Mam jednak nadal wątpliwości czy bez badań systemowych
możliwe jest uzyskanie niezbędnych danych, informacji i wiedzy na temat pracy tego złożonego
‘systemu’ w warunkach rzeczywistych i uzyskanie wysoce sprawnego funkcjonowania tego ‘systemu’, który nie jest oparty o e-wiedzę. Niedługo się o tym przekonamy.
Rzeczywistości systemowej nie można oszukać, musimy tworzyć coraz więcej różnorodnych
systemów. Prawdopodobieństwo, że jakiś współczesny system, tworzony przez nas, bez wiedzy i
badań systemowych będzie dostatecznie sprawnie działał, jest znikome, zatem liczenie w tych
warunkach na pomyślny efekt ma cechy myślenia życzeniowego, opartego na braku wiedzy.
Zakup komputerów, programów komputerowych i szkolenia, choć konieczne, są bardzo dalekie od spełnienia warunków wystarczających dla dostatecznej funkcjonalności ‘systemu’, a przecież wydanie zaledwie 0,1% środków finansowych związanych z nowym systemem może uchronić nas od klęski systemowej.
5. Literatura
1.
Anderson Ch., 2005. The Simple Choice. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
2. Battelle J., 2005. Google’s MASTER PLAN. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006.
3. Beulens A.J.M., Scholten H., 2005. Towards a Process Ontology for a Model Based Support System for Problem Solving: the Ontology Bootstrap Problem. CSM/KSS-IIASA
Workshop. Laxenburg, Austria.
4. Blair T., 2005. Europe is Falling Behind. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
5. Bogdan L., Kaczmarska D., Studziński J., 2005. Computerization of waterworks In Poland – current state and perspectives. [W:] Studziński J., Drelichowski L., Hryniewicz O.
(Eds.) Application of Informatics in Environment Engineering and Medicine. PAN IBS
Warszawa.
6. Bogdan L., Straszak A., Studziński J., 2005. Poland 21st Century Infrastructure for
„Global Great Transition”. (Eco-Info-Communalism) Scenarios. Looking for Future System Research Solution. The First World Congress of the International Federation for System Research. Kobe, Japan.
7. Foroohar R., 2005. Learning to Share. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006.
8. Friedman T., 2005. The Exhausting Race for Ideas. [W:] The Knowledge Revolution.
Newsweek Special Edition. December 2005 – February 2006.
9. Gates B., 2005. The New Road Ahead. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
10. Guterl F., Upson S., 2005. Smarter search. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
11. Immelt J., 2005. Innovation Inc. [W:] The Knowledge Revolution. Newsweek Special
Edition. December 2005 – February 2006.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
109
12. Kacprzyk J., Nahorski Z., Wagner D. (Eds.), 2005. System Research Application in Science, Technology and Economy. Exit Warszawa.
13. Kulikowski J., Findeisen W., Nałęcz M., Seidler J., Straszak A., Węgrzyn S., 1972. Role
of Cybernetics Science in Development of the Nation. Polish Academy of Sciences Warszawa.
14. Levy S., 2005. The 2000 – YEAR dream. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
15. Liautaud B., Hamond M., 2003. e-Business Intelligence. Od informacji przez wiedzę
do zysków. Premium Technology Warszawa.
16. Liu M., 2005. How High? [W:] The Knowledge Revolution. Newsweek Special Edition.
December 2005 – February 2006.
17. Loong L. H., 2005. Singapore Way. [W:] The Knowledge Revolution. Newsweek Special
Edition. December 2005 – February 2006.
18. Mazurkiewicz R., 2002. Transformacja Wiedzy w budowie i eksploatacji maszyn. Wydawnictwo ITE Radom.
19. Nilekani N., 2005. Poor and Mighty. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006.
20. Pillman W., 2005. The integration of Environmental Knowledge. EnviroInfo.
21. Prestowitz C. 2005. The World is Tilted. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
22. Samuelson R.J., 2005. The STEALTH Factor. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006.
23. Schleicher A., 2005. A CLASSLESS Act. [W:] The Knowledge Revolution. Newsweek
Special Edition. December 2005 – February 2006.
24. Schmidt E., Varian H., 2005. Google: Ten Golden Rules. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006.
25. Straszak A., 2003. D&PSS in the uncertainty of the internal society. [W:] Tung B., Sroka
H. (Eds.) DSS in the Uncertainty oh the Internet Age. Katowice.
26. Straszak A., 2002. Education needs for knowledge based society. [W:] Owsinski J.W.,
Straszak A. (Eds.) Information Society and Operation Research & Management (In Polish). Exit Warszawa.
27. Straszak A., 2004. Miejsce Sektora E -Wiedza w Społeczeństwie Informatycznym. Studia
i materiały Nr 2. PSZW Bydgoszcz.
28. Straszak A., 2004. Społeczeństwo oparte na Wielkich Zasobach Wiedzy. BOS Warszawa.
29. Straszak A., 2005. Strategia Lizbońska UE. Kluczowy czynnik tworzenia się społeczeństwa i wiedzy i gospodarki opartej na wiedzy w Polsce. Studia i materiały Nr 4. PSZW
Bydgoszcz.
30. Quah D., 2005. Knowledge Glut. [W:] The Knowledge Revolution. Newsweek Special
Edition. December 2005 – February 2006.
31. Wales J., 2005. I am not a thief. [W:] The Knowledge Revolution. Newsweek Special
Edition. December 2005 – February 2006.
32. Wierzbicki A., Nakamori Y., 2005. Models of Knowledge Creation Processes.
CSM/KSS-IIASA Workshop, Laxenburg, Austria.
33. Yoshida T., 2005. The Second Scientific Revolution in Capital Letters – Informatic Turn
– Keynote speech. Pierwszy Światowy Kongres Badań Systemowych, Kobe, Japan.
110
Andrzej Straszak
Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy
34. Zakaria F., 2005. The Earth’s Learning Curve. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006.
SYSTEM FUSION AND INTEGRATION OF E-DATA, E-INFORMATION
AND E-KNOWLEDGE
Summary
The Knowledge Revolution, why victory will go to the smartest nations & companies.
World leaders opinions on this big issue of the 2006 and the next quarter century.
National System based on knowledge.
Systemomatics for e-data, e-information and e-knowledge spaces.
Keywords: Knowledge Revolution, Smartest Nations, Smartest Companies, Systems Processes,
e-Data, e-Information, e-Knowledge Spaces, Systemomatics.
ANDRZEJ STRASZAK
Wyższa Szkoła im. Pawła Włodkowica w Płocku
09-402 Płock, al. Kilińskiego 12
[email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
111
JAN STUDZIŃSKI
Instytut Badań Systemowych PAN
Warszawa
PROBLEMY ZARZĄDZANIA INFORMACJĄ
W MIEJSKIM PRZEDSIĘBIORSTWIE WODOCIĄGOWYM1
Streszczenie
Podstawą prawidłowego funkcjonowania przedsiębiorstwa wodociągowego jest
odpowiednie wykorzystanie informacji zbieranych rutynowo i dotyczących produkcji
i zużycia wody i ścieków, awarii systemów wodno-ściekowych, kosztów prac inwestycyjnych i kosztów eksploatacyjnych, parametrów technicznych i technologicznych
eksploatowanych systemów itp. W artykule przedstawia się obecną niedobrą sytuację w zakresie zarządzania informacją w krajowych przedsiębiorstwach wodociągowych oraz sposoby jej uzdrowienia z wykorzystaniem informatycznych systemów
wspomagania decyzji. Omawia się także pewne wstępne wyniki wdrożenia takiego
systemu w wodociągach rzeszowskich.
Słowa kluczowe: zarządzanie miejskim przedsiębiorstwem wodociągowym, komputerowe
systemy wspomagania decyzji, systemy GIS, systemy monitoringu,
modelowanie matematyczne systemów wodno-ściekowych
1. Wprowadzenie
Miejskie przedsiębiorstwa wodociągowe odgrywają kluczową rolę w prawidłowym funkcjonowaniu społeczności miejskich, zajmując się produkcją i dystrybucją wody pitnej i usuwaniem i
utylizacją ścieków. Bez tych efektywnie wykonywanych działań nie można sobie obecnie wyobrazić życia w mieście a woda jest podobnie strategicznym medium, jak energia, gaz i ropa naftowa.
Dlatego jest niezwykle ważne, aby produkcja wody i usuwanie ścieków odbywały się sprawnie.
Przy tym przez działanie sprawne rozumiemy tutaj działanie skuteczne i tanie, co oznacza, że
produkowana woda musi mieć odpowiednią jakość i być dostarczana w odpowiedniej ilości, gospodarowanie wodą powinno być oszczędne, wszystkie ścieki powinny być odbierane od użytkowników wody i odpowiednio oczyszczone a wszystkie te procesy powinny być wykonywane
bez zakłóceń i przy możliwie niskich kosztach. Niespełnienie któregoś z tych warunków może
powodować ogromne zakłócenia w życiu mieszkańców miasta, wpływając negatywnie na stan ich
zdrowia i sytuację finansową.
Z powyższego wynika, że przedsiębiorstwa wodociągowe, szczególnie w dużych aglomeracjach miejskich, powinny być poprawnie zarządzane, co zapewniłoby ich sprawne działanie. Przy
tym można zauważyć, że zarządzanie to ma charakter wielokryterialny, w którym należy
uwzględnić co najmniej kilka kryteriów celu o charakterze technicznym, technologicznym, administracyjnym i ekonomicznym. Jednocześnie miejskie przedsiębiorstwo wodociągowe jest obiektem bardzo złożonym, w którym można wyróżnić co najmniej cztery systemy techniczne, to zna1
Artykuł napisany w ramach realizacji projektu celowego Ministerstwa Nauki i Informatyzacji nr 6T11 2004C/06302
112
Jan Studziński
Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym
czy stację poboru i uzdatniania wody, sieć wodociągową do dystrybucji wody, sieć kanalizacyjną
do odbierania ścieków i oczyszczalnię ścieków do ich utylizacji. Wielokryterialność zarządzania
i złożoność obiektu powodują, że praktycznie nie jest obecnie możliwe efektywne zarządzanie
takim obiektem bez użycia komputerów i odpowiednich programów, w tym informatycznych
systemów wspomagania decyzji wykonujących zwykle wiele zróżnicowanych funkcji.
Dlatego jest istotną wiedza, jak wygląda obecnie stan informatyzacji krajowych przedsiębiorstw wodociągowych i czy aktualna sytuacja jest zadowalająca, czy też wymaga poprawy i w
jakim zakresie. Te problemy będą omówione w dalszym ciągu artykułu. Na podstawie przeprowadzonych wywiadów w ważniejszych krajowych przedsiębiorstwach wodociągowych dokonano
analizy stanu informatyzacji polskich wodociągów [5] a następnie przedstawiono koncepcję
uzdrowienia niezdrowej, niestety, sytuacji w tym zakresie. Jednocześnie omówiono pewne wstępne wyniki kompleksowej informatyzacji realizowanej w miejskim przedsiębiorstwie wodociągów i
kanalizacji w Rzeszowie [4], gdzie od kilku lat rozwija się zintegrowany system wspomagania
decyzji do zarządzania siecią wodociągową [1, 2, 3]. Te prace są prowadzone w ramach projektów
badawczych finansowanych przez Komitet Badań Naukowych i Ministerstwo Nauki i Informatyzacji.
2. Stan informatyzacji przedsiębiorstw wodociągowych
Jak już wspomniano, stan informatyzacji polskich wodociągów jest zły i trudno obecnie zauważyć, aby istniały jakieś programy jego naprawy. Z grubsza problem informatyzacji przedsiębiorstw wodociągowych można rozbić na dwa zagadnienia: informatyzację zadań technicznotechnologicznych realizowanych w przedsiębiorstwach i informatyzację zadań administracyjnoekonomicznych. Pierwszy przypadek dotyczy takich zadań, jak modelowanie matematyczne,
optymalizacja i sterowanie procesami produkcji i dystrybucji wody, transportu i oczyszczania
ścieków oraz rozbudowy i remontów sieci wodociągowych i kanalizacyjnych oraz oczyszczalni.
Drugi przypadek dotyczy zadań planowania inwestycji, gospodarki magazynowej oraz zarządzania
finansami przedsiębiorstwa. Również podobnie na dwie podstawowe grupy można podzielić programy komputerowe, które mogą względnie są stosowane obecnie w przedsiębiorstwach wodociągowych: programy z pierwszej grupy służą do rejestracji i prostego przetwarzania zarchiwizowanych danych, natomiast programy z drugiej grupy służą do generowania określonych procedur
postępowania na podstawie danych gromadzonych przez programy z pierwszej grupy. Można się
umówić, że mamy do czynienia z programami o działaniu pasywnym (programy pasywne)
i programami o działaniu aktywnym (programy aktywne). Biorąc następnie pod uwagę wspomniany wyżej rodzaj zadań realizowanych w przedsiębiorstwie wodociągowym możemy stosowane w
nim programy podzielić na programy o funkcjach technicznych (programy techniczne) i programy
o funkcjach administracyjnych (programy administracyjne). W rezultacie mamy do czynienia
z czterema rodzajami programów rozwijanych i wdrażanych w przedsiębiorstwach wodociągowych: programy techniczne pasywne, programy techniczne aktywne, programy administracyjne
pasywne i programy administracyjne aktywne.
Dla lepszego zrozumienia tego podziału, który jest zresztą podziałem umownym, można podać przykłady odpowiednich programów: programem technicznym pasywnym będzie na przykład
system monitorowania, archiwizacji i wizualizacji przepływów i ciśnień wody w sieci wodociągowej; programem technicznym aktywnym będzie algorytm generujący sygnały sterujące napowietrzaniem komór z osadem czynnym w oczyszczalni ścieków; programem administracyjnym pa-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
113
sywnym będzie program rejestrujący ilość sprzedanej wody użytkownikom sieci wodociągowej;
programem administracyjnym aktywnym będzie natomiast algorytm do prognozowania sprzedaży
wody i produkcji ścieków, czyli prognozowania dochodów w kolejnym roku działania przedsiębiorstwa.
Mówiliśmy dotychczas o programach o ściśle określonych funkcjach. Kolejny podział może
dotyczyć programów o działaniu kompleksowym, realizujących zadania o różnym charakterze:
zadania techniczne pasywne (na przykład gromadzenie danych o przepływach i ciśnieniach wody
w sieci wodociągowej) i aktywne (generowanie algorytmów sterowania zestawami pompowymi w
hydroforniach na podstawie zgromadzonych danych) czy zadania techniczne i administracyjne
(prognozowanie awaryjności sieci kanalizacyjnej i generowanie planów modernizacji tej sieci na
podstawie opracowanych prognoz). Mamy wtedy do czynienia nie tyle z pojedynczymi programami, co z systemami informatycznymi wspomagania decyzji wspomagającymi procesy zarządzania przedsiębiorstwem wodociągowym. Przy czym mogą to być systemy administracyjne lub systemy techniczne a w przypadku najdalej posuniętej informatyzacji przedsiębiorstwa – zintegrowane systemy administracyjno-techniczne.
Po wprowadzeniu powyższej systematyzacji oprogramowania przedstawimy poniżej analizę
obecnego stanu informatyzacji krajowych przedsiębiorstw wodociągowych. W tym celu przeprowadzono wywiady w 42 przedsiębiorstwach wodociągowych działających w średnich (od stukilkudziesięciu tysięcy do kilkuset tysięcy mieszkańców) i dużych (od kilkuset tysięcy mieszkańców) miastach Polski. W wyniku tej analizy można stwierdzić co następuje [5]:
Powszechną praktyką jest stosowanie w przedsiębiorstwach wodociągowych pojedynczych
programów a nie zintegrowanych systemów informatycznych. Przy czym nie tylko nie stosuje się i
nie rozwija zintegrowanych systemów administracyjno-technicznych, ale również nie stosuje się
na ogół systemów wspomagania decyzji przeznaczonych dla wydzielonych obszarów funkcjonowania przedsiębiorstwa, to znaczy obszaru administracyjno-organizacyjnego względnie obszaru
techniczno-technologicznego. Przy czym obszar administracyjno-organizacyjny jest na ogół bardziej nasycony programami realizującymi poszczególne zadania, niż obszar technicznotechnologiczny. Jest to spowodowane mniejszą złożonością i mniejszymi kosztami programów
administracyjnych w porównaniu z programami technicznymi. Również łatwiej, szybciej i taniej
wdraża się w przedsiębiorstwie pojedyncze programy niż złożone systemy informatyczne.
Wniosek z tego płynie taki, że o stosunkowo niskim poziomie informatyzacji przedsiębiorstw
wodociągowych decydują stosunkowo wysokie koszty bardziej skomplikowanych programów
komputerowych, pewne problemy organizacyjne występujące w tych przedsiębiorstwach, uniemożliwiające realizację długofalowych programów informatyzacji, oraz brak wyraźnego przekonania wśród kadry kierowniczej przedsiębiorstw o celowości stosowania bardziej zaawansowanego a więc drogiego oprogramowania.
Do programów administracyjnych najczęściej stosowanych w przedsiębiorstwach wodociągowych należą programy obsługi finansowo-księgowej, programy rejestrujące dane o rozbiorach
wody przez użytkowników sieci wodociągowej, zapewniające dostęp do informacji o kliencie zarejestrowanym w dziale zbytu przedsiębiorstwa (te dane to: umowa o sprzedaży wody, okresowe odczyty zużycia wody, wystawione faktury do zapłaty i dowody płatności) oraz programy ewidencjonujące
środki trwałe przedsiębiorstwa. Jak widać, są to programy o funkcjach pasywnych.
W przypadku zagadnień technicznych podstawowe programy użyteczne w przedsiębiorstwie
wodociągowym, to mapa numeryczna sieci wodociągowo-kanalizacyjnej, systemy monitoringu
dla sieci wodociągowej, sieci kanalizacyjnej i oczyszczalni ścieków, modele matematyczne tych
114
Jan Studziński
Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym
obiektów oraz algorytmy sterowania dystrybucją wody w sieci wodociągowej czy procesem
oczyszczania w oczyszczalni ścieków. Jednak tworzenie i wdrażanie takich programów, jak już
wspomniano, jest znacznie trudniejsze niż programów administracyjnych, więc również sytuacja
w tym obszarze jest znacznie gorsza. Wprawdzie coraz więcej pracowników i decydentów w
przedsiębiorstwach wodociągowych zdaje sobie sprawę z zalet i korzyści, jakie daje miastu i działającym tam instytucjom opieranie swojej pracy o numeryczną mapę miejscowości, jednak tworzenie komputerowego systemu informacji o terenie jest procesem kosztownym i długotrwałym i
wymaga bardzo zdyscyplinowanego działania w długim, co najmniej kilkuletnim okresie czasu.
Wiele przedsiębiorstw nie zaangażowało się do tej pory w proces tworzenia mapy numerycznej
sieci branżowych z wykorzystaniem systemów GIS, ponieważ duże koszty całego procesu są
głównym elementem hamującym. Z powodów finansowych, chociaż również organizacyjnych,
wiele przedsiębiorstw nie decyduje się na samodzielne tworzenie mapy numerycznej swojej branży, oczekując na wspólne przystąpienie do procesu tworzenia mapy numerycznej urzędu miasta
i wszystkich zainteresowanych branż. Przykładem takiej współpracy branż, urzędu miasta i miejskiego urzędu geodezji są Kraków, Bielsko Biała, Częstochowa, Elbląg, Toruń, Poznań, Bydgoszcz, Wrocław i Opole. W większości przedsiębiorstw wodociągowych mapy numeryczne dopiero się jednak opracowuje i można oczekiwać, że nie wcześniej niż za kilka lat 70% ocenianych
przedsiębiorstw będzie dysponować mapami swojej branży. Jednak na 42 wybrane przedsiębiorstwa stanowiące reprezentację wodociągów krajowych 30% z nich nie ma i nie planuje opracowania mapy numerycznej, co oznacza, że zarządzanie operacyjne siecią wodociągową odbywa się
tam w sposób ręczny. Również niewiele miast podjęło się tworzenia mapy na zasadzie porozumienia międzybranżowego, wymaga to bowiem zgody wszystkich branż na współpracę i ich zobowiązania do regularnego ponoszenia wydatków, co jest zwykle zbyt dużym wymaganiem. W 30%
badanych przypadków urzędy geodezyjne nie podejmują się w ogóle wektoryzowania map zasadniczych miasta, głównie z powodu braku środków finansowych, i wtedy branże w miarę swoich
możliwości albo samodzielnie podejmują się tego zadania albo po prostu nic nie robią.
Prowadząc analizę stanu komputeryzacji krajowych wodociągów ze względu na wdrożenia
systemów monitoringu obiektów wodociągowych stwierdza się sytuację jeszcze gorszą, niż w
przypadku map numerycznych. Około 40% badanych obiektów nie ma i nawet nie planuje
monitorowania sieci wodociągowej czy kanalizacyjnej i jedynie 19% wodociągów mogło się
pochwalić posiadaniem w miarę pełnych systemów monitoringu. Pozostałe około 40%
przedsiębiorstw wodociągowych monitoruje jedynie wybrane ważniejsze obiekty sieci
wodociągowej, takie jak zbiorniki, przepompownie i stacje ujęcia wody, co nie daje informacji
o jakości pracy tej sieci. Jednocześnie jedynie w trzech badanych przedsiębiorstwach istniała lub
była planowana współpraca między systemami monitoringu i mapy numerycznej, gdy w pozostałych przypadkach systemy te pracowały niezależnie. Można również zauważyć, że nie ma koncepcji wyboru jednego standardu odnośnie programu wizualizacji zbieranych danych pomiarowych
czy metody transmisji tych danych. W różnych wodociągach stosuje się różne programy wizualizacji i tak samo różne metody transmisji, od klasycznej telemetrii, poprzez telefonię komórkową
GPS czy GPRS, do transmisji radiowej.
Stanowczo najgorsza sytuacja dotyczy zastosowań modeli matematycznych obiektów wodociągowych. Jedynie około 24% przedsiębiorstw wodociągowych dysponuje modelami hydraulicznymi sieci wodociągowej, przy czym jest to z reguły model EPANET dostępny w Internecie. W
pozostałych przedsiębiorstwach nawet nie planuje się wykonywania obliczeń hydraulicznych.
Jednocześnie stosowane modele sieci stanowią autonomiczne programy nie współpracujące z
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
115
systemami map numerycznych lub monitoringu, jeżeli takie w ogóle istnieją w przedsiębiorstwie.
Również w przypadku oprogramowania branżowego oferowanego przez wyspecjalizowane firmy
komputerowe, które oferują aplikacje przeznaczone do tworzenia mapy numerycznej poszerzone o
opcje dotyczące modelowania sieci wodociągowych, nie ma ofert proponujących współpracę tych
programów w postaci zintegrowanego systemu. Ponadto w zarządzaniu przedsiębiorstwami wodociągowymi w ogóle nie stosuje się modeli matematycznych sieci kanalizacyjnych i oczyszczalni
ścieków.
Reasumując należy zauważyć, że szybkie i umiejętne wprowadzenie systemu GIS do powszechnego wykorzystania w przedsiębiorstwie wodociągowym jest niezbędne do prawidłowego
unowocześnienia pracy w działach wspierających się mapą sieci wodociągowej w codziennej
eksploatacji. Takie działania w niektórych, stosunkowo nielicznych wodociągach krajowych są już
realizowane. Główną przeszkodą w powszechniejszym wdrażaniu map numerycznych są wysokie
koszty takich przedsięwzięć i problemy organizacyjne, w tym trudności w organizacji współpracy
między różnymi branżami funkcjonującymi na terenie miasta. W przypadku systemów
monitoringu główny hamulec ich wprowadzania na szerszą skalę, to wysokie koszty urządzeń, w
tym przede wszystkim przepływomierzy wody i ścieków. Brak jest również odpowiednich
algorytmów umożliwiających wybór właściwych punktów pomiarowych, minimalizujących liczbę
urządzeń i optymalizujących jakość zbieranych informacji. Przede wszystkim jednak brak jest
w przedsiębiorstwach powszechnej świadomości o użyteczności modeli matematycznych
obiektów wodociągowych, bardzo pomocnych w pracach projektowych i eksploatacyjnych. Stąd
niezmiernie mała liczba takich modeli używanych w wodociągach i to jedynie w zastosowaniu do
sieci wodociągowych.
Jednocześnie dużą wadą prowadzonych prac w zakresie informatyzacji jest traktowanie
poszczególnych programów w sposób niezależny, podczas gdy powinny one współpracować ze
sobą tworząc jednolite systemy informatyczne. Taka sytuacja powinna nastąpić, gdy na większą
skalę zacznie się stosować modele matematyczne obiektów wodociągowych, ponieważ kalibracja
modelu niejako wymusza sprzęgniecie go z systemem monitoringu i również z mapą numeryczną,
przynajmniej w przypadku sieci wodociągowej i sieci kanalizacyjnej. Z kolei duża użyteczność
modeli będzie zauważona wówczas, gdy będą one stosowane w obliczeniach optymalizacyjnych,
co obecnie praktycznie nie zachodzi. Brak algorytmów optymalizacji w praktyce eksploatacyjnej
sieci wodociągowych, sieci kanalizacyjnych i oczyszczalni ścieków jest spowodowany faktem nie
posiadania takich algorytmów przez firmy informatyczne komputeryzujące przedsiębiorstwa wodociągowe a z drugiej strony brakiem współpracy między przedsiębiorstwami wodociągowymi i
krajowymi jednostkami badawczymi. Dopóki ta sytuacja się nie poprawi, trudno będzie mówić o
systemowej komputeryzacji wodociągów krajowych, które obecnie próbują się informatyzować
w sposób dosyć przypadkowy i samodzielnie w miarę swoich bardzo zróżnicowanych możliwości
finansowych.
Na zakończenie tej analizy można jeszcze raz podkreślić, że ogólnie stan informatyzacji
w polskich wodociągach nie jest dobry. Zwykle stosuje się pojedyncze programy do rozwiązywania prostych zadań głownie w obszarze administracyjno-organizacyjnym, podczas gdy sprawą
decydującą o poprawnym funkcjonowaniu przedsiębiorstwa jest usprawnienie realizowanych w
nim procesów techniczno-technologicznych. Kolejnym mankamentem jest często nie wykorzystywanie w pełni również tych informacji, które są gromadzone przez zainstalowane programy.
Ponieważ te programy działają zwykle niezależnie od siebie w różnych działach przedsiębiorstwa,
więc gromadzone przez nie dane są tam archiwizowane i nie podlegając dalszemu przetwarzaniu
116
Jan Studziński
Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym
zapominane. W ten sposób przedsiębiorstwo dysponuje informacją, uzyskaną często dużym nakładem kosztów i nie potrafi jej właściwie zużytkować, nie mając dodatkowych narzędzi informatycznych i nie zdając sobie nawet sprawy z możliwości wykorzystania tej informacji. Wreszcie
niedobrym zjawiskiem jest również brak jakiejkolwiek standaryzacji narzędzi informatycznych
wprowadzanych do przedsiębiorstw wodociągowych, działających w sposób mało zorganizowany
i bez wymiany doświadczeń między sobą.
3. Koncepcja usprawnienia zarządzania przedsiębiorstwem wodociągowym
Miejski system wodno-ściekowy składa się z czterech obiektów połączonych szeregowo
i tworzących praktycznie jeden układ, jednak traktowanych dotychczas zawsze jako układy autonomiczne. Dlatego, chociaż wydaje się, że kompleksowa informatyzacja całego tego systemu
byłaby rozwiązaniem optymalnym, tak ze względu na koszty, jak i efektywność zarządzania, to
jednak taka perspektywa jest jeszcze bardzo odległa i w związku z tym ograniczymy się również
do przedstawienia koncepcja kompleksowej informatyzacji tylko jednego układu: sieci wodociągowej. Koncepcja dotyczy stworzenia informatycznego systemu wspomagania decyzji do zarządzania
siecią
wodociągową,
integrującego
realizację
funkcji
technicznych
i administracyjnych. Proponowana struktura takiego systemu jest przedstawiona na rys. 1 [4].
W zakresie zadań technicznych system składa się z programu generującego mapę numeryczną
sieci wodociągowej (tutaj przykładowo program GEOMEDIA), z systemu monitoringu, z branżowej bazy danych zawierającej wszystkie informacje techniczne, technologiczne, eksploatacyjne
i finansowe o sieci i jej użytkownikach, z modelu hydraulicznego sieci oraz algorytmów optymalizacji i sterowania. W zakresie zadań administracyjnych w systemie uwzględniono programy obsługi wydawanych i przeglądanych warunków technicznych (aplikacja WT na rys. 1), obsługi
odbiorów technicznych (aplikacja OT), obsługi awarii i przeglądów sieci wodociągowej (aplikacja
AW), obsługi działu gospodarki wodno-ściekowej (aplikacja GWŚ), obsługi planowanych przeglądów
eksploatacyjnych
sieci
wodociągowej
w
zakresie
ewidencji
i raportowania (aplikacja PE), obsługi finansowo-księgowej (aplikacja FK) oraz program gromadzący
dane o rozbiorach wody realizowanych przez użytkowników sieci (aplikacja MEDIA).
Wszystkie wymienione wyżej programy, czy to z obszaru zadań technicznych, czy administracyjnych, mogą działać niezależnie i wiele z nich funkcjonuje już w przedsiębiorstwach wodociągowych, zaś innowacyjność proponowanej koncepcji polega na stworzeniu z nich jednego systemu pracującego w oparciu o jedną bazę danych, z której programy współpracując ze sobą czerpią dane do
obliczeń i w której są również zapisywane wyniki tych obliczeń.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
117
SOK
(po konwersji)
DANE Z GEODEZJI
(edytor graficzny)
Aplikacja M EDIA
Aplikacja OT
BRAN ŻOW A
BA ZA D ANYCH BBD
Aplikacja GW Ś
Aplikacja W T
Aplikacja AW /PE
W ariant stanu
rzeczywistego i warianty
przewidywanych stanów
awaryjnych
OBLICZENIA
HYDRAULICZNE SIECI
W ODOCIAGOW EJ
OPTYM A LIZACJA
MONITORING
Aplikacje system u FK
GEOM ED IA
STEROW ANIE
siecią wodociągową
ZT
STR
Rysunek 1. Koncepcja systemu informatycznego wspomagania decyzji operatora sieci wodociągowej
Wdrożenie programów o funkcjach administracyjnych: WT, OT, MEDIA, AW, PE, i ich powiązanie z programami o funkcjach technicznych: mapą numeryczną, obliczeniami hydraulicznymi, optymalizacją i sterowaniem obiektami sieci wodociągowej, pozwoli zdefiniować i użytkować
tzw. profile funkcyjne systemu powstające w strukturze zarządzania siecią, będące wypadkową
działania kilku różnych programów. Można wstępnie wyróżnić następujące profile funkcyjne:
1.
SYSTEM ZARZĄDZANIA TECHNICZNEGO (ZT) – uwzględnia w swej strukturze
programy administracyjne AW i PE oraz programy techniczne monitoringu, obliczeń hydraulicznych, optymalizacji i sterowania. Ten system jest w stanie zapewnić sprawną
eksploatację sieci wodociągowej oraz profesjonalne planowanie jej rozbudowy i modernizacji.
2.
SYSTEM OBSŁUGI KLIENTA (SOK) – uwzględnia programy administracyjne: WT,
OT, MEDIA, oraz umożliwia analizy ilościowe i jakościowe realizowane przez program
mapy numerycznej. System jest w stanie, poprzez szybki dostęp do informacji o kliencie i
obiektach sieci związanych z klientem, zapewnić sprawną obsługę klienta od etapu złożenia warunków technicznych, poprzez etapy projektu, uzgodnień, budowy, odbioru
technicznego, aż do etapu zawarcia umowy i systematycznego prowadzenia odczytów
wodomierza, wystawiania faktur i kontroli płatności.
Jan Studziński
Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym
118
3.
SYSTEM ELIMINOWANIA STRAT (STR) – rozumiany jako koordynator eliminowania strat wody, będący systemem analizującym dane z Systemu Obsługi Klienta oraz dane
gromadzone przez System Zarządzania Technicznego.
Stworzenie i wdrożenie proponowanego systemu nie tylko zapewni integrację programów
często rozproszonych obecnie w przedsiębiorstwie wodociągowym, ale zapewni również lepszą
współpracę różnych działów przedsiębiorstwa, często obecnie dublujących swoje działania bez
zdawania sobie z tego sprawy. Poprzez korzystanie z jednej bazy danych system pozwoli również
na uniknięcie zdarzających się obecnie błędów spowodowanych faktem, że użytkowane niezależnie programy mają własne bazy danych, do których wprowadza się niejednokrotnie te same informacje. Wprowadzanie i aktualizacja tych samych informacji w różnych bazach danych jest często
źródłem trudnych do wykrycia przekłamań.
4. System informatyczny wdrożony w wodociągach rzeszowskich
Miejskie przedsiębiorstwo wodociągowe w Rzeszowie eksploatuje sieć wodociągową
o ogólnej długości 682 km, zasilaną przez 2 ujęcia brzegowe na rzece Wisłok o łącznej zdolności
produkcyjnej 84.000 m3/dobę a dystrybucja wody wspomagana jest przez 25
przepompowni/hydroforni wody oraz 5 zbiorników zapasowo-wyrównawczych o łącznej
pojemności 15.600 m3 [3]. Obciążenie sieci wodociągowej wynosi 46.000 m3/dobę, co stanowi
zaledwie 55% możliwości produkcyjnych ujęć wody. Woda dostarczana jest na teren całego
miasta oraz do odbiorców w sąsiednich gminach podłączonych do sieci miejskiej.
Sieć wodociągowa w Rzeszowie, która:
- w 80 % pracuje w systemie pierścieniowym,
- ma bardzo zróżnicowaną strukturę materiałową,
- charakteryzuje się bardzo kłopotliwą strukturą wiekową (tylko 30% sieci ma wiek poniżej
15 lat a 5% sieci, czyli około 30 km, ma powyżej 50 lat i kwalifikuje się do wymiany),
- ma awaryjność sięgającą 500 awarii rocznie,
- wymaga wspomagania dystrybucji systemem hydroforni,
jest skomplikowanym systemem, który dla sprawnego nadzorowania jej pracą i właściwą eksploatacją wymaga zastosowania nowoczesnych narzędzi informatycznych.
Dlatego zdecydowano się wdrożyć w wodociągach rzeszowskich aplikacje mapy numerycznej, systemu monitoringu i modelu hydraulicznego sieci wodociągowej, tworząc zręby systemu
komputerowego wspomagania decyzji do zarządzania siecią [1, 2]. Jako podstawowe założenie
działania systemu przyjęto jego pracę w oparciu o mapę numeryczną. Na bazie mapy numerycznej
pracują sprzężone z nią inne moduły pomocne w zarządzaniu bieżącym bądź w planowaniu (rozwoju/modernizacji) sieci wodociągowej. Schemat tego systemu przedstawiono na rys. 2.
119
BRANŻOW A
BAZA DANYCH BBD
W a ria n t s ta n u
rz e c z y w is te g o s ie c i w o d k a n i w a ria n ty d o
s y m u la c ji s ta n ó w
a w a ry jn y c h
M ODEL
O B L IC Z E N IO W Y
h y d ra u lic z n y s ie c i
w o d o c ią g o w e j
MONITORING
M A PA
NUM ERYCZNA
(e d y to r g ra fic z n y )
(po konwersji)
DANE Z GEODEZJI
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
O P T Y M A L IZ A C J A
S T E R O W A N IE
s ie c ią w o d o c ią g o w ą
Rysunek 2. Schemat systemu wspomagania decyzji operatora sieci wodociągowej w Rzeszowie
Można zauważyć, że system wdrożony w wodociągach rzeszowskich składa się z programów
realizujących jedynie zadania techniczne, jest to więc system technicznego zarządzania siecią
wodociągową. Składa się on z następujących modułów:
- mapa numeryczna sieci i BBD – branżowa baza danych zawierająca opis wszystkich elementów sieci wodociągowej i generująca dane do wizualizacji mapy numerycznej,
- system monitoringu pracy sieci wodociągowej eksportujący dane pomiarowe do branżowej
bazy danych,
- model obliczeniowy sieci wodociągowej i procedury optymalizacji pracy sieci korzystające z
danych importowanych z branżowej bazy danych i zwracające do tej bazy otrzymane wyniki obliczeń symulacyjnych i optymalizacyjnych.
5. Uwagi końcowe
W artykule przedstawiono krytyczną analizę stanu informatyzacji krajowych przedsiębiorstw
wodociągowych i przedstawiono koncepcję systemu informatycznego usprawniającego zarządzanie siecią wodociągową. Pokazano także strukturę dosyć prostego systemu informatycznego już
wdrożonego w wodociągach rzeszowskich w ramach pierwszego etapu planowej informatyzacji
tego przedsiębiorstwa.
Ogólna końcowa uwaga jest taka, że dotychczasowy zły stan informatyzacji w polskich wodociągach jest spowodowany wysokimi kosztami profesjonalnego informatyzowania przedsiębiorstw, niedostatecznym stanem wiedzy w tych przedsiębiorstwach na temat możliwości oferowanych przez nowoczesne narzędzia informatyczne oraz na ogół złą organizacją i brakiem sprawdzonych standardów w przypadku zakupu i wdrażania programów komputerowych.
Jan Studziński
Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym
120
Wydaje się, że sytuacja nie ulegnie szybkiej poprawie bez systemowego podejścia do rozwiązania tego problemu w skali całego kraju i bez nawiązania ściślejszych kontaktów przedsiębiorstw
wodociągowych z placówkami badawczymi działającymi w ramach określonych programów badawczych zorganizowanych i finansowanych przez odpowiednie krajowe ministerstwa, w tym
przede wszystkim przez Ministerstwo Edukacji i Nauki.
6. Literatura
1.
Bogdan L., Karczmarska D., Studziński J., 2005. Computerization of waterworks
in Poland – current state and perspectives. [In:] Applications of Informatics in
Environment Engineering and Medicine (Studziński J., Drelichowski L., Hryniewicz O.,
Eds.) PAS SRI, Series Systems Research, Vol. 42, Warsaw, 157-169.
2.
Karczmarska D., 2001. Komputerowy system wspomagania decyzji operatorskich
w miejskiej sieci wodociągowej w Rzeszowie. Raport MPWiK Rzeszów.
Karczmarska D., 2004. Koncepcja systemu komputerowego do zarządzania siecią
wodociągową w Rzeszowie z uwzględnieniem potrzeb przedsiębiorstwa i możliwości
integracji w systemie obecnie eksploatowanych programów. Raport 02/2004, IBS PAN
Warszawa – MPWiK Rzeszów.
3.
4.
Popek J., 2004. Opis i analiza stanu technicznego i możliwości eksploatacyjnych sieci
wodociągowej w Rzeszowie z uwzględnieniem budowy, struktury, wydajności,
awaryjności, strat i kosztów eksploatacji sieci. Raport 05/2004, IBS PAN Warszawa –
MPWiK Rzeszów.
5.
Studziński J., Karczmarska D., Popek J., 2005. Uwagi o wdrożeniu, eksploatacji
i propozycjach rozbudowy GIS-Geomedia w wodociągach rzeszowskich. [W:]
Eksploatacja wodociągów i kanalizacji: GIS, modelowanie i monitoring w zarządzaniu
systemami wodociągowymi i kanalizacyjnymi. t. 7, PZSIiTS Warszawa. 117-128.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
121
PROBLEMS OF INFORMATION MANAGEMENT
IN COMMUNAL WATERWORKS
Summary
The main reason for proper functioning of a waterworks enterprise is an appropriate using of standard-wise gaining information concerning the production of water and wastewater, the number of accidents of water and sewage systems, the costs
of investment and exploitation activities, the technical parameters of objects under
operation etc. In the paper the current situation in information management in Polish waterworks is described as well as some ways of its improving with the help of
computer aided decisions making systems. Also some results of applying such a system in the waterworks in Rzeszow are presented.
Keywords: Communal Waterworks Management, Computer Aided Decisions Making Systems,
GIS, Monitoring Systems, Mathematical Modeling of Water and Wastewater Systems
JAN STUDZINSKI
Instytut Badań Systemowych PAN,
Warszawa, Newelska 6
http://www.ibspan.waw.pl/
[email protected]
Tatiana Tretyakova
Zarządzanie wiedzą przez zastosowanie ontologii dziedzin
122
TATIANA TRETYAKOVA
Wydział Informatyki
Politechnika Szczecińska
ZARZĄDZANIE WIEDZĄ PRZEZ ZASTOSOWANIE ONTOLOGII DZIEDZIN
Streszczenie
W artykule rozpatruje się zagadnienie opisu metaontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia ze strony niebezpiecznego zjawiska natury”
w celu jej dalszego wykorzystania do ustanowienia hierarchii wiedzy i zarządzania
wiedzą systemu ekspertowego „HMDecision” przez ontologie zawarte we wskazanej
metaontologii. Głównym zadaniem systemu „HMDecision” jest przekazanie wiedzy
i ukształtowanie nawyków i umiejętności, niezbędnych przy podejmowaniu decyzji w
warunkach sytuacji zagrażających życiu ludzi i normalnemu funkcjonowaniu obiektów. Rozpatrzono przykład struktury wiedzy w bazie wiedzy, ukształtowanej na podstawie ontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia
lawiny błotnej”.
Słowa kluczowe: system ekspertowy, ontologia, zarządzanie wiedzą, baza wiedzy, decyzje,
e-learning.
1. Wstęp
Dla zabezpieczenia dobrej jakości baz wiedzy w ostatnich latach szeroko eksploatuje się ontologie dziedzin, których te bazy wiedzy dotyczą [1, 2, 3]. W niniejszym artykule rozpatruje się
jedno z zadań realizowanych przy tworzeniu systemu ekspertowego „HMDecision” - opisu metaontologii dziedziny „Podjęcie decyzji w warunkach zagrożenia oddziaływania niebezpiecznego
zjawiska natury”. Ta metaontologia przedstawia sobą całokształt ontologii niższego poziomu,
które opisuje się i wykorzystuje się w celu zarządzaniu wiedzą i tworzenia bazy wiedzy danego
systemu ekspertowego. Za pomocą ontologii ustala się poziomy hierarchiczne przedstawianej
wiedzy.
Wykorzystanie podejścia ontologicznego przy tworzeniu baz wiedzy SE „HMDecision”, uzasadnione jest faktem, że ontologia pozwala na efektywne zarządzanie wiedzą, na dokładniejsze
określenie struktury bazy wiedzy. Oprócz tego, przedstawienie w ontologii podstawowych pojęć
opisywanej dziedziny oraz więzi pomiędzy nimi tworzy narzędzie szybkiego wprowadzenia do tej
dziedziny przedmiotowej.
Znane pojęcie „ontologia” do zastosowania w informatyce wprowadził w roku 1993
T.Gruber [1]. T.Gruber zdefiniował ontologię jako sformalizowane przedstawienie podstawowych
pojęć i więzi pomiędzy nimi. Określenie ontologii ujmuje wiele struktur pojęciowych: hierarchie
klas i obiektów w obiektowo-ukierunkowanym programowaniu, sieci semantyczne itp. Ogólnie
mówiąc, ontologia - to strukturalna specyfikacja pewnej dziedziny, jej sformalizowane przedstawienie, które zawiera słownik wskaźników na terminy dziedziny i logiczne wyrażenia, które opisują, jak one korelują ze sobą. Ontologie zapewniają systemowość przy opisywaniu dziedziny,
przedstawiając jej całościowy obraz. Przy opisaniu ontologii wydzielają się koncepty (bazowe
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
123
pojęcia danej dziedziny) i budują się więzi pomiędzy nimi, tj. wyjaśniają się współzależności i
współdziałanie bazowych pojęć. W ten sposób, ontologia tworzy słownik dla przedstawienia i
wymiany wiedzy o pewnej dziedzinie i zbiór więzi między pojęciami tego słownika [3].
Dla systemu ekspertowego „HMDecision” potrzebne są ontologie dziedzin, związanych z
podjęciem decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury oraz związanych z
procesem nauczania i treningu menedżerów, którego celem jest ukształtowanie nawyków i umiejętności odpowiadających sytuacjom, w których podejmuje się decyzje. Za pomocą ontologii w
bazie wiedzy danego SE przedstawia się poziomy wiedzy, stosowanej w procesie nauczania skierowanego na ukształtowanie umiejętności i nawyków, niezbędnych do właściwego reagowania na
sytuacje problemowe, które mogą powstać lub powstały pod wpływem niebezpiecznego zjawiska
natury.
E-nauczanie i e-trening są niezbędne po to, aby kierownictwo poziomu regionalnego zarządzania oraz kierownictwo przedsiębiorstw i organizacji, zlokalizowanych na terenach ulegających
zagrożeniu wpływem niebezpiecznych zjawisk natury (np., takich jak powódź, tsunami, lawiny
śnieżne, lawiny błotne i inne), w warunkach zagrożenia często nie są w stanie szybko przeanalizować sytuacje problemowe wywołane przez te zjawiska. Oczywiście, że wstępne przygotowanie
menedżerów za pomocą e-nauczania i e-treningu może znacznie podnieść poziom ich adaptacyjności w omawianych sytuacjach.
Metaontologia dziedziny „Podjęcie decyzji w warunkach zagrożenia oddziaływania niebezpiecznego zjawiska natury” zawiera ontologie niższego poziomu takich dziedzin, jak:
-
schemat podejmowania decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury;
scenariusze następstw, związanych z wpływem niebezpiecznym zjawiskiem natury;
przedsięwzięcia zapobiegające stratom;
reguły zachowania się przy zagrożeniu niebezpiecznego zjawiska natury;
proces nauczania i treningu;
zarządzanie procesem nauczania i treningu.
Każda z tych ontologii zawiera także ontologie niższego poziomu.
Rozwiązanie problemów, powstających przed kierownictwem regionów i przedsiębiorstw
zlokalizowanych na terenach, znajdujących się pod stałym zagrożeniem niebezpiecznych zjawisk
natury, polega na wykorzystaniu informacji dotyczącej stanu środowiska naturalnego (w tym
informacji hydrometeorologicznej) oraz specjalistycznej wiedzy z dziedzin, gdzie powstaje konkretny problem. Przez dodanie do struktury systemu klasy Decision Support System (DSS) elementów sztucznej inteligencji rozwinęło te systemy do systemów klasy Business Intelligence (BI).
Stworzyło to nowe możliwości wykorzystania tych systemów. Przez uzupełnienie systemu informacyjnego takimi składnikami jak systemy ekspertowe, tworzy się dodatkowa możliwość wsparcia podejmowania decyzji w procesach gospodarczych. Możliwe także staje się e-nauczanie i etrening menedżerów za pomocą systemu ekspertowego. System ekspertowy nauczania może być
zastosowany w celu przekazywania wiedzy oraz kształtowania nawyków i umiejętności, niezbędnych menedżerom przy powstaniu różnego rodzaju niebezpiecznych sytuacji. Te niebezpieczne
sytuacje mogą powstawać pod wpływem różnych przyczyn. Mogą to być awarie technologiczne,
pożary, akty terrorystyczne, katastrofy ekologiczne, niebezpieczne zjawiska natury. W danym
artykule akcent kładzie się na sytuacje, których powodem pojawienia się są niebezpieczne zjawiska natury. Do ukształtowania się u menedżerów wiedzy, nawyków i umiejętności, niezbędnych
przy podjęciu decyzji na wypadek groźby niebezpiecznego zjawiska natury, proponuje się używać
124
Tatiana Tretyakova
Zarządzanie wiedzą przez zastosowanie ontologii dziedzin
specjalistyczny system ekspertowy „HMDecision”, konceptualna struktura którego została opracowana i rozpatrzona przez autora we wcześniejszych publikacjach [4, 5].
Wysoki poziom nieokreśloności następstw niebezpiecznych zjawisk natury oraz konieczność
szybkiego poprawnego reagowania w przypadku zagrożenia wymaga opracowania i wykorzystania odpowiednich metod zarządzania ryzykiem oraz zastosowania technologii informatycznych.
Takie technologie, jak systemy ekspertowe, pozwalają za pomocą mechanizmu wnioskującego
wykorzystywać wiedzę, zawartą w ich bazach wiedzy, w celu uniknięcia możliwych negatywnych
następstw, spowodowanych przez oddziaływanie niebezpiecznych zjawisk natury. Osiąga się to
przez przeprowadzenie e-nauczania i e-treningu menedżerów.
Zwykle podejmowanie decyzji w sytuacjach zagrożenia ze strony natury opiera się o informację o stanie środowiska naturalnego, a przede wszystkim o informację hydrometeorologiczną.
Uwzględnienie tej informacji jest niezwykle ważne, ponieważ podnosi to adaptacyjny potencjał
jej użytkowników, pozwalając wybierać najlepszą strategię i taktykę współdziałania z naturą.
Pozwala to przede wszystkim uniknąć lub zredukować straty, uwarunkowane jej niebezpiecznymi
zjawiskami. Informację hydrometeorologiczną wykorzystuje się przy rozwiązywaniu różnorodnych zagadnień w różnych dziedzinach: transporcie (w lotnictwie, żegludze), rolnictwie, gospodarce wodnej, budownictwie, energetyce itd. Do takich zagadnień, na przykład, odnoszą się [ 6 ]:
-
-
projektowanie i zarządzanie obiektami;
opracowanie planów i zarządzanie przedsięwzięciami, skierowanymi na zapobieżenie stratom,
mogącym powstać pod wpływem niekorzystnych zjawisk natury;
projektowe zadania, rozwiązywane przy wyborze optymalnego wariantu lokalizacji obiektów
gospodarczych;
zadania zarządzania procesami technologicznymi i zabezpieczenia obiektów socjalnych, produkcyjnych i rolniczych od niekorzystnego oddziaływania czynników hydrometeorologicznych;
zarządzanie ograniczonymi zasobami wodnymi itd.
W ramach tych zagadnień menedżerowie zgodnie z ustalonymi celami rozwiązują powstające
pod wpływem groźnych czynników natury różne problemy, podejmując określone decyzje. Przedstawimy najpierw etapy procesu podejmowania decyzji, odpowiadającego drzewu celów. Etapy te
są właściwymi praktycznie dla każdej sytuacji problemowej, pojawiającej się pod wpływem takiego zjawiska. Pozwolą one częściowo zaznaczyć te dziedziny, które powinny być opisane w ontologiach niższego poziomu stosowanych dla zarządzania wiedzą systemu ekspertowego „HMDecision”.
2. Standardowe etapy w procesie podejmowania decyzji z uwzględnieniem informacji o niebezpiecznym zjawisku natury
Wymienimy standardowe etapy algorytmu podjęcia decyzji na podstawie informacji hydrometeorologicznej. Zwykle są to następujące etapy:
1. Analiza prognozy zjawiska (z uwzględnieniem prawdopodobieństwa jego wystąpienia);
2. Diagnozowanie możliwych problemowych sytuacji;
3. Opracowanie i analiza scenariuszy rozwoju następstw, wywołanych przez niebezpieczne zjawisko natury w regionie, w przedsiębiorstwie itd. (ekologicznych, materialnych, kulturalnych, socjalnych);
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
125
4. Ocena potencjalnie możliwych w wyniku oddziaływania niebezpiecznego zjawiska strat;
5. Opracowanie przedsięwzięć skierowanych na ochronę życia ludzi, obiektów gospodarczych z
oceną nakładów na ich realizację;
6. Ocena porównawcza efektywności opracowanych przedsięwzięć z uwzględnieniem możliwych
ryzyk;
7. Wybór lepszego (optymalnego) wariantu decyzji na bazie ustawionych kryteriów wyboru
i ograniczeń.
Z przedstawionych etapów procesu podejmowania decyzji z uwzględnieniem informacji
hydrometeorologicznej widać, że osoba podejmująca decyzje rozpatruje mnóstwo słabo ustrukturyzowanych problemów. W celu wsparcia decyzji przy rozwiązywaniu właśnie takich problemów
przydatne są odpowiednie systemy informacyjne, zawierające bazy wiedzy, w których zarządzanie
wiedzą realizuje się za pomocą ontologii odpowiednich dziedzin. Wśród tych systemów szczególne miejsce zajmują systemy informacyjne klasy DSS, rozwijane obecnie do klasy Business Intellegence (BI) [7] przez uzupełnienie ich struktury elementami sztucznej inteligencji, w tym systemami ekspertowymi, których głównym podsystemem jest specjalistyczna baza wiedzy.
3. O strukturze wiedzy bazy wiedzy systemu ekspertowego “HMDecision”.
Struktura danych i bazy wiedzy systemu ekspertowego “HMDecision” zależy od tych zadań,
które rozwiązuje się za jej pomocą przez użytkowników danego SE (zadania te zostały przedstawione w p.1 niniejszego artykułu).
Dany SE przedstawia sobą program komputerowy, który może wyciągać logiczne wnioski na
bazie faktów i wiedzy, stosowanych w procesie e-learning’u menadżerów poziomu regionalnego
oraz menadżerów organizacji i przedsiębiorstw przy ukształtowaniu nawyków i umiejętności,
niezbędnych przy podjęciu decyzji w warunkach zagrożenia niebezpiecznego zjawiska naturalnego.
System ekspertowy nauczania „HMDecision” jest przeznaczony do:
- przechowywania wiedzy, niezbędnej do prawidłowego reagowania (podjęcia decyzji) w warunkach zagrożenia niebezpiecznego zjawiska natury;
- przekazywania wiedzy użytkownikom przy pomocy specjalistycznych interfejsów;
- e-nauczania i e-treningu menadżerów w celu ukształtowania nawyków i umiejętności, niezbędnych przy podjęciu decyzji w niebezpiecznych sytuacjach przy pomocy wirtualnego instruktora.
Z przedstawionych powyżej zadań, rozwiązywanych przez menadżerów, oraz zadań systemu ekspertowego nauczania, można wysnuć wniosek o strukturze wiedzy w systemie ekspertowym „HMDecision”. Jego baza wiedzy powinna zawierać:
- wiedzę, odzwierciedlającą uzyskane w praktyce doświadczenie. Ta wiedza zawiera także scenariusze rozwoju sytuacji i następstw, wywołanych przez niekorzystne zjawiska natury;
- wiedzę, która jest niezbędna do rozwiązania różnego rodzaju zadań z uwzględnieniem informacji hydrometeorologicznej dla podjęcia bardziej poprawnych decyzji;
- wiedzę, którą wykorzystuje się do przekazania przy pomocy specjalistycznych interfejsów użytkownikom informacji, stosowanej w procesie ich e-nauczania i e-treningu.
Pojęcia ze wszystkich dziedzin, których dotyczy baza wiedzy systemu ekspertowego „HMDecision”, definicje tych pojęć oraz więzi pomiędzy nimi przedstawia się w metaontologii dziedziny
„Podejmowanie decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury”. Wiadomo, że
Tatiana Tretyakova
Zarządzanie wiedzą przez zastosowanie ontologii dziedzin
126
ontologie mogą służyć jako jeden z instrumentów zarządzania wiedzą. Przy kształtowaniu bazy
wiedzy systemu ekspertowego „HMDecision” jakość zarządzania wiedzą zależy także od dokładności opisywanych ontologii. Rozpatrzymy dalej wykorzystanie podejścia ontologicznego na
przykładzie dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej”.
4. Ontologia dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej”
Opis ontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny
błotnej” wymaga opisu całej hierarchii ontologii. Oto tylko niektóre z dziedzin, przedstawianych
przez ontologie tej hierarchii:
- system zarządzania (regionem, przedsiębiorstwem);
- możliwe następstwa oddziaływania niebezpiecznego zjawiska natury (ontologia sytuacji);
- przedsięwzięcia zapobiegające stratom wywołanym przez oddziaływanie niebezpiecznych
zjawisk natury;
- reguły zachowania się w warunkach zagrożenia niebezpiecznego zjawiska natury.
Zwykle dla opisu ontologii stosuje się różne języki i systemy. Grafy są wygodną formą do wizualnego przedstawienia i analizowania dziedziny. Taka forma przedstawienia została pokazana
przez autora w poprzednich publikacjach [5]. Wykorzystuje się również opis ontologii w formie
sformalizowanej.
Przedstawimy to ostatnie podejście do opisu ontologii w formie sformalizowanej, przy którym
model ontologii przedstawia się jako zbiór [8]:
M = < P, R, I, A >
gdzie:
M – model ontologii dziedziny przedmiotowej,
P - pojęcia opisywanej dziedziny,
R - stosunki między pojęciami dziedziny,
I - mechanizm interpretacji pojęć i stosunków między pojęciami,
A - wykorzystywane aksjomaty.
Przedstawimy model ontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej” - MDL:
MDL = < Mdp, MS, MO >
gdzie: Mdp - ontologia dziedziny, w której podejmuje się decyzje (na poziomie regionalnym, w
przedsiębiorstwie itd),
MS – ontologia dziedziny “Scenariusze rozwoju sytuacji”,
MO - ontologia dziedziny “Ochronne przedsięwzięcia”.
Sięgając w dół hierarchii ontologii MDL przedstawimy model ontologii dziedziny “Scenariusze rozwoju sytuacji” - MS :
MS = <MR, MSt, MP> ,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
gdzie:
127
MR – ontologia ryzyk,
MSt – ontologia potencjalnych strat,
MP – ontologia przedsięwzięć zapobiegających stratom.
Z kolei model ontologii “ Ochronne przedsięwzięcia” MO zawiera ontologie następnego
niższego poziomu:
MO = < MI, ME > ,
gdzie: MI - ontologia dziedziny “Projekty inwestycyjne , związane z ochroną przed lawinami
błotnymi”,
ME - ontologia dziedziny „Ewakuacja ludzi, wartości materialnych i kulturalnych”.
W ten sposób przedstawia się cała hierarchia ontologii, wchodzących w skład metaontologii
dziedziny „Podejmowanie decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury”.
Każda ontologia powinna zawierać pojęcia opisywanej dziedziny wraz z ich definicjami, mechanizm interpretacji pojęć i stosunków pomiędzy nimi, a także używane aksjomaty. Tylko wtedy
można mówić, że ontologia została opisana całkowicie i stadium konceptualizacji wiedzy przy
stworzeniu SE został zrealizowany.
W danym artykule zostało omówione tylko jedno z zadań, które rozwiązuje się przy kształtowaniu bazy wiedzy: określenie przez opisanie ontologii statycznej składowej wiedzy, umieszczanej w bazę wiedzy. Niezbędnym jest także rozwiązanie zadania (jego omówienie wychodzi poza
ramy danej pracy) przedstawienia w bazie wiedzy składowej dynamicznej, modelującej procesy
rozważania eksperta. Po rozwiązaniu tych zadań decyduje się o wyborze modeli przedstawienia
wiedzy w bazie wiedzy.
Zadanie przedstawienia wiedzy w bazie wiedzy systemu ekspertowego „HMDecision” realizuje za pośrednictwem modeli produkcyjnych, bazujących na regułach (rule-based models). Te
modele są wygodne dla przedstawienia wiedzy ekspertów z dziedziny podejmowania decyzji w
zadaniach rozwiązywanych logicznie (np., ewakuacja ludzi na wypadek zagrożenia zatopienia
terenów albo zachowanie się personelu elektrowni, elektrowni atomowej w niebezpiecznych sytuacjach itp.). Wykorzystanie podejścia produkcyjnego przy przedstawieniu wiedzy jest podejściem
najczęściej stosowanym do opisu zachowania się systemu. Opracowanie zboru reguł typu „jeśli <
przesłanka > to < wniosek >” pozwoli przedstawić w bazie wiedzy znane warianty rozwiązania
zadań na bazie informacji o niebezpiecznych zjawiskach natury. Lewa część (przesłanka) pewnych
reguł może być przedstawiana w postaci scenariusza, w którym stan obiektu opisuje się przy pomocy predykatów (wtedy pełny opis stanu obiektu jest koniunkcją wszystkich tych predykatów),
albo w postaci opisu ramowego, zawierającego scenariusz niebezpiecznej sytuacji. Ramy są środkiem opisu wiedzy statycznej, wygodne są dla opisu hierarchii pojęć abstrakcyjnych i konkretnych. Podejście to jest bliskim do obiektowego podejścia przedstawienia wiedzy.
Poniżej na rys. 1 przedstawiony został przykład drzewa decyzji przy rozwiązaniu problemu
„ewakuacja”, które zostanie przekształcone w reguły : jeśli <przesłanka> to <wniosek> dla
umieszczenia w bazie wiedzy.
128
Tatiana Tretyakova
Zarządzanie wiedzą przez zastosowanie ontologii dziedzin
Rysunek 1. Przykład drzewa decyzji (jednej z jego części składowych) przy zagrożeniu ze strony
zjawiska natury (opracowanie własne)
Opracowanie wszystkich składników drzewa decyzji pozwoli opracować niezbędne dla
umieszczenia w bazie wiedzy systemu ekspertowego „HMDecision” reguły. Warto zauważyć, że
dla zapewnienia możliwości wnioskowania przy pomocy mechanizmu wnioskowania i stworzenia
produkcyjnej części bazy wiedzy potrzebne jest zbudowanie modeli kognitywnych, bazujących na
studiowaniu procesów podejmowania decyzji przez menadżerów poziomu regionalnego oraz menadżerów przedsiębiorstw w warunkach zagrożenia niebezpiecznych zjawisk natury albo przy ich
oddziaływaniu. Na tej podstawie buduje się modele kognitywne, bazujące na logice wniosków
ekspertów.
4. Zakończenie
W artykule został rozpatrzony problem opisania ontologii dziedzin w celu podniesienia jakości zarządzania wiedzą na przykładzie dziedziny „Podejmowanie decyzji w warunkach zagrożenia
zejścia lawiny błotnej”. Opis tej ontologii wykorzystuje się przy kształtowaniu bazy wiedzy systemu ekspertowego „HMDecision”, która zawiera wiedzę, stosowaną w procesie e-learning’u i etraining’u menadżerów poziomu regionalnego zarządzania i przedsiębiorstw. Celem tego nauczania jest ukształtowanie nawyków i umiejętności podejmowania decyzji przy rozwiązywaniu problemów, pojawiających się pod wpływem niebezpiecznych zjawisk natury w różnych dziedzinach
działalności gospodarczej.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
129
5. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
Gruber T. R., 1993. Toward principles for Design of Ontologies Used for Knowledge
Sharing. International Workshop on Formal Ontology, Marcz, Padova, Italy.
Guarino N., 1997. Understanding, Building and Using Ontologies: A Commentary to
„Using Explit Ontologies in KBS Development”. Edited by van Heijst, Schreiber, and
Wielinga. International Jurnal of Human and Computer Studies 46.
Gavrilova T.A., Wojnikov A.W., Danilichenko I.A., Sankina I.A., 1998. Adaptywny
wieloagentowy system intelektualny nauczania zdalnego. Problemy informatyzacji, wyd.
1, Moskwa, (w jęz. Ros.).
Tretyakova T., 2003. The prototype of expert system „Hydrologist”: the concept of design. Proceedings of the 10-th International Conference Advanced Computer Systems
ACS’2003, Szczecin, Poland.
Tretyakova T. 2005. Baza wiedzy systemu ekspertowego „HMDecision” w systemie informacyjnym klasy DSS – podejście obiektowe (w jęz. rosyjskim). Materiały 4-ej Konferencji Międzynarodowej Analiza, prognozowanie i zarządzanie w systemach złożonych.
Rosyjska Akademia Nauk, Szczecińska Akademia Morska, Szczecińska Akademia Rolniczej, Państwowy Uniwersytet Komunikacji Wodnej w St. Petersburgu, St. Petersburg,
316-322.
Wimbierg G.P., Alshanskij Ja.Ju., Braginskaja L.A., Tretyakova T.V. i in., 1991. Metodyka kompleksowej oceny efektu ekonomicznego przy podjęciu decyzji o realizacji
przedsięwzięć gospodarczych i wyborze optymalnych wariantów wykorzystania różnych
typów informacji hydrometeorologicznej w branżach gospodarki narodowej.
St.Petersburg, GGO, (w jęz. Ros).
Liautaud B., Chammond M., 2001. e-Business Intelligence: Turning Information into
Profit. McGraw-Chill.
Czastikov A., Gawrilova T., Below D., 2003. Design of Expert System. CLIPS. St. Petersburg, BHV-Petersburg (w jęz. Ros).
130
Tatiana Tretyakova
Zarządzanie wiedzą przez zastosowanie ontologii dziedzin
KNOWLEDGE MANAGEMENT THROUGH APPLICATION
OF ONTOLOGY OF DOMAINS
Summary
The problem of the metaontology description in areas "Decision making in conditions of threat from a dangerous natural phenomenon " is considered. This
метаontology is used for leveling of knowledge’s hierarchy in the expert system "
HMDecision". The main task of system " HMDecision " is formation of skills, necessary for decision’s acceptance in conditions of occurrence of threat of people’s life
and to normal functioning of objects. The example of structure of the knowledge generated on the basis of ontology of domain " Decision making in conditions of avalanching threat " is considered.
Keywords: Expert System, Ontology, Knowledge Management, Knowledge Base, e-Learning
Decisions
TATIANA TRETYAKOVA
Wydział Informatyki
Politechnika Szczecińska
71- 210 Szczecin, ul. Żołnierska 49,
[email protected]
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
131
LEONID WOROBJOW
Akademia Rolnicza w Szczecinie
PRODUKTYWNOŚĆ I EFEKTYWNOŚĆ PRZEDSIĘBIORSTWA
Streszczenie
W artykule zostały wyróżnione podstawowe czynniki produktywności. Stwierdzono, że konieczna jest koncepcja produktywności łącząca wszystkie wysiłki skierowane na produkcję i wyrażona w postaci wyników. Pokazano, że produktywność jest
powiązana z ekonomicznością oraz skutecznością. Wyznaczone podstawowe zadania
wyższego kierownictwa przedsiębiorstwem.
Słowa kluczowe: produktywność, efektywność, zasady efektywności, ekonomiczność,
skuteczność, kierownictwo przedsiębiorstwa
1. Wprowadzenie
Wszystkie przedsiębiorstwa w gospodarce postindustrialnej na świecie posiadają mniej więcej
równy dostęp do zasobów. Jedyne co odróżnia jedne przedsiębiorstwo od drugiego to jakość zarządzania na wszystkich poziomach. Stałe podnoszenie produktywności to jedno z głównych zadań zarządzania. Jedno z najtrudniejszych, bo produktywność przedsiębiorstwa oznacza ten
bilans pomiędzy wszystkimi czynnikami produkcji (materialnymi, finansowymi, ludzkimi,
informacyjnymi i innymi), który daje największą produkcję przy najmniejszych wysiłkach.
2. Czynniki produktywności
Wzrostu produktywności we współczesnej gospodarce nie można osiągnąć poprzez wysiłki
fizyczne, lecz odwrotnie jeśli jest to wynikiem ich skrócenia lub zamiany. Wyróżniamy podstawowe czynniki produktywności [1]. Po pierwsze zamiana fizycznej pracy na umysłową.
W wyniku tego decydujący wpływ na produktywność mają nie pracownicy fizyczni a umysłowi
(knowledge workers) – menedżerowie, specjaliści, technicy. Podstawowym czynnikiem rozwoju
współczesnej gospodarki jest norma „skupienia umysłów” i tempo w jakim państwo produkuje
ludzi posiadających wykształcenie, wyobraźnię, zdolności teoretyczne i analityczne.
Szybkie unowocześnienie techniki, skupienie informacji i zadań przewiduje nieprzerwaną naukę i podniesienie kwalifikacji personelu. Na podstawie zachodnich opinii dziś połowa wiedzy
starzeje się w przeciągu 3-5 lat. Kolejnym problemem jest zagwarantowanie masowej wiedzy
komputerowej.
Następny czynnik to czas. Nie ma nic bardziej nieproduktywnego od postoju, zatrzymania
działania drogiego sprzętu lub wysoko opłacanych i zdolnych ludzi.
Nieproduktywnymi mogą być zarówno próby pracy w zbyt małej fabryce na trzy zmiany, na
starym lub zużytym sprzęcie. Najbardziej produktywny (lub odwrotnie: nieproduktywny) czas to
czas samego menedżera.
132
Leonid Worobjow
Produktywność i efektywność przedsiębiorstwa
Produktywność jest także funkcją bilansu pomiędzy różnymi kombinacjami jednych
i tychże zasobów. Na przykład różnica w dochodzie od różnych asortymentowych możliwości
rzadko jest proporcjonalna w stosunku do wydatków produkcyjnych. Przedsiębiorstwo produkujące stałą ilość towarów z niezmiennych materiałów, charakterystycznych i bezpośrednich oraz
pośrednich wydatków na pracę, może zarówno wzbogacić się jak i splajtować w zależności od
możliwości asortymentowej.
Jest także ważny czynnik, który nazywają kombinacją procesów produkcyjnych. Co jest
bardziej produktywne dla przedsiębiorstwa – kupić w detalu lub wyprodukować samemu, wykonać konieczną produkcję samemu lub zlecić jej zleceniobiorcy, sprzedawać ją pod własną marką
handlową poprzez własną sieć handlową lub wykorzystać usługi niezależnych hurtowni?
Na koniec produktywność silnie zależy od organizacyjnej struktury zarządzania przedsiębiorstwem. Brak konkretnej organizacji wymusza na menedżerach, że zamiast twórczej pracy,
marnują oni czas na wyjaśnienia tego co inni powinni wykonywać.
Bardzo ważne jest nie tylko określenie produktywności obejmującej wszystkie wpływające na
nią czynniki, ale i stawić cele podnoszenia produktywności, które brałyby pod uwagę wszystkie
czynniki. Potrzebne zasoby pozwalają rozliczyć produktywne i „pasożytnicze” administracyjne
wydatki, oceniać jak wpływają na produktywność przedstawione powyżej czynniki. W adekwatnych pomiarach produktywności jest zapotrzebowanie zarówno na menedżment jak i na gospodarkę w całości. Ich niedostateczność to największy minus w statystyce ekonomicznej, poważnie
osłabiający politykę gospodarczą.
Za pracę produkcyjną uważa się pracę pracowników obsługujących sprzęt i maszyny oraz
tworzących produkcję. Do pracy nieprodukcyjnej zalicza się pracę wszystkich osób, które nie
obsługują wyposażenia, ale wnoszą wkład w produkcję. Taką pracą jest np. mało produkcyjna
praca sprzątaczek, tradycyjnie wysokokwalifikowana praca narzędziowców, wykształconych pracowników przemysłowych: mistrzów, technologów, kontrolerów. Na końcu do „wydatków administracyjnych” (termin ten jest zrozumiały sam w sobie jako moralna dezaprobata) dołączają najbardziej produktywne zasoby ludzkie: menedżerów, badaczy, projektantów, ekonomistów planowania, nowatorów itp.
Koncepcja produktywności, która rozumie, że fizyczna praca jest jedynym produktywnym wysiłkiem jest beznadziejnie przestarzała. Konieczna jest koncepcja produktywności
łącząca wszystkie wysiłki skierowane na produkcję i wyrażona w postaci wyników.
Nawet taka koncepcja będąca znacznym krokiem do przodu będzie nie adekwatna jeśli wysiłki będą ograniczone poprzez rodzaje działalności mierzone w formie konkretnych bezpośrednich
wydatków.
3. Efektywność produkcji
Pojęcie produktywności jest ściśle powiązane z innymi gospodarczymi wskaźnikami, wśród
których szczególne znaczenie ma ekonomiczność (efficiency) oraz skuteczność lub aktywne
działanie (effectiveness). Oba te wyrazy na język polski tłumaczą się jako efektywność.
Chociaż teraz są wystarczająco konkretne wyznaczniki, w szerokim rozumieniu efektywność
oznacza zwiększenie produkcji, zmniejszając jednocześnie wydatki na proces produkcyjny.
Jeżeli zwrócić uwagę menedżmentu na ograniczenie wydatków i tym samym podwyższenie
efektywności wykorzystania posiadanych zasobów to można powiedzieć, że jest to działanie eko-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
133
nomiczne. Jeżeli uwaga zwrócona jest na możliwości tworzenia rynku, poprawy ekonomicznych
statystyk i jakości towarów itp., tym samym zwiększa się aktywne działanie przedsiębiorstwa.
Mówiąc o efektywności należy wymienić H.Emersona, który z efektywności uczynił prawdziwą filozofię oraz sformułował 12 zasad fundamentalnych efektywności [2]. Oto te zasady:
Konkretne wyrażenie ideałów, znaczenie których dla praktycznej pracy organizacji trudno
przecenić. Kierownicy powinni uświadamiać swoich pracowników o przeznaczeniu swojej organizacji. Tylko wtedy przedsiębiorstwo może osiągać wysoki stopień efektywności.
Zdrowy sens, bez którego przedsiębiorstwo nie ma szans na efektywną pracę. Przykładem
współczesnego menedżmentu jest działający w wielu amerykańskich firmach program optymalizacji technologii produkcyjnej, w której cele organizacji, jej struktura i zdrowy sens znajdują
wspólne zastosowanie przy rozwiązaniu problemów produkcji przemysłowej.
Porady ekspertów, jest to rola personelu specjalistów technicznych w pracy organizacji. W
miarę komplikacji zarządzania kierownik musi coraz częściej zwracać się o pomoc do ekspertów
technicznych, gdyż żaden kierownik nie jest od razu specjalistą we wszystkim, co jest niezbędne
do sukcesywnego prowadzenia spraw.
Dyscyplina. Osiągnięcie ogólnych ideałów poprzez pracę w organizacji zdyscyplinowanej
odbywa się przeważnie w formie współpracy. Za Emersonem, współpraca to nie zasada, ale jej
brak – to już przestępstwo.
Uczciwe prowadzenie spraw. Jednym z najbardziej skomplikowanych i najtrudniejszych
problemów do rozstrzygnięcia w sprawach tworzenia klimatu właściwych relacji jest nieumiejętność dotrzymywania równowagi pomiędzy wynagrodzeniem a produktywnością. System wynagrodzeń powinien być taki aby jego poziom był do przyjęcia w dniu dzisiejszym i stwarzał nadzieję na lepsze jutro.
Prowadzenie bezpośredniego, adekwatnego i stałego obliczenia. Tylko poprzez analizę
produktywnych wskaźników ( normatywów, cen, stawek wynagrodzenia itp.) menedżer może
prawidłowo oceniać realny poziom efektywności oraz określić poziom efektywności w porównaniu z istniejącymi normami.
System dyspozytorski – to aspekt planowania, który przewiduje się w kalendarzu planowania
czasu i wydatków podobnie do rozkładu jazdy pociągów.
Standardy i grafiki, jest to zaplanowany wybór regulaminów, norm i przepisów ogólnie
przyjętych w wyznaczonej sferze działalności.
Warunki standardowe. Techniczne metody i empiryczne przepisy powinny odpowiadać
współczesnemu poziomowi produkcji.
Standaryzacja operacji, które gwarantują uzyskanie wysokich wyników. W tym wypadku
dla osiągnięcia wysokiej efektywności niezbędne są odpowiednie umysłowe zdolności i organizacyjne nawyki pozwalające połączyć swoje działania ze standardowymi przepisami.
Normatywy i praktyczne instrukcje wspomagają naukę personelu organizacyjnego oraz
stopniowego udoskonalenia zadań.
Wynagrodzenie za efektywną pracę to przyznanie efektywności w miejscu pracy w zakresie
odpowiedzialności pracownika. Adekwatny system wynagrodzeń pozwala pracownikowi uświadamiać sobie ile jego praca znaczy dla przedsiębiorstwa.
Gdy wszystkie te wymienione zasady funkcjonują równocześnie straty mogą być zminimalizowane. Również odwrotnie, nie możemy mówić o efektywności jeśli w danym przedsiębiorstwie
funkcjonują niejasne zasady lub nie ma ich wcale. Trzeba je znać i zastosowywać w realnych
sytuacjach.
134
Leonid Worobjow
Produktywność i efektywność przedsiębiorstwa
4. Wyższe kierownictwo przedsiębiorstwa
Wszystkie działy zarządzania przedsiębiorstwem zajmują się zwykle jednym lub dwoma konkretnymi funkcjonalnymi zadaniami. Jedyny wyjątek to wyższe kierownictwo przedsiębiorstwa ( z
ang. top management team - to grupa wyższego kierownictwa), które nie posiada jednego zadania.
Zawsze są to zadania połączone:
Przemyślenia dotyczące misji przedsiębiorstwa, tj. odpowiedź na pytania: „na czym polega
nasz biznes?” i „jak powinien wyglądać nasz biznes?”. Zadanie to wyznacza cel w postaci opracowania strategii i podjęcia decyzji co do przyszłych wyników. Może tego dokonać tylko organ
spoglądający na przedsiębiorstwo jak na całość, zdolne zbilansować zapotrzebowanie i możliwości
oraz skierować zasoby ludzkie, finansowe i inne na osiągnięcie zamierzonych wyników.
Ustalenie standardów działalności i zachowań w przedsiębiorstwie ( „u nas tak się nie robi”), likwidacja rozbieżności pomiędzy tym co powinno oficjalnie wykonać przedsiębiorstwo, a
tym co faktycznie wykonuje. Organ wyznaczający wartości i perspektywy przedsiębiorstwa powinien spoglądać i rozumieć przedsiębiorstwo jako całość.
Organizacja efektywnego współdziałania ludzi, do tego należy przemyśleć strukturę organizacyjną zarządzanie przedsiębiorstwem dziś i jutro, rozpatrywać przedsiębiorstwo w całości.
Zachowanie wyższego kierownictwa, jego przekonania i wartości dają przykład całemu przedsiębiorstwu i napawają dumą i szacunkiem każdego pracownika.
Pozyskanie i utrzymanie współpracy z klientami i dostawcami, z inwestorami i państwowymi instytucjami. Współpraca ta wpływa na wyniki pracy przedsiębiorstwa i zostaje ustalona przez osoby odpowiedzialne za całe przedsiębiorstwo i mogące być jego upoważnionymi
przedstawicielami.
Zarządzanie przedsiębiorstwem w ekstremalnych lub nadzwyczajnych warunkach, kiedy
powstaje konieczność aby najbardziej doświadczone i odpowiedzialne osoby zakasały rękawy i
wzięły się za pracę.
Na końcu, przedstawienie przedsiębiorstwa na wszelkich ceremoniach – przyjęciach, prezentacjach, świętach i innych przedsięwzięciach.
Idealnego modelu kierownictwa wyższego szczebla nie ma. Powinni oni pracować uwzględniając specyfikę przedsiębiorstwa. Kierowanie na wysokim szczeblu to zadanie raczej dla grupy
niż dla jednej osoby. Rzadziej potrzebne są cztery charakterystyki osób: człowiek myślący,
człowiek czynu, człowiek psycholog, człowiek publiczny. W prawidłowo działającym zespole
wyższego szczebla punktem wyjściowym powinna być analiza postawionych przed nim zadań.
Każde z tych zadań powinno być przedstawione osobie, która ponosi za nie bezpośrednią i całkowitą odpowiedzialność. Odpowiedzialność ta powinna być zgodna z charakterystyką osobowości i
kwalifikacji członków zespołu.
Kierownictwo wyższego szczebla winno akceptować twarde wymogi. Nie jest to proste strukturalnie. Nie będzie kierownictwo dobrze pracować tylko dlatego, że jego członkowie sympatyzują
między sobą. Członkowie kierowniczej grupy mogą się nawzajem nie lubić, nawet nie mieć do
siebie nawzajem szacunku, ale nie powinni negatywnie o sobie się wypowiadać. Poza naradami
publicznymi nie powinni wypowiadać zdań krytycznych wobec siebie, poniżać czy też chwalić
jeden drugiego. Dostosowanie się do tej zasady to zadanie kapitana drużyny, który powinien tego
obowiązkowo przestrzegać. Kapitan powinien być nie kierownikiem, ale liderem. Jest on niezbędny również dlatego, by w krytycznym momencie wziąć odpowiedzialność na siebie.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
135
Każdy członek drużyny kierownictwa wyższego szczebla odpowiada za wyznaczony zakres i
posiada w nim decydujące zdanie. Podwładni nie mogą zaskarżać jego decyzji do pozostałych
członków kierownictwa. Nikt nie powinien podejmować decyzji nie należących do zakresu jego
kompetencji. Najlepiej jeśli członkowie drużyny nie będą w ogóle wypowiadać się na tematy będące poza zakresem ich obowiązków. Jednocześnie każdy z członków kierownictwa wyższego
szczebla występuje w imieniu całej drużyny. W innym przypadku zaczynają się intrygi.
Są jednak decyzje, które powinny być podejmowane wspólnie lub w skrajnych okolicznościach omawiane zespołowo – tylko całą drużyną. To powinno dać odpowiedzi na pytania: „na
czym polega nasz biznes?” i „jak powinien wyglądać nasz biznes?”. Wspólnie omawia się
ważne inwestycje i zasadnicze kwestie personalne, a także zaprzestanie lub wznowienie produkcji
istotnych wyrobów.
Rozwiązywanie zadań kierownictwa wyższego szczebla wymaga systematycznej i intensywnej wymiany informacji pomiędzy członkami drużyny. Ilość zadań i rozwiązanie każdego z nich
wywierają wpływ na działalność przedsiębiorstwa. Z drugiej zaś strony należy poinformować
każdego członka kierownictwa wyższego szczebla o konieczności samodzielnego działania w
ramach swoich obowiązków, natomiast oni powinni dołożyć wszelkich starań aby informować
swoich kolegów o swojej działalności.
Kierownictwo wyższego szczebla przedsiębiorstwa to dyrektor i jego zastępcy - osoby zwykle
bardzo odpowiedzialne, nacechowane silną wolą i rozsądnym egoizmem. Starają się oni zawsze
spełnić oczekiwania postawione im podczas rekrutacji. Spoczywa na nich wysoka odpowiedzialność za wszystko co się wydarzy, chociaż naprawdę są takimi samymi ludźmi jak inni.
Przede wszystkim dyrektor. Zwykle nie jest on dostatecznie kompetentny we wszystkim co
dotyczy finansów, planowania, wynagrodzenia, księgowości. Kariera dyrektora zwykle przebiega
na szczeblu technicznym: mistrz, kierownik działu i hali, kierownik oddziału produkcyjno–
spedycyjnego, główny inżynier i w końcu dyrektor. Wysłuchując różnych zdań swoich „funkcjonalnych” nie jest on w stanie w sposób szczególny zrozumieć treści stawianych problemów, nie
ma ani czasu ani kwalifikacji do zrozumienia tych problemów. Jednak kompetencje „funkcjonalnych” nie zawsze są właściwe i mogą one bardzo poważnie „podłożyć” dyrektora. W końcu dyrektor zaczyna podejmować decyzje siłą woli i później okazuje się jedynym winnym.
W praktyce dyrektorzy przedsiębiorstw mają konflikty z głównymi księgowymi. Jest to związane z tym, że bardzo wiele zasad przewidzianych przepisami jest niemożliwe do wykonania i
dyrektorzy, szczególnie młodzi są zmuszeni naruszać je, za co przewidziane są poważne sankcje
nawet karne. Główni księgowi nie odpowiadają za pracę przedsiębiorstwa i nie przejmują się tym
jeśli na podstawie zapisów finansowych przedsiębiorstwo zostanie sparaliżowane. Stary i doświadczony dyrektor docenia wartość spokojnego życia i stara się mniej łamać przepisy, ale za to
traci inicjatywę kierowania przedsiębiorstwem.
Dyrektor i kierownicy produkcyjni (liniowi) uważają, że przedsiębiorstwo opiera się na realnej pracy, tj. na konkretnej pracy wykonywanej w hali produkcyjnej. Pisanie papierków to zadanie personelu zarządzającego. Jeśli realna praca jest wykonywana, to ekonomiści funkcjonują
tylko dlatego, aby w sprawozdaniu znajdował się niezbędny procent wykonania planu. Jeśli
w dokumentach nie można uzyskać niezbędnego procentu wykonania planu to znaczy, że ekonomiści są niekompetentni. Kiedy okazuje się, że od tego jak ekonomiści piszą swoje dokumenty,
może lepiej iść realna praca to dla dyrektora jest największym objawieniem.
Leonid Worobjow
Produktywność i efektywność przedsiębiorstwa
136
5. Podsumowanie
Nawet najzdrowsze przedsiębiorstwo może upaść, jeżeli nie będzie przywiązywać dostatecznej wagi do efektywności. Nawet najbardziej ekonomiczne przedsiębiorstwo nie może
funkcjonować jeśli produkuje zbędne produkty czyli przy braku skuteczności. Skuteczność
jest podstawą sukcesu. Ekonomiczność jest podstawowym warunkiem przeżycia po osiągnięciu
sukcesu.
6. Literatura
1. Worobjow Ł.A.., 1999. Mjenjebżmjent organizacii. Izdatjelstwo PRO, Мinsk.
2. Emerson H., 1913.The Twelve Principles of Efficiency. Engineering Magazine New York.
PRODUCTIVITY AND EFFICIENCY OF THE ENTERPRISE
Summary
The paper presents basic factors of productivity. It is stated that there is necessity of adaptation of the productivity concept included all efforts for production and
its effects. There is proved that productivity is connected with economicalness and
effectiveness. The basic tasks of enterprise management staff were pointed.
Keywords: Productivity, Efficiency, Efficiency Rules, Effectiveness, Economicalness, Enterprise
Management Staff
PROF. DR HAB. LEONID WOROBJOW
Katedra Ekonomii Akademii Rolniczej w Szczecinie
71-210 Szczecin, ul. Żołnierska 47,
tel/fax (0-91) 4870-229
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
137
KAROLINA WOŹNICKA
STRATEGIA PRZODOWNICTWA KOSZTOWEGO W WALCE Z KONKURENCJĄ
Streszczenie
Celem niniejszej pracy jest prezentacja strategii przodownictwa kosztowego jak
również walka przedsiębiorstw z konkurencją. Praca ta została napisana na podstawie studiów literaturowych, które obejmują pozycje książkowe, artykuły autorów
polskich jak i zagranicznych, jak również źródła internetowe oraz na podstawie obserwacji dotyczących treści charakteryzowanego przedsiębiorstwa.
Przedstawionemu celowi pracy podporządkowana jest jej struktura, na którą
składa się wprowadzenie w tematykę konkurencyjności. Rozdział ten dotyczy działania w konkurencyjnym otoczeniu rynkowym konkurentów. Można w rozdziale tym
znaleźć informacje dotyczące konkurencyjności, czyli podstawowe pojęcia konkurencyjności, rodzaje konkurencji. Oprócz tego w rozdziale tym opisane jest jak
przedsiębiorstwo może uzyskać przewagę nad konkurentami oraz jakie strategie może wykorzystać, aby zdobyć przewagą konkurencyjną.
Natomiast następnie opisane jest tworzenia przewagi konkurencyjnej na podstawie przodownictwa kosztowego. Czynnikami za pomocą, których przedsiębiorstwo
może uzyskać przewagę konkurencyjna jest cena oraz koszty. W rozdziale tym ukazane są możliwości obniżki kosztów w przedsiębiorstwie.
Dlaczego ten temat jest ważny? Być może dlatego, że, polskie przedsiębiorstwa
stoją w obliczu nowych wyzwań, gdyż tylko perfekcyjne opanowanie sztuki działania
na w pełni konkurencyjnym rynku może zapewnić im szanse na efektywne funkcjonowanie w ramach struktury gospodarczych zjednoczonej Europy. Postępujący proces globalizacji działań gospodarczych nie pozwala na działanie wbrew regułom gry
konkurencyjnej oraz wymusza rozszerzenie horyzontów postrzegania rynku i roli, jaką przedsiębiorstwo ma szanse odegrać.
Polska nie wykreowała do tej pory silnej marki narodowej, która stałaby się
symbolem wizerunku kraju, odbieranym wszędzie i przez wszystkich jednoznacznie
pozytywnie. Polska gospodarka nie będzie dostatecznie konkurencyjna, nie sprosta
konkurencji międzynarodowej w Unii Europejskiej i poza Unią, bez silnych marek
firmowych, handlowych, marek regionalnych, a także bez mocnej i szanowanej marki narodowej. Należy wykorzystać szansę na poprawę tej sytuacji, umacnia się bowiem międzynarodowa reputacja gospodarki naszego kraju, przede wszystkim w
kontekście bliskiego członkowstwa w Unii Europejskiej.
Słowa klucze: strategia przodownictwa kosztowego, konkurencja
138
Karolina Woźnicka
Strategia przodownictwa kosztowego w walce z konkurencją
1. Konkurencyjność przedsiębiorstwa na rynku
Udział marketingu w procesach konkurencji związany jest z istnieniem otoczenia konkurencyjnego przedsiębiorstw. Każde przedsiębiorstwo działa w mniej lub bardziej rozwiniętym otoczeniu konkurencyjnym. Otoczenie konkurencyjne przedsiębiorstwa nazywane jest często otoczeniem bliższym przedsiębiorstwa, przemysłowym bądź sektorowym. M. E. Porter używa w
swoich książkach również takich określeń otoczenia konkurencyjnego a mianowicie ,,sektor’’
lub ,,analiza sektora’’ jako najbardziej precyzyjnych i jednoznacznych pojęć. Każde przedsiębiorstwo posiada otoczenie i w nim funkcjonuje, ale chcąc w nim działać musi zrozumieć podstawowe elementy swojego otoczenia, żeby mogło w nim dobrze funkcjonować. Dlatego należy zacząć
od wyjaśnienia pojęcia otoczenia, którym nazywamy „zbiory składników, których nie zalicza się
do samej organizacji, ale ich bezpośrednie oddziaływanie lub zmiana właściwości może spowodować zmianę stanu samej organizacji” [6]. Mając zdefiniowane pojęcie otoczenia, można
przejść do jego klasyfikacji. Najbardziej znany podział otoczenia w marketingu jest podział
na mikrootoczenie oraz makrootoczenie.
Przedsiębiorstwo działające w danym otoczeniu może zmierzać do unikania form konkurencji, którym towarzyszą:
1. Wysoki poziom ograniczeń stwarzanych przedsiębiorstwu przez jego otoczenie konkurencyjne.
2. Parametryzacja wszystkich lub niektórych instrumentów marketingowych.
3. Forma konkurencji decyduje o:
• stopniu intensywności motywacji do stosowania marketingu,
• możliwościach mniej lub bardziej swobodnego operowania przez przedsiębiorstwo
poszczególnymi instrumentami marketingu,
• podstawowej funkcji marketingu w procesach konkurencji.
Wyodrębnienie poszczególnych rodzajów instrumentów konkurowania pozwala na określenie rodzajów konkurencji. Występują różne kryteria podziałów konkurencji, w przypadku jednego z tych kryteriów można podzielić konkurencję na:
1. Konkurencja jakościowa.
2. Konkurencja cenowa.
3. Konkurencja informacyjna.
Stosowanie marketingu pozwala firmie na znalezienie dla siebie miejsca na polu rynkowej
walki o uznanie wśród nabywców bez względu jaki rodzaj konkurencji dominuje na rynku. Poniższa tabela 1 prezentuje związki między rodzajami konkurencji, a podstawowymi instrumentami
konkurowania.
Rodzajowa struktura procesów konkurencyjnych na rynku może być oraz jest zróżnicowana w
różnych segmentach rynku. Konkurencja jakościowa, której może towarzyszyć nasilona konkurencja informacyjna, dominuje w pewnych segmentach rynku natomiast w innych może dominować konkurencja cenowa. Taka struktura nie ma trwałego charakteru, lecz może ulegać zmianie.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
139
Tabela 1. Rodzaje konkurencji i instrumenty marketingu
Rodzaje konkurencji
Cenowa
Jakościowa
Informacyjna
Instrumenty i działania konkurencyjne
Cena
Promocja oparta na materialnym zainteresowaniu nabywców
Produkt
Opakowanie
Dystrybucja
Sprzedaż bezpośrednia (osobista)
Reklama
Public relations
Promocja oparta na pozamaterialnym zainteresowaniu nabywców
Marka
Źródło [3]
Możliwość kształtowania się rodzajów konkurencji wynikają z [10]:
• Charakteru otoczenia rynkowego poszczególnych producentów,
• Zakresu swobody producentów w wykorzystaniu i zmianach instrumentów konkurencji.
W procesie konkurowania każdy rodzaj konkurencji ma inne znaczenie. Różna skuteczność
instrumentów co związane jest z różnymi rodzajami konkurencji prowadzi do dominacji jednego
rodzaju konkurencji.
Wracając do rodzajów konkurencji to pierwszym rodzajem konkurencji jest konkurencja cenowa, która jak sama nazwa wskazuje opiera się na cenie wyrobu oraz zmianach jej poziomu.
Zmiany poziomu ceny mają na celu wyróżnienie oferty na tle ofert rywali oraz zdobycie na tej
podstawie cenowej przewagi konkurencyjnej. Konkurencja ta może mieć miejsce tylko między
wyrobami o podobnej jakości. Zmiany poziomu ceny powinny[10]:
1. Wywoływać pożądaną zmianę wielkości popytu u nabywców,
2. Nie wywoływać reakcji u rywali (lub wywoływać reakcje zaplanowane przez producenta).
Natomiast, jeżeli w rezultacie zmiany poziomu ceny nabywcy chcą kupić oferowany wyrób,
wtedy konkurencja cenowa powoduje wzrost efektów osiąganych przez producentów. Różny
popyt przy zmianach poziomu ceny oznacza, że alokacja dochodu nabywców jest determinowana
tymi zmianami. Związane jest to z kształtowaniem się cenowej elastyczności popytu na dobro.
Elastyczność cenowa popytu wyraża stosunek relatywnej zmiany popytu do relatywnej zmiany
ceny.
Jeśli poziom cenowej elastyczności popytu na dobro jest niski, to obniżenie ceny może spowodować zmniejszenie na rynku udziału przedsiębiorstwa. Zmiana ceny nie wywołuje dużej
reakcji nabywców oraz nie stanowi zagrożenia dla konkurentów. Przy wysokim poziomie cenowej elastyczności popytu na dobro obniżanie cen wywołuje większy popyt.
Następny rodzaj konkurencji to konkurencja jakościowa. Konkurencja ta opiera się na produkcie oraz usługach towarzyszących procesowi jego oferowania na rynku oraz występuje tylko
między produktami o charakterze substytucyjnym.
Trzeci rodzaj konkurencji to konkurencja informacyjna, której podstawą jest proces komunikowania się podmiotów na rynku. Typowym instrumentem konkurencji informacyjnej jest rekla-
140
Karolina Woźnicka
Strategia przodownictwa kosztowego w walce z konkurencją
ma, która poprzez wypełnienie swoich dwóch podstawowych funkcji (informacyjnej i nakłaniania
nabywców do pożądanych reakcji) przynosi zainteresowanie nabywców produktami przedsiębiorstwa [10].
Producent, analizując rynek, na którym chce działać, najpierw ustala, co będzie chciał produkować i oczywiście dla kogo? Jeżeli producent zna swoje możliwości finansowe, to wybierze
najlepszą z dostępnych technologii produkcji. Pozostanie mu tylko odpowiedź na pytanie: ile
wyprodukować, żeby osiągnąć maksymalny zysk? Dla wyliczenia swojego zysku producent powinien znać nie tylko koszty wytworzenia różnych wielkości produkcji, ale też przychody ze
sprzedaży produktów, które z kolei zależą od struktury rynku, na którym firma funkcjonuje.
Omówiliśmy rodzaje konkurencji, a nie wyjaśniliśmy pojęcia konkurencyjności. Konkurencja to wyrażenie pochodzące od średniowieczno – łacińskiego słowa concurrentia, które oznaczało ,,rywalizację przedsiębiorstw o korzyści ekonomiczne, które można osiągnąć prowadząc daną
działalność gospodarczą”. Ogólnie mówiąc, konkurencja jest to proces, w którym uczestnicy
rynku, dążąc do realizacji swych interesów, próbują przedstawić oferty korzystniejsze od innych
ze względu na cenę, jakość, warunki dostawy i inne czynniki mające wpływ na podjęcie decyzji
o zawarciu transakcji. Konkurencja jest chroniona przez prawo we wszystkich rozwiniętych krajach (antymonopolowe ustawodawstwo). O konkurencji mówimy, kiedy na rynku istnieje duża
liczba przedsiębiorstw tzw. twórców podaży. Konkurencja jest jednym z najważniejszych elementów gospodarki rynkowej, a wręcz jej synonimem, a także motorem napędzającym do działania umożliwiającym dokonywanie wyborów dla konsumentów w świetle marketingowym. Istnienie konkurencji zależy od występowania pewnych warunków [9]:
• W danym segmencie działa więcej niż jeden producent.
• Między producentami zachodzi konflikt interesów – jest to warunek uzupełniający, lecz
konieczny, gdyż brak konfliktu interesów zmniejsza lub wyklucza motywacje do rywalizowania.
Wartość potencjalnych przychodów wszystkich firm jest ograniczona. Natomiast walka o
zdobycie dużej części tych przychodów jest istotą konkurencji. Trudność konkurowania polega na
tym, że w warunkach ustabilizowanej gospodarki rynkowej popyt jest dość stały, dlatego tylko
zdecydowanie lepsze dostosowanie oraz działanie firmy może spowodować zagarnięcie większej
części popytu kosztem firmy mniej efektywnej. W życiu gospodarczym celem konkurencji jest
zmniejszenie udziału konkurenta w rynku lub jego eliminacja.
Konkurencja pełni cztery funkcje, które zostały zaprezentowane poniżej[9]:
• Funkcja sterownicza – sterowanie podziałem oraz przepływem produktów i usług według
kryterium preferencji nabywców, co służy zaspokajaniu ich potrzeb w najlepszy możliwy
sposób.
• Funkcja dostosowawcza – adaptowanie produktów i zdolności wytwórczych do zmian
w popycie i technice produkcji, co pozwala na oszczędności w sferze inwestycji.
• Funkcja ekonomiczna – zapewnianie podziału dochodów między uczestnikami procesów
rynkowych według kryterium wydajności i efektywności zamiast podziału według kryterium siły ekonomicznej.
• Funkcja innowacyjna – przyśpieszenie wprowadzania innowacji oraz postępu techniczno
– organizacyjnego.
Przedsiębiorstwa, które współzawodniczą między sobą prowadzą swoją działalność w warunkach ciągłej niepewności, często narażone są na kryzys. Chcąc utrzymać zdolność do rywalizacji muszą być elastyczne oraz łatwo się adaptować do nowych sytuacji. Warunkami sukcesu
firmy jest wykreowanie unikalnych zdolności, które dotyczą sposobu jej funkcjonowania.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
141
2. Metody oceny konkurencyjności przedsiębiorstw
Analiza konkurencji jest częścią zarządzania strategicznego dotyczącego oceny środowiska
zewnętrznego. W analizie strategicznej duże znacznie ma metoda SWOT. Jest to kompleksowa
metoda, która służy do badania otoczenia organizacji i analizy jej wnętrz. Analiza SWOT stosowana jest do porównania atutów oraz słabości przedsiębiorstwa z możliwościami i zagrożeniami
wynikającymi z charakteru jej otoczenia. Nazwa SWOT jest akronimem angielskich słów
Strengths (mocne strony), Weaknesses (słabe strony), Opportunities (szanse w otoczeniu), Threats
(zagrożenia w otoczeniu). Analiza SWOT polega na przewidywaniu zmian jakie zajdą w przyszłości i określeniu, które tych zmian stwarzają szanse a które są źródłem zagrożeń dla działalności
przedsiębiorstwa.
Metody portfelowe stanowią zbiór narzędzi, które umożliwiają dokonanie oceny możliwości
działania i określenia przyszłej pozycji przedsiębiorstwa. Dają możliwość precyzyjnej oceny sytuacji konkurencyjnej przedsiębiorstwa w różnych segmentach rynku. Metody portfelowe stanowią
podstawę do planowania strategicznego. Wyróżnia się najbardziej znane i stosowane metody analiz portfelowych, do których zliczamy[5]:
• Portret przedsięwzięć gospodarczych.
• Macierz kierunków polityki gospodarczej.
• Macierz oceny produktu.
• Macierz wzrostu udziału w rynku (inaczej macierz BCG).
• Mc KINSEY (w skrócie McK).
• Macierz oceny rynku lub macierz Arthura D. Little’a (w skrócie nazywana ADL).
Zajmijmy się trzema z tych metod portfelowych zaczynając od macierzy BCG (Boston Consulting Group) jest powszechnie stosowaną metodą zarządzania portfelem przedsiębiorstwa, macierz ta klasyfikuje poszczególne jednostki strategiczne operacyjne według stopy wzrostu ich
rynku oraz względnego udziału w rynku. Metoda ta została opracowana przez Bostońską Grupę
Konsultingową w 1969 roku. Ogólnie mówiąc macierz BCG pomaga w zrozumieniu wkładu różnych strategicznych jednostek operacyjnych do wyników całego przedsiębiorstwa.
Kolejną metodą jest macierz McKinseya nazywana jest macierzą atrakcyjności produktu czy
atrakcyjności rynku (Business – Industry Attractiveness Matrix) albo macierz GE. Początki tej
macierzy można zaobserwować w latach siedemdziesiątych w firmie General Electric Corporation,
która współpracowała ze współczesną firmą doradczą McKinsey. Zmian dokonano w określeniu
zmiennych z jednowymiarowych na zmienne określające czynniki sukcesu rynkowego firmy w
postaci atrakcyjności rynku oraz pozycji konkurencyjnej wewnątrz danego sektora. Zmiany te dały
duże możliwości analizy portfela produkcji firmy na tle danego sektora bądź przemysłu[9].
Następną metodą portfelową, która powstała w latach siedemdziesiątych w firmie doradczej
A. D. Little jest macierz A. D. Little’a nazywaną w skrócie ADL. Przeprowadzone wcześniej
badania nad zachowaniem firm oraz prawami rynku PIMS zwraca uwagę menadżerów na to, że
czynnikiem atrakcyjności rynku jest nie tylko jego chłonność, ale również faza cyklu życia, w
jakiej się znajdują produkty oraz wzajemne relacje między nimi. Oznacza to stosunek wyrobów,
które są nowo wprowadzone na rynek do tych, które są w fazie dojrzałości czy schodzenia z rynku. Jest to odmienne podejście do tworzenia zbilansowanego portfela wyrobów firmy. Właśnie z
takich poszukiwań zrodziła się technika analizy portfelowej zwana macierzą ADL.
Karolina Woźnicka
Strategia przodownictwa kosztowego w walce z konkurencją
142
3. Strategie osiągania i utrzymywania konkurencyjności
W procesie formułowania efektywnej i realistycznej strategii przedsiębiorstwo musi wziąć
pod uwagę wiele czynników determinujących wybór strategii. Wybór metod i sposobu rozwoju
danego przedsiębiorstwa, czyli strategii rozwoju, zależy od potencjału danego przedsiębiorstwa
istniejącego obecnie oraz możliwego do osiągnięcia w przyszłości. Ów potencjał określa zdolności
strategiczne danej firmy, czyli jej możliwości opracowania, wdrożenia i eksploatacji efektywnej
strategii rozwoju. Zdolności strategiczne danej firmy są zdeterminowane przez kulturę organizacji,
jej zdolność zarządzania oraz jej materialne i niematerialne zasoby. Czynniki determinujące strategie rozwoju przedsiębiorstwa można podzielić na czynniki wewnętrzne i czynniki zewnętrzne.
Ocena tych czynników pod względem istotności i sposobu wpływu na firmę jest przedmiotem
analizy strategicznej.
Trzeba określić co będziemy rozumieć pod pojęciem strategii konkurencyjnej? Pod tym pojęciem według F. Bartasa ,,będziemy rozumieć skutki działalności i metod, które w przypadku należytej realizacji powinny zapewnić firmie większe prawdopodobieństwo osiągnięcia wyznaczonych
celów w określonym środowisku marketingowym, w danym momencie’’[1]
Według Portera na wybór strategii konkurencyjnej duże znaczenie wywierają dwa czynniki[1,
s.60]:
1. Atrakcyjność branży.
2. Pozycja konkurencyjna firmy w danej branży.
Jeżeli przedsiębiorstwo wybiera i wytwarza odpowiednia strategię konkurencyjną, musi przeprowadzić analizę pięciu dynamicznych czynników konkurencyjnych . Czynniki te determinują
atrakcyjność branży. Działanie tych czynników określone jest przez stosunki konkurencyjne.
Czynniki te należy poznać, zrozumieć oraz wykorzystać ich działanie na korzyść własnego przedsiębiorstwa. Jeden lub kilka z czynników można zmienić jednakże prowadzi to do zmian struktury
branży w wyniku czego również do zmiany jej atrakcyjności[1, s. 61].
Każda firma konkurująca w danym sektorze ma strategię konkurencji, sformułowaną świadomie lub wynikowo. Strategia może być celowo opracowana w toku procesu planowania albo
może być efektem działalności różnych działów funkcjonalnych firmy. Każdy dział będzie jednak
postępować zgodnie ze swoją zawodową orientacją i motywacją kierownictwa. Dlatego suma
działań poszczególnych działów rzadko kiedy składa się na najlepszą strategię.
Firma ma do wyboru wiele opcji strategicznych. W teorii zarządzania strategicznego istnieje
wiele podziałów strategii. Jednak zanim dokona się podziału strategii należy sformułować trzy
poziomy strategii:
1.
Strategia firmy - określa jaki rodzaj lub rodzaje działalności muszą być prowadzone, aby
osiągnąć przewagę strategiczną.
2. Strategia biznesu - precyzuje działalności, które prowadzą do osiągnięcia założonych celów.
3. Strategia funkcjonalna - działania na każdym poziomie funkcjonalnym firmy, które mają
zapewnić realizację strategii biznesu przy wykorzystaniu strategii firmy.
Najważniejsza jest strategia na poziomie firmy. To ona określa strumień działań i decyzji
prowadzących do osiągnięcia sukcesu rynkowego. Jednym z najczęściej stosowanych podziałów
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
143
strategii na poziomie firmy, często określanym mianem podziału pierwotnego jest podział na następujące strategie:
• Strategie kosztowe - przewagę konkurencyjną uzyskuje się na drodze redukcji kosztów wytwarzania, często strategię tę utożsamia się ze strategią wolumenu, gdyż duża
skala produkcji powoduje obniżenie kosztu jednostkowego.
• Strategie dyferencjacji (wyróżniania się) - polega na oferowaniu przez przedsiębiorstwo produktów specyficznych, które wyraźnie wyodrębniają się od pozostałych produktów konkurencji, są jednoznacznie utożsamiane z daną firmą.
Dwa podstawowe typy przewagi konkurencyjnej przedsiębiorstwa, czyli przywództwo kosztowe oraz pozytywne wyróżnianie, w połączeniu z zakresem działalności pozwalają na wyróżnienie trzech potencjalnie skutecznych strategii konkurencji. Ten klasyczny podział trzech podstawowych strategii konkurencji w 1985 roku określił Michael P. Porter[7, s. 50]:
• Strategia minimalizacji kosztów – inaczej strategia wiodąca pozycja pod względem
kosztów całkowitych, analogia do strategii kosztowych.
• Strategia różnicowania - inaczej dyferencjacji.
• Strategia koncentracji.
Strategie nazywane kosztowymi ukierunkowują wszystkie działania przedsiębiorstwa na jedyny główny cel, jakim jest minimalizacja kosztów całkowitych. Strategie kosztowe opierają się
na założeniu, że najlepszą pozycję konkurencyjną uzyskują te firmy, które mają najniższe koszty.
Obok strategii wyróżniania oraz koncentracji jest strategia przywództwa kosztowego, która jest
jedną z trzech podstawowych strategii konkurowania rozwiniętych w końcu lat siedemdziesiątych
XX wieku przez M. E. Portera. Strategia przywództwa kosztowego bądź strategia pozycji wiodącej pod względem kosztów całkowitych jest nazywana często strategią niskich cen. Cena jest wyrażoną w pieniądzu wartością towaru. Stanowi ona również ważny element rywalizacji między
przedsiębiorcami, ponieważ jest jednym z najważniejszych czynników wpływających na wybór
produktu przez nabywcę. Jeżeli konkurencyjne produkty nie różnią się między sobą innymi cechami na przykład jakością, serwisem, łatwością dostępu, czyli w istotny sposób, wtedy cena może
stać się czynnikiem decydującym. Z tego powodu współczesny wolny rynek charakteryzuje się
występowaniem presji cenowej między jego uczestnikami.
Pozycje konkurentów i przedsiębiorstwa na rynku wyznacza cena wyrobu oraz użyteczność
oferowana. Przedsiębiorstwo, którego oferta w tym zakresie będzie dla klienta atrakcyjniejsza
zdobędzie przewagą konkurencyjną. Przygotowanie oferty wymaga dokładnego poznania wszystkich wierzchołków trójkąta strategicznego, czyli własnego przedsiębiorstwa, konkurencji i klientów oraz poznanie związków zachodzących między nimi.
Chcąc osiągnąć i utrzymać trwałą przewagę konkurencyjną pod względem cenowym przedsiębiorstwo musi zajmować korzystną pozycję w sferze kosztów. Zarządzanie cenami jest funkcją
zarządzania kosztami, tak więc przedsiębiorstwo które decyduje się zdobywać rynek za pomocą
atrakcyjnych dla klientów niskich cen powinno prowadzić w tym zakresie ścisłą kontrolę.
Strategia niskich cen została rozpowszechniona w lachach siedemdziesiątych dzięki koncepcji
krzywej doświadczenia (zwanej krzywą uczenia się).
Karolina Woźnicka
Strategia przodownictwa kosztowego w walce z konkurencją
144
Koncepcja ta powstała w 1926 roku, kiedy oficer Armii Stanów Zjednoczonych dowodzący bazą
Wright Patterson w Dayton zauważył, że za każdym razem, gdy podwaja produkcję, koszty jednostkowe maleją o około 20 % [10]. Skonstruowana na tej podstawie krzywa doświadczenia
to „wykres obrazujący empirycznie stwierdzona zależność (…) między skalkulowaną w całym
okresie produkcji ilością wytworzonego produktu, a wielkością kosztu jednostkowego” [3].
Strategia przywództwa kosztowego, czyli wiodąca pozycja pod względem kosztów wymaga
agresywnego inwestowania w urządzenia produkcyjne na efektywną skalę, energicznego dążenia
do obniżania kosztów poprzez zdobywanie doświadczenia, ścisłą kontrolę kosztów bezpośrednich
oraz ogólnych jak również unikanie klientów o marginalnym znaczeniu i minimalizację kosztów w
takich dziedzinach jak B + R, obsługa posprzedażowe, reklama, zespół sprzedawców. Natomiast
motywem przewodnim strategii przodownictwa kosztowego staje się niski koszt wytwarzania w
porównaniu z konkurentami, jednak nie można pomijać jakości i poziomu obsługi klienta[7]. Nie
każde przedsiębiorstwo jednak może pozwolić sobie na prowadzenie takiej strategii. Chcąc prowadzić taką strategię przedsiębiorstwo musi zajmować silną pozycję na rynku.
Przy stosowaniu strategii niskich cen użyteczna jest koncepcja łańcucha kosztów, ukazująca
miejsca powstawania kosztów w przedsiębiorstwie. W związku z działalnością podstawową przedsiębiorstwa wyróżnia się:
• Koszty zakupu materiałów oraz komponentów zużywanych w procesie produkcyjnym.
• Koszty operacji wytwórczych.
• Koszty logistyki wyjściowej.
• Koszty marketingu.
• Koszty usług, serwisu i tym podobne.
Podział w związku z działalnością pomocniczą jest następujący:
•
•
•
Koszty tworzenia i utrzymywania infrastruktury przedsiębiorstwa.
Koszty gospodarki kadrowej.
Koszty prac badawczo – rozwojowych.
Aby uzyskać najkorzystniejszą pozycję konkurencyjną przedsiębiorstwo może przeprowadzić
w ramach swojego łańcucha kosztów:
•
Alokacje zasobów, która zagwarantuje bardziej produktywne ich wykorzystanie, koncentrację zasobów na wyrobach, jednostkach organizacyjnych, funkcjach i rynkach
przynoszących największy zysk.
• Eliminację wyrobów, jednostek organizacyjnych, funkcji i rynków nie zapewniających
efektywnego wykorzystania zasobów i nie ponoszących odpowiednio wysokiego zysku.
W ten sposób przedsiębiorstwo zmniejsza zakres swojej działalności oraz zmniejsza koszty.
Koncepcja łańcucha kosztów pomocna jest w obniżce nakładów, co stanowi podstawę konkurowania ceną[11, s. 19 - 20]. Przedsiębiorstwo, które stosuje strategię niskich cen może osiągać
większe zyski niż jego konkurenci, którzy mają wyższy poziom kosztów i nie mogą znacznie
obniżyć ceny. Pozostaje im rywalizacja między sobą. Osiągnięcie przywództwa kosztowego stanowi ochronę nie tylko przed rywalami, ale i przed siłami konkurencyjnymi.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
145
4. Podsumowanie
Przywództwo kosztowe jest to osiągnięcie przez przedsiębiorstwo działające w danej gałęzi
produkcji poziomu kosztów umożliwiających mu sprawowanie przywództwa i podjęcie jednej z
wielu walk konkurencyjnej o miejsce na rynku. Przedsiębiorstwo, które cechują niskie koszty musi
wyszukiwać i wykorzystywać każdą okazję, aby osiągnąć przewagę w tej sferze. Znaczenie mogą
mieć tutaj zwłaszcza takie czynniki, jak: korzyści skali, pierwszorzędna technologia, dostęp do
surowców, korzystna lokalizacja. Przedsiębiorstwa, które uzyskują przodownictwo mają w obrocie
najważniejsze dla danego rynku towary, silnie rozbudowaną sieć dystrybucji i stosują zasadę różnicowania, tj. stwarzania czegoś, co w całym przemyśle jest uznawane za unikalne, czyli obsługa,
serwis, jakość, styl, technologia itp. Przywódca w sferze kosztów jest w ciągłym napięciu związanym z koniecznością obrony swej pozycji. Musi on mieć dobre zaplecze inżynieryjno - techniczne,
dobry dział zaopatrzenia i zbytu, musi też być przygotowany na pojawienie się innowacji i firm z
niższymi kosztami[7].
Motywem przewodnim strategii przodownictwa kosztowego jest osiągnięcie niskich kosztów
produkcji, ale należy przy tym pamiętać, aby klientom nie proponować produktów niższej jakości,
a konkurować ze swoimi rywalami. Należy pamiętać, że strategia przywództwa kosztowego powinna oferować klientom akceptowalną przez nich jakość, przy ustaleniu niskiego poziomu cen
wobec konkurentów[7].
5. Literatura
1.
2.
3.
Bartes F., Srzednicki A., 2003. Walka konkurencyjna. C. H. Beck, Warszawa, 60-61.
Bielski I., 1998. Podstawy marketingu. TNOiK Toruń.
Garbarski L., Rutkowski J., Wrzosek W., 2000. Punkt - zwrotny nowoczesnej firmy. PWE
Warszawa, 127, 128-129.
4. Gierszewska G., Romanowska M. 2002. Analiza strategiczna przedsiębiorstwa. Polskie
Wydawnictwo Ekonomiczne S. A. Warszawa.
5. Kochanowski J. 2003. Podstawy i zarządzanie marketingiem. Oficyna Wydawnicza Uniwersytetu Zielonogórskiego Zielona Góra, 145.
6. Pabian A., 2005. Marketing szkoły wyższej. Oficyna Wydawnicza ASPRA – JR Warszawa, 33.
7. Porter M. E., 1996. Strategie konkurencji. Metody analizy sektorów i konkurentów. Polskie Wydawnictwo Ekonomiczne Warszawa, 60.
8. Sznajder A., 1995. Strategie marketingowe na rynku międzynarodowym. Wydawnictwo
Naukowe PWN Warszawa.
9. Thomas M. J., 1998. Podręcznik marketingu. Wydawnictwo Naukowe PWN, Warszawa,
240-242.
10. Wrzosek W., 1998. Funkcjonowanie rynku. Polskie Wydawnictwo Ekonomiczne Warszawa, 308-310.
11. Otta W. J., 1989. Strategia konkurencyjna. Przegląd Organizacji 1.
146
Karolina Woźnicka
Strategia przodownictwa kosztowego w walce z konkurencją
STRATEGY OF LEADING COST AGAINST COMPETITION
Summary
Strategies called cost strategies lead all the company’s action on one purpose,
which is minimalization of the full cost. Cost strategies are based on the foundation
that the best competitive position get those firms which have the lowest costs. Beside distinguish strategy and concentration strategy, there is leading cost strategy,
which is one of basic three competition strategies developed in the end of the 70’s of
XX century by M. E. Porter.
Positions of the competitors and the company on the market are appointed by the
product price. The company, which offer in this vange is the most attractive for the
customer, will get the competitive superiority. In order to achieve and maintain the
permanent competitive superiority in respect of the price, the company must occupy
advantageous position in the sphere of cost.
Keywords: competition, strategy of excellence costs
Keywords: Strategy of Cost Leading, Competition
KAROLINA WOŹNICKA
ul. Ogrodowa 12
87 – 500 Rypin
Województwo kujawsko - pomorskie
e-mail: [email protected]
tel. 608 88 54 37
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
147
GRAŻYNA WÓJCIK
Ministerstwo Finansów
ZDZISŁAW SZYJEWSKI
Instytut Informatyki w Zarządzaniu, Uniwersytet Szczeciński
PRZEKSZTAŁCANIE WIEDZY UKRYTEJ W WIEDZĘ JAWNĄ
Streszczenie
Przekształcanie wiedzy ukrytej w jawną należy do jednego z najbardziej wrażliwych elementów występujących w problematyce zarządzania wiedzą ze względu na
występowanie zagrożeń interesów jednostki w organizacji. Internalizacja (uczenie
się) jest to przekształcanie wiedzy jawnej w ukrytą (wykorzystanie doświadczeń i
know-how zdobytego przez innych). Przekształcenie wiedzy jawnej w ukrytą, to
wszelkie procesy uczenia się z dokumentów, opisów, czy innych form jawnej prezentacji wiedzy. Dzięki zastosowaniu technologii informatycznych coraz więcej wiedzy
ukrytej staje się wiedzą jawną i możliwą do stosowania przez pracowników firmy w
szerszym niż dotychczas zakresie.
Słowa kluczowe: zarządzanie wiedzą, wiedza jawna, wiedza ukryta, technologia informacyjna
1. Wprowadzenie
Nowoczesna technologia informatyczna wykorzystywana jest do wspomagania procesów decyzyjnych w różnych obszarach aktywności. Dane zgromadzone na nośnikach komputerowych są
przetwarzane i wykorzystywane do wspomagania podejmowanych decyzji. Wraz z zwiększającą
się mocą obliczeniową komputerów, coraz pojemniejszymi pamięciami na nośnikach komputerowych, zwiększa się możliwość i zakres wspomagania. Dane podlegają strukturalizacji, poddawane
są coraz bardziej złożonym przekształceniom algorytmicznym, aby sprostać wzrastającym wymaganiom użytkowników.
Procedury operowania danymi pozwalają na efektywne wspomaganie prostych działań ewidencyjnych, wspomagają wybrane, najczęściej dobrze zalgorytmizowane procedury decyzyjne, ale
nie można przekroczyć pewnej granicy dostępnej dla mózgu ludzkiego, polegającej na łatwym
kojarzeniu i wartościowaniu informacji posiadanych w wyniku uczenia się i zdobywania doświadczeń życiowych. Możliwości są tym większe im więcej różnorodnych danych zostanie zgromadzonych i poddanych procesom przetwarzania w celu wypracowania najlepszej opcji decyzyjnej.
Systemy ekspertowe, doradcze ograniczają się jedynie do wspomagania procesów dobrze strukturalizowanych i algorytmizowanych. Zapisane w systemach informatycznych reguły wnioskowania
pozwalają na sugerowanie rozwiązań dla opisanych w tych systemach sytuacji. Niezależnie od
przydatności takich rozwiązań i ich zakresu jest to zawsze skończona ilość możliwości, najczęściej
mniejsza niż potrafi to zrealizować człowiek1.
1
Ciekawym przykładem takiej aktywności są zmagania szachistów z programami komputerowymi w grach człowieka z
komputerem.
148
Grażyna Wójcik, Zdzisław Szyjewski
Przekształcanie wiedzy ukrytej w wiedzę jawną
Powstające coraz to nowsze rozwiązania informatyczne wykorzystujące wiedzę z obszaru genetyki, są próbą przekroczenia tej granicy. Stale doskonalone są metody gromadzenia danych i
manipulowania danymi. Powstają coraz doskonalsze i bardziej pojemne nośniki pamięci komputerowych, pozwalające gromadzić na małej przestrzeni potężne ilości danych zapisanych w postaci
multimedialnej. Wszystkie te działania podejmowane są w celu lepszego wspomagania działania
człowieka w prowadzonych przez niego aktywnościach i chcielibyśmy przekraczać kolejne granice. Jednym ze sposobów na zwiększenie efektywności tych działań jest gromadzenie w pamięciach komputerowych i poddawanie procesom analizy nie tylko prostych danych, ale również
innych aspektów istotnych w procesach decyzyjnych. Celowe staje się gromadzenie i analizowanie
ukrytych aspektów podejmowanych decyzji.
Graficznie obrazuje to rysunek 1. Dolna część rysunku pokazuje zakres domeny sprzętu komputerowego i systemów informatycznych. Na nośnikach komputerowych mogą być gromadzone
surowe fakty, które w postaci danych zbierane są w systemach informatycznych w postaci bardziej
lub mniej ustrukturalizowanej. Dane te mogą być samodzielnymi wielkościami, ale również możemy zapisywać związki i relacje pomiędzy nimi. Kiedy danym tym nadamy kontekst, to stanowi
to informacje dla korzystających z nich ludzi. Przykładowo jeśli zapisana jest liczba 30, to nie jest
to dla nas żadna informacja, gdyż może to być numer linii tramwajowej, może to być wartość
jakiejś transakcji lub waga czegoś. W sytuacji jeśli wiemy, że jest to prognozowana temperatura
na dzisiaj, to staje się to dla nas informacją. Wynikający z tego fakt, że jest gorąco i powinniśmy
się lekko ubrać jest już wiedzą dostępną jedynie dla człowieka. Pewnym istotnym rozszerzeniem
tych danych jest powiązanie tych informacji z miejscem, czyli lokalizacja geograficzna pobrana z
systemu informacji geograficznej. Problematyka związania danych przechowywanych w bazach
komputerowych z miejscem geograficznym jest obiektem badań naukowych [1]. Wiedza ta powstaje w kontekście przetworzenia posiadanej informacji w kontekście posiadanych doświadczeń
i innej wiedzy, którą posiadamy na temat średnich temperatur w danej okolicy. Istnieje ograniczona możliwość zaszycia tak obszernej wiedzy kontekstowej w bazie wiedzy, ale zawsze będzie to
jedynie skończona ilość wnioskowań z posiadanych informacji.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
149
Rysunek 1. Wiedza – określenie
Źródło: [NONA00]
Istnieje więc granica, gdzie kończą się możliwości technologii informatycznej a zaczyna
się domena mózgu człowieka i jego sposobów wnioskowania. Granica początkowo postawiona
bardzo nisko zaczyna być przesuwana coraz wyżej wraz z zwiększającymi się możliwościami
technologii informatycznych. Wyzwaniem obecnych czasów jest próba dalszego przesunięcia
granicy pomiędzy domeną komputerów i systemów informatycznych a ludźmi. Na rysunku 1 jest
to nieostra granica pomiędzy wiedzą a informacjami, gdyż niektóre aspekty z zakresu wiedzy dają
się zaszyć w systemy informatyczne i poprzez algorytmiczne metody wnioskowania pozyskujemy
nową wiedzę. Aktualnym i istotnym problemem pozostaje przekształcanie wiedzy ukrytej w mózgu ludzkim i wykorzystywanej w procesach decyzyjnych do postaci jawnej, możliwej do zapamiętania i poddania przetwarzaniu w systemach informatycznych.
2. Postacie wiedzy i procesy jej konwersji
Nonaka I. oraz Takeuchi H. [2] postulują występowanie wiedzy w dwóch postaciach: wiedzy
ukrytej (ang. Tacit knowledge) i wiedzy jawnej, dostępnej (ang. Explicit knowledge). Odnosząc się
do poprzedniego przykładu z daną 30 zinterpretowaną jako temperatura, wiedza ukryta pozwala na
wnioskowanie z prognozowanej temperatury na wybór odpowiedniego sposobu ubrania
i zachowania się w takiej sytuacji. Jeśli w jakichś dokumentach, instrukcjach byłoby zapisane, że
w przypadku temperatury 30 stopni należy zakładać koszulę z krótkim rękawem to byłaby wiedza
jawna. Ten prosty przykład nie oddaje wszystkich złożoności i zawiłości występowania wiedzy,
ale pozwala na prostą interpretacje podziału wiedzy na ukrytą i jawną. Wiedzą jawną jest to, co
zostało w jakiś sformalizowany sposób zapisany w systemach informatycznych i może być wykorzystane w procesach decyzyjnych w sposób bezpośredni lub poprzez znane algorytmy przekształcenia.
W środowisku informatycznym mamy szansę na zetknięcie się jedynie z wiedzą jawną zapisaną w bardziej lub mniej złożonej postaci na nośnikach komputerowych [5]. Wiedza ukryta pozo-
Grażyna Wójcik, Zdzisław Szyjewski
Przekształcanie wiedzy ukrytej w wiedzę jawną
150
staje najczęściej w naszych głowach, często jest to wiedza zbiorowa powstająca w wyniku działań
zespołów.
Można zauważyć, że wiedzę nabywa się i weryfikuje na dwa zasadnicze sposoby:
•
Poprzez osobiste obserwacje, przemyślenia i indywidualnie przeprowadzane eksperymenty. W ten sposób nabywa się osobistej wiedzy faktograficznej. Taka wiedza, jakkolwiek
wydaje się najbardziej pewna, posiada dość znaczne ryzyko niepewności i błędu, ze
względu na swoją jednostkowość, niekompletność, możliwość poddania się iluzji lub autosugestii.
• Poprzez przekaz od innych ludzi, czyli słuchanie innych ludzi, czytanie książek, przekaz
radiowy, telewizyjny itp. Sam fakt, że nabyliśmy wiedzę poprzez przekaz jeszcze nie decyduje czy jest ona prawdziwa. Możemy być bowiem poddani świadomej lub nieświadomej manipulacji. Stąd wiedzę tę zwykle weryfikuje się poprzez zestawianie jej z własną wiedzą osobistą i/lub innymi źródłami wiedzy przekazywanej. Źródło wiedzy przekazywanej, które dana osoba uważa z dowolnych powodów za szczególnie wiarygodne nazywa się autorytetem. Autorytetem może być nie tylko konkretny człowiek, ale też określona książka lub instytucja. Siła oddziaływania autorytetu może być na tyle duża, że dana osoba przyjmuje wiedzę autorytetu za prawdę, nawet wbrew dotychczas zdobytej wiedzy osobistej.
Podział na wiedzę faktyczną i rozumową wynika z kolei z jej stosunku do faktów:
• Wiedza faktyczna, nazywana też często pierwotną jest tylko zbiorem faktów i niczym
więcej. Wiedza taka stanowi podstawową bazę dla innych rodzajów wiedzy, ale sama
w sobie jest właściwie nieprzydatna.
• Wiedza rozumowa pochodzi z procesu rozumowania. Proces ten może obejmować analizę faktów, ale może również być rozumowaniem czystym, czyli całkowicie ignorującym
wiedzę faktyczną. Zagadnienie poprawnego budowania wiedzy wtórnej z wiedzy pierwotnej, oraz wiarygodność wiedzy wtórnej pochodzącej z czystego rozumowania jest
jednym z podstawowych zagadnień filozoficznych.
Powstaje problem, jaki jest stosunek wiedzy jawnej do ukrytej? Czy jest możliwość przekształcenia wiedzy ukrytej w jawną? Jak można wreszcie zarządzać wiedzą z wykorzystaniem
technologii informatycznych? Te pytania stają obecnie przed informatykami próbującymi przesuwać granicę nakreśloną na rysunku 1 pomiędzy wspomaganiem informatycznym zapisanych informacji a wiedzą wykorzystywaną w aktywności ludzkiej.
Rysunek 2 obrazuje procesy konwersji wiedzy. Procesy przedstawione w postaci kwadratu
przez profesora Nonaki, obrazują cztery sposoby konwersji wiedzy.
Socjalizacja jest przekształcaniem wiedzy ukrytej w wiedzę ukrytą. Następuje to poprzez
dzielenie się wiedzą ukrytą (wewnętrzną) w czasie wykonywania wspólnych czynności przez
członków organizacji. Typowym przykładem jest znany powszechnie sposób praktyk zawodowych, gdzie osoba uczestnicząca w jakichś procesach zdobywa nowe umiejętności, jakie posiada
mistrz wykonujący te czynności, czyli posiadający wiedzę ukrytą. Rzemiosło w ten sposób zdobywało następne kadry do podtrzymywania realizowanych aktywności gospodarczych. Konwersja
wiedzy ukrytej w wiedzę ukrytą realizowana jest wszystkimi zmysłami dostępnymi człowiekowi i
nie można tego ani zautomatyzować ani opisać, czy w jakikolwiek inny sposób przekazać
z wykorzystaniem technologii informatycznej.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
151
Rysunek 2. Procesy konwersji
Źródło: [NONA00]
Eksternalizacja (uzewnętrznianie) jest działaniem mającym na celu przekształcenie wiedzy
ukrytej w wiedzę jawną. Polega to na wyrażaniu wiedzy ukrytej w publicznie dostępnej
i przyswajalnej postaci. Może to być zapis słowny opisujący jakieś określone działanie znane tylko
posiadaczowi wiedzy ukrytej. Szczególnym przypadkiem może to być rysunek, czy zapis dźwiękowy. Tworzenie instrukcji postępowania w określonej sytuacji, czy obsługi jakiegoś urządzenia
jest takim procesem. Wytworzenie dokumentacji czy szczegółowego opisu czy też oprogramowanie różnych postaci pomocy (helpów) w systemach informatycznych jest przekształcaniem wiedzy
ukrytej, autorów rozwiązania informatycznego w wiedzę jawną wykorzystywaną przez użytkowników tego rozwiązania informatycznego.
Kombinacja, klasyfikowanie jest przekształcaniem wiedzy jawnej w inną postać wiedzy jawnej. Realizowane jest to poprzez komunikację, rozpowszechnianie, systematyzację wiedzy jawnej.
Tworzenie zestawień, klasyfikacji, porównań, tabel jest takim działaniem, które pozwala wiedzę
opisaną zestawić z inną wiedzą opisaną, co daje nową wiedzę, która może być wykorzystana w
nowych obszarach. Ten sposób konwersji wiedzy jest najlepiej wspomagany przez technologię
informatyczną, gdyż wykorzystywana jest szybkość działania komputerów w dostępie do skodyfikowanej wiedzy jawnej i wyprowadzona jest nowa wiedza jawna w postaci wyników działania
systemu informatycznego. Typowym przykładem takiego sposobu działania są wszelkiego typu
systemy wyszukiwacze, od prostych wyszukiwań do złożonych wyszukiwań połączonych z mechanizmami wnioskowania.
Grażyna Wójcik, Zdzisław Szyjewski
Przekształcanie wiedzy ukrytej w wiedzę jawną
152
Internalizacja (uczenie się) jest to przekształcanie wiedzy jawnej w ukrytą (wykorzystanie doświadczeń i know-how zdobytego przez innych). Przekształcenie wiedzy jawnej w ukrytą, to
wszelkie procesy uczenia się z dokumentów, opisów, czy innych form jawnej prezentacji wiedzy.
Powstała w wyniku uczenia się wiedza może zostać spożytkowana w prosty sposób poprzez zwykłe odtworzenie lub wzbogacona o inwencje i posiadaną już wiedzę ukrytą.
Opisane sposoby konwersji wiedzy mogą być wykonywane indywidualnie, czyli mamy
do czynienia z zarządzaniem wiedzą przez pojedynczych użytkowników systemów informatycznych lub jest to realizowane w organizacjach gospodarczych. Szczególnie konwersja wiedzy organizacji jest obiektem zainteresowań z uwagi na silną konkurencję rynkową i stałe dążenie do doskonalenia organizacji. Wykorzystanie w tych procesach technologii informatycznych jest wielkim
wyzwaniem dla informatyków. Dostępna technologia informatyczna i rozwój zastosowań informatyki pozwalają na efektywne wspomaganie tych procesów. Powstaje problem jak przekształcić
wiedzę ukrytą w firmie i jej pracownikach w wiedzę jawną, która może być wykorzystana w procesach realizowanych w danej firmie.
3. Zarządzanie konfiguracją systemów informatycznych w Ministerstwie Finansów (MF)
Zarządzanie konfiguracją jest procesem zarządzania, który ma zapewnić i utrzymać zgodność
funkcjonalnych i fizycznych elementów produktu z jego wymaganiami, projektem i informacjami
operacyjnymi. Ma ono miejsce w czasie istnienia Projektu.
Konfiguracja składa się ze wszystkich elementów wymaganych do skutecznego opracowania i
korzystania z systemu. Elementy te obejmują sprzęt, oprogramowanie, urządzenia, produkty związane z organizacyjną zmianą pracy, dokumentację. Zarządzanie zmianami w ramach systemu
dokonuje się przez zarządzanie zmianami w ramach tych elementów.
Zarządzanie konfiguracją dotyczy procedur, których celem jest zapewnienie, że elementy
wchodzące w skład systemu są znane oraz że zmiany są dokonywane przez osoby uprawnione.
Zarządzanie konfiguracją jest zarówno zarządzaniem, jak i dyscypliną techniczną, która obejmuje
niemal wszystkie osoby w Projekcie, albo w sposób aktywny, jako wykonawców czynności związanych z zarządzaniem konfiguracją, albo pasywnie, jako otrzymujących informacje związane z
zarządzaniem konfiguracją.
Istotą zarządzania konfiguracją jest kontrola – ustalenie, co powinno być przedmiotem kontroli, kontrolowanie tego przez zarządzanie zmianą i funkcje kontroli konfiguracji, i wreszcie, zapewnienie, że procesy kontroli są przeprowadzane skutecznie.
Zarządzanie konfiguracją obejmuje pojęcia wymienione poniżej:
•
Elementy poddane zarządzaniu konfiguracją – Elementy, które są bezpośrednio objęte
przez system zarządzania konfiguracją i tym samym są częścią linii bazowych. Do tych
elementów stosują się wszystkie aspekty zarządzania konfiguracją. Tymi elementami są:
1. Elementy dostaw; na wszystkich poziomach, od elementów konfiguracji
aż do jednostek konfiguracji.
2. Odnośne dokumenty – Dokumenty, które definiują elementy i komponenty konfiguracji, takie jak wynegocjowane porozumienia, specyfikacje, wykresy, rysunki, kod oraz
Wnioski Zmian.
3. Sprzęt i oprogramowanie "z półki".
4. Oprogramowanie rozwijane w ramach Projektu.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
153
•
Dokumentacja dotycząca projektu, która nie zawiera się w liniach bazowych, również
musi być zarządzana i kontrolowana. Te działania mają zapewnić, że zmiany dokonywane są w sposób zorganizowany oraz że wersja bieżąca jest zawsze znana i dostępna.
Przykładami takich dokumentacji są Plan Jakości Projektu, plany projektu, standardy, itp.
• Repozytoria – jedno lub więcej repozytoriów z kontrolą właściwego dostępu oraz procedurami dla tworzenia wersji zapasowych oraz odtwarzania danych.
• Kontrola Wersji i Kontrola Budowy – Kontrola wersji zapewnia jednoznaczną identyfikację każdej wersji elementu konfiguracji i możliwość ponownego utworzenia jakiejkolwiek wersji. Kontrola budowy określa ważne kombinacje wersji komponentów.
• Linie Bazowe – Są to zbiory określonych wersji elementów. Te zbiory są punktami odniesienia dla następującego potem zarządzania zmianami.
• Kontrole Zmian – Są to kontrole, które zapewniają, że bez autoryzacji system nie odbiega
od swoich linii bazowych oraz że system obejmuje wszystkie autoryzowane zmiany.
Przeglądy zmian i proces akceptacji nie powinny być sztucznie biurokratyczne.
• Kontrole Konfiguracji – Są to okresowe weryfikacje, czy zarządzanie konfiguracją dokonuje się prawidłowo.
Zarządzanie konfiguracją obejmuje czynności związane z kontrolą archiwum Projektu.
Ta kontrola zapewnia, że wersje są przechowywane, że historie zmian są utrzymywane, że bieżące
wersje są ogólnie dostępne, oraz że nieaktualne wersje są oznaczone jako nieaktualne.
Raportowanie statusu konfiguracji odpowiada na następujące pytania: co się stało?, kto to
zrobił?, kiedy to się stało?, na co będzie to miało wpływ?
W jego skład wchodzą następujące zadania:
Śledzenie zmian stanu konfiguracji.
Dokumentowanie zmian stanu konfiguracji.
Przegląd konfiguracji ocenia elementy konfiguracji pod kątem cech charakterystycznych
zwykle niebranych pod uwagę podczas przeglądu technicznego. Przegląd zadaje następujące pytania i udziela na nie odpowiedzi:
• Jaki jest stan realizacji poszczególnych Wniosków Zmian?
• Czy są przeprowadzane przeglądy nowo powstających elementów konfiguracji?
• Czy standardy są przestrzegane?
• Czy dokumentacja konfiguracji jest zgodna ze stanem faktycznym?
Dokumentacja Projektu składa się z części elektronicznej oraz części papierowej. Administrowanie dokumentacją elektroniczną oraz papierową jest koordynowane przez Kierownika Projektu.
Wskazane jest, aby dane Projektu były przechowywane elektronicznie na serwerze plików.
Elektroniczne archiwum projektu obejmuje również płytotekę CD, zawierającą kopie dostaw
w formie CD, oprogramowanie narzędziowe oraz inne dokumenty przekazywane na CD.
Wszelkie oprogramowanie wyprodukowane w ramach Projektu powinno być zarządzane
za pomocą narzędzia zarządzania konfiguracją (np. Microsoft Source Safe). Wszystkie wersje
oprogramowania powinny być dostępne.
Zarządzanie konfiguracją projektów informatycznych w MF wg metodyki PRINCE 2
Grażyna Wójcik, Zdzisław Szyjewski
Przekształcanie wiedzy ukrytej w wiedzę jawną
154
Zarządzanie konfiguracją dostarcza techniki i procedury do wypełniania następujących funkcji:
identyfikowanie poszczególnych elementów podlegających zarządzaniu, zwanych elementami konfiguracji,
rejestrowanie, monitorowanie i raportowanie aktualnego stanu każdego elementu konfiguracji w miarę postępu jego rozwoju w określonym dla niego cyklu rozwoju,
wypełnianie wszelkiej dokumentacji produktu, tworzonej w ciągu „życia” elementów konfiguracji w projekcie,
dystrybuowanie kopii dokumentacji projektowej wszystkich elementów konfiguracji oraz
rejestrowanie posiadaczy kopii,
zarządzanie zagadnieniami projektowymi zgłoszonymi podczas realizacji projektu,
zarządzanie zmianami dotyczącymi wszystkich elementów konfiguracji, od otrzymania
zgłoszenia zagadnienia projektowego, poprzez ocenę skutków proponowanych zmian,
aż do przekazania dokumentacji i samego produktu.
Konfiguracja jest to logicznie powiązany zbiór produktów, które powinny być zarządzane jako jeden złożony zestaw. Konfigurację podlegającą zarządzaniu można określić zatem, jako
sumę całego stosowanego wyposażenia, instrukcji, informacji i dokumentacji, które wspólnie
reprezentują całość produktów lub produktów cząstkowych projektu.
Sugerowana struktura gromadzenia dokumentacji według metodyki PRINCE 2
Tabela. 1. Sugerowana struktura gromadzenia dokumentów wg metodyki PRINCE 2 (Źr. [3])
DOKUMENTACJA
Dokumentacja zarządcza
Teczka projektu
Organizacja
Plany
Uzasadnienie
biznesowe
Rejestr ryzyka
Dokumenty
dotyczące sterowania
Lista kontrolna
produktów
Zagadnienia
projektowe
Rejestr zagadnień projektowych
Rejestr nauczek
z projektu
Dokumentacja
specjalistyczna
Teczka (-i) etapu (ów)
Organizacja
Raport końcowy etapu
Plany etapu
zarządczego
Raporty o odchyleniach
Plany naprawcze
Dokumenty
sterowania
Dziennik
Korespondencja
Lista kontrolna
produktów
Teczka jakości
Plan jakości
projektu
Zapisy konfiguracji
Produkty przeglądów jakości
Rejestr jakości
Charakterystyki
produktów
Zagadnienia
projektowe
Rejestr zagadnień realizacyjnych
Dokumenty
dotyczące produktów
Korespondencja
specjalistyczna
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
155
Zarządzanie konfiguracją jest funkcją usługową, pomagającą w zwiększaniu efektywności działań
specjalistycznych i zarządczych. Skuteczność procesów zarządzania konfiguracją rośnie proporcjonalnie do stopnia, w jakim dyscyplina jest częścią codziennych działań wszystkich osób zaangażowanych w projekt.
Zarządzanie konfiguracją projektów informatycznych w MF wg metodyki MaXXIme
Zarządzanie konfiguracją jest zabezpieczeniem, że składniki systemów są znane, że zmiany są
autoryzowane i że dokumentacja dokładnie opisuje system. Zarządzanie konfiguracją jest zarówno
zarządzaniem, jak i techniczną obsługą powiązanych ze sobą w projekcie osób, albo czynnie powiązanych z zarządzaniem konfiguracją – jak wykonawcy, albo biernie – jak odbiorcy.
Istotą zarządzania konfiguracją jest kontrola – po określeniu, jakie elementy powinny być
kontrolowane, kontrolując te elementy przez zmianę zarządzania i kontrolę funkcjonalną konfiguracji, tworzy się okresowe raporty, które pokazują stan elementów pod kontrolą, a w efekcie końcowym dają pewność, że kontrola jest skuteczna.
Zarządzanie konfiguracją utrzymuje i pokrywa się z działalnością odnoszącą się
do dokumentacji i kontroli danych, która zapewnia, że wersje są archiwizowane, że zmiany historyczne są przechowywane, że aktualne wersje są rozsyłane do wszystkich miejsc użytkowania
systemu i że przestarzałe wersje są usuwane z miejsc użytkowania systemu.
156
Grażyna Wójcik, Zdzisław Szyjewski
Przekształcanie wiedzy ukrytej w wiedzę jawną
Rysunek. 3. Zarządzanie konfiguracją wg metodyki MaXXIme (źr. [4])
Efektywne zarządzanie konfiguracją zapobiega sytuacjom, w których ostatnio dostarczone
wersje lub dokumenty są nieznane albo niejasne.
Zarządzanie konfiguracją kontroluje zabezpieczenie ważnych wskaźników dostaw i ryzyka
zarządzania danymi. Na przykład:
Liczba i wielkość składników są ostro sprawdzane przy śledzeniu rozwoju implementacji.
Wskaźniki i trendy zgłoszonych problemów, zatwierdzenie zmian i kontrola części nadrzędnych dają wgląd do stabilności systemu.
Typy zgłoszonych problemów i powiększenia wymagań dają wgląd do terminów płatności.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
157
Nie zaplanowana wysoka albo niska koncentracja zgłoszonych problemów flag składników, które mogą wymagać zmian w źródłach lub dostępie danych.
W systemach informatycznych przechowywane są dane. Odpowiednio przetworzone dane stają się informacją. Z kolei przetworzona informacja staje się wiedzą. A więc z surowych danych
możemy uzyskać informacje, wreszcie z informacji, poprzez wykorzystanie ludzkiego doświadczenia i intuicji możemy otrzymać wiedzę.
Przy odpowiednim zorganizowaniu struktury organizacyjnej, wyznaczeniu wspólnych repozytoriów, miejsc składowania i przetwarzania informacji o wykonywanych projektach, zdecydowanie zmniejsza się ryzyko ponownego odkrywania Ameryki. Dużą pomoc w tej sytuacji mogą stanowić korporacyjne portale zarządzania wiedzą, integrujące systemy składowania dokumentów,
zarządzania procesem publikacji (w tym zatwierdzania nowych dokumentów przez osoby znające
ogólnie sytuację we wszystkich projektach – w celu uniknięcia duplikowania się zadań), komunikacyjne i inne. Produktów, które oferują takie możliwości, lub mogą być w prosty sposób przystosowane do wypełnienia powyższych zadań jest wiele. Są to produkty zarówno darmowe (oparte na
licencjach GPL) jak również i komercyjne (np. system SharePoint Portal Server).
4. Podsumowanie
Wykorzystanie technologii informatycznych a w szczególności technologii internetowej
otwiera zupełnie nowe możliwości wynikające z globalizacji i nowych kanałów informacyjnych.
Podnoszenie poziomu wiedzy jawnej wśród pracowników, zamiana rozproszonej wiedzy jawnej
na skodyfikowaną wiedzę jawną w połączeniu z zaszyciem jej w systemy informatyczne daje
nowe efekty. Szerokie stosowanie wiedzy jawnej i ukrytej w połączeniu z metodami wyzwalania
inwencji pracowników pozwala na uzyskiwanie przewagi konkurencyjnej.
Obszary wykorzystywania wiedzy są ściśle związane z możliwościami technologii. Nowoczesne technologie komunikacyjne a w szczególności Internet i techniki multimedialne pozwalają na
realizacje zadań wcześniej nieosiągalnych. Szybkość komputerów, duże zasoby pamięciowe pozwalające na zapamiętanie masywu danych, stwarzają nowe szanse biznesowe. Metody szybkiego
wyszukiwania w komputerowych bazach danych, pozwalają na stosowanie efektywnych metod
wnioskowania. Dzięki zastosowaniu technologii informatycznych coraz więcej wiedzy ukrytej
staje się wiedzą jawną i możliwą do stosowania przez pracowników firmy w szerszym niż dotychczas zakresie. Sprawne metody zarządzania wiedzą jawną zwiększają konkurencyjność organizacji
i gwarantują jej przewagę konkurencyjną na rynku.
5. Spis literatury
1.
2.
3.
4.
Laska M., 2005. Zastosowanie systemów informacji przestrzennej w zarządzaniu przedsiębiorstwem. Praca doktorska, Akademia Ekonomiczna we Wrocławiu Wrocław.
Nonaka I., Takeuchi H., 2000. Kreowanie Wiedzy w Organizacji. Polska Fundacja Promocji Kadr Warszawa.
Bradley K. 2002. Podstawy Metodyki PRINCE 2. Wydawca wydania polskiego: Centrum
Rozwiązań Menedżerskich S.A. Warszawa.
The Project Support Office (PSO) of Unit A1 (Information Technology) of Directorate–
General XXI (Customs and Indirect Taxation) MaXXIme Version 2.0, 2002. System Development Techniques Configuration Management. PSO MDB Brussels Belgium.
Grażyna Wójcik, Zdzisław Szyjewski
Przekształcanie wiedzy ukrytej w wiedzę jawną
158
5.
6.
7.
Szyjewski Z., 2005. Zarządzanie wiedzą jawną w Problemy zarządzania 1(7) Informatyka w zarządzaniu, Wydział Zarządzania Uniwersytetu Warszawskiego, Warszawa.
Szyjewski Z., 2004. Metodyki Zarządzania Projektami Informatycznymi. Wydawnictwo
Placet Warszawa.
Szyjewski Z., 2001. Zarządzanie Projektami Informatycznymi. Metodyka Tworzenia Systemów Informatycznych. Czynniki Sukcesu Wymiarowanie Projektu, Agencja Wydawnicza Placet Warszawa.
TRANSFORMATION OF IMPLICIT KNOWLEDGE INTO EXPLICIT KNOWLEDGE
Summary
Transformation of implicit knowledge into explicit one belongs to a one of the
most sensitive elements occurring in Knowledge Management Problems because of
occurrence of threats of personal interest in organization. Internalization (selflearning) is a transformation of explicit knowledge to implicit one (a usage of experiences and know-how got by others). A transformation of explicit knowledge into
implicit one include all processes of learning from documents, descriptions or other
forms of explicit presentation of knowledge. Thanks application of Information
Technology more and more implicit knowledge becomes explicit knowledge, so its’
wider application is more possible by workers of enterprise than up to now.
Keywords: Knowledge Management, Explicit Knowledge, Implicit Knowledge, Information
Technology
GRAŻYNA WÓJCIK
Ministerstwo Finansów
00-916 Warszawa, ul. Świętokrzyska 12
[email protected]
ZDZISŁAW SZYJEWSKI
Instytut Informatyki w Zarządzaniu, Uniwersytet Szczeciński
71-101 Szczecin, ul. Mickiewicza 64
[email protected]. szczecin.pl
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
159
ZYGMUNT ZYGMUNTOWICZ
Akademia Techniczno-Rolnicza w Bydgoszczy
TWORZENIE BAZ WIEDZY DLA WYCENY DÓBR NIERYNKOWYCH
W ASPEKCIE OKREŚLANIA WARTOŚCI RYNKOWEJ NIERUCHOMOŚCI
Streszczenie
Gospodarowanie przestrzenią jako dobrem rzadkim winno być połączone z realizacją ekopolityki. Wartość rynkowa stanowi jedną z najważniejszych przejawów
wartości. Rozważania ograniczono do dóbr ekonomicznych, czyli takich, które występują w ograniczonej ilości w odróżnieniu od dóbr nierynkowych. Czynniki materialne są istotne, ale mogą zostać zdeterminowane przez wpływ czynników pozostałych (nierynkowych). Wartość zmienia się, gdy czynniki determinujące jej poziom
ulegają zmianie. W zaproponowanym artykule przedstawiono próbę zmian w metodyce określania wartości rynkowej nieruchomości poprzez rozszerzenie jej o wpływy
oddziaływania na wartość dóbr nierynkowych.
Oddziaływania te wnoszą nowe elementy i zmieniają istniejące w nim współzależności oraz bazę wiedzy w tym zakresie. Tworzą jej nową jakość, która wymaga
nowego zarządzania i wyceny dóbr środowiska.
Słowa Kluczowe: bazy danych, metodyka wyceny nieruchomości, wartość rynkowa, wartość dóbr
nierynkowych
1. Wprowadzenie
Problematyka wyceny wartości nieruchomości (podobnie jak i wyceny przedsiębiorstw) w
krajach o gospodarce rynkowej jest zaliczana do „królewskich dyscyplin” wśród nauk ekonomicznych. Potrzeba wyceny nieruchomości pojawia się w wielu przypadkach, takich jak: transakcje
kupna - sprzedaży, darowizny, postępowanie spadkowe, odszkodowawcze, fuzje i podział majątku, emisja papierów wartościowych, zmiany w stanie zasobów majątkowych itp. Zapotrzebowanie
na wycenę nieruchomości wynika zarówno z funkcji właścicielskich, zarządczych, jak i kontrolnych. Rośnie w miarę nasilania się zjawiska oderwania własności nieruchomości od użytkownika,
zarządzania i kontroli oraz pojawiania się nowych form inwestowania.
Wzrost roli wyceny nieruchomości i wiedzy na ten temat wynika ze zmian ustrojowych w
Polsce i przejścia na model gospodarki rynkowej. Wycena nieruchomości jest dokonywana przy
wykorzystaniu określonych w praktyce narzędzi ekonomicznych.
Mimo to, wiele zagadnień w procesie wyceny nieruchomości budzi emocje i kontrowersje.
Kontrowersje występują nawet w krajach o długich tradycjach rynkowych i bogatym doświadczeniu w zakresie wycen, a przy tym dysponujących rozwiniętym rynku kapitałowym. Wynika to
zarówno ze złożoności tej problematyki, jak i specyfiki kategorii nieruchomości. Złożoność ta
sprawia, że nie może być mowy o jednej, jedynie słusznej wycenie nieruchomości. O wartości
nieruchomości decydują bowiem nie tylko jej cechy materialne, ale także zdolność do generowania dochodów, co z kolei wiąże się z otoczeniem rynkowym. Wartość nieruchomości jako podstawy sporządzania prognozy skutków finansowych uchwalanych planów miejscowych może odby-
160
Zygmunt Zygmuntowicz
Tworzenie baz wiedzy dla wyceny dóbr nierynkowych
w aspekcie określania wartości rynkowej nieruchomości
wać się w oparciu o analizę rynku nieruchomości przy wykorzystaniu ogólnych założeń podejść,
metod i technik znanych w teorii wyceny. Ponieważ przedmiotem szacowania dla tych celów będą
nieruchomości, zatem znane metody wymagają ich dostosowania, a pewne pojęcia usystematyzowania.
Zachodzi potrzeba doskonalenia metodyki określania wartości rynkowej nieruchomości poprzez kreowanie, doskonalenie umiejętności, poszerzanie bazy wiedzy powiązanej z oszacowaniem wartości dóbr środowiskowych.
2. Dobra nierynkowe a środowisko
Gospodarowanie przestrzenią jako dobrem rzadkim winno być połączone z realizacją ekopolityki. Zasadność ekopolityki jest dość powszechnie uznawana, jednakże praktyczna realizacja zasad napotyka wiele trudności. Należą do nich przede wszystkim ograniczone zasoby gospodarcze.
Realizacja ekopolityki wpływa na postulaty do planu przestrzennego zagospodarowania oraz powiązania z szeroko pojmowaną racjonalnością społeczno – gospodarczą. Uspołecznienie planowania przestrzennego winno zmuszać do zapewnienia ludziom przynajmniej minimalnej przestrzeni
jednostkowej oraz szerokiego dostępu do przestrzeni publicznej. Wiadomo, że środowisko nie
istnieje poza przestrzenią. Rzadkość dóbr środowiskowych oznacza, że użytkownicy muszą o nie
konkurować.
Elementy środowiska są współzależnie powiązane złożoną siecią wzajemnych oddziaływań.
Zasoby środowiska pełnią trzy funkcje: podtrzymują ekosystemy, są ujemnymi nakładami w procesach produkcyjnych (odbiornikami zanieczyszczeń), dostarczają dóbr i usług, które są bezpośrednio konsumowane (czyste powietrze do oddychania, woda na użytek gospodarstw, pozyskiwanie drewna w lasach, możliwość rekreacji na naturalnych obszarach itp.). Funkcje te wraz z
innymi dobrami i usługami ekonomicznymi wpływają bezpośrednio lub pośrednio, w sposób negatywny lub pozytywny, na dobrobyt społeczny. Funkcje środowiska, a także zasoby, które je
pełnią są dobrami lub usługami ekonomicznymi, ponieważ w nowoczesnym społeczeństwie nie są
one dobrami wolnymi. Dostarczanie, utrzymanie i zachowanie tych dóbr oznacza rezygnację z
produkcji jakichś alternatywnych dóbr i usług. Dobra i usługi środowiska nie wiążą się z transakcjami rynkowymi i nie istnieją dla nich rynkowo określone miary wartości (ceny). Stąd w teorii
ekonomii takie dobra nazywane są dobrami nierynkowymi oraz dobrami publicznymi. Rynkowe
metody wyceny korzyści dzieli się na dwie grupy: metody oparte na obserwacji, tj. pośrednie oraz
na metody hipotetyczne, tj. bezpośrednie. Metody pośrednie służą do określania ukrytej wartości
dóbr nierynkowych na podstawie obserwowanych i determinowanych przez rynek cen dóbr i usług
rynkowych. Należą tu metody: kosztów podróży, cen hedonicznych, płac hedonicznych, kosztów
choroby, funkcji produkcji gospodarstwa domowego, funkcji produkcji zdrowia. Metody bezpośrednie służą do szacowania wartości oraz popytu na usługi środowiska.
Świadomość ekologiczna decyduje o wartościowaniu przez człowieka świata przyrody,
kształtuje myślenie ekologiczne i tzw. moralny charakter rozwoju ekonomicznego, który jest
zgodny z zasadami dobra wspólnego, odpowiedzialności i solidarności, w którym stosuje się metody i instrumenty łagodzące napięcia między ekonomią a zachowaniem zdrowego środowiska,
przemieniając je we współdziałanie.
Moralny charakter rozwoju wymaga innego spojrzenia na zjawiska i procesy gospodarcze.
Nie mogą one i nie powinny być sprowadzone do rozwoju dynamiki fizycznej strony procesu
reprodukcji, lecz wzbogacania jakości życia obecnych i przyszłych pokoleń. Koncepcja rozwoju
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
161
musi więc mieć charakter wielowymiarowy: programować zmiany w gospodarce, spełniając wymogi innowacyjności. Ekonomiczne aspekty określenia wartości rynkowej nieruchomości budzą
kontrowersje. Mimo, że posługują się one skomplikowanymi podejściami, metodami i technikami
wyceny – z modelami komputerowymi i specjalnymi matrycami do badań – coraz mniej można
powiedzieć o tym, jaka naprawdę jest wartość rynkowa nieruchomości w chwili obecnej.
Oznacza to, że powinno się dostosowywać strategię wyceny do lokalnych potrzeb z zachowaniem lokalnego rynku nieruchomości. Życie jest w coraz większym stopniu warunkowane przez
wydarzenia globalne. Globalną współzależność trafnie oddaje określenie: what happens there
matters here (co się dzieje tam, ma znaczenie tutaj). Podobnie jest w gospodarce, procesy wyceny
wnoszą do niej nowe elementy i zmieniają istniejące w niej współzależności. Tworzy się jej nowa
jakość, która wymaga nowego zarządzania i wyceny dóbr środowiska. Jest wysoce nieprawdopodobne, aby za pomocą praktycznych rachunków, dokonywania kalkulacji obserwowanych strat
wykonywanych często dyskusyjnych wskaźników, można było pokusić się o wyrażenie w pieniądzu wartości nienaruszonego ekosystemu, wycenić wyjątkowo piękny krajobraz lub biologiczną
różnorodność rzadkiego gatunku. Dlatego też metody bezpośredniej wyceny środowiska, przede
wszystkim metoda wyceny warunkowej, mają ogromne znaczenie dla rozwoju badań nad wyceną
dóbr środowiska. Zasoby te obejmują powietrze, śródlądowe wody powierzchniowe i podziemne,
lasy, unikatowe krajobrazy, naturalne bagna itp.
Wydaje się uzasadnione aby tworzyć dziedzinowe bazy wiedzy gromadzące opracowane wyceny oraz kryteria decydujące o przyznaniu określonego poziomu wartości tego typu dóbr.
3. Metody wyceny dóbr nierynkowych
Jeden z dość akceptowanych podziałów metod wyceny korzyści dzieli je na metody oparte na
obserwacji, tj. pośrednie, i na hipoteczne, bezpośrednie metody wyceny. Za pomocą metod z
pierwszej grupy można w sposób pośredni wnioskować o ukrytej wartości dóbr nierynkowych na
podstawie obserwowalnych, determinowanych przez rynek cen dóbr rynkowych. Druga grupa
metod z kolei jest nastawiona na szacowanie wartości oraz popytu na usługi środowiska w sposób
bezpośredni, poprzez wywiady z konsumentami, przy czym w celu zdobycia informacji o wycenie
od osób czy gospodarstw domowych stosuje się kwestionariusze.
Ekonomiści mają tendencję do zawierzania bardziej wycenie dostarczanej przez rynek, a konkretnie cenom wynikającym z zależności pomiędzy zdecentralizowanymi siłami podaży i popytu.
Przy braku interwencji rządu takie ceny zdeterminowane przez rynek są uważane za obiektywne i
realne w tym sensie, że są odbiciem prawdziwej wyceny konsumentów. Co prawda popyt, a więc i
ceny rynkowe są także poddawane manipulacji przez zainteresowane podmioty np. za pomocą
wszelkiego rodzaju reklam i dlatego niekoniecznie wyrażają preferencje konsumentów. Preferencje te nie są jednak ujawniane w sztucznych warunkach, tak jak ma to miejsce w przypadku niektórych podejść bezpośrednich stosowanych przy wycenie usług środowiska. Podejście opierające
się na obserwacji, inaczej – pośrednie, zakłada, że istnieje konkretny związek pomiędzy popytem
na dobro a podażą dobra środowiskowego. Konsumpcja dóbr rynkowych ma być w jakiś sposób
powiązana z poziomem podaży dóbr środowiskowych. Wychodząc z tego założenia, wartość dobra nierynkowego otrzymuje się przez zebranie danych o tym, jak zmienia się popyt na dobro
rynkowe przy zmianach w dostępności (jakości) dóbr środowiska. Na przykład: jakość powietrza
lub hałas mogą wpływać na ceny nieruchomości. Oczekuje się, że lepsza jakość powietrza lub
mniejszy hałas będą połączone z wyższymi cenami posiadłości w czystszej czy spokojniejszej
162
Zygmunt Zygmuntowicz
Tworzenie baz wiedzy dla wyceny dóbr nierynkowych
w aspekcie określania wartości rynkowej nieruchomości
okolicy. Wpływ zanieczyszczenia na zdrowie może oddziaływać na popyt na usługi medyczne
(np. wizyty lekarskie, zakup leków, hospitalizację). Skala i kierunek dających się zaobserwować
zmian w popycie pozwalają ekonomistom, przy zastosowaniu różnych technik ekonometrycznych,
na oszacowanie wartości dla dóbr środowiskowych. Zapotrzebowanie na dobro będzie wyższe
niezależnie od ceny, gdyż lepsza jakość wywołuje dodatkowy popyt na dobro. W artykule zaprezentowano przegląd (ale bez szczegółów technicznych) głównych metod pośrednich stosowanych
w celu ustalenia cen szkód wywołanych degradacją środowiska (lub wręcz przeciwnie, w celu
wyceny korzyści wynikających ze wzrostu jakości usług lub dobra środowiska). Poza tym, ze
względu na związek z powyższym zagadnieniem, przedstawione są tu także niektóre z metod
stosowanych do wyceny redukcji ryzyka śmiertelności (często określane jako wartość ludzkiego
życia lub wartość długowieczności), związanej z poprawą jakości środowiska.
W związku z brakiem możliwości ustalenia rynkowej ceny środowiska, jego wartość może
być określona na podstawie dóbr zastępczych, którymi są wartość nieruchomości oraz praca człowieka. Metoda polega na obserwowaniu różnic cen nieruchomości między regionami i określeniu
wpływu jakości środowiska na ich kształtowanie się.
Zależność pomiędzy cennością ekologiczną dóbr nierynkowych a wartością ekonomiczną
rozpatrywać można w sytuacjach:
- gdy nie są zgodne co do wzrostu (wzrost wartości jednej z nich powoduje spadek wartości
drugiej),
- gdy są zgodne co do wzrostu (wartość jednej z nich powoduje wzrost wartości drugiej).
Ustalenie zależności pomiędzy wartością nieruchomości a zmiennymi charakteryzującymi jakość środowiska jest tylko częścią czynności do ustalenia ceny.
Istnieje wiele przyczyn wpływających na wartość budynków i gruntów. Stosując metody statystyczne, możemy spośród wielu zmiennych wyodrębnić tę jedną, która wskaże nam, jaki jest
wpływ warunków środowiska na nieruchomości. Przyjmując pewne dodatkowe założenia, cenę tę
możemy traktować jako miarę wartości, którą ludzie gotowi są płacić za jakość środowiska.
4. Wpływ czynników infrastruktury ekologicznej na wartość rynkową nieruchomości
Okazuje się, że na wartość nieruchomości wpływają czynniki wykraczające poza cechy samej
nieruchomości. Czynniki prawne, ekonomiczne i środowiskowe tworzą tło wyceny, które mogą
zdecydować o poziomie wartości.
Na gruncie ekonomii „wartość” stanowi jedną z najważniejszych, ale i najtrudniejszych kategorii. W praktyce gospodarczej występują różne postaci wartości. Do najczęściej rozważanych
należą:
• wartość rynkowa
• wartość wymienna
• wartość użytkowa
Inne postaci przejawów wartości to m.in.:
•
•
•
•
wartość kosztowa
wartość likwidacyjna
wartość księgowa
wartość taksacyjna
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
163
Przejawem wartości możemy oznaczyć zdolność danego dobra do zaspokojenia potrzeb człowieka. Pod pojęciem dobra rozumiemy zarówno dobra materialne, czyli przedmioty, takie jak:
dom, mieszkanie, czy usługi. Rozważania nie ograniczono do dóbr ekonomicznych, czyli takich,
które występują w ograniczonej ilości, lecz również do dóbr wolnych. Dobra służą do zaspokojenia potrzeb ludzkich. Potrzeby ludzkie są różnorodne. Można wyróżnić potrzeby biologiczne,
których zaspokojenie jest niezbędne do życia, potrzeby kulturowe, czy potrzeby wyższego rzędu,
które stanowią wyraz rozwoju cywilizacyjnego społeczeństwa.
Warunkiem powstania rynku jest wystąpienie wielu nabywców, sprzedawców i dóbr. Wśród
uczestników rynku wytwarza się konkurencja o dobra występujące na rynku w niewystarczającej
ilości. Dyskusja tocząca się wokół definicji wartości rynkowej na forum międzynarodowym ujawniła kilka elementów kontrowersyjnych. Pomimo tych różnic, interpretacja wartości rynkowej w
Polsce musi być zgodna z interpretacją na forum europejskim i na forum światowym. Oznacza to,
że „najbardziej prawdopodobna cena” czy „przewidywana cena”, to szacunkowa kwota, za jaką
najczęściej dokonywane są transakcje na rynku dotyczące określonego typu nieruchomości. Jest to
cena zbliżona do uzyskanej przez sprzedawcę i najbardziej korzystna dla nabywcy. Interpretacja
wartości rynkowej jako ceny możliwej do uzyskania dowodzi, że wartość nieruchomości jest szacunkiem kwoty pieniężnej, jaką można uzyskać za nieruchomość. Jest to hipoteza ceny, a nie
założona z góry, czy rzeczywista cena sprzedaży. W wielu krajach, dla ściśle wskazanych celów,
ustawodawca precyzuje własną definicję prawną wartości rynkowej nieruchomości.
Przyjmując inne kryteria, można wyróżnić potrzeby indywidualne, odczuwane przez konkretne jednostki i potrzeby zbiorowe, odczuwane przez całą zbiorowość społeczną. Dobro posiada
wartość użytkową bez względu na to, czy uświadamiamy sobie jego występowanie, czy nie. Potrzeby ludzkie są nie tylko różnorodne, ale są również zmienne. Zmieniają się one wraz ze zmianą
potrzeb, ale również wraz ze zmianą cech danego dobra, posiadają charakter dynamiczny. Można
postawić hipotezę, czy dobra, które nie odznaczają się:
• użytecznością,
• rzadkością,
• dostępnością (zdolnością do wymiany),
• efektywnym popytem na usługi lub korzyści jakie niesie posiadanie dobra,
• osadzeniem dobra w warunkach prawa i porządku, tak aby osoby inwestujące w te dobra nie
ponosiły strat z tytułu prawnej czy politycznej niepewności posiadają wartość rynkową.
Warto przyjrzeć się tym cechom i ocenić ich wpływ na dobra wolne. Są one odróżnione od
konwencjonalnych dóbr i usług na takiej zasadzie, ale ich używanie nie zawsze jest połączone z
transakcjami rynkowymi. Dlatego przedstawia się je jako dobra nierynkowe lub dobra wolne. W
takiej sytuacji nie istnieją bodźce rynkowe, które pokrywają koszty dostarczenia dobra.
Rola poszczególnych czynników jest różna nie tylko w odniesieniu do poszczególnych rodzajów nieruchomości, ale jest również zmienna, np. wzrastająca rola czynników środowiskowych
powoduje wzrost wrażliwości rynku na ekonomiczne konsekwencje stwierdzonego lub spodziewanego występowania np. substancji toksycznych, skażenia gruntu oraz związanych z nimi potencjalnych lub faktycznych zobowiązań prawnych. W obszarze tej grupy czynników istotnego
znaczenia nabierają elementy infrastruktury ekologicznej:
- uciążliwość środków komunikacji,
- bliskie sąsiedztwo uciążliwych zakładów przemysłowych,
- poziom bezpieczeństwa mieszkańców,
164
-
Zygmunt Zygmuntowicz
Tworzenie baz wiedzy dla wyceny dóbr nierynkowych
w aspekcie określania wartości rynkowej nieruchomości
niski status majątkowy mieszkańców,
zła nawierzchnia dróg,
uciążliwe zapachy z wysypisk śmieci lub oczyszczalni ścieków,
bliskie sąsiedztwo szkół publicznych oraz domów z chorymi wysokiego ryzyka,
sąsiedztwo supermarketów lub dużych hurtowni,
sąsiedztwo dyskotek i klubów rozrywkowych,
zjawiska o podłożu naturalnym, takie jak występowanie radonu lub metanu, hałas, wibracje i
zanieczyszczenie powietrza,
- czynniki powodujące skażenie chemiczne, wynikające z procesów zachodzących obecnie i w
przeszłości na danym terenie lub docierające z terenów przyległych,
- czynniki postrzegane jako szkodliwe, np. pole elektromagnetyczne,
- szczególne preferencje inwestorów wobec pewnych elementów konstrukcyjnych, np. produktów nadających się do ponownego przetwarzania.
Cechy materialne są istotne dla określenia wartości rynkowej, ale mogą zostać zdeterminowane przez wpływ czynników środowiskowych, obejmujące sytuację demograficzną regionu czy
kraju, wielkość rodziny, styl życia, modę, przyzwyczajenia, a także otoczenie nieruchomości, a
więc dostępność usług, centrów handlowych i produkcyjnych, okolice, sąsiedztwo oraz stopień
skażenia środowiska. Wartość nie tkwi więc w istocie danego dobra, jest ona tworzona w umysłach uczestników rynku. Zależności, te tworzą wartość i mają charakter złożony. Wartość zmienia
się, jeżeli czynniki determinujące jej poziom ulegają zmianie.
Wartość nieruchomości jest tą kategorią, której nie można uzyskać w wyniku bezpośredniego
pomiaru, lecz jej szacowanie zaczyna się od obserwacji zachowań ludzkich na rynku. Poziom
wartości nieruchomości kształtują różnorodne czynniki nie zawsze związane z ich cechami fizycznymi.
Duża różnorodność tych czynników oraz zmienność ich oddziaływania sprawia, że trudno
opracować uniwersalną formułę opisującą zmienność wartości, a nawet pełną listę czynników
wpływających na wartość rynkową nieruchomości. Uwarunkowania infrastruktury ekologicznej
wprowadzają nowe urządzenia, modele i procedury do monitorowania infrastruktury ekologicznej
oraz tworzenia spójności wyceny nieruchomości, co wydaje się niezwykle ważnym zagadnieniem.
Wiele problemów natury metodologicznej w przedstawionym artykule ma bardzo złożony
charakter i nie wskazuje na to, że zostaną one w najbliższej przyszłości definitywnie rozwiązane.
W związku z tym zaproponowane metody wyceny wartości rynkowej dóbr nierynkowych nie
należy postrzegać jako rozwiązania, lecz jako poszerzenie bazy wiedzy, które wymagają dalszej
dyskusji. Niektóre procedury mają charakter półśrodków. Moglibyśmy mieć większe zaufanie do
znanych metod, gdyby wszystkie zasoby środowiska oraz efekty ludzkiej działalności dawały się
przedstawić w kategoriach ekonomicznych.
Wartość nieruchomości jako cecha przestrzeni planistycznej odnosi się do aktualnego i przyszłego przeznaczenia terenu, co ma znaczący wpływ na skutki finansowe uchwalania planu miejscowego. Realność oszacowania zależeć będzie również od uwzględnienia m.in. wpływu czynników infrastruktury ekologicznej.
Takie podejście do ochrony środowiska będzie musiało cechować odejście od traktowania
ochrony środowiska wyłącznie w kategoriach kosztów, a więc bariery dla rozwijania swej działalności, na rzecz jej projektowania jako instrumentu promocji swych wyrobów i swego wizerunku w
otoczeniu. Budowa strategii ekologicznej oraz utrzymanie najlepszych stosunków z otoczeniem
może zapewnić sukces na rynku oraz zaufanie i sympatię społeczeństwa, zaś państwo będzie wy-
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ
Seria: Studia i Materiały, nr5, 2006
165
muszać ich zachowanie proekologiczne w prawnych uregulowaniach, mających wpływ na proces
określania wartości rynkowej nieruchomości.
5. Podsumowanie
Wartość nieruchomości jako cecha przestrzeni planistycznej odnosi się do aktualnego i przyszłego przeznaczenia terenu, co ma znaczący wpływ na skutki finansowe uchwalania planu miejscowego. W związku z tym zaproponowane metody wyceny wartości rynkowej dóbr nierynkowych nie należy postrzegać jako rozwiązania, lecz jako poszerzenie bazy wiedzy, które wymagają
dalszej dyskusji. Niektóre procedury mają charakter półśrodków. Moglibyśmy mieć większe zaufanie do znanych metod, gdyby wszystkie zasoby środowiska oraz efekty ludzkiej działalności
dawały się przedstawić w kategoriach ekonomicznych. Budowa strategii ekologicznej oraz utrzymanie najlepszych stosunków z otoczeniem może zapewnić sukces na rynku oraz zaufanie i sympatię społeczeństwa, zaś państwo będzie wymuszać ich zachowanie proekologiczne w prawnych
uregulowaniach, mających wpływ na proces określania wartości rynkowej nieruchomości.
Na określenie wartości nieruchomości wpływają czynniki wykraczające poza cechy samej
nieruchomości. Wartość rynkowa wpływu czynników środowiskowych tkwi w istocie danego
dobra i jest tworzona w umysłach uczestników rynku. Zależności, które tworzą wartość mają charakter złożony i winny być w tym zakresie uwzględniane przy określaniu wartości rynkowej nieruchomości.
6. Literatura
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
Champness P., 1997. Approved Europen Property Valuation Standards. Commissioned
by TEGOVA, The European Group of Valuers Associations.
Cymerman R. (pod red.), 2000. Wycena środowiska a ochrona środowiska. Wyd. Educaterra Sp. z o.o. Olsztyn.
Domański R., 1983. Gospodarka przestrzenna. Wyd. PWN Warszawa.
Łaguna T. M., 1998. Wycena nieruchomości i gospodarstw rolnych. Wyd. Zachodnie
Centrum Organizacji. Olsztyn – Zielona Góra.
Łojewski S., 2002. Metody analizy ekonomicznej w ocenie środowiskowej systemów przestrzennych. Materiały pokonferencyjne z cyklu Instrumenty Zarządzania Ochroną Środowiska.
Kucharska – Stasiak E., 2001. Wartość rynkowa nieruchomości. Twigger Warszawa.
Mączyńska E., Prystupa M., Rygiel K., 2004. Ile jest warta nieruchomość? Wyd. Poltext
Warszawa.
Penc J., 2003. Zarządzanie w warunkach globalizacji. Wyd. Delfin Sp. z o.o. Warszawa.
Stacewicz J. 1998. Racjonalność gospodarowania a współczesne wyznania rozwojowe.
PWE Warszawa.
Stoner A.F. , Freeman R.E., Gilbert D.R., 1997. Kierowanie. PWE Warszawa.
Wiliams W.L. Ventolo, 1994. Fundamentals of Real Estate Approvisal. Real Estate Approvisal, Real Estate Education Company.
Winpenny Jamest T., 1995. Wartość środowiska. Metody wyceny ekonomicznej. PWE
Warszawa.
Zaorska A., 1998. Ku globalizacji? Przemiany w korporacjach transnarodowych i w gospodarce światowej. PWN Warszawa.
166
Zygmunt Zygmuntowicz
Tworzenie baz wiedzy dla wyceny dóbr nierynkowych
w aspekcie określania wartości rynkowej nieruchomości
14. Zonin R. Ambrosi L., 1999. Etyka, środowisko i ekonomia. „Środowisko” nr 4.
15. Zygmuntowicz Z., 1996. Ekonomiczna wycena miasta Żnin. Wyd. Uczelniane ATR Bydgoszcz.
16. Zygmuntowicz Z., 2004. Wartość rynkowa dóbr nierynkowych w procesie globalizacji.
Materialy pokonferencyjne. Ochrona Środowiska a procesy integracji i globalizacji.
Szkoła Główna Handlowa w Warszawie.
17. Zygmuntowicz Z., 2004. Dobra rynkowe w aspekcie gospodarki przestrzennej. Materiały
pokonferencyjne. UMW w Olsztynie.
18. Żróbek S., 2005. Metodyka określania wartości rynkowej nieruchomości. Wyd. Educaterra Olsztyn.
CREATING THE KNOWLEDGE BASES FOR NOT MARKET GOOD EVALUATION
IN ASPECT OF ESTIMATION OF MARKET VALUE OF REAL ESTATES
Summary
Space management being scarce good should be connected with ecologic policy
realization. Market value is a one of the most important aspect of the value. The considerations were limited to economical goods as such, which occurred in restricted
quantity and being different than not market goods. The value is changed if factors
determining its level will change. In proposed paper an attempt of methodical changes in a definition of market value of real estates including also its influence on value of not market goods was presented.
Keywords: the Data Bases, the Method of Real Estate Evaluation, Market Value, Value of Not
Market Goods,
DR INŻ. ZYGMUNT ZYGMUNTOWICZ
Akademia Techniczno – Rolnicza w Bydgoszczy
Katedra Ekonomiki Zasobów i Informacji Przestrzennej
85-796 Bydgoszcz, ul. Kaliskiego 7
[email protected]

Podobne dokumenty