studia i materiały polskiego stowarzyszenia zarządzania wiedzą
Transkrypt
studia i materiały polskiego stowarzyszenia zarządzania wiedzą
STUDIA I MATERIAŁY POLSKIEGO STOWARZYSZENIA ZARZĄDZANIA WIEDZĄ Redaktor tomu dr inż. Waldemar Bojar Komitet Redakcyjny: Prof. dr hab. Janusz Kacprzyk Prof. dr hab. Inż. Ludosław Drelichowski Polskie Stowarzyszenie Zarządzania Wiedzą Bydgoszcz 2006 2 Recenzenci: Prof. dr hab. inż. Ludosław Drelichowski Prof. dr hab. Janusz Kacprzyk Opracowanie redakcyjne i korekta inż. Waldemar Kępa inż. Ewa Dziemianko ISSN 1732-324X Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc 3 Spis treści RYSZARD BUDZIŃSKI, ANDRZEJ SZARANEK............................................................. 4 Zastosowanie reguł asocjacyjnych do eksploracji baz danych RYSZARD BUDZIŃSKI, AGATA WAWRZYNIAK........................................................ 11 Identyfikacja outsourcingu informatycznego w jednostkach samorządowych LILIANA BYCZKOWSKA, JANUSZ LIPIŃSKI, PIOTR MACHOWSKI ................... 20 Systemy zarządzania zasobami teleinformatycznymi WITOLD CHMIELARZ ...................................................................................................... 29 Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego LUDOSŁAW DRELICHOWSKI, MACIEJ NOSAL ........................................................ 39 Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni ANNA KEMPA...................................................................................................................... 51 Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz........................................ JOLANTA KONDRATOWICZ-POZORSKA................................................................... 60 Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej MAŁGORZATA NYCZ, BARBARA SMOK..................................................................... 70 Rola i znaczenie wiedzy w społeczeństwie informacyjnym KAZIMIERZ PERECHUDA, ZBIGNIEW TELEC.......................................................... 81 Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce ANDRZEJ PIEGAT, BARBARA WĄSIKOWSKA .......................................................... 86 Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych WITOLD RZEPIŃSKI ......................................................................................................... 94 Wiedza jako czynnik rozwoju polskiego agrobiznesu ANDRZEJ STRASZAK........................................................................................................ 99 Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy JAN STUDZIŃSKI.............................................................................................................. 111 Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym TATIANA TRETYAKOVA ............................................................................................... 122 Zarządzanie wiedzą przez zastosowanie ontologii dziedzin.............................................................. LEONID WOROBJOW...................................................................................................... 131 Produktywność i efektywność przedsiębiorstwa KAROLINA WOŹNICKA ................................................................................................. 137 Strategia przodownictwa kosztowego w walce z konkurencją GRAŻYNA WÓJCIK, ZDZISŁAW SZYJEWSKI.......................................................... 147 Przekształcanie wiedzy ukrytej w wiedzę jawną ZYGMUNT ZYGMUNTOWICZ ...................................................................................... 159 Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej nieruchomości Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych 4 RYSZARD BUDZIŃSKI ANDRZEJ SZARANEK Uniwersytet Szczeciński Wydział Nauk Ekonomicznych i Zarządzania ZASTOSOWANIE REGUŁ ASOCJACYJNYCH DO EKSPLORACJI BAZ DANYCH Streszczenie W artykule omówiono teorię i zastosowanie praktyczne wybranych metod eksploracji reguł asocjacyjnych. Przedstawiono zarys rozwoju systemów wspomagających podejmowanie decyzji w przedsiębiorstwach, omówiono genezę i potrzeby wykorzystania reguł asocjacyjnych, oraz przedstawiono przykład ich działania. Słowa kluczowe: reguły asocjacyjne, eksploracja baz danych, KDD 1. Wprowadzenie Ogromny postęp technologiczny ostatnich lat oraz związane z nim rozpowszechnienie się systemów komputerowych w licznych przedsiębiorstwach zaowocowało nagromadzeniem się bardzo dużych zasobów danych jakie przechowywane są w bazach danych. Ilość informacji z czasem przerosła ludzkie możliwości analizy oraz utrudniła podejmowanie decyzji na ich podstawie. Sytuacja taka sprawiała, że w ciągu ostatnich lat systemy informatyczne ewoluowały zwiększając swoją funkcjonalność i niezawodność. Początkowo byliśmy świadkami powstawania systemów wspomagania decyzji (ang. Decision Support Systems), w których znaczącą rolę odgrywała wiedza częściowo pochodząca z baz danych, a częściowo od ekspertów w danej dziedzinie. Wyniki analiz dostarczane były w postaci raportów np.: w postaci wartości sprzedanych produktów w określonym kwartale. Kolejne systemy pozwalały użytkownikowi na zadawanie zapytań oraz na analizę zawartości baz danych np. przy pomocy technologii OLAP (ang. Online Analytical Processing). OLAP umożliwiała wielowymiarową prezentację agregowanych danych z pośród wybranych atrybutów pochodzących z jednej lub wielu relacji. Użytkownik miał możliwość przygotowania pewnej hipotezy, której poprawność następnie weryfikował stosując metodologię OLAP. Jakość tego typu systemów zależna była od wiedzy i kreatywności ekspertów, którzy definiowali hipotezy. Obecnie nową i ciągle rozwijającą się gałąź systemów informatycznych stanowią systemy automatycznie poszukujące wiedzy wśród zbiorów ogromnych ilości danych gromadzonych w bazach danych. Dziedzina informatyki badająca tego typu oprogramowanie znana jest pod nazwą „odkrywania wiedzy w bazach danych” (ang. Knowledge Discovery in Databases) w skrócie KDD. Z KDD ściśle związane są technologie eksploracji danych (ang. Data Mining). Odkrywanie wiedzy nie wymaga od użytkownika zakładania żadnych hipotez, gdyż są generowane automatycznie i weryfikowane przez system komputerowy. Zadaniem eksperta jest jedynie ocena wygenerowanej wiedzy, zazwyczaj w postaci reguł, sprowadzająca się do odrzucenia lub przyjęcia wyników na podstawie określonych wskaźników statystycznych. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 5 Eksploracja danych (ang. Data mining ) definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych zbiorach danych. Do metod eksploracji danych zalicza się : • klasyfikację, • odkrywanie sekwencji, • klastrowanie, • odkrywanie charakterystyk, • wykrywanie zmian i odchyleń, • odkrywanie podobieństw w przebiegach czasowych, • odkrywanie asocjacji. 2. Zastosowanie reguł asocjacyjnych Eksploracja reguł asocjacyjnych stosowana jest do rozwiązywania problemów w licznych dziedzinach nauki, ekonomii, marketingu oraz wielu innych związanych z naszym codziennym życiem. Najbardziej znanym przykładem wykorzystania odkrywania reguł asocjacyjnych jest analiza koszykowa. Przykładowo można uzyskać regułę: gdy ludzie kupują świeże pieczywo, w 30% przypadków kupują również jogurt. Tego typu wiedza pomaga kierownikom sklepu podejmować słuszne decyzje dotyczące, np.: • promocji i obniżek cen – zwykle nie ma sensu dokonywać jednocześnie obniżki na pieczywo i jogurty. Lepiej obniżyć cenę jednego produktu, aby zwiększyć sprzedaż obu. • reklam i akcji marketingowych – w niektórych przypadkach pokazanie w reklamie dwóch produktów jednocześnie daje lepszy efekt niż prezentowanie ich oddzielnie. Można również obok produktu lub nawet na opakowaniu produktu umieścić reklamę produktu z nim powiązanego. Pełniejsze zaspokajanie potrzeb dodatkowo utrwala w kliencie pozytywne wrażenie. • rozmieszczenia produktów na półkach sklepowych – umieszczenie na jednej półce produktów o silnie skorelowanej sprzedaży zwiększy ich sprzedaż. W niektórych sytuacjach jednak bardziej skuteczne okazuje się duże oddalenie produktów, gdyż klient pokonując drogę między nimi musi minąć regały z innymi towarami. Wyszukiwanie reguł asocjacyjnych ma za zadanie zwiększyć wydajność systemów baz danych pod względem funkcjonalności umożliwiając zadawanie złożonych zapytań przykładowo w postaci: • Znajdź wszystkie reguły, których konsekwencją jest sprzedaż produktu X. • Znajomość reguł tego typu pozwoli podnieść sprzedaż produktu X. • Znajdź wszystkie reguły, które powstały w wyniku sprzedaży produktu X. • Odkryj te reguły, które powstały w konsekwencji sprzedaży produktu X. Powyższe reguły mają określić jaki wpływ na sprzedaż wskazanych produktów może mieć zaprzestanie sprzedaży produktu X. • Znajdź wszystkie reguły, które powstały w wyniku sprzedaży X, a które spowodowały, że wzrosła sprzedaż Y. Tego typu zapytania mogą wskazać jakie produkty należy sprzedawać razem z X tak by wzrosła sprzedaż Y. • Znajdź wszystkie reguły, które wiążą ze sobą produkty umieszczone na półce A oraz półce B w sklepie. 6 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych Obecnie towary kupowane w supermarketach posiadają kody kreskowe, które umożliwiają sprzedawcom detalicznym śledzenie sprzedaży produktów i jeżeli sklep posiada karty lojalnościowe możliwe jest analizowanie zakupów dokonywanych przez poszczególnych klientów. Statystyczny klient odwiedza ten sam sklep wiele razy w ciągu roku. Transakcja odnosi się do pojedynczej wizyty i jest powiązana z określoną datą i listą zakupów. Poprzez analizę koszykową sprzedawca może wyciągać informacje, które pozwolą usprawnić jego działalność. Przykładem może tutaj być sytuacja, w której klienci kupujący produkty dla niemowląt kupują też gotowe zupy w kartonach. Taka informacja może być wykorzystana np. w marketingu bezpośrednim (wysłanie ulotki z ofertą promocyjną gotowych zup w kartonach do osób, które kupowały produkty dla dzieci). 3. Teoria reguł asocjacyjnych Zbiory częste dają informację o tym, że pewne elementy występują razem w określonej części transakcji z bazy danych. Na bazie zbiorów częstych można zdefiniować reguły asocjacyjne1. Pozwalają one przedstawić odkrywaną wiedzę w postaci implikacji. Przy założeniu, że zbiory częste A,B zawierają elementy transakcji z bazy D, A ∩ B = ∅ , A = ∅ , oraz B = ∅ reguła asocjacyjna ma postać A ⇒ B . Zbiór A nazywany jest poprzednikiem reguły, a zbiór B następnikiem reguły. Taka reguła oznacza, że zbiór B ma tendencję do występowania razem w transakcji ze zbiorem A. Długość reguły jest sumaryczną liczbą elementów występujących w poprzedniku i następniku reguły, tzn. A ∪ B . Reguła o długości k będzie określana jako k-reguła. Dla reguł asocjacyjnych występują dwie podstawowe miary przydatności: wsparcie i zaufanie. Sposób ich obliczania wygląda następująco: wsparcie( A ⇒ B) = wsparcie( A ∪ B) (1) zaufanie( A ⇒ B) = wsparcie( A ∪ B) / wsparcie( A) (2) Wsparcie określa w jakiej części transakcji z bazy danych występuje dana zależność. Zaufanie określa z jakim prawdopodobieństwem występowanie w transakcji poprzednika implikuje wystąpienie następnika. Przykładowo reguła uzyskana z danych o sprzedaży w sklepie spożywczym: chleb ⇒ maslo, dzem o wsparciu 5% i zaufaniu 80% oznacza, że 80% ludzi, którzy kupili chleb, kupiło również masło i dżem. Natomiast sytuacja taka zachodzi w 5% wszystkich transakcji w sklepie. Przykładowo jeżeli np. produkt {mleko} pojawia się w wielu transakcjach, gdzie występuje również {margaryna, mleko}, można stworzyć następującą regułę asocjacyjną: {chleb, margaryna} – {mleko). Procent transakcji które składają się z {chleb, margaryna} i jednocześnie zawierają {mleko} będzie określany jako zaufanie. Wsparciem tej reguły jest liczba transakcji, które zawierają {chleb, margaryna} oraz {mleko}. Towary znajdujące się w koszyku klienta mogą być pogrupowane w różnej wielkości podzbiory, np. koszyk składający się z następujących towarów: {chleb, margaryna, mleko} może być ułożony w podzbiory jednoelementowe, tj. {chleb}, {margaryna}, {mleko}; podzbiory dwuelementowe {chleb, margaryna}, {chleb, mleko}, {margaryna, mleko} oraz podzbiór trójelementowy {chleb, margaryna, mleko}. Niektóre zestawy takie jak np. {chleb, margaryna} będą pojawiały się w wielu różnych koszykach. Wsparcie określane będzie tutaj jako liczba transakcji, w których 1 http://www.statconsulting.com.pl/assoc_rules_pl.html POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 7 pojawia się dany zestaw. Każda reguła asocjacyjna może mieć wiele pozycji w poprzednikach, oraz wiele pozycji po stronie następników. Reguła {mleko) - {chleb, margaryna} posiada poprzednik {mleko}, oraz następniki {chleb, margaryna}. Wsparcie takiej reguły jest takie samo jak wsparcie reguły {chleb, margaryna} – {mleko}, lecz jej zaufanie może być inne. Tabela 1. Przykładowe transakcje IDTransakcji Zakupione_Towary 1 chleb, mleko, pasta do zębów 2 chleb, mleko, margaryna 3 baton, chleb, kawa, margaryna 4 mleko, mięso 5 herbata, ciastka, pizza 6 mleko, kurczak wędzony, ziemniaki 7 margaryna, mleko, ciastka, chleb, kakao 8 margaryna, herbata 9 kawa, margaryna, mleko, makaron, chleb 10 boczek, jaja W powyższej tabeli zestaw {chleb, margaryna} posiada wsparcie 4, dlatego, że występuje w czterech transakcjach (2, 3, 4, 9). Zestaw {mleko} posiada wsparcie 6. zaufanie dla reguły {chleb, margaryna} – {mleko} wynosi 75%, ponieważ 3 z transakcji zawierających {chleb, margaryna} zawiera również {mleko}. Zaufanie dla reguły {mleko} - {chleb, margaryna} wynosi 50%, ponieważ mleko pojawia się w sześciu transakcjach i tylko trzy z nich zawiera {chleb, margaryna}. 4. Metody i algorytmy odkrywania reguł asocjacyjnych Problem odkrywania reguł asocjacyjnych sprowadza się do wygenerowania wszystkich tych reguł, które posiadają współczynniki wsparcia oraz pewności wyższe od zadanych przez użytkownika (minimalne wsparcie i minimalna pewność). Eksploracja reguł sprowadza się zatem do dwóch zasadniczych podproblemów: • znalezienie wszystkich kombinacji atrybutów, które mają większe wsparcie od pewnego zadanego z góry progu zwanego minimalnym wsparciem (ang. minsupport). Te kombinacje nazywamy dużymi zbiorami elementów l zbiorami (ang. large itemsets). Wszystkie kombinacje nie spełniające powyższych kryteriów (poniżej zadanego progu) nazywane są małymi zbiorami elementów zbiorami (ang. small itemsets). • dla danych dużych zbiorów l-zbiorów (zbiorów częstych) Y = generowane są wszystkie reguły, które wykorzystują elementy dla wszystkich tych reguł powinien być podzbiór X ze zbioru elementów a konkluzją jest podzbiór atrybutów Y-X. Do i1, i2,..., ik gdzie k ≥ 2 ze zbioru Y. Przesłanką Y, gdzie X posiada k-1 wygenerowania reguły 8 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych X ⇒ i j | conf X, gdzie X = i1, i2, ..., ij-1, ij+1, ...ik należy uwzględnić wsparcie zbioru Y i podzielić przez wsparcie zbioru X. Jeśli uzyskany stosunek jest większy od conf, wówczas reguła jest akceptowana ze współczynnikiem conf, w przeciwnym wypadku reguła jest odrzucana. Mając określone zbiory częste rozwiązanie drugiego podproblemu jest w większości przypadków zadaniem prostym. Należy zauważyć, że jeśli zbiór Y jest zbiorem częstym, wówczas każdy jego podzbiór jest również zbiorem częstym. Reguły wywiedzione ze zbioru Y spełniają wszystkie ograniczenia, gdyż zbiór Y jest sumą elementów będących konkluzjami bądź przesłankami każdej w ten sposób utworzonej reguły. Do odkrywania reguł asocjacyjnych stworzono algorytmy, z których dwa najczęściej stosowane zostaną omówione. Algorytm Apriori, oraz jego modyfikacja AprioriTid2, zostały zaproponowane jako rozwinięcie koncepcji wcześniejszych algorytmów AIS3 i SETM4. Na jego przykładzie zostanie zaprezentowana zasada działania większości algorytmów do odkrywania reguł asocjacyjnych. Algorytm Apriori wykonuje wielokrotny odczyt danych wejściowych. Podczas pierwszego czytania danych zliczane są wsparcia pojedynczych elementów, czyli zbiorów jednoelementowych. Pozwala to określić czy są częste, tzn. czy spełniają warunek minimalnego wsparcia. Przed każdym kolejnym odczytem danych wykorzystywane są zbiory częste z poprzedniego odczytu jako baza do generacji nowych zbiorów, które są potencjalnie częste. Są to tzw. zbiory kandydujące. W trakcie odczytu obliczane jest wsparcie tych zbiorów. Następnie zostają określone zbiory są rzeczywiście częste. Stają się one bazą dla kolejnej fazy odczytu. Ten proces powtarza się aż do chwili, gdy nie zostanie znaleziony żaden nowy zbiór częsty. Algorytmy Apriori i AprioriTid różnią się zasadniczo od wcześniejszych algorytmów AIS i SETM metodą generowania zbiorów potencjalnie częstych. W przypadku algorytmów AIS i SETM, zbiory kandydujące są tworzone na bieżąco podczas odczytu danych. W szczególności, po wczytaniu transakcji, znajdywane są zbiory częste z poprzedniego odczytu, które występują w tej transakcji. Nowe zbiory kandydujące wyznaczane są przez rozszerzanie znalezionych zbiorów o pozostałe elementy znajdujące się w transakcji. Jednak wadą tego rozwiązania jest niepotrzebne generowanie zbyt dużej liczby zbiorów, które okazują się nie być częste. Algorytmy Apriori i AprioriTid tworzą zbiory kandydujące wyłącznie w oparciu o zbiory częste znalezione podczas poprzedniego odczytu danych. W procesie generacji zbiorów kandydujących nie są uwzględniane transakcje z bazy danych. Jak wiadomo podzbiór zbioru częstego jest częsty. Z tego powodu k-zbiory kandydujące mogą zostać utworzone poprzez łączenie (k-1)-zbiorów. Dodatkowo można usuwać zbiory, których jakikolwiek podzbiór nie jest częsty. Takie podejście prowadzi do generowania znacznie mniejszej liczby zbiorów kandydujących. Algorytm AprioriTid ma dodatkową cechę polegającą na tym, że baza danych jest używana do liczenia wsparcia tylko podczas pierwszego odczytu. Do tworzenia nowych zbiorów i obliczania ich wsparcia używane są dodatkowe informacje opisujące zbiory wygenerowane w poprzedniej fazie. W kolejnych fazach algorytmu rozmiar tych informacji staje się znacznie mniejszy od bazy 2 http://www.ru.lv/~peter/zinatne/pub/dbis2004.pps Suh-Ying Wur, Yungho Leu - "An Effective Boolean Algorithm for Mining Association Rules in Large Databases" 6th International Conference on Database Systems for Advanced Applications str. 179 4 Ibidium 3 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 9 danych, oszczędzając czas potrzebny do odczytu danych. W dalszej części zostanie to wyjaśnione bardziej precyzyjnie. 5. Literatura 1. 2. 3. 4. 5. 6. 7. Rakesh Agrawal, Srikant Ramakrishnan, 1994. Fast Algorithms for Mining Association Rules. IBM Research Raport RJ9839, IBM Almaden Research Center Heikki Mannila, Hannu Toivonen, 1997. Levelwise Search and Borders of Theoriesin Knowledge Discovery. Department of Computer Science, University of Helsinki, Finland. Suh-Ying Wur, Yungho Leu. An Effective Boolean Algorithm for Mining Association Rules in Large Databases. 6th International Conference on Database Systems for Advanced Applications. http://www.kie.ae.poznan.pl/~marek/edu/zw/zasoby/8.pdf http://www.ploug.org.pl/konf_99/pdf/7.pdf http://www.ru.lv/~peter/zinatne/pub/dbis2004.pps http://www.webmining.pl/webmining/techniki13.html 10 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych APPLICATION OF ASSOCIATION RULES FOR EXPLORATION OF THE DATA BASES Summary The article describes basic ideas of selected methods of association algorithms. There is a short description of development of Decision Support Systems its genesis and importance. There is also and practical usage of association rules. Keywords: Decision Support Systems, Association Rules, Data Base Exploration, KDD RYSZARD BUDZIŃSKI rbudzinski.ps.pl Uniwersytet Szczeciński Instytut Informatyki w Zarządzaniu ul. Mickiewicza 64 71-101 Szczecin ANDRZEJ SZARANEK [email protected] Uniwersytet Szczeciński Wydział Nauk Ekonomicznych i Zarządzania ul. Mickiewicza 64, Szczecin POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 11 RYSZARD BUDZIŃSKI AGATA WAWRZYNIAK Uniwersytet Szczeciński IDENTYFIKACJA OUTSOURCINGU INFORMATYCZNEGO W JEDNOSTKACH SAMORZĄDOWYCH Streszczenie W artykule zaprezentowany został problem identyfikacji outsourcingu informatycznego w jednostkach samorządu terytorialnego. Główny nacisk został położony na prezentację metod, które w badaniu będą zastosowane. Podjęto również próbę naszkicowania przyjętej procedury badawczej i scharakteryzowano jej etapy. Słowa kluczowe: outsourcing, usługi informatyczne, jednostki samorządowe, taksonomia rozmyta, teoria zbiorów przybliżonych 1. Wprowadzenie Profesjonalne usługi zewnętrzne, inaczej nazywane outsourcingiem1, są nowoczesną strategią zarządzania, która polega na przekazywaniu zadań, funkcji, projektów i procesów, które nie są związane bezpośrednio z podstawową działalnością danego podmiotu, do realizacji firmie zewnętrznej. Podstawową korzyścią wynikającą z takiego rozwiązania jest redukcja kosztów, ponieważ outsourcing jest stosowany, gdy dostępne zasoby zewnętrzne są tańsze od własnych. Istotne są także inne czynniki, takie jak dążenie do realizacji usług na najwyższym poziomie, specjalizacja pracy, koncentracja na obszarach, w których osiągana jest przewaga konkurencyjna oraz dostęp do specjalistycznej wiedzy. Jak ważny jest problem outsourcingu może świadczyć fakt, że z konieczności istnienia tego typu usług zdawano sobie sprawę już w początkach XX wieku. Znany wszystkim potentat samochodowy, Henry Ford, już w latach dwudziestych minionego wieku powiedział: " Nastały ciężkie czasy. Ekonomia jest na takim poziomie, na jakim powinna być, a konkurencja otacza nas ze wszystkich stron świata. Zatem jeśli jest coś, czego nie potrafimy zrobić wydajniej, taniej i lepiej niż nasi konkurenci, nie ma sensu, żebyśmy to robili. Powinniśmy zatrudnić do wykonania tej pracy kogoś, kto zrobi to lepiej". Była to pierwsza definicja outsourcingu. Pół wieku później zasada ta stała się mottem ogólnoświatowego rynku2. Obecnie w zasadzie jest normą, że np. małe przedsiębiorstwa nie prowadzą samodzielnie księgowości, ale korzystają z usług biur rachunkowych. Outsourcing jako szczególna forma współpracy znalazł swoje poczesne miejsce zwłaszcza na gruncie IT (technologii informatycznych), jako dziedziny ściśle podlegającej outsourcingowi. Koszty związane z informatyzacją są zwykle zbyt wysokie aby można było sobie pozwolić na własny dział informatyczny (a często nawet na zatrudnienie pojedynczego informatyka) czy też na korzystanie z najnowszego oprogramowania wspomagającego prowadzenie działalności. Rozwią1 Termin outsourcing pochodzi z jęz. angielskiego i jest skrótem trzech słów: outside-resource-using, co oznacza korzystanie z zewnętrznych źródeł. 2 Por. [1, str.40-44]. 12 Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych zaniem tego problemu jest sięgnięcie po oferty firm specjalizujących się w świadczeniu tego typu usług. Jednak trzeba się również liczyć z faktem, iż zastosowanie outsourcingu nie koniecznie musi oznaczać sukces. Wiele przedsiębiorstw chcących rozwiązywać swoje problemy w ten sposób nie osiąga spodziewanych rezultatów. Powodem tego może być brak wytyczonego kierunku i precyzji w określaniu realnych celów, a także dążenie do nieracjonalnych oszczędności poprzez wybór usługodawców proponujących najniższe ceny, ale nie najwyższą jakość. Nasuwają się zatem podstawowe pytania: „Jak korzystać z outsourcingu, aby zagwarantować sobie sukces?” „Czy to się rzeczywiście opłaca – jak mierzyć efektywność tego typu przedsięwzięć?” „Czy jest to rozwiązanie dla każdego przedsiębiorstwa, niezależnie od jego wielkości i branży, w której działa?” Istnienie tych problemów skłoniło autorów niniejszego artykułu do zajęcia się tematem outsourcingu informatycznego w odniesieniu do specyficznego rodzaju organizacji, jakim są jednostki samorządu terytorialnego. Wynika to z faktu istnienia luki badawczej – jak dotąd wszelkie opracowania dotyczące outsourcingu IT dotyczyły jedynie przedsiębiorstw. Podstawowymi przesłankami podjęcia badań były: − zmiana w podejściu do prowadzenia działalności przez organizacje samorządowe – nie wszystko trzeba realizować samodzielnie, można korzystać z usług specjalistów – jest to efektywniejsze; − skala, powszechność i powtarzalność korzystania z usług outsourcingowych; − brak opracowanego wzorca obsługi informatycznej dla tego rodzaju organizacji; − brak sprecyzowanych kryteriów oceny czy dla konkretnej organizacji korzystanie z outsourcingu jest opłacalne. Celem artykułu jest zaprezentowanie procedury badawczej jaką zaplanowano zastosować w ramach badań dotyczących identyfikacji outsourcingu informatycznego w jednostkach samorządowych (Rys.1). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 Czy istnieją prawidłowości i podobieństwa w stosowaniu outsourcingu przez organizacje samorządowe? Postawienie problemu B A D A N I A Opracowanie procedury badawczej Analiza rynku usług informatycznych w obsłudze jednostek samorządowych Klasyfikacja rozmyta organizacji samorządowych w woj. zachodniopomorskim ze względu na poziom korzystania z outsourcingu Określenie kierunków rozwoju tego typu usług w regionie Wypracowania wzorca obsługi informatycznej dla tego rodzaju organizacji 13 Badanie ankietowe i analiza statystyczna uzyskanych danych Taksonomia rozmyta Teoria zbiorów przybliżonych Rysunek 1. Proponowana procedura badawcza Źródło: opracowanie własne. 2. Charakterystyka etapów w proponowanej procedurze badawczej Aby zrealizować cel podjętych badań, tzn. zidentyfikować outsourcing IT w jednostkach samorządu terytorialnego, przyjęto następującą procedurę badawczą: - I etap analiza rynku usług informatycznych w obsłudze jednostek samorządowych, - II etap - klasyfikacja organizacji samorządowych objętych badaniem ze względu na poziom korzystania z outsourcingu, - III etap - wypracowanie wzorca obsługi informatycznej dla tego rodzaju organizacji. W związku z tym w badaniach zastosowano trzy podstawowe metody: 1. badanie ankietowe, 2. taksonomia rozmyta, 3. teoria zbiorów przybliżonych. 2.1. Badanie ankietowe i analiza statystyczna rynku usług informatycznych w obsłudze jednostek samorządowych Na potrzeby analizy rynku usług informatycznych opracowano kwestionariusz ankietowy koncentrujący się na: Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych 14 1. stopniu informatyzacji urzędu oraz liczbie zatrudnionych specjalistów z zakresu informatyki,szczegółowych danych dotyczących korzystania przez urząd z usług podmiotów zewnętrznych, 3. określeniu czynników decydujących o wyborze dostawców,ocenie jakości realizowanych przez nich usług.Po zgromadzeniu danych z kwestionariuszy ankietowych dokonano weryfikacji formalnej i merytorycznej zebranego materiału oraz stworzono elektroniczną bazę danych. Dane z niej pochodzące stanowiły podstawę do wykonania obliczeń w oparciu o wybrane metody analizy ilościowej zjawisk i procesów rynkowych, takie jak: 1. 2. 3. 4. analiza struktury zjawisk rynkowych; analiza dynamiki; analiza związków przyczynowo-skutkowych; analiza rynku w przestrzeni3. Wyniki obliczeń statystycznych posłużyły następnie do sformułowania wniosków dotyczących stanu przebadanej zbiorowości. 2.2. Klasyfikacja badanych organizacji samorządowych za pomocą taksonomii rozmytej Klasyfikacja danych jest procesem, który przypisuje obiekty posiadające wspólne cechy do określonych klas. Jest ona jedną z podstawowych operacji wykonywanych na danych zgromadzonych w bazach danych. Bazy danych stanowią często ogromne kolekcje danych stąd też wynika duże znaczenie odpowiednich, wydajnych metod przeprowadzania klasyfikacji tych danych. Prawidłowo przeprowadzona klasyfikacja pomaga np. odkryć charakterystyki danych w sposób zrozumiały dla użytkownika, uogólniać dane lub też organizować dane zgodnie z zakładanymi strukturami zorientowanymi na wiedzę. Problem klasyfikacji można widzieć z perspektywy sposobu jej przeprowadzania. Według [6] i [7] systematykę klasyfikacji można przedstawić w postaci drzewa reprezentującego różne typy klasyfikacji (Rys. 2). W klasycznym ujęciu klasyfikacji (taksonomii klasycznej) następuje podział zbioru Ω, który zawiera obiekty O1, O2, ...., ON, opisywane przez cechy diagnostyczne X1, X2, ..., XK, na podzbiory A1, A2, ...., AP, zwane grupami typologicznymi. Podział powinien być dokonany w taki sposób, aby otrzymane grupy w sumie tworzyły zbiór wyjściowy Ω oraz były parami rozłączne. Natomiast obiekty, które znajdują się w jednym podzbiorze były do siebie jak najbardziej podobne, a obiekty znajdujące się w różnych podzbiorach były do siebie jak najmniej podobne. Konsekwencją takiego działania mają być takie grupy typologiczne, w których odległości każdej pary obiektów, które należą do jednej grupy, były mniejsze od odległości każdej pary obiektów, należących do różnych podzbiorów.4 Jednak w praktyce występują trudności związane z przyporządkowaniem obiektów do określonej grupy (np. ze względu na zbliżone przeciętne różnice między obiektami). W takiej sytuacji granice między wydzielonymi grupami mogą być „nieostre” – rozmyte”. 3 4 Por. [3] i [4]. Por. [5, s. 70]. 15 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 KLASYFIKACJE Nie wykluczająca się Wykluczająca się (exclusive) (nakładające się) ROZMYTA (fuzzy) (overlapping) Z NADZOREM (supervised) BEZ NADZORU (unsupervised) HIERARCHICZNA (hierarchical) Z PODZIAŁEM (partional) Rysunek 2. Systematyka klasyfikacji Źródło: opracowano na podstawie [6, s. 355]. Twórcą w latach sześćdziesiątych teorii zbiorów rozmytych oraz logiki rozmytej jest L. A. Zadech.5 Podstawowym pojęciem tej teorii jest zbiór rozmyty, który można zdefiniować następująco: zbiór rozmyty A na uniwersum Ω jest to zbiór par uporządkowanych ((Oi, fA(Oi)), gdzie Oi∈ Ω. Odwzorowanie fA(Oi): Ω→ <0, 1> nazywa się funkcją przynależności elementu Oi do zbioru rozmytego A. Zbiór rozmyty można wiec zapisać następująco: (1) A = U (O i f A (O i )) O i ∈Ω Dla każdego elementu należącego do uniwersum określona jest funkcja, która przyjmuje wartości z przedziału <0, 1>. Funkcja ta określa w jakim stopniu element należy do zbioru rozmytego. Zbiór rozmyty jest uogólnieniem zbioru w zwykłym sensie. Zagadnienie klasyfikacji rozmytej można przedstawić następująco: niech zbiór Ω zawiera N obiektów O1, O2, ...., ON. Każdy z tych obiektów jest opisywany przez wartości cech diagnostycznych X1, X2, ...., XK, tak, że dane są obserwacje xik (i = 1, 2, ..., N, k = 1, 2, ..., K). Należy określić na elementach zbioru Ω rodziny zbiorów rozmytych (klas, grup) A1, A2, ...., AP – gdzie liczba P jest dana, 1<P<N – tak, aby były spełnione warunki: − 0 ≤ fip ≤ 1 (i = 1, 2, ..., N, p = 1, 2, ..., P) (2) − P ∑f p =1 5 ip =1 (i = 1, 2, ..., N) Z polskich prac na ten temat należy wymienić m.in. prace [8] i [9]. (3) 16 Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych − obiekty o dużych wartościach funkcji przynależności do tego samego zbioru rozmytego są bardzo podobne do siebie, natomiast obiekty odznaczające się dużymi stopniami przynależności do różnych klas są mało do siebie podobne. Klasyfikacja rozmyta jest uogólnieniem klasyfikacji zwykłej. Niesie ona ze sobą bogatsze informacje o konfiguracji zbioru obiektów niż klasyfikacja zwykła, dzięki temu należenie do klasy, jako zmienna zero-jedynkowa (1 - obiekt należy, 0- obiekt nie należy), zostaje zastąpione pojęciem „przynależność do klasy”, które formalnie jest przedstawione za pomocą zmiennej ciągłej przyjmującej wartości z przedziału <0, 1>. Klasyfikacja rozmyta pozwala na bardziej precyzyjny opis w przypadkach, gdy trudno jednoznacznie sklasyfikować obiekty. Ma to miejsce, gdy granice między klasami są „nieostre” lub klasy nie są dobrze separowalne. W ramach prowadzonych badań zostanie dokonana klasyfikacja rozmyta jednostek samorządowych w województwie zachodniopomorskim ze względu na poziom korzystania z zewnętrznych usług informatycznych. Pozwoli to na określenie kierunków rozwoju tego typu usług w danym regionie oraz będzie stanowić podstawę do wypracowania wzorca obsługi informatycznej dla tych klas organizacji. 2.3. Wnioskowanie ze zbiorów przybliżonych Teoria zbiorów przybliżonych eliminuje ograniczenia związane z określeniem zbioru kantorowskiego. Klasyczna, (kantorowska) teoria zbiorów zakłada, że dowolny element należy lub nie należy do danego zbioru. W teorii zbiorów przybliżonych jest to możliwe poprzez odrzucenie wymogu istnienia ściśle określonych granic zbioru. Często celem systemu decyzyjnego opartego na zbiorach przybliżonych jest poszukiwanie ukrytych, a więc niejawnych reguł, które legły u podstaw wyboru dokonywanego przez eksperta (lub ekspertów). Takie procesy wydobywania wiedzy ze zbioru danych określane są anglojęzycznymi terminami, które nie mają jeszcze swoich polskich odpowiedników. Są to "knowledge discovery" i "data mining", co można przetłumaczyć jako "odkrywanie wiedzy" i "wydobywanie reguł". Autorem koncepcji zbiorów przybliżonych jest polski profesor Zdzisław Pawlak, który ogłosił podstawy tej teorii na początku lat osiemdziesiątych ubiegłego wieku. Teoria ta szeroko upowszechniła się w świecie naukowym i stanowi obecnie jedną z szybciej rozwijających się metod sztucznej inteligencji. Teoria zbiorów przybliżonych umożliwia rozwiązywanie rzeczywistych, trudnych problemów ekonomicznych poprzez znajdowanie powiązań istniejących między atrybutami decyzyjnymi, ułatwiając w ten sposób podjęcie decyzji. W ramach prowadzonych badań teoria zbiorów przybliżonych zostanie wykorzystana do stworzenia bazy reguł, która będzie stanowić podstawę do podjęcia decyzji o zastosowaniu określonego typu zewnętrznych usług informatycznych w danej organizacji samorządowej. Dane pozyskane w ramach badania ankietowego zostały w poprzednich etapach badania uporządkowane w postaci elektronicznej tabeli i stanowią pierwotną tabelę informacyjną, która następnie w wyniku przeprowadzonej dyskretyzacji zostanie przekształcona we wtórną tabelę informacyjną. To z kolei pozwoli wyznaczyć elementarne zbiory warunkowe i koncepty decyzyjne. Następnie podjęta zostanie próba redukcji zbędnych atrybutów warunkowych. Kolejnym etapem badania będzie budowa algorytmu decyzyjnego, który prawdopodobnie będzie musiał zostać uproszczony poprzez wyeliminowanie reguł podobnych. W efekcie zostanie otrzymany zbiór reguł tworzących wzorzec obsługi informatycznej dla jednostek samorządowych (por. Rys. 3). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 Pierwotna tabela informacyjna Wtórna tabela informacyjna Stworzenie bazy reguł decyzyjnych 17 Redukcja ilości atrybutów Ocena jakości i dokładności reguł decyzyjnych Wnioski: stworzenie wzorca obsługi informatycznej dla jednostek samorządowych Rysunek 3. Algorytm działań związanych z wnioskowaniem ze zbiorów przybliżonych Źródło: opracowanie własne. 3. Podsumowanie Przedstawiona procedura badawcza znalazła swoje zastosowanie w badaniach dotyczących identyfikacji outsourcingu informatycznego w jednostkach samorządowych województwa zachodniopomorskiego. Dotychczas zrealizowano I etap badań, tzn. dokonano analizy rynku tych usług. Badaniem objęte były wszystkie urzędy miejskie, miejsko-wiejskie i wiejskie województwa zachodniopomorskiego (n = 113)6. Badanie ankietowe w formie wywiadu bezpośredniego zostało przeprowadzone w dniach 20.07.2005 – 15.09.2005. Na podstawie uzyskanych danych wykonano zaplanowane obliczenia statystyczne, które następnie pozwoliły sformułować wnioski o stanie badanej zbiorowości. Stwierdzono przykładowo, że: − urzędy gminne w województwie zachodniopomorskim są dobrze wyposażone w komputery, jeżeli chodzi o stosunek liczby komputerów do liczby pracowników (wskaźnik ten wynosi 0,88); − ogólnie większość urzędów zatrudnia specjalistów z zakresu informatyki (63,7% wszystkich gmin), jednak w przypadku urzędów w gminach wiejskich sytuacja jest odwrotna (50,9% gmin wiejskich); − w większości urzędów nie ma komórek organizacyjnych odpowiedzialnych za informatyzację (90,3% urzędów); − większość badanych urzędów korzysta z różnych form outsourcingu informatycznego (94% gmin); 6 Z badania wyłączono Urząd Miasta Szczecina ze względu na jego wielkość i przez to trudność w porównywaniu z innymi gminami w województwie. Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych 18 − nie można jednoznacznie stwierdzić, że zastosowanie outsourcingu ma wpływ na redukcję kosztów informatyki w urzędach gminnych (outsourcing nie zawsze jest stosowany w celu obniżenia kosztów); − najczęstszymi korzyściami ze stosowania outsourcingu stwierdzonymi przez respondentów była wyższa jakość obsługi informatycznej (68,52% wskazań) oraz szybsze i bardziej elastyczne dostosowywanie się do wymagań użytkowników (66,67% wskazań); − większość respondentów potwierdziła, że zastosowanie outsourcingu podniosło sprawność działania urzędów (w 83,3% urzędów to stwierdzono); − 61,1% urzędów oceniło przebieg współpracy z firmami outsourcingowymi jako dobry. Zamiarem autorów jest kontynuacja badań związanych z identyfikacją outsourcingu informatycznego w jednostkach samorządowych woj. zachodniopomorskiego w oparciu o zaproponowane w artykule metody. 3. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. Gay Ch. L., Essinger J., 2002. Outsourcing strategiczny. Oficyna Ekonomiczna Kraków. Jain A.K., Dubes R.C., 1988. Algotithms for clustering data. Prentice-Hall, Inc., A Division of Simon & Schuster, Englewood Cliffs New Jersey 07632. Jajuga K., 1984. O sposobach określania liczby klas w zagadnieniach klasyfikacji i klasyfikacji rozmytej. Prace Nauk. AE we Wrocławiu 262. Nowak E., 1990. Metody taksonomiczne w klasyfikacji obiektów społecznogospodarczych. PWE Warszawa. Nycz M., 2003. Klasyfikacja danych w procesie inteligentnego pozyskiwania wiedzy z baz danych, Pozyskiwanie wiedzy i zarządzanie wiedzą. Praca zbiorowa pod red. Nycz M. i Owoca M., Wyd. AE we Wrocławiu, Wrocław. Piegat A., 1999. Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wyd. Exit Warszawa. Praca zbiorowa pod red. Kędzior Z., 2005. Badania rynku – metody i zastosowania, PWE Warszawa. Praca zbiorowa pod red. Mruka. H., 2003. Analiza rynku. PWE Warszawa. Trocki M., 2001. Outsourcing. PWE Warszawa. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 IDENTIFICATION OF COMPUTING OUTSOURCING IN SELF-GOVERNMENT UNITS Summary The aim of this paper is the presentation of the problem of outsourcing IT in units of local self-government. The main stress is laid on the selection of methods, which will be used in the research (for example questionnaire research, fuzzy taxonomy, theory of rough sets). There is made an attempt to trace out a research procedure and its stages are described. Keywords: outsourcing, fuzzy taxonomy, theory of rough sets RYSZARD BUDZIŃSKI e-mail: [email protected] AGATA WAWRZYNIAK e-mail: [email protected] Uniwersytet Szczeciński Instytut Informatyki w Zarządzaniu ul. Mickiewicza 64 71-101 Szczecin 19 Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi 20 LILIANA BYCZKOWSKA Instytut Informatyki Politechniki Łódzkiej JANUSZ LIPIŃSKI, PIOTR MACHOWSKI Wyższa Szkoła Informatyki SYSTEMY ZARZĄDZANIA ZASOBAMI TELEINFORMATYCZNYMI Streszczenie W pracy przedstawiono problemy instalacji i konfigurację systemu zarządzania pracą sieci telekomunikacyjnej. Omówiono architekturę i problemy współpracy systemu zarządzania TMN z siecią telekomunikacyjną. Podano zasady opracowywania bezpiecznego systemu zarządzania. Przedstawiono opis usługi zarządzania ruchem w sieci telekomunikacyjnej i teleinformatycznej Słowa kluczowe: zarządzanie, telekomunikacja 1. Wstęp Telekomunikacyjne usługi multimedialne i szerokopasmowe sieci dostępowe stanowią obecnie najbardziej popularne i wzajemnie się przenikające dziedziny współczesnej wymiany wiadomości i danych. W celu ułatwienia wprowadzania nowoczesnych technologii w sieci na szybko rozwijającym się rynku przesyłania wiadomości konieczne jest stosowanie rozwiązań: pozwalających na efektywne zarządzanie zasobami telefonicznymi, zapewniających szybkie i niezawodne usuwanie usterek sieci, zarządzających ekipami technicznymi w procesach nadzorowania i utrzymania sieci teleinformatycznych. [3] W pracy omówione zostanie pojęcie zarządzania zasobami sieci teletransmisyjnych oraz zastosowanie nowoczesnych rozwiązań wykorzystywanych w telekomunikacji. 2. Charakterystyka Systemu Zarządzania Siecią Telekomunikacyjną Podczas projektowania sieci szerokopasmowej bardzo ważnym czynnikiem jest dobór odpowiedniego systemu zarządzania. Dobry system zarządzania zapewnia dodatkowe możliwości i korzyści, które usprawniają pracę sieci. System zarządzania sieciami można zdefiniować jako obszar działań obejmujący: administrowanie (wspomaganie świadczenia usług telekomunikacyjnych), sterowanie (działania adaptacyjne w stosunku do zmian zachodzących w otoczeniu telekomunikacji), utrzymanie (technika zapewniająca sprawne funkcjonowanie sieci), zabezpieczanie (planowanie i przygotowanie do wdrożeń nowych usług w sieci). Pojęcie zarządzania siecią telekomunikacyjną TMN (ang. Telecommunications Management Network) wprowadzone zostało przez komitet konsultacyjny ds. międzynarodowej telefonii i telegrafii CCITT (ang. Consultative Commitee for International Telephony and Telegraphy) w dokumencie o numerze M.30 wydanym w 1988 roku. TMN nie jest rozwiązaniem technicznym, jest normą przeznaczoną dla producentów i operatorów sieci telekomunikacyjnych. Normę tę stworzono w taki sposób, by mogła zostać zastosowana we wszystkich rodzajach sieci. 21 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 Określa ona struktury funkcji protokołów i wiadomości, które mogą zostać zastosowane przez administratora w konkretnej istniejącej sieci. Celem wprowadzenia architektury TMN jest ujednolicenie najważniejszych problemów: sposobu reprezentacji informacji o zarządzanym elemencie w całym systemie, zbioru wspólnych komend służących do komunikacji pomiędzy elementem zarządzanym a systemem zarządzającym. Sieć TMN umożliwia zbieranie, przetwarzanie i przesyłanie danych dotyczących nadzoru sieci, kontroli jej działania i utrzymania. Może ona zarządzać: urządzeniami teletransmisyjnymi (multipleksery, translatory, łącza kablowe, łącza radiowe, łącza satelitarne, systemy SDH), centralami, koncentratorami, sieciami WAN, LAN, urządzeniami pomocniczymi (zasilanie i klimatyzacja, systemy alarmowe, testery). 3. Zasady współpracy sieci telekomunikacyjnej z systemem zarządzania TMN Podstawowym celem TMN jest stworzenie zorganizowanej struktury, która powinna umożliwić współpracę różnych systemów zarządzania OS (ang. Operating System) i urządzeń telekomunikacyjnych na podstawie standardowych protokołów i interfejsów. sieć telekomunikacyjna 1 2 4 5 1 2 3 1 6 7 8 9 8 # * 4 2 3 5 6 7 8 9 * 8 # 3 1 2 3 4 5 6 7 8 9 7 8 9 8 # * 8 # * 4 węzły komutacyjne 5 6 systemy transmisyjne stacja robocza stacja robocza transmisja danych IBM IBM system zarządzania system zarządzania TMN Rysunek 1. Połączenie systemu TMN w sieci telekomunikacyjnej Włączony w strukturę sieci telekomunikacyjnej system zarządzania siecią TMN powinien zapewnić: wymianę informacji dotyczących zarządzania pomiędzy siecią telekomunikacyjną a systemem TMN, przesyłanie informacji zarządzania pomiędzy poszczególnymi modułami systemu TMN, Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi 22 transfer formatu ujednoliconej postaci informacji zarządzania przesyłanej wewnątrz systemu TMN, przetwarzanie informacji dotyczącej zarządzania (np: odpowiednie reakcje na otrzymaną informację, analiza otrzymanych danych), dostarczenie informacji zarządzania do jej użytkownika, konwersję informacji zarządzania do postaci użytecznej i zrozumiałej dla użytkownika, ochronę i bezpieczeństwo dostępu do informacji zarządzania. Wszystkie metody zabezpieczeń stosowane w sieci zarządzania telekomunikacją są określone w rekomendacjach i standardach. Zarządzanie zgodne z polityką bezpieczeństwa wykracza poza typowe ramy techniczne i staje się obszarem organizacji przedsiębiorstw. Zarządzania bezpieczeństwem w żaden sposób nie można zautomatyzować, co wynika z charakteru spotykanych w rzeczywistości zagrożeń. [1] 4. Architektura Systemu TMN Tworzenie bezpiecznego systemu TMN wymaga opracowania następujących etapów obejmujących: fazę początkową, fazę projektowania, przeglądu i zatwierdzenia, fazę operacyjną W fazie początkowej tworzy się specjalną grupę ekspertów sterujących procesem analizy, wprowadzenia, realizacji zabezpieczeń. Grupa taka stanowi przekrój stron biorących udział w zarządzaniu: użytkowników, przedstawicieli poszczególnych działów, ekonomistów, inżynierów tworzących system. W fazie projektowania, przeglądu i zatwierdzenia określona zostaje strategia zabezpieczeń, strategiczne zasoby, dokonuje się analizy ryzyka. Następnie wybiera się rozwiązania dogodne pod względem efektywnym i ekonomicznym. Faza operacyjna to szkielet funkcjonowania zabezpieczeń w systemie. W fazie tej są wyróżniane etapy: wykrycia zdarzenia, przetwarzania danych związanych z bezpieczeństwem, oceny zdarzenia. Rozwój ataków na sieci, starzenie się algorytmów kryptograficznych, wzrost mocy obliczeniowej maszyn oraz przepustowość sieci prowadzi do konieczności ciągłej kontroli i modyfikacji zabezpieczeń. Prawdopodobnym czynnikiem, który zdeterminuje wprowadzanie zabezpieczeń dla systemu TMN będzie dynamiczny rozwój rynku telekomunikacyjnego. W ciągu kilku lat można spodziewać się pojawienia platform z zaimplementowanymi silnymi mechanizmami kryptograficznymi. [3] Architektura TMN zawiera trzy grupy, które są rozpatrywane oddzielnie podczas projektowania i planowania. Grupy te obejmują: architekturę funkcjonalną – opisującą podstawowe funkcje określane jako składniki funkcjonalne oznaczane symbolem FC (ang. Functional Component). Składniki te łączone są w bloki funkcjonalne oznaczane FB (ang. Function Block). Miejsca symbolizujące połączenie między blokami określane są punktami odniesienia (ang. reference point). Oznacza to funkcjonalność, która umożliwia objęcie zasięgiem zarządzania całą sieć i traktowanie jej jako jednego wirtualnego tworu. W większości przypadków takie POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 23 systemy udostępniają graficzną reprezentację sieci z widocznymi statusami urządzeń, połączeniami, alarmami i innymi funkcjami specyficznymi dla danej sieci. g WSF TMN f q x OSF q NEF q TF m Rysunek 2. Architektura funkcjonalna TMN OSF- blok funkcjonalny systemów zarządzania, NEF- blok funkcjonalny pośredniczenia, WSF- blok funkcjonalny stacji roboczej, TF- blok funkcjonalny transformacji architekturę fizyczną – opisującą sposób implementacji funkcji TMN w części fizycznej. Poszczególne części dzielone są na bloki fizyczne oznaczane symbolem BB (ang. Building Block), które w zależności od pełnionych funkcji, zawierają wybrane bloki funkcjonalne. Bloki fizyczne dokonują wymiany danych pomiędzy sobą za pomocą standardowych interfejsów. Komunikacja między systemami, a zarządzanymi urządzeniami odbywa się przez porty szeregowe (połączenie lokalne) lub przez protokoły transmisji danych (połączenie zdalne). Realizują one podstawowe funkcje zarządzania elementami sieciowymi, takimi jak przełączniki, routery i przeważnie wykorzystują do tego standardowy protokół SNMP (ang. Simple Network Management Protocol). 24 Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi OS TMN OS X WS F DCN Q Q Q MD Q AD Q NE NE NE Rysunek 3. Architektura fizyczna OS- system zarządzania, AD- urządzenie adaptacyjne, MD- urządzenie pośredniczące, NE- element sieci, WS- stacja robocza, DCN- sieć transmisji danych architekturę informacyjną – opisującą sposób modelowania wymiany informacji zarządzania, który jest realizowany jako zarządca–agent. Wymiana informacji odbywa się przy pomocy protokołu CMIP (ang. Common Management Information Protocol). Jest to protokół zarządzania siecią oparty na modelu OSI, szczególnie przydatny do współpracy z publiczną, komutowaną siecią telefoniczną. Służy do formatowania wiadomości i transmitowania informacji między programami zbierającymi dane. Przez usługę należy rozumieć przykładowo wirtualną linie dzierżawioną o określonej relacji oraz parametrach transmisyjnych, takich jak przepływność, opóźnienie. System zarządzania usługami monitoruje na bieżąco zakontraktowane przez użytkowników usług parametry i tworzy raporty. Dla uproszczenia, systemy zarządzania elementami sieciowymi udostępniają graficzny interfejs z symulowanym obrazem urządzenia. Bardzo powszechne staje się zarządzanie przez interfejs WWW (ang. World Wide Web). W tym przypadku do zarządzania elementami sieciowymi może zostać użyta dowolna przeglądarka internetowa. [5] Zarządzanie siecią polega na administrowaniu wszystkimi zasobami komunikacyjnymi danego systemu. Jest ono realizowane przez aplikacyjne procesy zarządzania SMAP (ang. System Management Application Process), które przetwarzają i wymieniają między sobą informacje zarządzania. Informacje te są przechowywane w specjalnej bazie określanej symbolem MIB (ang. Management Information Base). Baza taka zawiera w sobie obiekty zarządzane MO (ang. Managed Objects), które odzwierciedlają fizyczne zasoby, którymi zarządza. Modelem zarządca-agent, którego sposób zarządzania zawiera dwa typowe procesy. Są to: proces zarządzania MP (ang. Managing Process) – zarządca wydający procesowi agenta polecenia wykonania operacji na obiekcie zarządzanym, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 25 proces agenta AP (ang. Agent Process) – przekazuje procesowi zarządcy informacje o zmianach stanu zarządzanych obiektów. 5. Zastosowanie TMN do zarządzania systemami telekomunikacyjnymi Od lat 70ych XX wieku dzięki rozwojowi technologii komputerowych transmisja analogowa zaczęła być wypierana przez transmisje cyfrową. Przełączniki elektromagnetyczne zastępowane były elektronicznymi układami przełączającymi sterowanymi komputerowo z użyciem sygnalizacji we wspólnym kanale. W rezultacie otrzymano sieć składającą się z dwóch logicznie różnych podsieci, komutowana podsieć głosowa i podsieć sygnalizacyjna. Takie rozwiązanie daje dużą elastyczność zarządzania siecią i kreowania nowych usług. Wprowadzenie nowych możliwości objętych normami architektury sieci inteligentnej zdefiniowanej przez CCITT dotyczących definicji standardowych usług, interfejsów pomiędzy centralami w systemie, urządzeniami przetwarzającymi oraz platform do obliczeń komputerowych, umożliwia tworzenie rozbudowanych sieci z użyciem sprzętu i oprogramowania różnych firm. [4] W systemie TMN można wyróżnić pewnego rodzaju segmenty, które odpowiadają za realizację usług komunikacyjnych. Każdy z segmentów stanowi zbiór aplikacyjnych elementów usługowych ASE (ang. Application Service Elements) współpracujących ze sobą. Element usługowy zawiera: definicje realizowanych usług, zapisane w postaci zestawu operacji elementarnych, protokół, który pozwala na wymianę elementarnych operacji. Model warstwy aplikacji dla celów zarządzania siecią przedstawia rys.4. SMASE ACSE CMISE Inne ASE ROSE WARSTWA PREZENTACJI Rysunek 4. Model warstwy aplikacji W modelu warstwowym aplikacji wyróżniono następujące elementy: SMAE (ang. Systems Management Application Entity) – jest to segment aplikacyjny zarządzania systemami, SMASE (ang. Systems Management Application Sernice Element) – aplikacyjny element usługowy zarządzania systemami, ASE (ang. Application Service Element) – usługowy element aplikacyjny, ACSE (ang. AssociationControl Service Element) – element usługowy sterowania skojarzeniami, Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi 26 CMISE (ang. Common Management Information Sernice Element) – element usługowy wspólnej informacji zarządzania, ROSE (ang. Remote Operations Service Element) – element usługowy zdalnych operacji. Na rys.5. przedstawiony jest opis usługi zarządzania ruchem w sieci telekomunikacyjnej. OS NE POMIARY żadanie wykonania pomiarów WS Inicjacja monitorowania sieci dane z pomiarów WSTĘPNE PRZETWARZANIE wskaźniki ruchu dane o konfiguracji sieci Gromadzenie danych Analiza danych Prezentacja stanu ruchu Wykrywanie problemów Realizacja działań Korekcyjnych działania korekcyjne Podejmowaniei zaniechanie działań korekcyjnych Rysunek 5. Zarządzanie ruchem w sieci telekomunikacyjnej W zakresie zilustrowanej usługi można wyróżnić kilka znaczących funkcji: Inicjacja monitorowania sieci – funkcja inicjacji polega na przekazywaniu do elementów sieci żądań wykonania pomiarów przesyłanych przez użytkownika systemu za pośrednictwem stacji roboczej. Pomiar – funkcja udostępniania danych z pomiarów jest realizowana przez elementy sieci. Dane z procesu pomiaru są przekazywane do systemu zarządzania bezpośrednio lub po wstępnym przetworzeniu informacji pierwotnej (np: zdarzenia) w elementach sieci. Zbieranie danych – funkcja gromadzenia danych w systemie zarządzania dotyczy zbierania danych z pomiarów odebranych od elementów sieciowych. Analiza danych – funkcja analizy danych jest związana z obliczaniem wskaźników wydajnościowych na podstawie uzyskanych z pomiarów. Analiza danych bazuje na określonych algorytmach, które są opracowane lub modyfikowane w procesie eksploatacji systemu zarządzania. Prezentacja stanu ruchu – funkcja stanu ruchu oferuje użytkownikowi możliwość obrazowania aktualnego poziomu wydajności lub obciążenia elementów sieci. Wykrywanie problemów – funkcja wykrywania problemów w sieci dotyczy rozpoznawania sytuacji krytycznych z punktu widzenia kierowania ruchem. Otrzymane wyniki umożliwiają podjęcie decyzji o zastosowaniu działań korekcyjnych. Podejmowanie i zaniechanie działań korekcyjnych – Funkcja ta umożliwia realizację decyzji podjętej np. przez zarządzającego ruchem za pośrednictwem stacji roboczej. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 27 6. Zarządzanie sieciami teleinformatycznymi W miarę rozwoju przedsiębiorstw rosną ich zasoby informatyczne, a utrzymanie infrastruktury pociąga za sobą coraz to większe koszty. Taka sytuacja wymaga bardzo sprawnego mechanizmu kontroli efektywności wykorzystywania tych zasobów, dostosowania ich do potrzeb i wymagań przedsiębiorstwa. W ramach zarządzania sieciami teleinformatycznymi stosuje się rozwiązania odpowiedzialne zarówno za zarządzanie zasobami i infrastrukturą (zarządzanie sieciami, serwerami, centralami czy bazami danych), jak i zarządzanie istotnymi aplikacjami w procesie podejmowania decyzji. Firmy starają się wdrażać właściwe rozwiązania do zarządzania infrastrukturą zyskując wymierne korzyści. Zastosowanie infrastruktury informatycznej dostosowanej do procesów kierujących działaniem centrum zarządzania pozwala na podniesienie niezawodności, wzrostu efektywności pracy i komfortu pracy branży IT (ang. Information Technology), udostępnienie narzędzi do planowania i kierowania rozwojem IT oraz kontrolę kosztów [1]. 7. Podsumowanie W dzisiejszych czasach coraz trudniej jest odróżnić telekomunikację od techniki komputerowej. Wzrost użycia komputerów, zarówno w centralach telekomunikacyjnych jak i zarządzania siecią oznacza, iż podstawowym wyzwaniem przed jakim stoi większość kampanii telekomunikacyjnych jest optymalne rozwiązanie architektury sieci komunikujących się ze sobą komputerów. Instalacja i właściwa konfiguracja systemu zarządzania siecią telekomunikacyjną otwiera przed operatorem telekomunikacyjnym możliwości wprowadzenia szerokiej gamy nowych, atrakcyjnych ofert i usług telekomunikacyjnych. Sieci telekomunikacyjne, dające ogromny wachlarz usług (telefonia, multimedia, Internet) stały się obecnie ważną częścią światowej oferty telekomunikacyjnej. Trudno dziś jest sobie wyobrazić funkcjonowanie nowoczesnej firmy bez dostępu do Internetu, czy automatycznego systemu zapowiedzi głosowych podczas nawiązywania połączenia z klientami. Przykładów takich można podawać bardzo dużo. Takie są realia dzisiejszego świata, takie są wymagania dzisiejszego rynku. Rozwój nowych technologii, globalizacja rynku, konieczność współpracy międzyoperatorskiej i standaryzacja sieci zmusza producentów do stosowania takich rozwiązań technicznych, które pozwolą połączyć lokalne, krajowe i międzynarodowe sieci telekomunikacyjne w jeden system. To, jakie rozwiązanie z opisanych powyżej jest najlepsze i które należy wybierać, zależy wyłącznie od możliwości finansowych i potrzeb operatora, który pragnie w swojej sieci zaimplementować system TMN. Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi 28 8. Literatura 1. 2. 3. 4. 5. Barszewski M, 2003. Zarządzanie sieciami telekomunikacyjnymi. wydanie III poprawione Warszawa. Brożyna J., 2005. Zarządzanie systemami i sieciami transportowymi w telekomunikacji. BEL Studio Warszawa. Łazarski J., 2005. Leksykon skrótów Telekomunikacja. Wydawnictwo Komunikacji i Łączności Sp. z o. o. Wydanie I Warszawa. Norris M., 2002. Communications Technology Explained - tłumaczenie z języka angielskiego na podstawie Galińskiego B. Teleinformatyka, Wydawnictwo Komunikacji i Łączności Sp. z o. o. Wydanie I Warszawa. Praca zbiorowa, opracowanie redakcyjne NetWorld, 1999. Vademecum teleinformatyka. IDG Poland S.A. Wydanie I książkowe Warszawa. MANAGEMENT SYSTEMS FOR DISTRIBIUTED NETWORKS Summary In the paper we discuss a number of issues related to performance of a telecommunication network. The architecture of a telecommunication management network (TMN )as well as interaction between TMN and a telecomm nation network are presented. The rules for development of a secure management system are given. Finally, we describe a management system to Control network flow for telecommunication & distributed networks Keywords: Management, Telecommunications L.BYCZKOWSKA e-mail:[email protected] 93-005 Łódź, ul. Wólczańska 215 J.LIPIŃSKI e-mail: [email protected] 93-008 Łódź, ul. Rzgowska 17A POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 29 WITOLD CHMIELARZ Wydział Zarządzania Uniwersytetu Warszawskiego TECHNIKI ZARZĄDZANIA WIEDZĄ W KONCEPCJI EKSPERCKIEGO SYSTEMU INFORMATYCZNEGO Streszczenie Zasadniczym celem niniejszego artykułu jest sformułowanie zasad budowy modelu architektury systemu informatycznego wykorzystującego mechanizmy zarządzania wiedzą. Punktem wyjścia staje się przedstawienie założeń budowy systemu bazodanowego wraz ze współpracującym z nim systemem wspomagającym podejmowanie decyzji. Następnie przedstawiono typowy system ekspercki z elementami zarządzania wiedzą i koncepcję rozwinięcia tego modelu przez dodanie mechanizmu transformacji wewnętrznych informacji w modelu na wiedzę przechowywaną w systemie oraz mechanizm porównań rzeczywistych wariantów rozwoju z przechowywanymi wzorcami. W ostatniej części artykułu przedstawiono techniki zarządzania wiedzą, postulowane do użycia w prezentowanej architekturze systemu. Słowa kluczowe: system ekspercki, zarządzanie wiedzą, techniki zarządzania wiedzą. 1. Wstęp Podstawowym celem niniejszego referatu jest analiza możliwości stopniowej wykorzystania mechanizmów zarządzania wiedzą w systemie sterowania produkcją. Rozważania na ten temat zostały oparte na doświadczeniach w pracach nad integracją systemów wspomagających sterowanie produkcją oraz wspomagających podejmowanie decyzji w zakładach przemysłowych. W wyniku stopniowych przekształceń integracyjnych ten tradycyjny system wspomagający zarządzanie miał się przerodzić w nowoczesny system ekspercki wykorzystujący bazę wiedzy konstruowaną na podstawie doświadczeń menedżerów zakładów. Ideą wiodącą jest tu stworzenie systemu wspomagającego zarządzanie pozwalającego jednocześnie na automatyczne wybieranie optymalnych – wg zadanych kryteriów - wariantów rozwoju produkcji. W zamierzeniach system ma objąć wszystkie sfery zarządzania przedsiębiorstwem: zaopatrzenie, produkcję, zbyt i księgowość. W pracy skoncentrowano się na sferze produkcyjnej, najdokładniej rozpoznanej i przeanalizowanej i odwzorowanej w postaci trzech, komplementarnych wobec siebie systemów. Ogólnie rzecz biorąc można je określić jako system bieżącego zarządzania produkcją, system analiz i prognozowania optymalnej struktury zaopatrzenia, produkcji i zbytu oraz system wyboru optymalnego wariantu rozwojowego w określonej rzeczywistością sytuacji decyzyjnej. Pierwszy z tych systemów jest tak skonstruowany, że posiada udokumentowane późniejszymi zastosowaniami walory uniwersalne, pozwalające na zastosowanie go w wielu sferach gospodarki. W drugim – zostaje niejako odzwierciedlona – wiedza ekspertów na temat określonej, wąskiej, specyficznej branży gospodarowania. Trzecia funkcjonuje w chwili obecnej jedynie jako koncepcja badawcza. Kolejne kroki konstruowania systemu polegają więc na: 1. Skonstruowaniu - opartego na bazie danych - systemu wspomagającego zarządzanie procesami produkcyjnymi (klasy systemów informacyjnych zarządzania), Witold Chmielarz Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego 30 2. 3. 4. 5. 6. 7. 8. Dostosowaniu go w warstwie aplikacji do branżowego modelu informacyjnego, Zbudowaniu ogólnego modelu matematycznego (zasilanego z bazy danych, z zewnątrz oraz przez świadomego użytkownika) odzwierciedlającego procesy sterowania produkcją dla danej branży, a także „wymiennych” elementów tego modelu, umożliwiających złożenie wariantowych submodeli wspomagających procesy decyzji cząstkowych, Budowie systemu zarządzania bazą modeli – manipulowanie elementami (równaniami matematycznymi), ograniczeniami, parametrami i wariantowymi składowymi funkcji celu (system wspomagający zarządzanie w sferze sterowania produkcją), Budowie – na tej bazie – systemu eksperckiego zawierającego mechanizm transformacji informacji zawartych w modelu na wiedzę przechowywaną w systemie, Konstrukcji - w nim zawartego - mechanizmu porównań rzeczywistych wariantów rozwoju z przechowywanymi wzorcami, Budowie procedur przetwarzania wiedzy zawartej w systemie, Wdrożeniu zintegrowanego systemu eksperckiego opartego na zarządzaniu wiedzą. Najważniejsze etapy budowy modelu systemu opisano poniżej. System wspomagający zarządzanie procesami produkcyjnymi jest oparty na bazie danych. Wokół bazy danych zbudowano system aplikacji branżowych dzięki specyficznemu użyciu generacyjnej struktury programowania. Użytkowa praca z systemem polega na aktywizacji kolejnych funkcji przetwarzania. W warstwie aplikacji następuje dostosowanie systemu do branżowego modelu informacyjnego. System wspomagający zarządzanie, po oprogramowaniu może zostać wdrożony w organizacji branżowej [1]. Wdrożenie to powinno być poprzedzone pełną analizą organizacyjno-informacyjną organizacji przeprowadzoną pod kątem wdrożenia systemu generacyjnego, założeniami wdrożenia systemu i zebraniem danych niezbędnych dla realizacji kolejnych aplikacji. Na tej podstawie można dopiero skonstruować i rozwijać na tej bazie system optymalizacyjny wspomagania decyzji. Podstawowa struktura informacyjna, uzyskana dzięki początkowym analizom staje się podstawą zarówno do stworzenia systemu bieżącego sterowania produkcją, jak też systemu podejmowania decyzji. Stworzony dzięki rozpoznaniu system programów aplikacyjnych obejmuje trzy zasadnicze sfery zarządzania organizacją branżową: zaopatrzenie, produkcję oraz zbyt, wspomagane przez wspólną bazę danych. Nad tą strukturą zbudowano system optymalizacji oparty o bazę modeli i system manipulowania modelami. Wsparty jest oprogramowaniem modułu obliczeniowego (solvera). Wykorzystanie podsystemu w sposób użytkowy polega na interakcyjnej generacji kolejnych modeli i ich przetworzeniu. Proces ten jest kierowany przez moduł menu systemu, wspólny dla modułu obliczeniowego (solvera) i modułu generacji i modyfikacji modeli. Po zakończeniu kreacji postaci obliczeniowej modelu następuje powrót do modułu menu i wykonanie dalszych czynności. Postać obliczeniowa modelu powstaje poprzez operowanie systemem menu na: względnie stałej strukturze ogólnej modelu (wnętrze tablicy simpleksowej), przez określanie wierszy/kolumn aktywnych w danym przetworzeniu w sesji obliczeniowej, wariantowych lub zmiennych ograniczeniach (ograniczenia górne/dolne, stany normatywne itp.), postaci funkcji celu, z określonego repertuaru funkcji celu i/lub ich bieżącej kombinacji. Przetworzenie może być dokonywane wielokrotnie dla tej samej postaci wnętrza tablicy simpleksowej z różnymi wartościami ograniczeń bądź funkcji celu lub też jednokrotnie dla zafiksowanej lub zmienionej postaci obliczeniowej modelu. Kolejne formy postaci modelu są zapamiętywane, tak, aby nie następowało w jednej sesji powtórne obliczanie tej samej postaci modelu. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 31 Wszelkie operacje dokonywane są na bieżącej postaci modelu. Dokonanie jednego przetworzenia w jednej sesji obliczeniowej jest procesem zamkniętym i do momentu jej zakończenia użytkownik nie ma możliwości ingerencji w proces obliczeniowy, za wyjątkiem funkcji przerwania i powrotu do głównego menu. Różnice technologiczne i proceduralne sprawiają, że oprogramowanie powodujące przetworzenie w systemie optymalizacji dzieli się na następujące podsystemy: - podsystem menu (katalogów opcji), - podsystem kreacji i modyfikacji modeli, - podsystem obliczeniowy (solver), - podsystem transmisji z/do podsystemu. 2. Koncepcja wykorzystania systemu eksperckiego przez mechanizmy zarządzania wiedzą W skład modelowej struktury systemu eksperckiego opartego o bazę wiedzy oprócz wymienionych uprzednio elementów dochodzą mechanizmy następujące [5]: - podsystem dostarczania wiedzy, - baza wiedzy, - specjalny interfejs - edytor użytkownika, - podsystem objaśniający (justyfikator), - system udoskonalania wiedzy. Podsystem dostarczania wiedzy określa sposób gromadzenia, transferu oraz transformacji ze źródeł eksperckich lub dokumentów wiedzy do postaci dającej się skategoryzować i przechowywać w bazie wiedzy. Potencjalne źródła takiego systemu zawierają zarówno możliwości skatalogowania wiedzy ludzkich ekspertów, jak i tradycyjną, „papierową” wiedzę książkową, wiadomości multimedialne, bazy danych publiczne i prywatne, wewnętrzne i zewnętrzne, raporty badawcze oraz informacje z sieci Internetu. W bardziej skomplikowanych przypadkach zakłada się współdziałanie w procesie transformacji „żywego” eksperta lub specjalnego programu interpretującego i integrującego wiedzę ludzką na analogie, przykłady i wzorce. Baza wiedzy zawiera kwantum zrelatywizowanej informacji niezbędnej dla zrozumienia, sformułowania i rozwiązania problemu. Dzieli się ona na dwa podstawowe elementy: fakty oraz zasady przypisania faktów do metod rozwiązywania zdefiniowanych problemów (wzorce) przez mechanizm wnioskowania opartego na zasadach podejmowania decyzji wyspecyfikowanych dla danej organizacji. W rozwiniętej postaci mechanizm wnioskowania przyjmuje postać „maszyny” wnioskującej (inference engine), która udziela użytkownikowi wskazówek o sposobie używania systemu wiedzy (kontroluje procedurę połączeń pomiędzy interfejsem, bazą wiedzy a pozostałymi elementami systemu). Interfejs użytkownika, służący komunikacji pomiędzy użytkownikiem a systemem zawiera na ogół różne formy menu, ikon, grafiki lub interakcyjnego języka opartego na podejściu pytanieodpowiedź. W systemie eksperckim rozbudowywany jest o różnego typu edytory (blackboard), służące uzupełnianiu podręcznej bazy danych o charakterystyki bieżącego problemu w postaci danych wejściowych oraz zapamiętywania pośrednich decyzji i hipotez (wariantów wyboru). Proces decyzyjny może być na przykład zapamiętywany jako: plan działania, warianty potencjalnych akcji do podjęcia oraz ścieżki rozwiązania problemów. 32 Witold Chmielarz Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego Podsystem objaśniający (justifikator) tłumaczy skutki podejmowania określonych decyzji, wyjaśniając związki przyczynowo-skutkowe pomiędzy wprowadzonymi informacjami (faktami) a wyborem wzorca postępowania (decyzji) z bazy wiedzy (tzn. np. dlaczego zwrócono się z takim problemem do systemu eksperckiego, w jaki sposób wyciągnięto powyższy wniosek, dlaczego odrzucono określone alternatywy działania, jaki jest plan działania w celu rozwiązania zdefiniowanego problemu itd.). System udoskonalania wiedzy analizuje zasoby wiedzy „ludzkiego” eksperta i uczy się od niego oraz rozwija w trakcie przyszłych konsultacji. Z drugiej strony może to prowadzić również do usprawnienia możliwości korzystania z bazy wiedzy i bardziej efektywnego procesu wnioskowania. Strukturę systemu wspomagającego podejmowanie decyzji uzupełnionego o mechanizmy zarządzania wiedzą prezentuje Rys.1. Zarządzanie wiedzą to efektywne wykorzystanie przez użytkownika mechanizmów manipulacji informacją w celu usprawnienia procesów kierowania organizacją [2]. Z drugiej strony zarządzanie wiedzą - to efektywność zastosowania systemów informacji gospodarczej w celu zaspokajania potrzeb użytkownika. Można je przeprowadzać na wiele sposobów i w oparciu o różne narzędzia, których dostarcza architektura systemu informatycznego. W systemach opartych jedynie o bazę danych najbardziej efektywnym narzędziem zarządzania wiedzą jest automatyczne wyszukiwanie informacji (data-mining).Data-Mining jest to proces automatycznej ekstrakcji użytecznej i wartościowej informacji z dużych baz danych. W systemach opartych również o bazę modeli informacje te mogą być dodatkowo przetworzone przy pomocy modeli matematycznych, a ujawnione w ten sposób ukryte trendy, korelacje i wzorce w danych wspomagać mogą procesy decyzyjne w przedsiębiorstwie. Podstawa zarządzania wiedzą w takich systemach wymaga gromadzenia masowych danych, potężnych mocy przetworzeniowych i skutecznych algorytmów wyszukiwawczych. Ale postępowanie wspomagające podejmowanie decyzji polega tu głównie na automatycznym przewidywaniu trendów na podstawie danych uzyskanych z bazy danych i co najwyżej z niektórych źródeł zewnętrznych. Brakuje mechanizmów dalszej selekcji oraz gromadzenia wyników działania modeli decyzyjnych przy przyjętych założeniach. Czegoś co moglibyśmy nazwać wzorcem postępowania w określonych warunkach. Procedury zapamiętywania takich sytuacji (wzorców) decyzyjnych oraz automatyczne odkrywanie nieznanych uprzednio wzorców zależności i zachowań na podstawie już zgromadzonych dostarczają dopiero systemy wyposażone w bazę wiedzy. Spowodowane jest to faktem, że w wielkich bazach danych niezbędne dla zarządzania dane są często głęboko ukryte, modele bywają zbyt ogólne lub wyabstrahowane z rzeczywistości, a przechowywać można jedynie rezultaty przeszukiwań i obliczeń a nie drogi dojścia do nich w ciągłym procesie decyzyjnym (związki przyczynowo skutkowe i inne relacje). POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 33 Użytkownik System bieżącego sterowania produkcją – aplikacje z programu generacyjnego System interakcji z użytkownikiem menu Generacja raportów Edytor użytkownika blackboard System zarządzania bazą danych Transformacje i konwersje międzymodułowe Baza danych System kreacji i modyfikacji modeli Baza modeli Moduł obliczeniowy (solver) Podsystem objaśniający Mechanizm wnioskowania Baza wiedzy System udoskonalania wiedzy Rysunek 1. Struktura modelowego systemu eksperckiego opartego o bazę wiedzy Ten – w gruncie rzeczy - proces transformacji informacji w wiedzę przebiega w sposób następujący: - zebranie danych w bazie danych systemu, - wstępne przetworzenie danych i gromadzenie ich w hurtowniach danych, - transformacja danych w elementy modelu w celu przygotowania ich do tworzenia wariantów rozwoju organizacji, - dalsza analiza przygotowana z użyciem narzędzi automatycznych, - porównania stworzonego modelu z modelami zgromadzonymi w bazie modeli, Witold Chmielarz Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego 34 - w przypadku powstania nowego wariantu rozwoju, określenie jego efektywności (analiza ryzyka, warunków sukcesu itp.) i zapamiętanie w bazie wiedzy, w postaci służącej ostatecznemu podjęciu decyzji. W powyższym ujęciu koncepcja architektury systemu zarządzania wiedzą, przedstawiona w sposób modelowy uprzednio, musiałaby zostać uzupełniona i wyposażona w następujące atrybuty [3]: - Moduł pytający - interakcyjny mechanizm zapytań (język użytkownika), - Identyfikator - zebranie danych. Opis problemu za pomocą atrybutów, funkcji i procesów, - Selektor - kategoryzacja danych i elementów modeli (wyszczególnienie nowych), - Ewaluator - mechanizm porównania z bazą modeli (dodanie nowych), - Asocjator - powiązanie problemu z właściwą metodą jego rozwiązania, - Baza rozwiązań – zbiór metod rozwiązywania problemów, - Solver - automatyczne rozwiązanie problemu lub przełączenia na właściwe narzędzie wspomagające typu I-CASE tool (gdy brak jest gotowego rozwiązania), - Translator – podsystem objaśniający klasę zagadnienia i sposób przekierowania go do odpowiedniego modułu systemu, - Modyfikator - zmiana modelu lub stworzenie nowego, na podstawie wzorców przechowywanych w bazie wiedzy, - Adapter – system udoskonalania wiedzy, tworzenia nowych wzorców lub korzystania z wbudowanego narzędzia klasy I-Case. Dodatkowe elementy architektoniczne – w stosunku do konstrukcji modelowej – przedstawiono na rysunku 2. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 Użytkownik System bieżącego sterowania produkcją – aplikacje z programu generacyjnego System interakcji z użytkownikiem – system zapytań i podpowiedzi Generacja raportów, w tym raportów decyzyjnych Edytor użytkownika – język zapytań, język formułowania koncepcji System zarządzania hurtownią danych, mechanizmy data-mining Identyfikator – opis problemu funkcjonalny, procesowy, atrybutowy Selektor– kategoryzacja danych i elementów modeli, wybór nowych Modyfikator kreacji i modeli Transformacje i konwersje międzymodułowe Hurtownia danych Hurtownie branżowe Ewaluator – ocena i dodanie nowych modeli do BM Moduł obliczeniowy (solver) Baza rozwiązań Translator podsystem objaśniający system modyfikacji Asocjator– kojarzenie z metodą rozwiązania Konkludor mechanizm wnioskowania Baza modeli Baza wiedzy (wzorce) Adapter - system udoskonalania wiedzy, tworzenie wzorców lub ICASE Rysunek 2. Struktura rozwiniętego systemu eksperckiego opartego o bazę wiedzy 35 36 Witold Chmielarz Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego 3. Techniki zarządzania wiedzą w koncepcji systemu eksperckiego informatycznego Najbardziej krytycznymi obszarami w realizacji właściwego funkcjonowania zaprezentowanego modelu są elementy i procedury sprzężenia zwrotnego obsługujące bazę wiedzy i bazę modeli. W sferze bazy wiedzy mają one za zadanie przekształcenie wiedzy na postać akceptowalną do przechowywania na komputerze i jednocześnie właściwie zorganizowaną dla wykorzystania przez użytkownika końcowego systemu. Pierwszy może w tym przypadku być np. oparty bazę reguł (rules base), gdzie baza wiedzy jest reprezentowana w postaci grupowanych dla danej sytuacji zbiorów związków przyczynowo-skutkowych, łączących warunki i wynikające z nich konkluzje dla specyficznych sytuacji modelowych rozwiązywanych w analizowanym systemie. Reguły mogą występować w dwóch postaciach: deklaratywnej (stan faktów oraz relacji pomiędzy nimi dotyczących danego problemu) oraz wniosków (procedur – objaśniających jak postępować by rozwiązać zadany problem). Reguły są łatwe do zrozumienia i komunikatywne, ponieważ odzwierciedlają naturalne zasady reprezentacji wiedzy w zarządzaniu. Łatwo też konstruować na podstawie reguł wnioski i wyjaśnienia oraz modyfikacje, a reguły da się łatwo wyodrębnić od innych. Może tez być rozwiązana na podstawie par relacji warunku-akcji (jeżeli-to). Jeżeli warunek jest spełniony wtedy określona akcja (czy rezultat, czy wniosek, czy konsekwencja działania) zostaje podjęta. Na tej podstawie można konstruować drzewa decyzyjne, albo wzorce obiektów. Głównym zadaniem stojącym tu przed systemem jest przekształcenie wiedzy eksperta na zbiór reguł wykorzystywanych następnie przez mechanizm wnioskowania. Mechanizm wnioskowania w trakcie procesu rozwiązywania decyzji złożonych łączy ze sobą szereg pojedynczych zasad, zgodnie z narzuconymi z góry warunkami ograniczającymi jego działanie w obszarze decyzji dopuszczalnych. Mechanizm wnioskowania posługuje się dwoma możliwymi technologiami: wnioskowania wstępującego i postępowania zstępującego. W pierwszy przypadku przyjęta na początku startowa reguła daje asumpt do wyciągnięcia różnych wniosków, które są z kolei podstawą do wyboru kolejnych reguł a te z kolei prowadzą do następnego spektrum wniosków. Warunki ograniczające (ewentualnie dodatkowa funkcja celu – minimalizacja odległości od wzorca) pozwalają na wybranie optymalnej ścieżki wnioskowania w tym przypadku. Drugi przypadek jest odwrotnością pierwszego. Startuje się z wniosku docelowego, zakładając że jest prawdziwy. Następnie bada się łańcuch możliwych ścieżek dojść do tego wniosku, badając wszystkie możliwe sytuacje oraz wybierając najlepsze ze względu na przyjęte kryteria rozwiązania. Stosuje się tu wiele metod wnioskowania: indukcyjne (od faktów do uogólnienia), dedukcyjne (od ogółu do szczegółu) , analogowe (porównanie z analogiczną sytuacją), formalne (syntaktyczna manipulacja struktura danych w celu osiągnięcia nowych faktów), proceduralne (użycie modeli matematycznych), adaptacyjne (wyjaśniające - wynikające z zarejestrowanej wiedzy o faktach i zasadach ich powstawania) [4]. Przedstawiona koncepcja jest zgodna w swojej warstwie opisowej z metodyką procesu inżynierii-wiedzy, składającej się z pięciu kroków: dostarczania wiedzy (acquisition), reprezentacji (representation) wiedzy, oceny (validation) wiedzy, wnioskowaniem (inferencing) oraz wyjaśnieniem (explanation) i uzasadnieniem (justification).Wiedza dostarczana jest do systemu przez ludzkich ekspertów, książki, dokumenty, sensory lub w postaci zbiorów elektronicznych. Następnie jest przekształcana w postać czytelną dla komputera, czyli bazę wiedzy droga transformacji i mapowania. Tak zdobyta i zarejestrowana wiedza jest oceniana i weryfikowana (np. metoda testów) dopóki nie stanie się użyteczna. Na jej podstawie budowany jest mechanizm wnioskowania po- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 37 zwalający na użycie bazy wiedzy przez nieprofesjonalistów. Ostatnim z mechanizmów jest objaśnienie racjonalności podejmowanych decyzji (wysnutych wniosków). Elementy te zostały ujęte w przedstawionej koncepcji. Dotychczas jest to niestety jedynie koncepcja, będąca w stanie konstrukcji. Jak dotąd zrealizowano dokładne rozpracowanie systemu aplikacji opartego na bazie danych oraz połączonego z nim systemu podejmowania decyzji wspomaganego przez bazę modeli. Dalszy rozwój tego modelu powinien iść w kierunku stworzenia narzędzi zarządzania wiedzą i włączenia ich w architekturę systemu. Polegać on powinien na skonstruowaniu automatycznego narzędzia wybierającego najlepsze rozwiązanie spośród dostępnych lub – w przypadku braku takiego – współpracujące z użytkownikiem w stworzeniu takiego, które będzie akceptowalne dla użytkownika końcowego. 4. Literatura 1. 2. 3. 4. Chmielarz W. 2001. Informacyjne aspekty integracji systemów wspomagających zarządzanie produkcją cz. I. [W:] Zarządzanie Przedsiębiorstwem nr 1-2, Kwartalnik Naukowo-Techniczny pod red. R. Knosali Opole. 16-23. Chmielarz W. 2001. Tendencje rozwoju narzędzi automatycznego wyszukiwania danych (data-mining). [W:] Mat. Konf. Systemy Wspomagania Organizacji. Praca naukowa pod red. Gołuchowskiego J. i Sroki H., Wydawnictwa Akademii Ekonomicznej w Katowicach, 182-190. Chmielarz W. 2005. System zarządzania wiedzą jako element systemu wspomagania organizacji. Podrozdział rozdziału III pt. Zarządzanie wiedzą i rozwiązania Business Intelligence, [W:] Praca zbiorowa pod red. Porębskiej-Miąc T i Sroki H. Wydawnictwa Akademii Ekonomicznej w Katowicach, 275-282 Generowanie wiedzy dla przedsiębiorstwa. Metody i techniki pod red. Nycz M., 2005. Wydawnictwa AE we Wrocławiu. Turban E., Aronson J., Liang T. 2005. Decision Support System and Intelligent Systems. Pearson-Prentice Hall Upper Saddle River. 38 Witold Chmielarz Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego THE KNOWLEDGE MANAGEMENT TECHNIQUES IN CONCEPT OF EXPERT SYSTEM Summary The main goal of the article is formulating of the rules of information system model construction architecture using of knowledge management mechanism. The starting point are assumptions of building of database system cooperating with decision support system. Next the standard expert system with elements of knowledge management is introduced. and concept of model development by adding transformation mechanism of internal model information to knowledge stored in system and comparison mechanism of real variants development with stored patterns are presented. In final part of article proposed in model architecture techniques of knowledge management were introduced. Keywords: Expert System, Knowledge Management, Technique of Knowledge Management WITOLD CHMIELARZ [email protected] Wydział Zarządzania Uniwersytetu Warszawskiego ul. Szturmowa 1/3; 02-678 Warszawa POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 39 LUDOSŁAW DRELICHOWSKI MACIEJ NOSAL Akademia Rolnicza w Szczecinie UWARUNKOWANIA TWORZENIA METADANYCH DO WSPOMAGANIA ZARZĄDZANIA WIEDZĄ W UCZELNI Streszczenie W pracy zaprezentowano koncepcję prac badawczych zapewniających opracowanie hurtowni danych na podstawie wieloletnich danych transakcyjnych oraz zastosowania systemów automatycznej analizy danych OLAP (On-Line Analytical Process). W procesie tworzenia hurtowni danych niezbędne jest tworzenia metadanych ułatwiające wykorzystanie tych informacji w jednorodnej strukturze powiązanych wieloletnich baz danych pochodzących ze zbiorów transakcyjnych uczelni. Słowa kluczowe: bazy wiedzy, hurtownie danych, metadane, OLAP – On Line Analytical Process (automatyczna bieżąca analiza danych) 1. Wprowadzenie Zarządzanie wiedzą w szkolnictwie wyższym może być rozpatrywane jako zastosowanie zaawansowanych technologii informacyjnych do wspomagania zarządzania uczelnią ukierunkowaną na poprawę efektywności tego procesu. Do wskazanych technologii przetwarzania należy wymienić budowę hurtowni danych oraz zastosowania oprogramowania data mining lub systemów OLAP (On Line Analitycal Process) do wspomagania zarządzania strategicznego uczelniami (niektóre polskie uczelnie wdrażają już te standardy). Są to działania, które mogą stanowić źródła przewagi konkurencyjnej w warunkach malejących naborów kandydatów na studia w związku z konsekwencjami niżu demograficznego. Inne aspekty dotyczą zastosowań technologii informacyjnych w standardzie zarządzania wiedzą, o której piszą Baborski i Bonner1, Kisielnicki2, Drelichowski3, a które w polskiej literaturze również w zakresie informatyki ekonomicznej znajdują szerokie omówienie. Problematykę wirtualizacji organizacji w aspekcie rozwiązań zarządzania wiedzą prezentują w różnych aspektach prace Gwiazdy4 oraz Januszewskiego i Drelichowskiego5. Wirtualne Branżowe Systemy Wspomagania Decyzji, zdaniem Gwiazdy (2005), stanowią rozwojowy model kreowania, dystrybucji i zastosowań wiedzy w organizacjach wirtualnych z zastosowaniem wielu proponowanych przez autora modeli wspomagania decyzji. Inne przesłanki stanowiły punkt wyjścia kreowania wirtual1 Baborski A., Bonner R., Zarządzanie wiedzą korporacyjną – dwa podejścia. Zarządzanie wiedzą w systemach informacyjnych. AE Wrocław s. 19-27. 2 Kisielnicki J.(2004), Zarządzanie wiedzą we współczesnych organizacjach. Zarządzanie wiedzą w systemach informacyjnych. AE Wrocław s. 27 - 52 3 Drelichowski L.(2004), Podstawy inżynierii zarządzania wiedzą. Studia i materiały nr 1, PSZW Bydgoszcz 4 Gwiazda T., (2005) Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa s. 123-142. 5 Januszewski A, Drelichowski L., (2005) Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa s.66-79 40 Ludosław Drelichowski, Maciej Nosal Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni nej organizacji w pracy Januszewskiego i Drelichowskiego (2005), w której przesłankę rozwoju bazy wiedzy dla organizacji wirtualnej stanowią rozwiązania integrujące potencjał wykonawczy małych i średnich firm regionu, umożliwiające wykonawstwo środkami lokalnych firm projektów znacznej rangi, dofinansowanych ze środków UE. Problemem, który wymaga podjęcia systematycznych badań dla zaawansowania merytorycznych – w mniejszym stopniu technologiczno-softwearowych aspektów zarządzania wiedzą – są rozwiązania procesów dydaktycznych związanych z tworzeniem hurtowni danych na bazie ekwiwalentnie dużych zbiorów danych. Proces tworzenia hurtowni danych musi uwzględniać zmianę struktury kodowej rekordów wynikających ze zmiany w tym czasie przepisów prawnych oraz głęboką przebudowę stosowanego w poszczególnych latach planu kont. Jest to klasyczny problem leżący na pograniczu kompetencji pracowników organizacji wdrażającej system i dostawcy oprogramowania oraz implementacji systemu dla użytkownika. Podobnej natury problem dotyczy interpretacji rezultatów wydobywania wiedzy poprzez procedury automatycznej analizy danych OLAP lub Data Mining. Zdaniem autora zewnętrzny zespół wdrażający tego typu rozwiązania softwearowe w organizacjach sporadycznie będzie w stanie nadać właściwą merytorycznie interpretację wszystkich ważnych dla strategii firmy i przewagi konkurencyjnej parametrów. Cytowane wyżej uwarunkowania przesądzają, że w procesie edukacji informatycznej studentów wydziałów o profilu ekonomii i zarządzania, należy przygotować środki do przekazu wiedzy pozwalające na zapewnienie aktywnego uczestnictwa we wdrażaniu technologii informacyjnych w zakresie hurtowni danych i wykorzystania wyników automatycznych analiz. 2. Uwarunkowania tworzenia algorytmów niezbędnych w procesie tworzenia metadanych Tworzenie standardów oprogramowania w powiązaniu z niezbędnymi dla zaawansowanych zastosowań IT wymaga często gigabajtowych baz danych, tworzonych na podstawie rzeczywistych zbiorów transakcyjnych, co nie należy do łatwych przedsięwzięć. Nawet pracownicy uczelni uczestniczący we wdrażaniu tego typu przedsięwzięć składają oświadczenia o nie upowszechnianiu udostępnionych im baz danych dla innych celów. Utworzenie zweryfikowanego zbioru ośmio metadanych, pozwoli na efektywne zastosowanie oprogramowania OLAP. Warunek uzyskania jednorodnego precyzyjnie identyfikowanego zbioru metadanych stanowi zbudowanie zbiorów konwersji kodów pozwalających zinterpretować zmieniające się plany kont w systemie finansowo-księgowym Uczelni oraz zmiany wynikające z ustawy o ubezpieczeniach społecznych oraz księgowości. Dane pochodzące z Akademii Rolniczej w Szczecinie dotyczą podsystemów: FinansowoKsięgowego, Kadrowo-Płacowego, Gospodarki Materiałowej oraz Ewidencji Środków Trwałych, z ośmiu lat. Zeskładowane bazy danych mają w jednym przypadku objętość GB w drugim natomiast 4,7 GB zaskładowane są w standardzie bazy danych PROGESS i wymagają dokonania konwersji na zbiory MS ACCESS Ponieważ zbiory zawierają realne dane z dokumentów transakcyjnych występujących w okresie dynamicznych zmian systemowych w latach 1994 do 2004 to precyzowanie zadań dla zespołów może być niezwykle atrakcyjne merytorycznie. Dokonanie algorytmizacji konstrukcji konwersji zbiorów z poszczególnych lat przetwarzania danych na struktury metadanych wymaga dokonania analizy zmian rozwiązań formalnoprawnych. Ponieważ w ośmioletnim okresie archiwizacji danych dokonywano wielu zasadniczych POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 41 zmian prawno-skarbowych, to posłużymy się specyfikacją zmian systemu podatkowego jako składnika determinującego jednoznaczną identyfikację informacji w strukturze metadanych. Zasadnicza reforma systemu podatkowego rozpoczęła się w 1991 roku, kiedy to na mocy ustawy wprowadzono podatek dochodowy od osób fizycznych, a zaraz po nim podatek dochodowy od osób prawnych. Wówczas w Polsce pojawiło się kilkanaście milionów nowych podatników - osób fizycznych, którzy osiągali dochody ze stosunku pracy, a do tej pory nie byli zobowiązani do opłacania podatku z tego tytułu. Do tego momentu nie musieli składać żadnych zeznań podatkowych, gromadzić rachunków dokumentujących wydatki, czy prowadzić ewidencji podatkowej. Pierwsze zeznania podatkowe złożyli Polacy nie prowadzący działalności gospodarczej na rachunek własny za rok podatkowy 1992. W 1991 roku zostaje również uchwalona ustawa o podatkach i opłatach lokalnych, w której to znalazły się uregulowania dotyczące podatków stanowiących dochody gmin. Regulacje te dotyczyły podatku od nieruchomości, podatku od środków transportu, opłat lokalnych tj. administracyjnej, miejscowej i targowej. Kolejną ważną datą w tworzeniu systemu podatkowego był 5 lipca 1993 roku, kiedy to wprowadzono w życie ustawę o podatku od towarów i usług VAT i podatku akcyzowym. Prawne podstawy do nakładania obowiązków podatkowych stanowi Konstytucja Rzeczypospolitej Polskiej z dnia 2 kwietnia 1997 roku. Art. 217 Konstytucji RP mówi, że nakładanie podatków i innych danin publicznych oraz określanie podmiotów opodatkowania, przedmiotów opodatkowania, stawek podatkowych, kategorii pomiotów zwolnionych od podatków, zasad przyznawania ulg i umorzeń podatkowych może następować wyłącznie w drodze ustawy. W dniu 29 sierpnia 1997 roku została uchwalona ordynacja podatkowa. Akt o randze ustawy regulował w sposób całościowy zasady postępowania, wykonywania i wygasania zobowiązań podatkowych. Dawała ona pewną spójność przepisów podatkowych i eliminowała problemy dotyczące interpretacji. Przepisami ordynacji podatkowej objęte zostały podatki jak również opłaty i inne nie podatkowe należności budżetu państwa i budżetów jednostek samorządu terytorialnego, do których ustalania uprawnione są organy podatkowe. Następne poważne prace nad pakietem zmian w systemie podatkowym były prowadzone w 1999 roku i skończyły się wetem Prezydenta w odniesieniu do podatku dochodowego od osób fizycznych. Podpisana została ustawa o podatku dochodowym od osób prawnych. To doprowadziło do zróżnicowania zasad opodatkowania dochodów podatników w zależności od tego czy są osobami fizycznymi, czy też osobami prawnymi. I tak w latach 2001-2003 osoby fizyczne płacą zgodnie z progresją stawki 19 %, 30 %, 40 %, a osoby prawne według skali liniowej 28%. Inną zmianą wprowadzoną 4 września 2000 roku było objęcie rolnictwa podatkiem VAT, co oznacza, iż polscy rolnicy mogą być podatnikami VAT na ogólnych zasadach lub korzystać ze zryczałtowanego zwrotu podatku w wysokości 3 % dokonanej przez nich sprzedaży. W 2001 roku weszły w życie przepisy nowej ustawy o opłacie skarbowej i ustawy o podatku od czynności cywilno prawnych. W 2001 roku nastąpiła zmiana ekipy rządzącej i pojawiły się zmiany głównie w konstrukcji podatku dochodowego od osób fizycznych. Główne punkty zmian to 5: • od 1 marca 2002 roku wprowadzono podatek z odsetek od środków pieniężnych zgromadzonych na rachunkach bankowych, • na lata 2002/2003 zamrożono skalę podatkową, jedynie podwyższono kwotę wolną od podatku, • zlikwidowano i ograniczono wiele zwolnień podatkowych, 42 Ludosław Drelichowski, Maciej Nosal Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni • zlikwidowano ulgę z tytułu zakupu działki, • tzw. dużą ulgę budowlaną zastąpiono odliczeniem od dochodu odsetek od kredytów zaciągniętych na własne cele mieszkaniowe. Zmiany dotknęły również konstrukcji podatku VAT i akcyzowego, a związane były z poprawą strony dochodów budżetu państwa. Główne kierunki zmian to: • opodatkowanie VAT-em obrotu licencjami, który do tej pory nie podlegał temu podatkowi, • wprowadzenie zakazu odliczania podatku naliczonego z tytułu zakupu oleju napędowego oraz gazu do samochodów osobowych, Podatek dochodowy od osób fizycznych należy do grupy podatków bezpośrednich. Obowiązek podatkowy został wprowadzony przepisami ustawy z dnia 26 lipca 1991roku 6 , a wszedł w życie z dniem 1 stycznia 1992 roku. Podatnikiem tego podatku są osoby fizyczne uzyskujące dochody, na których ciąży obowiązek podatkowy. W rozumieniu ustawy dochód, który jest podstawą do opodatkowania, to nadwyżka przychodów nad kosztami ich uzyskania w danym roku podatkowym. DOCHÓD = PRZYCHÓD - KOSZTY UZYSKANIA PRZYCHODU W przypadku, gdy podatnik uzyskuje dochody z więcej niż jednego źródła, przedmiotem opodatkowania jest suma wszystkich dochodów uzyskanych z różnych źródeł w danym roku podatkowym. Źródła przychodów, z których dochody podlegają opodatkowaniu : 1. Wynagrodzenia i inne przychody ze stosunku służbowego, stosunku pracy oraz pracy nakładczej. 2. Emerytury i renty krajowe. 3. Zasiłki pieniężne z ubezpieczenia społecznego. 4. Stypendia. 5. Przychody z działalności wykonywanej osobiście (między innymi od umów zlecenia, umów o dzieło, kontraktów menedżerskich, zasiadania w radach nadzorczych, pełnienia obowiązków społecznych). 6. Przychody z praw autorskich i innych praw majątkowych. 7. Świadczenia wypłacane z Funduszu Pracy lub Funduszu Gwarantowanych Świadczeń Pracowniczych. 8. Przychody z pozarolniczej działalności gospodarczej, jak również z wykonywania wolnego zawodu. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 43 Skala podatkowa Podatek dochodowy od osób fizycznych płacony jest w skali progresywnej. Skala podatkowa nie ma jedynie zastosowania do dochodów opodatkowanych w formie ryczałtu, a jedynie do dochodów opodatkowanych na zasadach ogólnych. W latach 1992 - 2003 skala podatkowa zmieniała się. SKALA PODATKOWA - 2003 r. SPOSÓB OBLICZENIA PODATKU do 37.024,00 19% minus kwota 530,08 37.024,00 do 74.048,00 ponad 74.048,00 6.504,48 + 30% od nadwyżki ponad 37.024,00 17.611,68 + 40% od nadwyżki ponad 74.048,00 SKALA PODATKOWA - 2002 r. SPOSÓB OBLICZENIA. PODATKU do 37.024,00 19% minus kwota 518,16 37.024,00 do 74.048,00 ponad 74.048,00 6.516,40 + 30% od nadwyżki ponad 37.024,00 17.623,60 + 40% od nadwyżki ponad 74.048,00 SKALA PODATKOWA - 2001 r. SPOSÓB OBLICZENIA. PODATKU do 37.024,00 37.024,00 do 74.048,00 ponad 74.048,00 19% minus kwota 493,32 6.541,24 + 30% od nadwyżki ponad 37.024,00 17.648,44 + 40% od nadwyżki ponad 74.048,00 44 Ludosław Drelichowski, Maciej Nosal Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni SKALA PODATKOWA - 2000 r. SPOSÓB OBLICZENIA. PODATKU do 32.736,00 32.736,00 do 65.472,00 ponad 65.472,00 19% minus kwota 436,20 5.783,64 + 30% od nadwyżki ponad 32.736,00 15.604,44 + 40% od nadwyżki ponad 65.472,00 SKALA PODATKOWA - 1999 r. SPOSÓB OBLICZENIA. PODATKU do 29.624,00 19% minus kwota 394,80 29.624,00 do 59.248,00 5.233,76 + 30% od nadwyżki ponad 29.624,00 ponad 59.248,00 14.120,96 + 40% od nadwyżki ponad 59.248,00 SKALA PODATKOWA - 1998 r. SPOSÓB OBLICZENIA. PODATKU do 25.252,00 19% minus kwota 336,60 25.252,00 do 50.504,00 4.461,28 + 30% od nadwyżki ponad 25.252,00 ponad 50.504,00 2.036,88 + 40% od nadwyżki ponad 50.504,00 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 SKALA PODATKOWA - 1997 r. SPOSÓB OBLICZENIA. PODATKU do 20.868,00 20% minus kwota 278,20 20.868,00 do 41.736,00 3.895,40 + 32% od nadwyżki ponad 20.868,00 ponad 41.736,00 10.573,16 + 44% od nadwyżki ponad 41.736,00 SKALA PODATKOWA - 1996 r. SPOSÓB OBLICZENIA. PODATKU Do 16.380,00 16.380,00 do 32.760,00td ponad 32.760,00 21% minus kwota 218,40 3.221,40 + 33% od nadwyżki ponad 16.380,00 8.626,80 + 45% od nadwyżki ponad 32.760,00 SKALA PODATKOWA - 1995 r. SPOSÓB OBLICZENIA. PODATKU do 12.400,00 21% minus kwota 165,60 12.400,00 do 24.800,00 2.438,40 + 33% od nadwyżki ponad 12.400,00 ponad 24.800,00 6.530,40 + 45% od nadwyżki ponad 24.800,00 45 46 Ludosław Drelichowski, Maciej Nosal Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni SKALA PODATKOWA - 1994 r. SPOSÓB OBLICZENIA. PODATKU do 90.800.000 21% minus kwota 1.212.000 90.800.000 do 181.600.000 17.856.000 + 33% od nadwyżki ponad 90.800.000 ponad 181.600.000 47.820.000 + 45% od nadwyżki ponad 181.600.000 SKALA PODATKOWA - 1993 r. SPOSÓB OBLICZENIA. PODATKU do 64.800.000 20% minus kwota 864.000 64.800.000 do 129.600.000 12.096.000 + 30% od nadwyżki ponad 64.800.000 ponad 129.600.000 31.536.000 + 40% od nadwyżki ponad 129.600.000 SKALA PODATKOWA - 1992 r. SPOSÓB OBLICZENIA. PODATKU do 64.800.000 20% minus kwota 864.000 64.800.000 do 129.600.000 12.096.000 + 30% od nadwyżki ponad 64.800.000 ponad 129.600.000 31.536.000 + 40% od nadwyżki ponad 129.600.000 W pierwszych latach obowiązywania podatku (1992 - 1993) stawki wynosiły 20 %, 30 %, 40 %, a już w latach 1994 -1996 obowiązywały stawki 21 %, 33 %, 45 %. W kolejnym roku, a więc 1997, zostały obniżone niewiele, ale wynosiły 20 %, 32 %, 44 %. Natomiast od roku 1998 stawki zmieniono na 19 %, 30 %, 40 % i takie obowiązują w chwili obecnej czyli w 2003 roku. Obowiązek ustalania sali podatkowej spoczywa na Ministrze Finansów, który musi skalę podatkową na dany rok podać w formie rozporządzenia do 30 listopada roku poprzedzającego rok podatkowy. Jeśli chodzi o kwotę wolną od opodatkowania, jedynie w pierwszych dwóch latach obowiązywania podatku, czyli w latach 1992 - 1993, pozostawała na tym samym poziomie, natomiast w ciągu następnych lat wzrastała. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 47 Progi podatkowe w latach 1992 - 1993 pozostawały na niezmienionym poziomie, w następnych latach wzrastały, aż do roku 2001 i znowu zostały zamrożone na tym samym poziomie, na razie na rok 2003. Pobór podatku dochodowego od osób fizycznych jest dwufazowy: • w ciągu roku podatkowego płatnik nalicza zaliczki na poczet podatku dochodowego od osób fizycznych i odprowadza naliczone kwoty do właściwego Urzędu Skarbowego, • po zakończeniu roku podatkowego następuje rozliczenie z podatku, którego może dokonać podatnik lub płatnik w ciągu 4 miesięcy od zakończenia roku podatkowego. Opisywana baza danych stanowi zbiór tablic logicznie powiązanych ze sobą. Tablice składają się z pól. Dla przykładu tablicą może być plan kont systemu, którego polami będą m.in.: konto syntetyczne, jego pełna nazwa, ilość subkont, nazwa słownika opisującego subkonta, itd.. Powiązanie pomiędzy tablicami istnieje w przypadku, gdy to samo pole występuje w dwóch tablicach. Przykładem może być pole „nazwa słownika subkont”, które występując w tablicy „słowniki subkont” musi wystąpić również w tablicy „plan kont”. Mamy tu przykład połączenia jeden do wielu: jedna nazwa słownika subkont może być przydzielona tylko do jednego słownika, ale jeden słownik może występować w opisie wielu kont syntetycznych. Techniczne rozwiązania identyfikacji poszczególnych rekordów w zbiorze metadanych wymagały będą uściślenia i dostosowania do standardów oferowanych w ramach oprogamowania hurtowni danych dostępnych w MS SQL Serverze. W perspektywie federacji Akademii Medycznej w Szczecinie z Akademią Rolniczą w Szczecinie powstaje dylemat czy wraz z nową formą organizacyjną ograniczymy dotychczasową bazę danych dla celów archiwalnych? Czy też możliwe będzie utworzenie hurtowni danych, która w specyficzny sposób umożliwiałaby syntezę najważniejszych komponentów baz wiedzy dla celów automatycznych analiz? Przytoczone wyżej problemy merytoryczne generują określone problemy badawcze, dotyczące zarówno rozwiązań softwearowo-bazodanowych niezbędnych dla procesów dydaktycznych, ale również niezwykle ważnych dla gospodarki problemów absorbcji wiedzy w warunkach konsolidacji wspomnianych już uczelni. Problem ten ma bardziej uniwersalne znaczenie w polskiej gospodarce, co ilustrować mogą przykłady konsolidacji Spółdzielni Mleczarskich Bydgoszczy i Inowrocławia z holdingiem spółdzielczym Grajewo, czy Spółdzielni Mleczarskiej w Toruniu z korporacją Spółdzielczą MLEKOWITA. 48 Ludosław Drelichowski, Maciej Nosal Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni 3. Koncepcja etapów prac w zakresie tworzenia hurtowni danych i automatycznej analizy OLAP Punktem wyjścia w opracowanym projekcie jest wdrożenie MS SQL-serwerowej wersji systemu informatycznego HMS, wdrażanego w wielu uczelniach w kraju pod bazą danych PROGRESS 8, eksploatowanego w AR w Szczecinie. Standard ten będzie rozbudowany o system hurtowni danych i opracowania zestawu aplikacji automatycznej analizy OLAP. Zastosowanie hurtowni danych w standardzie oprogramowania Microsoft ma na celu minimalizację nakładów wdrożenia systemów wypracowanych w obydwu uczelniach oraz standardów transformacji danych, pozwalających na szerszą skalę wdrożeń w innych uczelniach średniej wielkości. Hurtownie danych i automatyczna analiza danych OLAP stają się podstawą strategicznego zarządzania organizacjami. Rosnąca konkurencyjność organizacji edukacyjnych powoduje, że tworzenie strategii przetrwania i rozwoju uczelni wymaga stosowania coraz bardziej zaawansowanych metod wspomagania decyzji. W przypadku uczelni średniej wielkości, do których należą Akademia Rolnicza w sztywnym ograniczeniem jest wybór standardów oprogramowania możliwego do sfinansowania ze skromnych środków finansowych możliwych do przeznaczenia na realizację tego celu. Zarządzanie wiedzą staje się dziedziną rozwoju technik informacyjnokomunikacyjnych, których celem jest ograniczanie barier różnych grup użytkowników do wspomagania działalności podstawowej bazami wiedzy niezbędnymi w danej dziedzinie działalności. Spośród wielu coraz szerzej dostępnych publikacji wymienić można monografię Drelichowskiego (2004), zawierającą szersze omówienie różnych aspektów problematyki zarządzania wiedzą. Do kierunkowych opracowań należą również prace Drelichowski (2002) Drelichowski (2003a)6, Drelichowski (2003b)7, Drelichowski (2005)8 uwzględniające różne aspekty finansowania wiedzy i jej zastosowań w różnych działach gospodarki i agrobiznesie. Przetwarzanie i analiza baz danych tworzonych z automatycznych systemów pomiarowych staje się zagadnieniem coraz trudniejszym do rozwiązania, co wymaga zastosowania nowoczesnych standardów tworzenia, automatycznej analizy i zarządzania bazami wiedzy. 6 Drelichowski L.: Zastosowanie specjalistycznych baz wiedzy i szkoleń z podstaw inżynierii wiedzy środkiem doskonalenia zarządzania w sektorze małych i średnich firm. Prace Naukowe AE Wrocław 2002 Nr 941 T-1 s. 189-186. 7 Drelichowski L.: Narzędzia, metody i środki finansowania zarządzania wiedzą w gospodarce, ochronie zdrowia i edukacji. IBSPAN 2003, Badania Systemowe t.3? s. 40-52. 8 Drelichowski L.: Czynniki determinujące rozwój zastosowań technologii informacyjnych zarządzania wiedzą w przedsiębiorstwach agrobiznsu. Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w Unii Europejskiej. Wyd. SGGW Warszawa 2005 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 49 4. Podsumowanie i wnioski Opracowanie bazowych standardów edukacji wdrażania oprogramowania hurtowni danych i systemów automatycznej analizy OLAP i data mining wymaga opracowania jednostek dydaktycznych uwzględniających odpowiednie zasoby danych transakcyjnych. Dysponowanie realnymi bazami danych z dwóch uczelni oraz kilkunastoosobowym zespołem badawczym stwarza szansę na realizację celów badań sformułowanych w niniejszej pracy. Uzyskanie grantu badawczego, pozwalającego na wypracowanie podstawowych rozwiązań oprogramowania dydaktycznego z niezbędnymi bazami danych i uzupełniających zakupów sprzętu, pozwoli na wypracowanie podstaw rozwiązania problemu edukacji zaawansowanych zastosowań IT. Te doświadczenia oraz doświadczenia, możliwe do uzyskania w ramach konsolidacji hurtowni danych z dwu uczelni, mogą stanowić podstawę do inicjowania tego typu prac ukierunkowanych utylitarnie w ramach projektów dofinansowanych z funduszy Unii Europejskiej. 5. Literatura 1. Baborski A., Bonner R., 2004. Zarządzanie wiedzą korporacyjną – dwa podejścia. Zarządzanie wiedzą w systemach informacyjnych. Prace Nauk. AE we Wrocławiu, 19-27. 2. Drelichowski L., 2004. Podstawy inżynierii zarządzania wiedzą. Studia i materiały nr 1. PSZW Bydgoszcz 3. Drelichowski L., 2004. Podstawy inżynierii zarządzania wiedzą. Polskie Stowarzyszenie Zarządzania Wiedzą nr 1, 160. 4. Drelichowski L. 2002. Społeczeństwo informacyjne a rozwój zrównoważony i dystrybucja wiedzy akademickiej, Konf. Nauk. Udział bibliotek w kształtowaniu społeczeństwa informacyjnego w Polsce – Potencjał, możliwości, potrzeby. Wyd. ATR Bydgoszcz, 1930 5. Gwiazda T., 2005. Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa, 123-142. 6. Januszewski A, Drelichowski L. 2005. Organizacje Wirtualne formowane przez Wirtualne Branżowe Systemy Wspomagania Decyzji. Problemy zarządzania, informatyka w zarządzaniu WZUW Warszawa, 66-79. 7. Kisielnicki J., 2004. Zarządzanie wiedzą we współczesnych organizacjach. Zarządzanie wiedzą w systemach informacyjnych. Prace Nauk. AE we Wrocławiu, 27 – 5214. 8. Ewolucja systemu podatkowego w Polsce po 1990 roku. http://falco.man.bialystok.pl/zse/podatki/wnioski.htm. 9. Partner handlowy rozwijający oprogramowanie HMS – firma Kalasoft WWW.kalasoft.com.pl 10. Strona główna twórcy programu HM WWW.softkam.com.pl. 11. Internetowy System Aktów Prawnych. isip.sejm.gov.pl 50 Ludosław Drelichowski, Maciej Nosal Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni SUPPORTING KNOWLEDGE MANAGEMENT IN THE UNIVERSITIES Summary In this paper author presents conception research work organisation ensuring building data ware houses on the base multiyear transactions data and usage automatic data system analysis OLAP. Hardware necessity for building this application includes servers using the only for processing this applications in archiving metadata and the structure data ware houses in process of facilitating of usage of these technologies in practical classes. Testing of worked out didactic modules in a process of realization of classes concerning the structure of the data ware houses using multiyear the databases coming from the university research and application of automatic metadata analysis software will ensure methodical knowledge from this scope. Keywords: Knowledge Bases, Data Warehouses, Metadata, OLAP On Line Analytical Process LUDOSŁAW DRELICHOWSKI MACIEJ NOSAL Akademia Rolnicza w Szczecinie ul. Żołnierska 49, 71- 210 Szczecin POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 51 ANNA KEMPA Akademia Ekonomiczna w Katowicach METODY I NARZĘDZIA WSPOMAGAJĄCE WYSZUKIWANIE EKSPERTÓW I EKSPERTYZ Streszczenie W artykule przedstawiono metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz. Po przedstawieniu ich rozwoju od systemów opartych na uzupełnianych ręcznie przez ekspertów bazach danych do systemów automatycznie pozyskujących informacje o ekspertach z różnych źródeł - uwagę skoncentrowano na wybranych systemach: Expert Seeker oraz Preciseer, które stanowią przykłady różnych podejść pozyskania wiedzy niejawnej w organizacji. Słowa kluczowe: wyszukiwanie ekspertów, wyszukiwanie ekspertyz 1. Wstęp Jedną z motywacji do doskonalenia technologii informacji jest potrzeba pozyskania wiedzy w organizacji. Próby stworzenia jednego wielkiego serwera wiedzy organizacji na wzór encyklopedii są skazane na niepowodzenie. Jeśli technologia ma sprzyjać efektywnemu wykorzystaniu wiedzy w organizacji, powinna dostarczać nie tylko dostępu do jawnych dokumentów, ale także wiedzy niejawnej tkwiącej w poszczególnych osobach i relacjach między nimi. Poprzez uzewnętrznianie niejawnej wiedzy, technologie mogą ułatwić współpracę i dzielenie się wiedzą w organizacji. Rozpoznanie potrzeb w zakresie dzielenia się wiedzą jest od jakiegoś czasu celem wysiłków podejmowanych m.in. przez specjalistów zajmujących się problematyką zarządzania wiedzą (Knowledge Management) oraz komputerowo wspomaganej pracy grupowej (Computer Supported Collaborative Work). Powstały nowe koncepcje, m.in.: kapitalizacja ekspertyzy, wydobywanie wiedzy o zdolnościach (skill mining), zarządzanie kompetencjami, zarządzanie intelektualnym kapitałem, sieci ekspertyz, systemy dzielenia wiedzy. Zasadniczym problemem zarządzania wiedzą jest jednakże ustalenie osoby, która może być źródłem poszukiwanej wiedzy, innymi słowy: osoby, która tę wiedzę może udostępnić – eksperta. Celem niniejszej pracy jest przedstawienie metod wspomagających wyszukiwanie ekspertów i ekspertyz. Zarysowano główne kierunki rozwoju systemów wyszukiwania ekspertów oraz zaprezentowano przykłady. Należy podkreślić, że wyszukiwanie ekspertów i ekspertyz stanowi jedną z części obszaru zarządzania wiedzą. Wyszukiwanie ekspertyz nie będzie w pełni satysfakcjonujące, jeśli nie będzie jednoczesnych wysiłków nad rozwojem pozostałych aspektów zarządzania wiedzą w organizacji. 52 Anna Kempa Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz 2. Motywy poszukiwania ekspertów Na podstawie wywiadów z przedstawicielami różnych instytucji badawczych zajmujących się problemem wyszukiwania ekspertów jak i literatury przeprowadzone badania [3] identyfikują dwa główne motywy poszukiwania eksperta. Jeden z nich określa szukanego eksperta „jako źródło informacji”, a drugi „jako kogoś, kto potrafi wykonać określone funkcje”. Podział ten, mimo, że nie do końca wyraźny, przydatny jest podczas analizy celów automatycznego wyszukiwania ekspertów. Ludzie szukają eksperta „jako źródła informacji” w celu skompletowania swoich źródeł w postaci dokumentów czy baz danych w określonych przypadkach [3]: • Dostęp do nie dokumentowanych informacji. Nie wszystkie informacje w organizacji mogą być dokładnie udokumentowane. Niektóre z nich mogą zawierać się w praktyce zawodowej i doświadczeniu konkretnych osób, • Wymagania specyfikacji. Użytkownicy informacji w przypadku niebyt dobrze zdefiniowanego problemu potrzebują konsultacji z ekspertem, • Poleganie na ekspertyzie innych. Użytkownicy często oczekują minimalizacji wysiłku i czasu potrzebnego do znalezienia jakiejś porcji informacji – rozumując, że to co dla nich stanowi „mnóstwo pracy” dla eksperta jest „niewielką pracą”, • Potrzeba interpretacji. Użytkownicy czasami nie interesują się samą informacją, co jej interpretacją – konsekwencjami, implikacjami z nią związanymi, • Potrzeby psychologiczne. Niektórzy użytkownicy cenią sobie bardziej ludzki wymiar bezpośrednich kontaktów z ekspertem, w którym istnieje znacznie większa interakcja niż w przypadku korzystania z dokumentów i zasobów komputera. Poszukiwanie eksperta „jako kogoś, kto potrafi wykonać określone funkcje” wiąże się najczęściej z: • Poszukiwaniem konsultanta, pracownika, kogoś kto wykona dane funkcje, • Poszukiwaniem współpracownika, członka zespołu, recenzenta. Motywację poszukiwania eksperta „jako źródła informacji” określono potrzebą informacji, natomiast motywację poszukiwania eksperta „jako kogoś, kto potrafi wykonać określone funkcje” - potrzebą ekspertyzy [3]. Użytkownicy mający potrzebę ekspertyzy tworzą swoje zapytanie w oparciu o większą ilość jakościowych i ilościowych parametrów. Przykładowo, szukając eksperta „jako źródła informacji” zadają najczęściej proste pytanie „Kto wie o temacie X?”, natomiast szukając ekspertyzy pytają „Jak dobrze Y zna się na problemach X?”, „Co jeszcze wie Y?”, „Jak Y wypada w porównaniu z innymi znawcami problemu X?”. 3. Automatyczne wspomaganie poszukiwania ekspertów – tradycyjne podejście Ludzie szukający ekspertów potrzebują całego zestawu danych i usług związanych z ludzką ekspertyzą. W odpowiedzi na te zapotrzebowania tworzone są systemy mające na celu zautomatyzowanie procesu wyszukiwań. Jedna z dróg automatyzacji procesu wyszukiwania polega na rozwijaniu baz ekspertów (map wiedzy, katalogów wiedzy) poprzez ręczne wprowadzanie danych o ekspertach. Systemy takie jak Microsoft’s SPUD, Hewlett-Packard’s CONNEX (http://www.carrozza.com/connex/) oraz SAGE People Finder są przykładami takiego podejścia. Wadami takich rozwiązań są [3]: POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 53 • • Ręczne uzupełnianie baz danych jest pracochłonne i kosztowne, Bazy danych są zwykle obciążone skłonnością ekspertów do sporządzania zbyt szczegółowego opisu swoich ekspertyz lub odwrotnie - bywają niekompletne i zbyt ogólne, • Biorąc pod uwagę zmienny charakter cech opisujących stan wiedzy, zdolności i doświadczenie człowieka – wiele ręcznie prowadzonych baz zawiera przestarzałe dane. Strony internetowe, które prowadzą pracownicy dostarczać mogą wiele informacji o nich samych i ich specjalizacji i są także wykorzystywane przez osoby poszukujące ekspertyzy. Przeszukiwanie Internetu lub Intranetu może doprowadzić nas do stron ekspertów z danej dziedziny. Wprawdzie takie strony internetowe mogą okazać się dobrym źródłem na temat ekspertów, jednak proste mechanizmy wyszukiwania dostępne w zwykłych wyszukiwarkach nie dają efektywnych rezultatów. Ponadto wówczas zadanie ekstrakcji, kompilacji i analizy danych leży całkowicie po stronie użytkownika. 4. Systemy automatycznego wyszukiwania ekspertów Twórcy systemów wyszukiwania ekspertów (expert finders, expert recommenders) starają się ograniczyć wady, które ujawniły się przy pierwszych próbach automatycznego wyszukiwania. W systemach tych próbuje się automatycznie pozyskać dane o ekspertyzie na podstawie ukrytych i drugorzędnych źródeł zamiast polegać jedynie na ekspertach i zasobach kadrowych. Jednym z pierwszych systemów typu expert finders był system HelpNet (1986). System ten po przyjęciu zapytania dotyczącego wymaganych informacji generuje odpowiedź w postaci listy osób uporządkowanej wg prawdopodobieństwa, że dana osoba może dostarczyć satysfakcjonującej odpowiedzi. Prawdopodobieństwo jest obliczane przy użyciu modelu wyszukiwania informacji (IR), który wiąże oszacowaną ekspertyzę zawartą w odpowiedziach z prawdopodobieństwem, że dany użytkownik mógłby być usatysfakcjonowany odpowiedzią ze znalezionego źródła. Inny znany system z tej kategorii to Expert/Expert-Locator (EEL) z roku 1988 (zwany także Bellcore Advisor). System ten pobiera zapytanie w języku naturalnym i przy użyciu metody Latent Semantic Indexing (LSI) zwraca odnośniki do pobliskich (dziedzinowo) grup badaczy. System EEL tworzy indeks ekspertyz grup badaczy opierając się na reprezentatywnej kolekcji dokumentów technicznych, które oni napisali [3]. Powstały także systemy profilujące ekspertów na podstawie ich kontaktów – głównie poprzez wewnętrzną pocztę elektroniczną (m.in. KnowledgeMail TM firmy Tacit Knowledge Systems Inc.). Na rynku polskim także powstają takie systemy – przykładowo Preciser firmy Prosto Technologies (prezentowany w dalszej części) [4]. Expert Seeker jest przykładem systemu wykorzystującego do pozyskiwania wiedzy o ekspertach technologię text mining. Zadaniem systemu jest lokalizowanie intelektualnego kapitału wewnątrz organizacji na wszystkich poziomach – od techników do profesorów (także prezentowany w dalszej części) [1]. 5. Ogólny model systemów wyszukiwania ekspertów i ekspertyz Analizując powstałe systemy szukające ekspertów i ekspertyz autorzy [3] stworzyli model dziedzinowy identyfikujący siedem aspektów, których uwzględnienia wymaga budowa takich systemów: 54 Anna Kempa Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz 1. Podstawy pozyskania ekspertyzy. Systemy wyszukujące ekspertów używają różnego typu materiałów dokumentujących ekspertyzę. Ogólnie można podzielić materiały na jawne i ukryte. 2. Ekstrakcja ekspertyzy. Gdy źródła zostaną zidentyfikowane – następuje ekstrakcja ekspertyzy. 3. Model ekspertyzy. Model ekspertyzy to meta-opis ekspertyzy człowieka, jego zdolności itp. Taki model różni się od rekordu w bazie danych ekspertów, głównie tym, że zawiera pewien stopień niepewności odnośnie zgodności z rzeczywistą ekspertyzą człowieka. 4. Mechanizm zapytań. System może wymagać od użytkownika jawnego zapytania systemu o ekspertów lub może wnioskować potrzeby ekspertyzy na podstawie aktywności użytkownika. 5. Dopasowanie operacji. W celu zidentyfikowania ekspertów – informacje i potrzeby ekspertyz są dopasowywane do modeli ekspertów używanych przez techniki wyszukiwania takie jak dopasowanie słów kluczowych lub dopasowanie na podstawie podobieństwa (model wektorowy). Niektóre z systemów mogą być wyposażone w mechanizm wnioskujący. 6. Prezentacja wyników. Systemy wyszukujące ekspertów mogą prezentować wyniki w różnym stopniu szczegółowości. 7. Adaptacja i nauka systemu. Operacje wykonane przez użytkownika podczas poprzednich wyszukiwań ekspertów mogą zostać wykorzystane do określenia profilu preferencji użytkownika. Wymienione aspekty wyznaczają jednocześnie etapy działania systemów wyszukiwania ekspertów. Powstające systemy różnią się między sobą doborem rozwiązań w poszczególnych etapach. Najbardziej istotna różnica kształtuje się już w etapie pierwszym – wyboru pozyskania podstawy ekspertyzy. Rola systemów, które bazują tylko na wiedzy jawnej (np. samoocenie ekspertów, danych kadrowych) sprowadza się głównie do realizacji sprawnego wyszukiwania danych o ekspertach i ich prezentacji. Natomiast systemy aspirujące do korzystania z wiedzy niejawnej – muszą być dodatkowo wyposażone w zdolność do jej pozyskiwania i gromadzenia. 6. Przykłady systemów wyszukiwania ekspertów Zaprezentowane zostaną dwa systemy wyszukiwania ekspertów – oba starają się pozyskiwać wiedzę niejawną, ale każdy w nieco inny sposób. System Expert Seeker podejmuje działania w kierunku automatycznego pozyskiwania wiedzy o ekspertach angażując w tym celu zaawansowane technologie pozyskiwania informacji (m.in. data mining). System – Preciseer to przykład implementacji na polskim rynku, który zaprojektowano tak, aby zachęcić pracowników do ujawniania swojej wiedzy. 6.1. System Expert Seeker Systemy nazywane People-Finder Systems – to składnice wiedzy, które próbują zarządzać wiedzą przez gromadzenie odnośników do ekspertów, którzy posiadają specyficzną wiedzę wewnątrz organizacji. Intencją rozwoju takich systemów jest katalogowanie wiedzy o kompetencjach, włączając informacje pochwycone z innych niż tradycyjne źródła (takie jak systemy kadrowe) [1]. Expert Seeker (ES) jest systemem typu People-Finder KMS, używanym do lokalizacji ekspertów w NASA. ES reprezentuje ważny krok w kierunku osiągnięcia celu automatycznego i intuicyjnego odkrywania i identyfikowania intelektualnego kapitału w organizacji. Wiele systemów polega na samoocenie, autorzy ES rozpoznają potencjał technologii sztucznej inteligencji, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 55 szczególnie data mining i clustering techniques w odkrywaniu i tworzeniu map ekspertyz w organizacji. Expert Seeker – jest dostępny w sieci Intranetu Centrum Kosmicznym Kennedy’ego. System pozwala użytkownikowi wyszukiwać wiele szczegółów odnośnie osiągnięć ekspertów, włączając takie informacje jak własność intelektualna, zdolności i kompetencje. ES dostarcza dostęp do informacji, które nie są dostępne w typowych systemach kadrowych – takie jak wykonane projekty, patenty, hobby. Główny interfejs zapytań systemu ES wykorzystuje pola tekstowe do szukania obszarów ekspertyzy wg słów kluczowych. Informacje są gromadzone w oparciu o multimedialne bazy danych. Celem ES jest zunifikowanie połączonych zbiorów danych w dostępnym w sieci repozytorium, które może być łatwo przeszukiwane. Rozwój ES wymaga wykorzystania jak tylko to możliwe istniejących danych. ES wykorzystuje dane zawarte w bazach kadrowych (takie jak formalna edukacja); bazę zdolności, która profiluje obszary kompetencji każdego pracownika; katalog zawierający informacje o kontaktach pracowników (X.500 Directory); system samooceny pracowników (GPES); oraz bazy systemu zarządzania projektami (PRMS). Ponadto system korzysta z innych istotnych w ustalaniu profilu ekspertów informacji – takich jak zdjęcia pracownika, dane o projektach, w których brał udział, hobby. Dodatkowym źródłem systemu jest repozytorium dokumentów tworzonych przez pracowników. Przy użyciu technik data mining na podstawie treści dokumentów tworzona jest tematyczna macierz ekspertów. Autorzy systemu wykorzystali algorytm TFIDF do zmierzenia niepowtarzalności i trafności treści dokumentu w kolekcji dokumentów pod względem użycia słów kluczowych. Algorytm TFIDF posługuje się następującym wzorem: wij = tfij * log(N/n), gdzie w jest wynikiem dla termu i w dokumencie j, natomiast tf jest częstością termu i w dokumencie j. N – ilość wszystkich dokumentów, n – ilość dokumentów zawierających term i niewiele razy. Rysunek 1 przedstawia architekturę systemu ES. Expert Seeker GUI Web Based Generate Employee Profiles User Sprcified Data X 500 Directory Skills Database Update Employee Profiles HR Database PRMS GPES Electronic Document Manag. Rysunek 1. Architektura systemu Expert Seeker, źródło: [1] Twórcy dążyli do automatycznego wydobywania danych. Sięgnięto w tym celu po techniki z obszaru data mining dostosowanych do warunków pracy w sieci internetowej [2]. 56 Anna Kempa Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz Tradycyjne metody wydobywania wiedzy (data mining) bazują na uporządkowanych, zwartych grupach informacji zamieszczonych w bazach danych. Sieć Web ma natomiast luźną strukturę, cechuje ją brak centralnego punktu przechowywania informacji i nieuporządkowanie danych. W zależności od postaci danych wyróżnia się kilka typów web data mining [2], m.in. Web Content Mining – inteligentne szukanie wskazanych danych w zasobach sieciowych różnego typu, w tym: w tekście oraz danych multimedialnych, Web Content Mining bazuje na text mining i technikach wyszukiwania informacji (IR). W tradycyjnym systemie IR użytkownik zadaje pytanie i system zwraca wszystkie dokumenty, które pasują do wprowadzonych słów kluczowych. Expert Seeker opiera się na technikach IR, które idą nieco dalej. Kiedy użytkownik wprowadza pytanie system początkowo przeszukuje dokumenty wg wprowadzonych danych. Jednak kiedy użytkownik szuka ekspertów w specyficznej dziedzinie, system zwraca nazwiska tych pracowników, których nazwiska ukazują się w dopasowanych dokumentach. Stopień relacji między nazwą pracownika a słowem kluczowym wewnątrz dokumentu nie jest rozważany. Ekspertyza jest określana w oparciu o założenie, że jeśli pracownik powtarza się w wielu dokumentach, to powinien mieć pewną wiedzę na temat danego termu. Technologie użyte w implementacji systemu Expert Seeker: Cold Fusion 4.0, Java Script; Active Server Pages ASP (Coding and Programming); SQL Server 7.0 (Databases); Verity (Search capabilities); Adobe Phototshop 5.0 (GUI); HTML i inne narzędzia internetowe. 6.2. System Preciseer Wiedza w systemie Preciseer znajduje się zarówno w katalogach zawierających dokumenty, jak również jest ona wnioskowana przez mechanizmy ekspertowe. Użytkownik systemu Preciser w celu zlokalizowania wiedzy może wykorzystać następujące mechanizmy [4]: • Przegląd katalogu dokumentów, • Zaawansowane wyszukiwanie wiedzy, • Lokalizacja ekspertów z każdej dziedziny wiedzy. W bazie wiedzy znajdują się połączone relacjami dokumenty oraz odnośniki do zasobów zewnętrznych. Część dokumentów połączona jest ze sobą relacją struktury drzewiastej. Pozycja dokumentu wskazuje znaczenie dokumentu w bazie oraz domenę wiedzy, którą reprezentuje. Preciseer udostępnia użytkownikowi narzędzie do lokalizowania informacji w katalogu wiedzy. Wyszukiwanie ekspertów w systemie zwraca nie dokumenty, ale listę ekspertów z wyszukiwanej dziedziny. Zadawanie pytań odbywa się przy pomocy sformułowań typu: Podaj ekspertów z dziedziny X, Podaj ekspertów z dziedziny Y, ale nie z X, Podaj ekspertów z dziedziny Z i/lub X. Preciseer pozwala użytkownikowi na dokonanie oceny każdego dokumentu, do którego posiada uprawnienia. Pracownicy mogą przypisać ocenę procentową, która wg nich odpowiada danemu dokumentowi pod względem trafności udzielonej odpowiedzi. Każda ocena dokumentu jest rejestrowana w systemie. Jednym z istotnych zadań Preciseer jest szacowanie wiedzy pracowników w poszczególnych dziedzinach wiedzy. System znając nazwiska autorów dokumentów oraz oceny pracowników czytających te dokumenty szacuje na tej podstawie stopień fachowości ekspertów. Użytkownik w wyszukiwarce ekspertów po zadaniu zapytania otrzymuje listę ekspertów z podaną przy każdym szacowaną wiedzą eksperta w poszukiwanej dziedzinie (w procentach). Po zlokalizowaniu eksperta użytkownik zadaje mu pytanie. Odbywa się to często przy pomocy poczty elektronicznej. Moduł QA Vehilce dostarcza mechanizm zadawania pytań i wysyłania POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 57 odpowiedzi za pośrednictwem poczty elektronicznej. Osoba pytająca może subiektywnie ocenić otrzymaną odpowiedź, co będzie stanowiło kolejną podstawę szacunku oceny ekspertów. W systemie prowadzone są karty ekspertów, oprócz danych osobowych zawierają: ilość pytań, które otrzymał pracownik, ilość pytań, na które pracownik odpowiedział, średnią wartość ocen jego odpowiedzi, średni czas odpowiedzi. QA Vehicle stanowi nie tylko mechanizm komunikacji, ale także fundamenty do szacowania wiedzy o pracowniku, o jego zainteresowaniach, zaangażowaniu oraz aktywności. Proces wyszukiwania ekspertów nie może być skuteczny bez zaangażowania ze strony pracowników – muszą oni chcieć dzielić się swoją wiedzą, publikować swoje dokumenty, odpowiadać na pytania. System spełniać ma zatem rolę nie tylko rejestratora wydarzeń, ale na nie wpływać – motywując pracowników do otwarcia się na wspólne użytkowanie wiedzy w organizacji. Preciseer System wykonany jest w architekturze trójwarstwowej z interfejsem typu „cienki klient”, dzięki czemu funkcjonalność aplikacji dostępna jest za pomocą przeglądarki internetowej z każdego komputera podłączonego do sieci firmowej. W Preciseer wykorzystano dodatkowe elementy systemowe w postaci rozszerzeń [4]: Internet Explorer Add-in, MS Office Plugin, MS Outlook, Windows Shell Extension. 7. Uwagi końcowe Systemy wyszukujące ekspertów i ekspertyz zajmują podobszar funkcjonalności systemów wspomagających zarządzanie wiedzą w całej organizacji. Skuteczność zarządzania wiedzą zależy często od dialogu pomiędzy pracownikami organizacji. Wiedza zawarta w monologach (dokumenty zawierające samoocenę, CV itp.) może nie wystarczyć do wydobycia pełnej informacji na temat dostępnych w organizacji ekspertyz. Początkowo prace nad automatyzacją procesu wyszukiwania ekspertów były ukierunkowane głównie na udostępnienie użytkownikom możliwie wygodnych narzędzi przeszukiwania jawnych zbiorów danych, obecnie jednak kładzie się nacisk na rolę dialogu w kształtowaniu wiedzy w organizacji. „Podsłuchiwanie” takiego dialogu nie jest łatwe. Wydaje się, że postawienie problemu: „eksperci sobie, systemy wyszukujące ekspertów sobie” nie pozwoli uzyskać satysfakcjonujących rezultatów. Eksperci powinni chcieć dzielić się swoją wiedzą, tak aby stosowane metody jej automatycznego pozyskiwania nie przypominały za bardzo pracy tajnych agentów. Dialog musi w organizacji zaistnieć i należy zachęcić pracowników, aby zostawiali ślady po nim w postaci możliwych do analizy komputerowej źródeł. Odchodzi się od koncepcji systemów wyszukiwania ekspertów narzucających na ekspertów obowiązek stałego uzupełniania ustalonych baz ekspertyz, na rzecz systemów samodzielnie pobierających sobie potrzebne informacje z różnych źródeł i dokonujących wstępnej analizy. Prezentowany system Expert Seeker próbuje uzyskać wiedzę na temat ekspertyz przy użyciu technologii data mining. Stosuje się także inne inteligentne metody, w tym systemy ekspertowe, które mają na celu wspomóc uzupełnianie repozytorium wiedzy w organizacji. Dobór metod wyszukiwania ekspertów zależy od wybranych do współpracy z systemem źródeł ekspertyz. Systemy polegające jedynie na oficjalnych zasobach kadrowych wykorzystują typowe metody wyszukiwania informacji (IR). W im większym stopniu system ma polegać na zasobach rozproszonych, różnorodnych – tym silniej musi zostać wyposażony w elementy inteligentnego pozyskiwania informacji. Ponieważ wiedza o ekspertyzach jest najczęściej zapisana w naturalnym języku – metody automatycznego pozyskiwania wiedzy muszą być wyposażone w techniki analizy tekstu. Anna Kempa Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz 58 Omawiany system Preciseer stosuje system motywacyjny oparty o oceny ekspertów i ich ekspertyz. System ten nie obciąża pracowników koniecznością tworzenia i uzupełniania bazy - repozytorium, ale zachęca do zostawiania licznych śladów w systemie – w postaci publikowanych dokumentów, w treści korespondencji elektronicznej. Dyskusyjny może być sposób motywacji (procentowe oceny dokumentów i odpowiedzi na listy). Nie jest on wolny od zagrożeń – nietrudno sobie wyobrazić „rozgadanych ekspertów”, którzy w większym stopniu zbierają punkty niż faktycznie pracują i pomnażają swoją i cudzą wiedzę. Idea dzielenia się wiedzą jest obarczona pewnymi ograniczeniami, jedne wynikają z poziomu uprawnień, a pozostałe związane są z gospodarowaniem czasem poszczególnych osób. Wzajemna wymiana wiedzy ma pomagać tworzyć kapitał wiedzy w organizacji, ale nie może polegać na chaotycznym szmerze, gdzie każdy w każdej chwili może każdemu przeszkodzić i zadać pytanie. Powstające systemy powinny szanować zarówno czasową niedostępność eksperta jak i jego prywatność. Koncepcja systemu motywującego pracowników do współpracy (ze sobą i z samym systemem) jest warta uwagi. Uwidacznia ona wzajemne powiązania technologii i zarządzania w organizacji. Sprawność systemów wyszukujących ekspertów zależy nie tylko od zastosowanych metod informatycznych, ale także podejścia samych pracowników do koncepcji dzielenia się wiedzą i prowadzenia dialogu. Dalsze prace nad systemami tego typu będą miały na celu rozwój narzędzi ekstrakcji danych, dobór metod ułatwiających tworzenie profilów ekspertów oraz doskonalenie sposobów wizualizacji wyników [3]. 8. Literatura 1. 2. 3. 4. Becerra-Fernandez I., 2000. Facilitating the Online Search of Experts at NASA using Expert Seeker People-Finder. Third International Conference on Practical Aspects of Knowledge Management. Basel Switzerland. Becerra-Fernandez I., 2001. Searching for Experts with Expertise-Locator Knowledge Management Systems. Proceedings of the Association for Computational Linguistics Conference Workshop on Human Language Technology and Knowledge Management. Toulouse France. Yimam-Seid D., Kobsa A., 2002. Expert Finding Systems for Organizations: Problem and Domain Analysis and the DEMOIR Approach. Journal of Organizational Computing and Electronic Commerce. Materiały na temat systemu Preciseer zawarte na stronie producenta firmy Prosto Technologies z Rzeszowa http://www.proosto.com/cms/go/27 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 59 METHODS AND TOOLS SUPPORTING EXPERT AND EXPERTISE SEARCH Summary The article presents methods and tools supporting expert and expertise search. After the presentation of their development from systems based on databases created manually by experts to systems gaining information automatically from various sources – the paper concentrates on the selected systems: Expert Seeker and Preciseer, as examples of different approaches to gain tacit knowledge in an organization. Keywords: Expert Search, Expertise Search ANNA KEMPA Akademia Ekonomiczna im. Karola Adamieckiego w Katowicach 40-287 Katowice, ul. 1 Maja 50 e-mail: [email protected] Jolanta Kondratowicz-Pozorska Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej 60 JOLANTA KONDRATOWICZ-POZORSKA Akademia Rolnicza w Szczecinie POWIĄZANIA GOSPODARCZO-INFORMACYJNE POMIĘDZY ROLNIKAMI A ORGANIZACJAMI I PODMIOTAMI ISTOTNYMI DLA GOSPODARKI ŻYWNOŚCIOWEJ Streszczenie W warunkach gospodarki konkurencyjnej ogół informacji niezbędnych do sprawnego funkcjonowania firmy jest koniecznością i nosi miano systemu informacyjnego. W pracy przedstawiono rodzaje i źródła informacji. Poddane ocenie stopnia zainteresowania rolników poszczególnymi źródłami wiedzy wraz z ich użytecznością marketingową Słowa kluczowe: źródła informacji, rodzaje informacji, sposoby wykorzystania informacji 1. Wstęp Podstawowym ogniwem surowcowym gospodarki żywnościowej jest rolnik identyfikowany jako działający w rozproszeniu producent surowców dla przetwórstwa żywności. Pozycja rolnika w łańcuchu logistycznym, zależy od pozostałych następujących po sobie ogniw: przemysłu przetwórczego, handlu hurtowego i detalicznego a także konsumentów. Istotne jest pytanie czy rolnicy mają takie same szanse poszukiwania informacji, gromadzenia i przetwarzania wiedzy jak pozostali uczestnicy życia gospodarczego? Próba odpowiedzi na to pytanie stanowi podstawę zamieszczonych poniżej rozważań. Istnieje wiele publikacji naukowych polskich i zagranicznych, które niezbicie dowodzą, że współczesna gospodarka opiera się w coraz to większym stopniu na wiedzy i niematerialnych formach kapitału, które uzupełniając kapitał materialny i finansowy przynoszą wzrost produkcji, większą efektywność gospodarowania i poprawę dobrobytu ludności.1 Uwzględniając do tego zmianę w przedsiębiorstwach z orientacji produkcyjnej na marketingową ważnym zadaniem stojącym przed przedsiębiorcą jest właściwa organizacja procesu planowania marketingowego, który pozwala zmniejszyć prawdopodobieństwo nieudanych decyzji. Szczególnie dużego znaczenia nabiera ona w rolnictwie, gdzie podejmowanie decyzji w dłuższym okresie czasu jest koniecznością (np. wyznaczonym procesami wegetacyjnymi roślin lub cyklem produkcji zwierzęcej). Rolnik hodowca, jak każdy przedsiębiorca, chce odnosić sukcesy oraz planować dalszy rozwój swojego gospodarstwa. Podejmowanie decyzji marketingowych wymaga od niego nie tylko bardzo szerokich i dokładnych informacji marketingowych napływających w sposób ciągły, usystematyzowany, ale także umiejętności wykorzystania tych informacji. Uważa się, że racjonalne decyzje mogą być podejmowane na podstawie2: 1 D. Oleszczuk Zarządzanie wiedzą w agrobiznesie. W: Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w UE. Prace Naukowe nr 35, SGGW, Warszawa 2005, s.13 2 W. Wrzos (red), Strategie marketingowe. PWE, Warszawa 2004, s.37 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 61 • 80% informacji, • 10% pomysłowości, • 10% intuicji (doświadczenia) menedżera (właściciela). W warunkach gospodarki konkurencyjnej ogół informacji niezbędnych do sprawnego funkcjonowania firmy jest koniecznością i nosi miano systemu informacji. W pracy przedstawiono rodzaje i źródła informacji otrzymano na podstawie próby statystycznej, w ramach której badano stopień zainteresowania rolników poszczególnymi rodzajami źródeł wiedzy, jej przetwarzania i zastosowania w postaci konkretnych strategii marketingowych. 2. Rodzaje i źródła informacji niezbędnych w agrobiznesie Ogół informacji niezbędnych do sprawnego funkcjonowania firmy można podzielić na informacje regulacyjne, o organizacji i technice, oraz o koniunkturze gospodarczej3. Informacje regulacyjne określają warunki powstawania i funkcjonowania firmy (np. regulacje systemu prawnego, finansowego). Informacje o organizacji i technice wspomagają organizację pracy i produkcji (np. wskaźniki, rozwiązania techniczne i technologiczne). Informacje o koniunkturze gospodarczej determinują strategię działalności i rozwoju firmy (np. informacje statystyczne). Inny podział informacji istotnych dla firmy to informacje o4: 1. konkurentach – producentach tych samych lub konkurencyjnych produktów, ich strategiach marketingowych, zamiarach na przyszłość, 2. rynkach zaopatrzeniowych – konkurentach zaopatrujących się na tych samych rynkach; 3. nabywcach instytucjonalnych – strategiach na przyszłość, planowanych technologiach itp., 4. ogniwach dystrybucji i ich strukturach organizacyjnych, 5. kooperantach systemu agrobiznesu, 6. polityce kredytowej banków wobec przedsiębiorstw rolniczych, 7. polityce państwa i działaniach agencji rolniczych. Obecnie ważnymi informacjami będą także wynegocjowane w skupie ceny, a także ilości towaru – limity surowca , które zostaną odkupione od rolnika. Wynegocjowane warunki i obowiązujące akty prawne Unii Europejskiej w zakresie wspólnej polityki rolnej nabierają niezaprzeczalnie coraz większego znaczenia i są ważnym bodźcem do podjęcia określonej produkcji rolniczej. Po uwzględnieniu wszystkich powyższych informacji rolnik nie może też pominąć sygnałów płynących od samych konsumentów. Istotnymi informacjami są tu preferencje nabywców, obecne trendy mody w żywieniu zalecenia dietetyczne (np. uważa się, że mięso drobiowe jest zdrowsze niż wieprzowe), itp. Rodzaje informacji napływających do rolnika są zróżnicowane oraz źródła tych informacji mogą być różne. Strukturę rynków informacji w Polsce można przedstawić następująco5: • rynki informacji rządowej i branżowej, 3 J. Orylska, System informacji gospodarczej dla agrobiznesu (w: )Przemiany strukturalne w rolnictwie, AR Szczecin, 1993, s.167-168 4 B.Dobiegała-Korona, K.Duczkowska-Małysz, M. Duczkowska-Piasecka, J. Małysz, Marketing w agrobiznesie, CIM, Warszawa 1995 5 J. Gołębiewski, Informacja rynkowa a sprawność łańcuchów dystrybucji produktów żywnościowych (W:) Zarządzanie wiedzą…., SGGW, Warszawa 2005, s.366 - 368 62 Jolanta Kondratowicz-Pozorska Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej • rynki czasopism, książek i opracowań, • rynki informacji odpłatnej oferowanej przez agencje i ośrodki badań marketingowych. Pierwszy rodzaj rynków informacji obejmuje przede wszystkim podmioty dostarczające dane statystyczne, np. GUS, WUS oraz ważny element tego rynku - Zintegrowany System Rolniczej Informacji Rynkowej stworzony przez Ministerstwo Rolnictwa i Rozwoju Wsi. Pozwala on na: • opracowywanie metodologii rolniczych badań rynkowych, • zbieranie danych rynkowych, • tworzenie i zarządzanie elektroniczną bazą danych obejmującą dane rynkowe oraz ich zabezpieczanie, • przetwarzanie oraz analiza danych rynkowych, • udostępnianie i rozpowszechnianie wyników badań rynkowych, • szkolenie w zakresie rolniczych badań rynkowych. Zakres zbieranych danych dotyczy cen: skupu, sprzedaży, giełdowych, targowiskowych, hurtowych, producenta, importera oraz wielkości obrotu. W ramach tych badań prowadzone są też analizy rynków branżowych, których wyniki publikowane są w postaci biuletynów informacyjnych lub na stronie internetowej właściwego urzędu ministerstwa. Drugi rodzaj rynku informacji to publikacje uczelni rolniczych i ekonomicznych, Instytutu Ekonomiki Rolnictwa i Gospodarki Żywnościowej oraz około 60 czasopism poświęconych tej problematyce. Coraz częściej informacje o stanie rynku można znaleźć na stronach internetowych bezpłatnych branżowych czasopism elektronicznych. Kolejnym rynkiem są wyspecjalizowane agencje zajmujące się badaniami, których wyniki są oferowane odpłatnie. Jednak rolnicy korzystają z tego źródła bardzo rzadko ze względu na brak środków finansowych. Dobrze funkcjonujący system informacji firmy bądź gospodarstwa rolnego musi uwzględnić wszystkie źródła danych istotnych dla działalności gospodarczej (rys.1) POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 Eksporterzy/ importerzy Zagraniczne Izby Handlowe 63 Firmy produkują- Firmy konsultingowe ce Giełdy i targi Banki krajowe i zagraniczne Centra handlowe i targi Inwestorzy Urząd Wojewódzki Izby Gospodarcze WUS i GUS Wyspecjalizowane Agencje Pozostali uczestnicy rynku Ośrodek przetwarzania informacji gospodarczej dla agrobiznesu Firmy handlujące Firmy pośredniczące Firmy zaopatrzeniowe Środki masowego przekazu Rysunek 1. Model gromadzenia i udostępniania informacji gospodarczej dla firm i agrobiznesu Źródło: Orylska J., 1993. System informacji gospodarczej dla agrobiznesu. [W:] Przemiany strukturalne w rolnictwie, Wyd. AR w Szczecinie, 170. 3. Badanie stopnia wykorzystania źródeł informacji oraz wdrożenia przez rolnika zdobytej wiedzy w doskonalenie procesu gospodarczego W latach 2002-2004 przeprowadzono badania, które miały określić stopień zaawansowania prac w przekształcaniu tradycyjnych gospodarstw rolnych w gospodarstwa przyszłości. Skierowano do losowo wybranych rolników ankietę, która zawierała pytania dotyczące charakterystyki rolnika i jego gospodarstwa, a przede wszystkim pytania o podjęte przez niego działania na rzecz przyjęcia orientacji marketingowej. Wybrano 498 gospodarstw małych (0-5 ha), 114 średnich (515 ha) i 100 gospodarstw dużych (15-więcej ha) mających swoje siedziby na terenie województwa zachodniopomorskiego. Analizie poddano instrumenty działań marketingowych, które są niezbędne do wprowadzenia w gospodarstwach, aby w warunkach ostrej konkurencji mogły rywalizować z polskimi i innymi gospodarstwami zjednoczonej Europy (tab.1)6. Z badań wynika, że najwięcej instrumentów polityki produktu wprowadziły gospodarstwa duże posiadające znaczny potencjał produkcyjny i rezerwy finansowe na wdrażanie nowych rodzajów produkcji, technologii i podnoszenie kwalifikacji. Małe i średnie firmy sprzedające najczęściej 6 J.Kondratowicz-Pozorska, Zmiana roli gospodarstw rolnych i przekształcenie ich w nowoczesne firmy przyszłości (W:) Marketing przyszłości, ZN US nr , Szczecin 2005,s.367 Jolanta Kondratowicz-Pozorska Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej 64 produkty nieprzetworzone i powszechnie używane nie są zainteresowane znakami firmowymi i markami handlowymi. Nie zwracają również należytej uwagi na opakowanie własnych wyrobów. Tabela. 1. Procent gospodarstw w województwie zachodniopomorskim wdrażających instrumenty systemu marketingowego Instrumenty wybranej polityki wchodzącej Gospodarstwa Gospodarstwa Gospodarstwa w skład systemu marketingowego małe średnie duże Polityka produktu 1. wprowadzenie nowych technologii produkcji 5 22 40 2. wprowadzenie nowej produkcji (odmian, ras, itp.) 3 13 25 3. podnoszenie własnych kwalifikacji zawodowych i umiejętności - 15 20 4. produkcja ekologiczna 9 6 4 5. produkty przetworzone lub uszlachetnione - - 10 6. znaki firmowe i marki handlowe - 1 10 7. wprowadzenie opakowań - - 4 8. inne 1 1 2 80 45 20 1 15 65 8 53 81 1. korzystanie z istniejących kanałów dystrybucji 100 100 100 2. poszukiwanie nowych kanałów dystrybucji 12 24 60 3. tworzenie nowych kanałów dystrybucji - 2 15 4. inne - - 2 Polityka cenowa 1. gospodarstwa, które nie są w stanie wpływać na ceny tzw. ,,biorcy cen’’ 2. gospodarstwa, które mogą kontrolować sprzedaż produktu i wpływać na wysokość cen (np. poprzez magazynowanie) 3. ceny kontraktacyjne, negocjowane 4. inne Polityka dystrybucji Polityka promocji 1. przekazywanie informacji o własnym produkcie - - 10 2. pobudzanie zainteresowania nabywców i kształtowanie popytu - - 2 1 1 2 na własne wyroby 3. inne Źródło: opracowanie własne Z dostępnych materiałów wynika, że małe gospodarstwa rolne nie są w stanie samodzielnie realizować działań marketingowych niezbędnych w warunkach gospodarki rynkowej. Z tego powodu duża rola w tym względzie przypada doradztwu rolniczemu i ekonomicznemu. Następnym celem badawczym było ustalenie źródeł wiedzy wykorzystywanej przez rolników wyszczególnionych w dziewięciu następujących grupach.: • [1] rolnicy z wykształceniem podstawowym i zasadniczym, posiadający małe gospodarstwa, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 • • • • • • • • 65 [2] rolnicy z wykształceniem średnim, posiadający małe gospodarstwa, [3] rolnicy z wykształceniem wyższym, posiadający małe gospodarstwa, [4] rolnicy z wykształceniem podstawowym i zasadniczym, posiadający średnie gospodarstwa, [5] rolnicy z wykształceniem średnim, posiadający średnie gospodarstwa [6] rolnicy z wykształceniem wyższym, posiadający średnie gospodarstwa, [7] rolnicy z wykształceniem podstawowym i zasadniczym, posiadający duże gospodarstwa, [8] rolnicy z wykształceniem średnim, posiadający duże gospodarstwa, [9] rolnicy z wykształceniem wyższym, posiadający duże gospodarstwa. W tabeli 2 przedstawiono drogi pozyskiwania niezbędnych informacji przez wyodrębnione grupy rolników pomagające określić metody i kierunki gospodarowania. Najliczniej korzystano z opracowań płatnych wtedy, gdy właściciele mieli duże, wysoko towarowe gospodarstwa, zaś sami legitymowali się przynajmniej wykształceniem średnim. Natomiast nie korzystano z tego typu opracowań, bez względu na poziom wykształcenia rolnika, w przypadku gospodarstw małych oraz średnich (oprócz jednego przypadku). Innym spostrzeżeniem jest to, że rolnicy chętniej sięgają do specjalistycznych opracowań im wyższe wykształcenie i większy areał gospodarstwa. Dla przykładu na 498 rolników dysponujących małym gospodarstwem 206 osób z wykształceniem podstawowym lub zasadniczym w 100% potwierdziło, że korzysta z wiedzy ludzi z którymi spotyka się na co dzień, sąsiadów lub ludzi, którym - jak uważają - ,,lepiej się powodzi’’. Około 98% pytanych czerpie informacje z telewizji, radia i Internetu. Jeden na czterech zapytanych przyznaje, że zagląda czasami do specjalistycznych czasopism. Dodatkowo trzech na czterech zapytanych w tej grupie podaje także inne źródła zdobywania informacji. Stu pięciu ankietowanych z wykształceniem średnim gospodarujących na małych areałach podkreśliło znaczenie informacji pochodzących ze środków przekazu publicznego (takich jak wymienione w tabeli 2) – 100% wszystkich wypowiedzi w tej grupie. Około 83% przyznało, że korzysta z doradztwa rolniczego, a 51% głosów wskazywało, że ważną rolę doradczą odgrywają sąsiedzi. Pozostali rolnicy (tj. 187 osób, które ukończyły studia) w tej grupie gospodarstw najchętniej liczyli na fachową pomoc ODR-ów i szkolenia informujące o założeniach WPR. W drugiej grupie obserwacyjnej, do której należą rolnicy ze średnią wielkością gospodarstw, głównym źródłem danych jest: - rynek informacji rządowych i branżowych – tu prawie każdy pytany rolnik, bez względu na wykształcenie, odpowiadał twierdząco na pytanie, czy korzysta z tego rodzaju rynku informacji; - rynek czasopism, książek i opracowań (odpowiednio: 100, 75,5 i 64,3% odpowiedzi) - środki przekazu publicznego – 85% twierdzących odpowiedzi wśród pytanych z najniższym wykształceniem i po 100%odpowiedzi u pozostałych ankietowanych; - dane zebrane w Agencjach Rynku Rolnego, ODR-ach, AR i MR są najciekawszą formą pozyskiwania wiedzy dla rolników ze średnim (95,5%) i wyższym wykształceniem (100%). Im wyższe wykształcenie gospodarza, tym więcej źródeł czerpania wiedzy o sposobach i jakości gospodarowania. 66 Jolanta Kondratowicz-Pozorska Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej Charakterystyczne jest także pewne zjawisko wyraźnego ,,oglądania się’’ na sąsiadów. Założeniami WPR zainteresowani byli wszyscy właściciele średnich gospodarstw z wykształceniem wyższym i około 87% rolników z wykształceniem średnim. Przy średniej powierzchni gospodarstw wymagane jest zazwyczaj zatrudnianie w okresie wiosenno - jesiennym pracowników sezonowych, a tylko właściciele są zatrudnieni na stałe. Na nich to spoczywa cały wysiłek poszukiwania informacji, jej gromadzenia, przetwarzania i wykorzystywania. Ostatnia stuosobowa grupa najzamożniejszych rolników, najchętniej korzysta z dwóch pierwszych źródeł wiedzy (powyżej 90% wszystkich odpowiedzi) oraz ze środków przekazu publicznego (100% odpowiedzi), spotkań i informatorów na temat WPR. Ich poczynania i zdobyta wiedza są gromadzone przez - specjalnie w tym celu - zatrudnionych pracowników, których zadaniem jest bieżące śledzenie wszelkich zmian w polityce i gospodarce państwa polskiego oraz wszystkich członków Unii Europejskiej. Zmiany te są na bieżąco analizowane i na ich podstawie opracowywane są różne strategie postępowania. Właściciel liczy się z doświadczeniem zatrudnionych u siebie pracowników, wymagając jednocześnie poszerzania wiedzy i doskonalenia umiejętności. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 67 [1] 23 56 [2] 42 33 [3] 65 121 [4] 27 27 [5] 43 34 [6] 42 27 [7] 34 35 [8] 33 32 [9] 27 27 Źródło: obliczenia własne x x x x x 1 3 13 12 31 87 110 6 43 42 27 33 19 3 25 147 12 39 42 22 31 27 201 105 187 23 45 42 38 35 27 pozostałe Najbliższe otoczenie rolnika Rynki informacji ogólnodo- stępnej (TV, RTV, Internet) ce z prowadzenia WPR Rynki informacji wynikają- go rynki informacji bezpłatnej agencji doradztwa rolnicze- gowych agencji i ośrodków badań marketin- rynki informacji odpłatnej opracowań rynki czasopism, książek i i branżowej rynki informacji rządowej Grupy rolników Tabela 2. Źródła czerpania informacji na temat gospodarki żywnościowej przez wybrane grupy rolników województwa zachodniopomorskiego 206 54 22 21 36 29 15 27 14 157 32 40 16 19 16 21 6 7 Jolanta Kondratowicz-Pozorska Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej 68 4. Uwagi końcowe Zarządzanie wiedzą w podmiotach gospodarczych można sprowadzić do umiejętności najlepszego użytku z wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy oraz zwiększanie świadomości i zrozumienia otaczającej rzeczywistości. Analiza tablicy 1 i 2 pozwala sprecyzować stwierdzenie, że tylko duże gospodarstwa rolnicze są na tyle silne aby budować wizerunek nowoczesnych gospodarstw rolniczych, a wykształcenie właściciela gospodarstwa nie ma zasadniczego znaczenia dla rozwoju i strategii przyszłościowych takich podmiotów, ponieważ za stan gospodarstwa odpowiedzialny jest odpowiednio wyselekcjonowany sztab ludzi o odpowiednich umiejętnościach. Prowadzona przez nich strategia zarządzania wskazują, że wdrażane instrumenty systemu marketingowego są korzystne dla firmy. Gospodarstwa średniej wielkości, mimo znacznie szczuplejszych środków finansowych i uboższych możliwości pozyskiwania fachowej załogi budują przyszłość poprzez samodoskonalenie się właścicieli, korzystanie z wiedzy sprawdzonych specjalistów i fachowej literatury. Na podkreślenie zasługuje fakt, że rolnicy ze średnim i wyższym wykształceniem wykorzystują wszystkie okazje do pozyskiwania informacji przydatnej w opracowaniu strategii firmy. Stosunkowo najgorszą sytuację rozwojową mają gospodarstwa małe, które najczęściej nie korzystają z trzech podstawowych rynków informacji, a dominującym źródłem informacji są sąsiedzi i wiadomości ze środków masowego przekazu. Nie ma też pozytywnych sygnałów wdrażania instrumentów systemu marketingowego. 5. Literatura 1. 2. 3. 4. 5. 6. Dobiegała-Korona B., Duczkowska-Małysz K., Duczkowska-Piasecka M., Małysz J., 1995. Marketing w agrobiznesie. CIM, Warszawa. Gołębiewski J., 2005. Informacja rynkowa a sprawność łańcuchów dystrybucji produktów żywnościowych [W:] Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w UE. SGGW Warszawa, 366 – 368. Kondratowicz-Pozorska J., 2005. Zmiana roli gospodarstw rolnych i przekształcenie ich w nowoczesne firmy przyszłości (W:) Marketing przyszłości. ZN US nr 3 Szczecin, 367. Oleszczuk D., 2005. Zarządzanie wiedzą w agrobiznesie. [W:] Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w UE. Prace Naukowe nr 35. SGGW Warszawa, 13. Orylska J., 1993. System informacji gospodarczej dla agrobiznesu [W: ] Przemiany strukturalne w rolnictwie. AR Szczecin, 167-168. Wrzos W. (red), 2004. Strategie marketingowe. PWE Warszawa, 37. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 INFORMATION AND ECONOMIC CONNECTIONS BETWEEN FARMERS WITH CRITICAL ORGANIZATIONS AND FOOD ECONOMY ENTITY Summary System of information it’s all information needful for efficient activities of a company under competitive economy conditions. This publication contains different types and sources of information. Degree of farmers particular interest of knowledge sources or knowledge processing and creating in solid policy marketing is based on the statistical trial. Keywords: Sources of Information, Types of Information, Methods of Information Using, Information Retrieval JOLANTA KONDRATOWICZ-POZORSKA Akademia Rolnicza w Szczecinie Katedra Statystyki Matematycznej Szczecin ul. Monte Cassino 16 [email protected] 69 Małgorzata Nycz, Barbara Smok Rola i znaczenie wiedzy w społeczeństwie informacyjnym 70 MAŁGORZATA NYCZ BARBARA SMOK Katedra Systemów Sztucznej Inteligencji Akademia Ekonomiczna we Wrocławiu ROLA I ZNACZENIE WIEDZY W SPOŁECZEŃSTWIE INFORMACYJNYM Streszczenie Żyjemy w czasach charakteryzujących się bardzo szybkimi przemianami spowodowanymi rozwojem technik informacyjno-komunikacyjnych. Szczególnego znaczenia nabiera wiedza, jej zdobywanie , wykorzystywanie i wymiana poprzez sieci komunikacyjne. Referat poświęcony jest wiedzy i jej znaczeniu we współczesnym społeczeństwie określanym jako społeczeństwo informacyjne. Słowa kluczowe: wiedza, zarządzanie wiedzą, społeczeństwo informacyjne 1. Wprowadzenie W ostatnim dziesięcioleciu wzrastało znaczenie działalności gospodarczej realizowanej w skali międzynarodowej. Rozwijały się różne formy współpracy firm o różnej lokalizacji geograficznej. Ten etap przemian, w którym obecnie znajduje się gospodarka światowa określa się mianem globalizacji. Jej podstawą jest rozwój najnowszych technologii, który zmienia m. in. organizację współczesnych przedsiębiorstw, która wiąże się z globalnym rynkiem, przepływem kapitału, towarów i ludzi, którzy sprzedają swoje umiejętności. Duże znaczenie zaczynają odgrywać międzynarodowe korporacje, które kierując się generowaniem zysku przeobrażają swoją siłę ekonomiczną w polityczną. Wykorzystują one procesy decyzyjne rządów i przy pomocy umów międzynarodowych zmieniają zasady handlu celem osiągnięcia maksimum zysku bez względu na ponoszone przez całe narody konsekwencje społeczne. Proces ten przebiega dynamicznie i jego skutki obserwujemy także w naszym kraju. W swoich działaniach przedsiębiorstwa muszą przewidzieć wpływ globalizacji na sytuację bieżącą i w przyszłości firmy, gdyż inaczej nie będą się liczyć na dynamicznie zmieniającym się rynku. Obserwujemy pojawienie się nowej gospodarki, która nie podlega tradycyjnym analizom i narzędziom. Przemiany są widoczne nie tylko na poziomie poszczególnych przedsiębiorstw ale i również całego świata. Przedsiębiorstwa zainicjowały w tym czasie elektroniczną transmisję danych, wykorzystując standardy EDI oraz sieć WAN. Następnie powstawały pakiety CAD (Computer-Aided Design), CAE (Computer Aided Engineering) oraz CAM (Computer-Aided Manufacturing), które umożliwiły inżynierom, projektantom i technikom pracę nad projektowaniem opisów technicznych, rysunków inżynieryjnych i technicznej dokumentacji, szybciej i dokładniej przy wykorzystaniu wewnętrznej sieci komunikacyjnej przedsiębiorstwa. Upowszechnienie Internetu przyczyniło się do wykorzystania technologii e-commerce nawet przez najmniejsze przedsiębiorstwa, które mogły się komunikować elektronicznie. Ta sytuacja umożliwiła rozwój i wdrażanie nowych metod, jak np. komunikacji z potencjalnym klientem, sprzedaży produktów i usług drogą elektroniczną. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 71 Umiejętność dostosowania się do nowego rynku wymaga ciągłego doskonalenia i rozszerzania swoich umiejętności. Istnieje zapotrzebowanie na pracowników z doświadczeniem w danej dziedzinie. Poszukiwani będą pracownicy, którzy będą szybciej przystosowywać się do zmieniających się potrzeb przedsiębiorstwa. Przedsiębiorstwa wykorzystując m.in. internet w swoich kontaktach mogą wzmocnić swoją pozycję na rynku poprzez np. zwiększenie wydajności transakcji handlowych, kontrolę nad kanałami dystrybucyjnymi, szybką reakcję na potrzeby klientów. Na dynamicznie zmieniający się rynek zareagowała także UE. Strategia Lizbońska postawiła przed krajami członkowskim Unii Europejskiej zadanie stworzenia do 2010 r. najbardziej konkurencyjnej gospodarki opartej na wiedzy. Na założeniach tej Strategii oparto plany działań związane z budową i rozwojem społeczeństwa informacyjnego w krajach Unii Europejskiej. Podstawą gospodarki opartej na wiedzy jest edukacja, nauka oraz rozwój społeczeństwa informacyjnego. Są to obszary gospodarki, które powinny rozwijać się i zapewniać dopływ wykwalifikowanych kadr oraz nowoczesnych rozwiązań technologicznych. Próbuje się uchwycić najważniejsze cechy rozwijającego się społeczeństwa informacyjnego (zw. także społeczeństwem wiedzy, społeczeństwem XXI wieku, czy elektronicznym). Należą do nich informacja (wiedza), nauka, oraz technologie teleinformatyczne umożliwiające rozpowszechnianie informacji przez środki masowego komunikowania (m.in. przez telewizję). Nowe środki przekazywania informacji w zasadniczy sposób zmieniają szeroko rozumianą strukturę społeczną i charakter kontaktów pomiędzy jednostkami, grupami, narodami. Żyjemy w czasach określanych jako epoka oparta na wiedzy. Zatem posiadanie wiedzy jest tym zasobem, który decyduje o powodzeniu zarówno jednostek, jak i organizacji gospodarczych. Globalizacja, której sprzyjał szybki rozwój cywilizacyjny, rozpowszechnienie się stosowania techniki komputerowej, rozwój sieci komputerowych, ułatwia dotarcie do żądanych informacji oraz ich wymianę ułatwiając pracę różnym zespołom. Mówi się, że jesteśmy (a w każdym razie dążymy w tym kierunku) społeczeństwem informacyjnym, w którym o wartości przedsiębiorstwa decyduje zawarta w nim wiedza. Dzisiaj pojęcie "społeczeństwo informacyjne" stało się synonimem nowoczesności, kreatywności, aktywności, wolności oraz dobrobytu ogółu ludzi. 2. Społeczeństwo informacyjne Wkroczyliśmy w erę, gdzie najcenniejszym zasobem stała się informacja. Coraz częściej możemy zaobserwować powstanie nowego typu społeczeństwa, które związane jest z rozwojem technologii teleinformatycznych. Telefonia komórkowa czy Internet umożliwiają komunikację i dostęp do informacji na szeroką skalę i są istotne w porozumiewaniu się i przekazywaniu wiedzy na odległość. Obserwuje się szybki rozwój technologii, które umożliwiają wykorzystanie, pozyskiwanie, przesyłanie i analizę informacji. Celem budowy społeczeństwa informacyjnego u nas powinno być tworzenie potencjału gospodarczego umożliwiającego przedsiębiorstwom aktywne konkurowanie w globalnej gospodarce opartej na wiedzy. Nowa gospodarka jest źródłem wielu szans, ale należy zadbać o aspekty rozwoju gospodarczego i społecznego, które zapewnią konkurencyjność w skali globalnej. Istotą społeczeństwa informacyjnego jest przede informacja (wiedza) oraz potrzebne narzędzia (jak np. Internet), które umożliwią dostęp do niej. W określeniach społeczeństwo informacyjne i społeczeństwo wiedzy, pojęcia informacja i wiedza są stosowane zamiennie, lecz nie należy 72 Małgorzata Nycz, Barbara Smok Rola i znaczenie wiedzy w społeczeństwie informacyjnym utożsamiać informacji i wiedzy, ponieważ informacje są to uporządkowane dane, docierające powszechnie do większości ludzi za pomocą radia, telewizji, gazet itp. natomiast wiedza jest czymś więcej niż informacją, jest umiejętnością wykorzystania informacji, która wciąż dostępna jest mniejszemu gronu ludzi. Informacja staje się coraz częściej towarem bardzo dochodowym. Nie ma jednej obowiązującej definicji Społeczeństwa Informacyjnego. Zwykle pod tym pojęciem rozumie się społeczeństwo wykorzystujące komputery i techniki informatyczne. Większość definicji kładzie się nacisk na znaczenie informacji: „Społeczeństwo charakteryzujące się przygotowaniem i zdolnością do użytkowania systemów informatycznych, skomputeryzowane i wykorzystujące usługi telekomunikacji do przesyłania i zdalnego przetwarzania informacji"1. Termin ten jest znany już od dawna. Po raz pierwszy użył go w 1963 roku T. Umesamo w artykule o społeczeństwie przetwarzającym informację w japońskiej sytuacji gospodarczej. Cechy społeczeństwa informacyjnego sformułował m.in. D. Bell [8] w 1973r., zaliczając do nich: • Dominacja sektora usług w gospodarce, a głównie rozwój finansów, ubezpieczeń, służby zdrowia, oświaty i nauki, • Dominacja specjalistów i naukowców w strukturze zawodowej, • Wzrost znaczenia wiedzy teoretycznej jako źródła innowacji i polityki, • Dążenie do społecznej kontroli nad rozwojem techniki, • Tworzenie „technologii intelektualnych” jako podstawy podejmowania decyzji politycznych i społecznych. Od 1999 roku w Unii Europejskiej wykorzystuje się "eEurope - An Information Society for All", który ma na celu m.in. wprowadzenie Europejczyków w erę informacji we wszystkich sferach aktywności społeczno-zawodowej, tworzenie Europy konkurencyjnej w stosunku do innych krajów, pracę w gospodarce opartej na wiedzy (knowledge-based economy), powszechne korzystanie z gospodarki opartej na wiedzy. Ze społeczeństwem informacyjnym związana jest gospodarka oparta na wiedzy (GOW). Termin ten pojawił się na początku lat 90-tych był używany w stosunku do Stanów Zjednoczonych, a później rozszerzono go na najbardziej rozwinięte gospodarki świata. Pojęcie to kojarzy się z technologiami informacyjno-komunikacyjnymi, postępem technicznym i innowacyjnością. GOW cechuje rosnące znaczenie globalizacji, nauki i wiedzy, które są podstawą współczesnych przemian. Rośnie zapotrzebowanie na wiedzę i wykwalifikowanych pracowników umysłowych. Technologie informacyjne szybko się rozprzestrzeniają i dotyczą każdego z nas. Rewolucja informacyjna zakładająca ciągły dostęp do wiedzy i technologii, wpływa na styl życia, pracy i nauki. Współzależność telekomunikacji, multimediów i technologii informacyjnych jest siłą w procesie tworzenia nowych produktów i usług oraz wpływa na sposoby prowadzenia biznesu i handlu. Globalne Społeczeństwo Informacyjne stało się jednym z kluczowych elementów strategii Komisji Europejskiej, której celem jest wzmocnienie konkurencyjności europejskiej gospodarki2. Wejście Polski do struktur UE spowodowało zmiany w obszarze ICT (technologii informacyjnych i komunikacyjnych) w naszym kraju m.in. w zakresie społeczeństwa informacyjnego i gospodarki opartej na wiedzy. 1 2 Kongres Informatyki Polskiej, 1994, na podstawie Raportu Bangemana dla Rady Europy http://histmag.org/archiwalia/mag45-46/#fn3 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 73 Konkurencyjność na dynamicznie zmieniającym się rynku wymaga tworzenia i wprowadzaniu na rynek innowacji, ciągłego podnoszenia kompetencji, tworzenia i przyswajania nowej wiedzy. W naszym kraju dokumentami dotyczącym budowy Społeczeństwa Informacyjnego są m.in. ePolska czy Program Operacyjny „Nauka, nowoczesne technologie i społeczeństwo informacyjne, 2007-2013” z czerwca 2005r., opracowany przez Ministra Nauki i Informatyzacji. W ramach ePolski kładzie się nacisk na informowanie i przygotowywanie naszego społeczeństwa na przemiany społeczne oraz na zmiany na rynku pracy. Podkreśla się też rolę dostosowania prawa do zjawisk związanych z rozwojem technologii teleinformatycznych oraz przystosowanie administracji do powszechnego stosowania narzędzi informatycznych. Zaś Program Operacyjny zawiera wytyczne odnośnie działań, które mają być podejmowane tak, by nasze społeczeństwo spełniało wymogi społeczeństwa informacyjnego. Wyróżnikiem ery informacji i wiedzy jest technologia informacyjna obejmująca informatykę, telekomunikację, narzędzia i inne technologie związane z informacją. Dostarcza ona użytkownikom narzędzi informatycznych, za pomocą których mogą pozyskiwać informacje, selekcjonować je, analizować, przetwarzać i przekazywać innym ludziom. Społeczeństwo informacyjne czy gospodarka oparta na wiedzy związana jest z takimi pojęciami, jak: dane, informacja, wiedza, teleinformatyka, innowacyjność, konkurencyjność itp. Opracowania dotyczące ery informacji traktują wiedzę jako zasób wpływający na kierunki rozwoju społeczno - gospodarczego oraz wskazują główne problemy, jakim należy sprostać zaczynając od rozwoju infrastruktury technicznej, która umożliwia magazynowanie informacji, sieci telekomunikacyjnych usprawniających ich wymianę, poprzez regulacje państwa w zakresie ochrony praw własności intelektualnej i na dostosowaniu edukacji do potrzeb rynku kończąc. W warunkach globalizacji i konkurencji takie podejście do przepływu i przetwarzania wiedzy już nie wystarcza. Konieczne staje się przejście do zarządzania wiedzą wspomagane nowoczesną technologią. W społeczeństwie informacyjnym dominującą rolę odgrywa wiedza. Zasobem strategicznym staje się kapitał intelektualny będący sumą wiedzy posiadanej przez ludzi tworzących organizację oraz nieuchwytną wartością określającą ogólną wartość firmy lecz różną od wartości finansowej. Jest on połączeniem wiedzy, umiejętności, kompetencji i innowacyjności wszystkich pracowników firmy. Jego zadaniem jest dodawanie lub też powiększanie wartości istniejącej w firmie. Jest on istotną wartością przedsiębiorstwa. Ma szczególne znaczenie w firmach bazujących na wiedzy, których silna pozycja na rynku jest zapewniona poprzez ich przewagę kadrową nad konkurencją. Gospodarka oparta na wiedzy jest kolejnym etapem rozwoju gospodarki światowej. Zasadniczym czynnikiem, od którego zależy wzrost gospodarczy jest kapitał ludzki, zaś o jego bogactwie decydują zasoby ludzkich umiejętności. O konkurencyjności firmy decydują posiadane zasoby kadrowe, których atutem jest jakość jej kapitału intelektualnego. Każda firma musi być strategicznie zorientowana na najwyższy poziom własnego kapitału intelektualnego oraz uczestnictwo w rywalizacji w obszarze tworzenia i wprowadzania innowacji do swojej oferty rynkowej. Dlatego kluczowe znaczenie zaczyna mieć technologia gromadzenia, analizy, selekcji i korzystania z globalnych informacji o innowacjach, oraz zdolność firmy do pozyskiwania tych innowacji, stosowania ich we własnych produktach i rozwijania ich. 74 Małgorzata Nycz, Barbara Smok Rola i znaczenie wiedzy w społeczeństwie informacyjnym 3. Wiedza w przedsiębiorstwie Dzisiaj wiedza uważana jest za jeden z kluczowych zasobów, który pozwala uzyskać przewagę nad konkurencją. Często też jest określana mianem zasobu, a więc można nią zarządzać, jak zasobami materialnymi. W celu optymalizacji zarządzania zasobami materialnymi rozwinięto metodykę zarządzania łańcuchem dostaw (Supply Chain Management - SCM). Rozwinięto różne podejścia do SCM, z których każde miało na celu zmniejszenie kosztów związanych z przepływem surowców, produktów - zasobów w procesie produkcji od momentu dostawy aż do sprzedaży. Wraz z rozwojem nowoczesnych środków transportu i wykorzystaniem rozwiązań teleinformatycznych zaczęto coraz częściej stosować opracowaną w Japonii metodykę "just-intime". Celem tego podejścia było jak najszybsze dostarczanie odpowiednich zasobów, w odpowiedniej ilości, minimalizując jednocześnie koszty magazynowania. Dzisiejsze przedsiębiorstwa coraz częściej są zorganizowane wokół wiedzy, a technika informatyczna wnosi znaczny wkład w możliwości zarządzania wiedzą, która staje się zasobem strategicznym. Wszystkie przedsiębiorstwa posiadają i wykorzystują jakąś wiedzę. Istnieje wiedza werbalna i niewerbalna, kodyfikowana i nie kodyfikowana, zbiorowa i indywidualna, wiedza dla pracownika, wiedza pracownika. Istnieje wiele sposobów definiowania i klasyfikowania wiedzy. Coraz więcej ludzi postrzega wiedzę jako kapitał. Trudno jest precyzyjnie określić wiedzę. Trudno jest także określić granice pomiędzy informacją, wiedzą, a mądrością. Wiedzą, jak każdym innym zasobem należy zarządzać, a więc wykorzystywać, pozyskiwać, gromadzić i pielęgnować. Problemem jest uchwycenie wiedzy (informacji) użytecznej dla przedsiębiorstwa i przetworzenie jej i prezentacji tak, aby możliwa była do wykorzystania. Większość informacji na rynku nie można bezpośrednio wykorzystać w procesie zarządzania. Informacje te muszą zostać poddane analizom, a tego potrzebna jest odpowiednia technologia informatyczna. Rozwój systemów informatycznych objął swym zasięgiem również technologie wspomagające zarządzanie w przedsiębiorstwach. Można zaobserwować przejście od pojęcia przetwarzania danych do pojęcia zarządzania i przetwarzania wiedzy. Dane i informacje są związane ze sprzętem i systemami informatycznymi. Natomiast wiedza i mądrość związana jest z ludźmi (rys.1). Wiedza potrzebna jest w każdej dziedzinie życia, a potocznie na ogół jest kojarzona z erudycją i z zasobami danych. Istnieje jednak inny aspekt wiedzy, jako narzędzia umożliwiającego wyciąganie wniosków z sytuacji. W sztucznej inteligencji ten właśnie aspekt wiedzy ma podstawowe znaczenie i można ją zdefiniować następująco [1]: wiedza jest to zbiór informacji dający możliwość wyciągania wniosków na podstawie przesłanek. Mądrość to sztuka i umiejętność przewidywania różnych stanów rzeczy oraz wyboru z wielu możliwości tego, co jest najbardziej optymalnym w danej sytuacji. Odkrycie nowej wiedzy i przetworzenie jej w mądrość powinno umożliwić firmie osiągnięcie przewagi konkurencyjnej. Rys.1. Interpretacja wiedzy POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 75 Wiedza, która coraz częściej jest postrzegana jako ważny element potencjału strategicznego przedsiębiorstwa, powoli staje się aktywem podlegającym procesom zarządzania. Jest niematerialnym zasobem przedsiębiorstwa, w skład którego wchodzą m.in.: pracownicy (ich wiedza i umiejętności), powiązania z klientami i partnerami na rynku, własność intelektualna (znaki handlowe, marki, licencje, patenty, prawa wyłączności, prawa autorskie), zasoby organizacyjne (stosowane procesy, procedury, zasady postępowania), zasady relacyjne (umowy, alianse, powiązania z innymi podmiotami). Zarządzanie wiedzą prowadzi do osiągania korzyści przez organizację oraz bardziej sprawnego i efektywnego realizowania jej misji i celów strategicznych. Jest zasadniczą zmianą zarządzania przedsiębiorstwem polegającą na efektywnym wykorzystaniu zasobów niematerialnych a głównie kapitału intelektualnego. Racjonalne wykorzystanie tego kapitału jest możliwe tylko przy wykorzystaniu odpowiednich narzędzi i form zarządzania. Wiedza [TIWA03, s.60] jest płynną mieszaniną kontekstowych doświadczeń, wartości, informacji i umiejętności tworzącą ramy dla oceny rozumienia i przyswojenia nowych doświadczeń i informacji. Tego typu wiedza znajduje odzwierciedlenie nie tylko w dokumentach i repozytoriach ale również w zwyczajach, procesach, praktykach i normach organizacji. Wiedza to informacje [TIWA03, s.61] umożliwiające podejmowanie działań – informacje głębsze, bogatsze i praktyczniejsze. Jest dostępna we właściwym kontekście, tam gdzie wymagane jest podejmowanie właściwych decyzji. Jest aktualną informacją posiadającą znaczenie, kontekst i cel, dzięki którym wywiera stale wpływ na podejmowanie decyzji. Wiedza jest podzbiorem kapitału intelektualnego. 4. Kapitał intelektualny Kapitał intelektualny to aktywa takie, jak wiedza, zbiorowe kompetencje, klientela i renoma firmy (good will), wartość marki, patenty, których nie da się zmierzyć tradycyjnymi metodami księgowymi, ale mimo to przynoszą firmie korzyści. Umiejętności i kompetencje ludzi, pozycja rynkowa, renoma i stała klientela firmy, uznanie, osiągnięcia, patenty, kontakty, poparcie i partnerzy są różnymi aspektami kapitału intelektualnego. Wg Międzynarodowego Stowarzyszenia Księgowych [3] kapitał intelektualny jest całkowitym kapitałem przedsiębiorstwa (odnosi się do zawartej w nim wiedzy), na który składają się wiedza, doświadczenie pracowników, zaufanie, marka, umowy z partnerami, systemy informacyjne, procedury administracyjne, patenty, znaki handlowe, efektywność procesów. Wartość kapitału intelektualnego można obliczyć jako różnicę pomiędzy wartością księgową a rynkowa przedsiębiorstwa. W ramach kapitału intelektualnego wyróżnia się: • kapitał ludzki (umiejętności i wiedza ludzi), • kapitał innowacyjny (zdolność do innowacji), • kapitał procesowy (procesy, techniki, narzędzia wykorzystywane w organizacji). Kapitał intelektualny jest oparty na wiedzy, chociaż obejmuje jeszcze inne wymiary tworzenia wartości przedsiębiorstwa (np. marka handlowa, powiązania z zewnętrznymi zainteresowanymi itp.) [BRST01, s.69]. Często do jego składników zalicza się: • kapitał społeczny rozumiany jako kapitał strukturalny (powiązania w sieci, konfiguracja sieci, odpowiedzialność organizacji), stosunki międzyludzkie (zaufanie, normy, zobowią- 76 Małgorzata Nycz, Barbara Smok Rola i znaczenie wiedzy w społeczeństwie informacyjnym zania, identyfikacja), kapitał poznawczy (wspólnie podzielane słowniki, wspólny język, wspólnie dzielone opowieści), • kapitał ludzki to kompetentność (umiejętności, wiedza teoretyczna, talenty), zręczność intelektualna (innowacyjność ludzi, zdolność do naśladowania, przedsiębiorczość, zdolność do zmian), motywacja (chęci działania, predyspozycje osobowościowe, zaangażowanie w procesy organizacyjne, skłonności do zachowań etycznych, władza organizacyjna, przywództwo menedżerskie), • kapitał organizacyjny tworzy struktura wewnętrzna (struktura organizacyjna, systemy działania, własność intelektualna, procesy wewnętrzne, kultura organizacyjna), struktura zewnętrzna (zasoby rynkowe, powiązania z dostawcami i partnerami odbiorców strategicznych i zainteresowanymi w otoczeniu przedsiębiorstwa) oraz kapitał rozwojowy (innowacyjność przedsiębiorstwa, organizacyjne uczenie się, zamierzenia strategiczne, cele i strategie przedsiębiorstwa, procesy tworzenia strategii, gotowość do zmian). Obserwacje dotyczące zmian w gospodarkach krajów wysoko rozwiniętych ekonomicznie wskazują na kapitał społeczny jako znaczący czynnik rozwoju gospodarczego. Kapitał ludzki jest zasobem niematerialnym, który w dużej mierze warunkuje efektywne funkcjonowanie gospodarki. Kapitał społeczny obejmuje zasoby umiejętności, informacji, kultury, wiedzy i kreatywności jednostek oraz związki pomiędzy ludźmi i organizacjami. Znaczenie wymienionych zasobów w rozwoju gospodarczym w tym kontekście Rozwój społeczno-gospodarczy Polski w nadchodzących latach będzie zależał od zdolności tworzenia kapitału społecznego na poziomie strategicznym jak i operacyjnym. To szczególne wyzwanie w sytuacji nierównomiernego dostępu do kultury. Społeczeństwo uznaje się za informacyjne, jeśli wykorzystuje ono rozbudowaną nowoczesną sieć telekomunikacyjną (zasięg obejmuje wszystkich obywateli) oraz rozbudowane zasoby informacyjne dostępne publicznie, które mogą wykorzystywać środki masowej komunikacji i informacji. W społeczeństwie informacyjnym informacja zaczyna być traktowana równorzędnie z surowcami, ziemią i siłą roboczą. Zarządzanie wiedzą to świadome i zaplanowane wykorzystanie kapitału intelektualnego pracowników i informacji zgromadzonych w firmie. Modele zarządzania wiedzą, prezentują teoretyczne podejście do dziedziny. Dla praktyków najważniejsze są zastosowania oraz możliwość zmierzenia wyników określonego podejścia w biznesie. Wyznaczenie odpowiednich miar skuteczności procesów zarządzania wiedzą jest trudnym zagadnieniem. Mamy do czynienia z wiedzą, której wartość nie zawsze w danej chwili jest możliwa do zmierzenia, również i w przedsiębiorstwie występują znaczne trudności w pomiarze istotnych wielkości je charakteryzujących. Często stosuje się estymacje, przybliżenia wartości, prognozy i modele statystyczne z różnych powodów. Wraz z kapitałem intelektualnym pojawia się nowe spojrzenie na rolę i wartość ludzi w przedsiębiorstwie. Zasobowe myślenie o ludziach w przedsiębiorstwie ma wpływ na zwiększenie korzyści m.in. z ich wykorzystania. W GOW istnieje konieczność narastającego tworzenia i użytkowania zasobów materialnych, a więc istnieje potrzeba ich pomiaru. Propozycję zestawu miar do mierzenia efektywności zarządzania wiedzą w przedsiębiorstwie podał Mark Van Buren3 wraz z grupą złożoną z praktyków zarządzania wiedzą i przemysłu. Zaproponował model zarządzania kapitałem intelektualnym, w którym kluczowym czynnikiem był opracowany zestaw miar. Bardzo często w wielu przedsiębiorstwach nie mierzy się inwestycji w 3 Amerykańskie Towarzystwo Szkoleń i Rozwoju (American Society for Training and Development) – www.astd.org POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 77 kapitał intelektualny, jak również nie posiada informacji o wynikach tych inwestycji. Jedną z tego rodzaju miar jest miara wartości kapitału intelektualnego firmy, a więc stosunek wartości rynkowej (cenę akcji pomnożoną przez ich ilość) do wartości księgowej przedsiębiorstwa. Wyceniając wartość przedsiębiorstwa powyżej jego wartości księgowej, bierze się pod uwagę także wartość jego kapitału intelektualnego. Jednak ta miara podlega ciągłym fluktuacjom i czynnikom psychologicznym oddziałującym na rynek. Teoria zarządzania wiedzą jest nową koncepcją w naukach ekonomicznych. Głównymi podmiotami gospodarczymi, które przyczyniły się do rozpowszechnienia koncepcji związanych z zarządzaniem wiedzą były firmy konsultingowe, które jako jedne z pierwszych, wprowadziły u siebie systemy zarządzania wiedzą i zaczęły przenosić te rozwiązania do innych organizacji. Wiedza bardzo często jest rozproszona, trudna do lokalizacji i udostępniania, niespójna i nadmiarowa, a w konsekwencji często ignorowana przy podejmowaniu optymalnych decyzji przedsiębiorstwa. Aby zachować konkurencyjność, firmy muszą skutecznie i wydajnie tworzyć, lokalizować, rejestrować i dzielić się wiedzą organizacji, a przede wszystkim stosować ją do rozwiązywania problemów i wykorzystywania nadarzających się możliwości. Przedsiębiorstwa powinny dysponować mechanizmami dostępu do wiedzy w czasie rzeczywistym, aby móc ją stosować oraz integrować w celu reakcji na dynamicznie zmieniający się rynek. Wymaga to dzielenia się wiedzą, współpracy oraz mechanizmów ułatwiających szybką adaptację. Wiedza się starzeje, a wiec należy ją aktualizować. Wiedza i zarządzanie relacjami funkcjonują najlepiej jako zintegrowany model biznesowy. Kapitał intelektualny jest jednym z czynników determinujących konkurencyjność oraz dynamikę organizacyjną przedsiębiorstwa w celu zwiększenia tworzonej wartości dodanej. Współczesne przedsiębiorstwo powinno się również koncentrować na kompetencjach, czyli wiedzy i umiejętnościach swoich pracowników, które powinny być stale rozwijane, gdyż jest to jedna z ważnych cech nowoczesnego przedsiębiorstwa. Pracownicy wykonują powierzone zadania, realizują postawione cele, wykorzystują technologie, kreują rzeczywistość i uczestniczą w niej. Od tego, kim są , co robią, jak robią, a więc od ich kompetencji i zaangażowania w pracę zależy rozwój i sukces przedsiębiorstwa. Wartość przedsiębiorstwa chociaż ma wymiar pieniężny, nie jest pojęciem jednoznacznym. Na jego wartość wpływa wiele czynników zarówno w przedsiębiorstwie jak i w jego otoczeniu. 78 Małgorzata Nycz, Barbara Smok Rola i znaczenie wiedzy w społeczeństwie informacyjnym Rys.2. Drzewo wartości przedsiębiorstwa Opracowano na podstawie [BRST01, s.70] Proces globalizacji przebiega dynamicznie i nie można go lekceważyć nie przewidując jego skutków na przyszłość, jak i na podejmowanie decyzji odnośnie wszystkich typów przedsięwzięć. Kompetencje to osobiste [11] dyspozycje w zakresie wiedzy umiejętności i postaw pozwalające realizować zadania zawodowe na odpowiednim poziomie. Są to zdolności ludzi do określonego zachowania co powoduje realizację postawionych zadań i generowanie rezultatów w danych warunkach. Kompetencje to wiedza, umiejętności, uzdolnienia, style działania, osobowość, zainteresowania i inne cechy, które używane i rozwijane prowadzą do osiągania rezultatów zgodnych ze strategicznymi zamierzeniami przedsiębiorstwa. Są to praktyczne umiejętności biznesowe pracowników. Wg [4] kapitał jest wartością środków ekonomicznych skapitalizowanych w zasobach rzeczowych i ludzkich. Stopa kapitalizacji jest uwarunkowana przez naturalne i społeczne warunki środowiska, w którym kapitał występuje i wzrasta. 5. Podsumowanie Reakcja przedsiębiorstwa na wymagania otoczenia podnosi jego zdolność innowacyjną. Aby odnosić sukcesy na rynku, powinno traktować dynamikę otoczenia jako sposobność do nowego działania. Obecnie gospodarka coraz częściej oparta jest na wiedzy. Bazuje na wytwarzaniu, dystrybucji oraz wykorzystywaniu wiedzy jako podstawowego zasobu przedsiębiorstwa. Różnice między Polską a krajami Unii Europejskiej w zakresie informatyzacji wpływają niekorzystnie na konkurencyjność polskiej gospodarki oraz jakość życia mieszkańców. Podejmowane działania powinny dotyczyć m.in. zwiększania umiejętności w korzystaniu z nowych technologii, a także dalszego rozwoju nowoczesnych usług dotyczących: elektronicznego biznesu (e-business), elektronicznej administracji (e-government), nauczania na odległość (e-learning), usług medycznych na odległość (e-health), etc. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 79 Ważnym zadaniem dla nas jest włączenie się w proces budowy ery informacyjnej poprzez tworzenie warunków dla zapewnienia bezpośredniego dostępu do informacji, kształtowanie świadomości społeczeństwa oraz rozwijanie jego potencjału intelektualnego i gospodarczego. 6. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 18. Baborski A.(red.), 1994. Efektywne zarządzanie a sztuczna inteligencja. Wyd. AE we Wrocławiu, 20. Chwistecka-Dudek H., Soroka W., 2000. Core Competencies – koncepcja strategiczna. Przegląd Organizacji nr 3. Dobija D., 2003. Pomiar i rozwój kapitału ludzkiego przedsiębiorstwa. PFPK Warszawa, 128. Dobija D. 2004. Pomiar i sprawozdawczość kapitału intelektualnego przedsiębiorstwa. Wyd. Wyższej Szkoły Przedsiębiorczości i zarządzania im. L. Koźmińskiego. Warszawa, 27. Dobija M., 1998. How to Place Human Resources into Balance Sheet? Journal of Human Resource Costing and Accounting, vol 3(1) , 83-93. Drucker P., 2001. Myśli przewodnie Druckera. Warszawa. Edvinsson L., Malone M. 2001. Kapitał intelektualny. PWN Warszawa. Giza J., 2003. Historia społeczeństwa informacyjnego: http://republika.pl/spoleczenstwoinformacyjne/historiaeur.html z dn. 5.11. Gonez-Mejia L.R.,Balkin D.B., Cardy R.L., 2001. Managing Human Resources. Prentice Hall New Jersey. Goban-Klas T., 1999. Społeczeństwo informacyjne: szanse, zagrożenia, wyzwania. Kraków. Juchowicz M., 2004. Kapitał ludzki a kształtowanie przedsiębiorczości. Poltext Warszawa, 249. Kluszczyński R.W., 2001. Społeczeństwo informacyjne. Cyberkultura. Sztuka multimediów. Kraków. Kukliński A., 2001. Gospodarka oparta na wiedzy. Wyzwanie dla Polski XXI wieku. Warszawa. Leonard-Barton D., 1992. Core Capabilities and Core Rigidities: A Paradox in Managing New Product Development. Strategic Management Journal 13. Mouritsen J., Larsen H. T., Bukh P. N., Johansen M.R., 2001. Reading an Intellectual Capital statement. Describing and Prescribing Knowledge Management Strategies. Journal of Intellectual Capital, Vol. 2, Issue 4. Nycz M., Smok B., 2005. Bariery wprowadzania zarządzania wiedzą w przedsiębiorstwie, [W]: Niedzielska E., Dyczkowski M., Dudycz H. (red.): Nowoczesne technologie informacyjne w zarządzaniu. Prace Naukowe AE we Wrocławiu 1081, Nycz M., Smok B., 2005. Jak mierzyć kapitał intelektualny, [W]: Porębska-Miąc T., Sroka H. (red.): Systemy wspomagania organizacji. Prace Naukowe AE w Katowicach. Probst G., Raub S., Romhardt K., 2002. Zarządzanie wiedzą w organizacji. Oficyna Ekonomiczna Kraków. 80 Małgorzata Nycz, Barbara Smok Rola i znaczenie wiedzy w społeczeństwie informacyjnym 19. Reinhardt R., Bornemann M., Pawlowsky P., Schneider U. 2001. Intellectual Capital and Knowledge Management [W:] Dierkes H., Child J., Nonaka I. (red.), Handbook of Organizational Learning. 20. Rybak M., 2003. Kapitał ludzki a konkurencyjność przedsiębiorstw. POLTEXT Warszawa. THE ROLE AND IMPORTANCE OF KNOWLEDGE IN THE INFORMATION SOCIETY Summary Times we live in, are changed very quickly, because of developing of information-communication technology. Knowledge is of very importance, especially its gathering, using and exchange via networks. The paper is sacrificed the importance of the knowledge in the present-day society, which is described as the information society. Keywords: Knowledge, Knowledge Management, Information Society MAŁGORZATA NYCZ [email protected] BARBARA SMOK [email protected] Katedra Systemów Sztucznej Inteligencji Akademia Ekonomiczna im. O. Langego ul. Komandorska 118/120 53-456 Wrocław POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 81 KAZIMIERZ PERECHUDA Katedra Zarządzania Informacją i Wiedzą Akademia Ekonomiczna we Wrocławiu ZBIGNIEW TELEC Zakład Organizacji i Zarządzania Akademia Wychowania Fizycznego we Wrocławiu IDENTYFIKACJA ŁAŃCUCHA WARTOŚCI BIUR INFORMACJI GOSPODARCZEJ (BIG) W POLSCE Streszczenie W artykule przedstawiono idee łańcucha wartości dodanej opartą na modelu Portera. Zaprezentowano koncepcje transformacji łańcucha wartości Biur Informacji Gospodarczej z gospodarki klasycznej w kierunku gospodarki opartej na wiedzy. Słowa kluczowe: Biura Informacji Gospodarczej, transformacja łańcuchów wartości BIG 1. Biura Informacji Gospodarczej Biura Informacji Gospodarczej są to podmioty utworzone na podstawie Ustawy o udostępnianiu informacji gospodarczych z dnia 14 lutego 2003 r.[1], które zajmują się pozyskiwaniem, przetwarzaniem i udostępnianiem informacji gospodarczych oraz prowadzą rejestr skradzionych lub podrobionych dokumentów, na podstawie których próbowano wyłudzić kredyt. Liczba biur nie jest ograniczona prawnie. W Polsce działają na dzień 01.12.2005 r. cztery niezależne Biura Informacji Gospodarczej: KRD BIG S. A, KSV BIG S.A, Infomonitor BIG S.A, InFoScor BIG S.A. Na dzień dzisiejszy zgodnie z ustawą, biura dostarczają dane i informacje gospodarczą. Zmiana zakresu ich działalności jest możliwa tylko pod warunkiem zmiany Ustawy o udostępnianiu informacji gospodarczych. Wspomniana ustawa była już nowelizowana dwukrotnie w ciągu ostatnich dwóch lat. Zmiany w gospodarce, nowe potrzeby (produkty i usługi) klientów względem BIG wymuszą kolejną nowelizację ustawy. 2. Łańcuch wartości dodanej Biur Informacji Gospodarczej Zgodnie z Porterowską koncepcją łańcucha wartości dodanej, potencjalne źródła przewagi konkurencyjnej biur umiejscowione są w funkcjach podstawowych (rys. 1). Polskie prawo mocno ogranicza zakres działalności biur. Funkcje główne są determinowane ustawą o udostępnianiu informacji gospodarczej. Do funkcji podstawowych (głównych) biura należy zaliczyć: • • • • • marketing, pozyskiwanie klientów, zarządzanie informacją gospodarczą: przekazywanie przez klientów informacji gospodarczych, aktualizację informacji gospodarczych, usuwanie informacji gospodarczych, 82 Kazimierz Perechuda, Zbigniew Telec Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce • • • • • weryfikację danych, prowadzenie rejestru zapytań (rejestr podmiotów, którym zostały ujawnione informacje gospodarcze), zarządzanie dokumentem (rejestr skradzionych i podrobionych dokumentów tożsamości lub zaświadczeń o zarobkach, zatrudnieniu oraz rejestr prób posłużenia się tymi dokumentami), ujawnianie informacji gospodarczych, monitoring przedsiębiorców. Rysunek 1. Łańcuch wartości Biura Informacji Gospodarczej oparty na modelu M. E. Portera Źródło: Opracowanie własne Funkcje pomocnicze BIG nadzorują funkcje główne. Do funkcji pomocniczych w biurze należy zaliczyć: • infrastrukturę firmy, • zarządzanie zasobami ludzkimi (potencjał intelektualny pracowników), • rozwój technologii informatycznych, • zabezpieczenia informacji gospodarczych. Każda z funkcji głównych biura może być źródłem wartości dodanej dla klienta. Obecnie łańcuch wartości BIG nastawiony jest na sprzedaż danych i informacji gospodarczych. 3. Transformacja łańcuchów wartości Biur Informacji Gospodarczej Świadomość przynależności do określonej sieci gospodarczej stanowi ważny czynnik w procesach: • budowy modelu biznesu, • inwestowania w określone kluczowe kompetencje, POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 • 83 dostosowywania własnego łańcucha wartości do łańcucha wartości innych uczestników grupy sieciowej, • analizy własnego wkładu w kreowanie wartości dodanej sieci. Właściciele i menedżerowie Biur Informacji Gospodarczej powinni uwzględniać powyższe kryteria w procesie budowy przewagi konkurencyjnej na rynku usług informacji gospodarczej. Organizacje sieciowe [2] są charakterystyczne dla tzw. nowej gospodarki, opartej na przetwarzaniu informacji i wiedzy. W powyższym kontekście traktować można BIG jako przedsiębiorstwo sieciowe charakteryzujące się następującymi cechami: • sprzedażą informacji, • pozyskiwaniem informacji z otoczenia, magazynowaniem i przetwarzaniem, • informacja jest głównym towarem, • informacja jest kluczowym zasobem. Izolowane funkcjonowanie BIG jest niemożliwe. Stąd też przy pomocy instrumentów wywiadu gospodarczego [3] oraz badania i analizy informacji rynkowej, zmuszone one będą do pozyskiwania informacji w sposób jawny lub niejawny od wielu podmiotów zaangażowanych w otoczeniu (NIK, Urzędy Skarbowe, banki, kooperanci, PIP, PIH, policja, urzędy administracji państwowej i samorządowej, instytucje pośrednictwa kredytowego i in.). W gospodarce opartej na wiedzy Biura Informacji Gospodarczej będą sieciami wirtualnymi, w znaczeniu prowadzenia gry rynkowej na zasobach niematerialnych (informacji o klientach i ich produktach). Wydaje się, że obecnie BIG w małym stopniu pozyskują wiedzę o klientach i ich konkurentach. Istotne jest tutaj zwłaszcza pozyskiwanie wiedzy niejawnej o firmach dotyczącej m.in.: • rzeczywistej struktury organizacyjnej, • nowych modeli biznesu, • nowych produktów, • planowanych fuzji, aliansów, przejęć, itp. Sprzedaż tzw. czystej informacji finansowej o danym podmiocie gospodarczym będzie coraz bardziej utrudniana. Wypierana ona będzie w coraz większym stopniu przez sprzedaż wiedzy, zwłaszcza niejawnej, o przedsiębiorstwach i ich podmiotach zaangażowanych. Rynek informacji i wiedzy staje się coraz bardziej atrakcyjny. Następuje tutaj przesunięcie w łańcuchach wartości od sprzedaży produktów i usług do sprzedaży informacji oraz docelowo wiedzy (rys. 2). Również BIG powinny przesuwać swój model biznesu od sprzedaży informacji do sprzedaży wiedzy (rys. 2), co daje im kluczowe kompetencje w następujących obszarach: • kojarzenia biznesów, nawet firm konkurujących, • kojarzenia i uzgodnienia łańcuchów wiedzy niejawnej podmiotów gospodarczych, • współudział w tworzeniu niekonkurencyjnej między organizacyjnej sieci biur informacji gospodarczej w kraju i za granicą, • redukcja incydentalnych projektów gospodarczych, • "zapominania" informacji nieużytecznej. 84 Kazimierz Perechuda, Zbigniew Telec Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce Rysunek 2. Łańcuch wartości - proces transformacji Źródło: Opracowanie własne 4. Literatura 1. 2. 3. Ustawa z dnia 14 lutego 2003 r. o udostępnianiu informacji gospodarczych, Dz. U. 03.50.424 Perechuda K. 2005. Dyfuzja wiedzy w przedsiębiorstwie sieciowym, Akademia Ekonomiczna we Wrocławiu, Wrocław. Borowiecki R., Kwieciński M. (red.), 2004. Informacja i wiedza w zintegrowanym systemie zarządzania, Zakamycze. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 85 IDENTIFICATION OF VALUE CHAIN IN ECONOMICAL INFORMATION OFFICES (BIG) IN POLAND Summary In the article transformation of chains of value in BIG is presented. The article includes reflections about BIG in new economy. Keywords: Biura Informacji Gospodarczej, Transformation of Chains of Value in BIG PROF. DR HAB. KAZIMIERZ PERECHUDA Katedra Zarządzania Informacją i Wiedzą Akademia Ekonomiczna im. Oskara Langego we Wrocławiu 53-345 Wrocław, ul. Komandorska 118/120 e-mail: [email protected] Zakład Organizacji i Zarządzania Akademia Wychowania Fizycznego we Wrocławiu MGR INŻ. ZBIGNIEW TELEC Katedra Zarządzania Informacją i Wiedzą Akademia Ekonomiczna im. Oskara Langego we Wrocławiu 53-345 Wrocław, ul. Komandorska 118/120 e-mail: [email protected] 86 Andrzej Piegat, Barbara Wąsikowska Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych ANDRZEJ PIEGAT BARBARA WĄSIKOWSKA Uniwersytet Szczeciński ZASTOSOWANIE METOD SZTUCZNEJ INTELIGENCJI DO IDENTYFIKACJI CZYNNIKÓW EKONOMICZNYCH Streszczenie W artykule przedstawiony został problem identyfikacji czynników mających wpływ na określone zjawisko ekonomiczne przy zastosowaniu niestandardowych metod modelowania - metod sztucznej inteligencji. Słowa kluczowe: sieci neuronowe radialne, algorytmy genetyczne, teoria zbiorów przybliżonych, identyfikacja czynników ekonomicznych 1. Wprowadzenie W ostatnich latach wraz z dynamicznym rozwojem informatyki i dostarczanych przez nią coraz większych mocy obliczeniowych obserwuje się ogromny wzrost zainteresowania metodami sztucznej inteligencji w takich dziedzinach jak: finanse, medycyna, zastosowania inżynierskie, geologia czy fizyka. W dziedzinie ekonomii wymienić można takie obszary zastosowań jak: prognozowanie bankructw, kursów walut, notowań akcji, wskaźników finansowo-ekonomicznych, klasyfikacji przedsiębiorstw, wycena kontraktów terminowych, spółek, nieruchomości, ocena wiarygodności kredytowej, identyfikacja klientów według przedstawianej oferty.1 Obecnie wiele znaczących placówek naukowych i badawczych na całym świecie zajmuje się zastosowaniami sztucznej inteligencji. Stopień zaawansowania prac pozwolił na wydzielenie kilku kierunków badań. Najważniejszymi z nich są sieci neuronowe (neural networks), logika rozmyta (fuzzy logic), algorytmy genetyczne (evolutionary algorithms) i teoria zbiorów przybliżonych (rough sets). Metody te (w szczególności sieci neuronowe i algorytmy genetyczne) pozwalają na zautomatyzowanie niektórych, bardziej uciążliwych etapów procesu modelowania, co w dużej mierze ułatwia budowę modelu danego zjawiska ekonomicznego. Rozwój cywilizacji, postępu technicznego i gospodarki światowej prowadzi do powstawania coraz bardziej skomplikowanej rzeczywistości ekonomicznej w otoczeniu człowieka. Zasadniczym celem pracy badacza-ekonomisty jest więc poznanie i w możliwie jak najprostszy sposób opisanie i wyjaśnienie zjawisk ekonomicznych. Są one jednak zazwyczaj zjawiskami nieliniowymi, cechującymi się dużą liczbą zmiennych, względnie małą liczbą danych pomiarowych oraz silną, często nieliniową korelacją zmiennych. W zjawiskach tych działają różnorodne prawa ekonomiczne, zależne od warunków ekonomicznych i polityki gospodarczej państwa. Bardzo ważnym problemem jest również upływający czas. Model opisujący zjawisko ekonomiczne dla danej rzeczywistości może zupełnie nie odpowiadać stanowi przyszłemu, bowiem czynniki mające zasadniczy wpływ na to zjawisko w badanym okresie w innym czasie mogą nie mieć tak istotnego wpły- 1 Por. [3]. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 87 wu lub nawet w ogóle nie występować. Wśród innych przyczyn powodujących ogromne trudności w opisaniu otaczającej nas rzeczywistości ekonomicznej można wymienić takie jak:2 − istnienie wzajemnych, często bardzo skomplikowanych i trudnych do zdefiniowania powiązań między czynnikami opisującymi badane zjawisko, − występowanie obok informacji precyzyjnej, również informacji jakościowej i rozmytej, − możliwość występowania błędów lub luk w zebranym materiale statystycznym, − brak możliwości zmierzenia pewnych wielkości lub brak informacji na temat kształtowania się tych wielkości w pewnych okresach wcześniejszych, − wystąpienie procesów, które nie zostały dotychczas zidentyfikowane. Dodatkowym problemem, z którym musi zmierzyć się badacz chcący opisać dane zjawisko ekonomiczne (zbudować model), to problem doboru czynników najbardziej istotnych dla kształtowania się tego zjawiska. Dokonując przeglądu literatury można zauważyć, że najczęściej stosowanymi metodami do opisu zjawisk wielkowymiarowych są metody statystycznej analizy wielowymiarowej (SAW), która jest działem statystyki teoretycznej i stosowanej.3 W zależności od tego, jakie podejście zostało przyjęte w badaniu statystycznym stosowane są metody oparte na podejściu stochastycznym lub metody oparte na podejściu opisowym. Inna klasyfikacja metod SAW opiera się na kryterium istnienia hipotez badawczych o rozważanym zbiorze obserwacji. Hipotezy te z reguły wynikają z wiedzy merytorycznej dotyczącej zjawisk złożonych, odnośnie do których informacje są w wielowymiarowych obserwacjach. Ze względu na to kryterium metody SAW dzieli się na: metody weryfikujące (potwierdzające) hipotezy o badanych zjawiskach oraz na metody odkrywające właściwości badanych zjawisk. Należy przy tym zauważyć, że większość z tych metod opiera się na badaniu modeli jednoargumentowych. W przypadku jednak zjawisk wielkowymiarowych ich użyteczność jest ograniczona. Ograniczenie to związane jest z ogromną redukcją informacji towarzyszącej przejściu z przestrzeni wielkowymiarowej do przestrzeni dwuwymiarowej. Przesłanką napisania niniejszego artykułu była więc potrzeba wypełnienia luki metodycznej w naukowym warsztacie badawczym dotyczącym modelowania systemów rzeczywistych. Stosowane metody nie są w stanie w pełni odzwierciedlić otaczającą nas złożoną rzeczywistość ekonomiczną. Nie istnieje bowiem uniwersalna metoda, która pozwalałaby tworzyć modele różnorodnych zjawisk ekonomicznych z taką samą, zadowalającą dokładnością (szczególnie dotyczy to identyfikacji nieliniowej). W związku z tym stale poszukuje się nowych metod, które z większą precyzją wyjaśniałyby zjawiska makroekonomiczne. Odpowiedzią na to zapotrzebowanie, może być próba zastosowania niestandardowych metod modelowania procesów makroekonomicznych – metod sztucznej inteligencji takich jak: sieci neuronowe, algorytmy genetyczne, teoria zbiorów przybliżonych. Dokonując przeglądu literatury przedmiotu można się przekonać że pojęcia „standardowe (klasyczne) metody” i „niestandardowe (nieklasyczne) metody”, są różnie interpretowane. W poniższym artykule słowo „standardowe” oznacza metody wcześniej opracowane, częściej wykorzystywane, czy też stosowane przy często powtarzających się założeniach. Natomiast pojęcie „metody niestandardowe” odnosi się do metod nowych, rzadziej używanych do opisu zjawisk ekonomicznych – metod sztucznej inteligencji. 2 3 Por. [7] oraz [9]. Por. [4]. 88 Andrzej Piegat, Barbara Wąsikowska Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych 2. Metody identyfikacji czynników ekonomicznych Istnieje szereg metod doboru zmiennych do modelu. W literaturze przedmiotu najczęściej stosowanym kryterium podziału metod identyfikacji zmiennych jest rodzaj modelu jaki zamierza się uzyskać tzn. liniowy czy nieliniowy (Rys. 1). Metody identyfikacji zmiennych Metody identyfikacji zmiennych do modelu liniowego Metody identyfikacji zmiennych do modelu nieliniowego Metoda S. Bartosiewicz Metoda Z. Hellwiga Metoda E. Nowaka Metoda Z. Pawłowskiego Metoda A. Bartkowiak i W. Pieriegudowa Metoda analizy grafów Metoda transformacji Metoda M. Kolupy Analiza czynnikowa Metoda krzywych rozmytych (Lin i Cunninghama) Analiza dyskryminacyjna Metoda łukowo-kątowa Analiza składowych głównych Sieci RBF Sieci perceptronowe Metoda R. Jasińskiego Jednokierunkowe sieci wielowarstwowe Rysunek 1. Klasyfikacja metod identyfikacji zmiennych Źródło: opracowanie własne na podstawie [5] W grupie metod służących do identyfikacji zmiennych do modelu nieliniowego bardzo intensywnie rozwijają się (w ciągu ostatnich kilkunastu lat) metody sztucznej inteligencji. Celem prowadzonych przez autorów niniejszego artykułu badań jest analiza stosowalności niestandardowych POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 89 metod modelowania (sieci neuronowych, algorytmów genetycznych, teorii zbiorów przybliżonych) do modelowania zjawisk ekonomicznych. Procedura badawcza została oparta na analizie systemowej – metodzie badawczej służącej do poszukiwania wskazówek do podjęcia ważnych decyzji gospodarczych. Przyjętym obszarem badawczym są uwarunkowania produkcji sprzedanej przemysłu w Polsce, w okresie od grudnia 1993 do stycznia 2000 roku. Spośród metod sztucznej inteligencji do budowy modeli zostały wybrane radialne sieci neuronowe, algorytmy genetyczne oraz zbiory przybliżone. 3. Sieci neuronowe RBF Tematyka sztucznych sieci neuronowych należy do interdyscyplinarnej dziedziny badań powiązanej z matematyką stosowaną, statystyką, automatyką, biocybernetyką, elektroniką, a nawet medycyną. Sztuczne sieci neuronowe powstały na podstawie wiedzy o działaniu systemu nerwowego istot żywych i stanowią próbę wykorzystania zjawisk zachodzących w systemach nerwowych przy poszukiwaniu nowych rozwiązań. Sieci neuronowe można traktować jako nowoczesne systemy obliczeniowe, które przetwarzają informacje wzorując się na zjawiskach zachodzących w mózgu człowieka. Informacje te mają charakter danych numerycznych, na podstawie których sieć neuronowa może na przykład posłużyć jako model obiektu o zupełnie nieznanej charakterystyce. Sieci RBF stanowią specjalną odmianę sieci zawierającej neurony o radialnej funkcji bazowej zazwyczaj typu gaussowskiego. Sieć może zawierać dowolną liczbę N wejść, określoną liczbę neuronów ukrytych o radialnej funkcji aktywacji oraz tyle neuronów wyjściowych, ile wynosi wymiar wektora zadanego d, wynikający ze specyfikacji problemu. Neurony wyjściowe są zwykle liniowe i każdy z nich realizuje sumę wagową sygnałów pochodzących z neuronów radialnych warstwy ukrytej. Sieci radialne umożliwiają wystąpienie symetrii kołowej wokół neuronu, co w niektórych przypadkach może zasadniczo zredukować liczbę neuronów potrzebną sieci do poprawnego działania. W sieciach radialnych nie występuje potrzeba stosowania wielu warstw ukrytych. Typowa sieć radialna składa się z warstwy wejściowej, ukrytej z neuronami radialnymi i wyjściowej, w której zadaniem neuronu jest tylko sumowanie wagowe sygnałów wychodzących z neuronów ukrytych. Gaussowska postać funkcji radialnej z centrami ulokowanymi w ci (przy wartości p równej liczbie danych uczących wektor centrum odpowiada współrzędnym xi wektora uczącego) i szerokością si. p || x − ci ||2 F ( x) = ∑Wi exp − 2σ i2 i =1 (1) 4. Algorytmy genetyczne Algorytmy genetyczne stanowią bardzo silne narzędzie do rozwiązywania wielu problemów optymalizacyjnych. Ich zasada działania oparta jest na mechanizmach doboru naturalnego oraz dziedziczności. Algorytm ewolucyjny przetwarza populację osobników, z których każdy jest propozycją rozwiązania postawionego problemu. Działa on w środowisku, które można zdefiniować na podstawie problemu rozwiązywanego przez algorytm. W środowisku każdemu osobnikowi jest przyporządkowana wartość liczbowa, określająca jakość reprezentowanego przez niego rozwiązania; wartość ta jest nazywana przystosowaniem osobnika. Każdy osobnik jest wyposażony w in- 90 Andrzej Piegat, Barbara Wąsikowska Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych formację stanowiącą jego genotyp, będącą „przepisem” na utworzenie fenotypu – zestawu cech określanych przez genotyp, podlegających ocenie środowiska. Środowisko można opisać jako funkcję przystosowania, za pomocą której osobnikowi przypisuje się przystosowanie na podstawie jego fenotypu. Funkcja ta może być stacjonarna lub zmienna w czasie, może też zawierać element losowości. Działanie algorytmu genetycznego sprowadza się do wykonania pętli przedstawionej na rys. 2, w której następuje po sobie reprodukcja, operacje genetyczne, ocena i sukcesja. Algorytm ewolucyjny Inicjacja Środowisko Reprodukcja Sukcesja Operacje genetyczne Ocena Rysunek 2. Schemat algorytmu ewolucyjnego Źródło: [1] W literaturze przedmiotu, reprodukcję i sukcesję określa się łącznym mianem selekcji. Reprodukcja w połączeniu z operatorami genetycznymi modeluje rozmnażanie, podczas którego materiał genetyczny rodziców przekazywany jest potomkom. Podczas reprodukcji zostają powielone losowo wybrane osobniki z populacji bazowej. Powstałe w wyniku reprodukcji kopie, zwane osobnikami rodzicielskimi, poddawane są operacjom genetycznym takim jak mutacja i krzyżowanie. Populacja potomna jest poddawana ocenie środowiska, po czym następuje sukcesja – tworzy się nową populację bazową, mogącą zawierać osobniki zarówno z populacji potomnej, jak i ze starej populacji bazowej. Cykl ewolucji może się kończyć się wówczas, gdy przystosowanie osobników jest odpowiednio duże lub gdy stwierdzi się, że stan populacji bazowej świadczy o stagnacji algorytmu. W przeprowadzonych badaniach algorytmy genetyczne wraz z siecią neuronową RBF zostały użyte do identyfikacji czynników ekonomicznych mających wpływ na produkcję sprzedaną przemysłu w Polsce w latach 1993 – 2000. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 91 5. Teoria zbiorów przybliżonych Źródłem teorii zbiorów przybliżonych są liczne badania z zakresu analizy i reprezentacji w technikach informatycznych przeprowadzane przez polskich matematyków i informatyków w latach siedemdziesiątych. Autorem koncepcji zbiorów przybliżonych jest profesor Zdzisław Pawlak, który ogłosił podstawy tej teorii w 1982 roku. Następnie została ona rozwinięta do postaci aplikacji data mining przez profesora Andrzeja Skowrona. Obecnie jest ona jedną z najszybciej rozwijających się dziedzin sztucznej inteligencji. Teoria zbiorów przybliżonych stosowana jest do badania nieprecyzyjności, ogólnikowości i niepewności w procesie analizy danych. Koncentruje się ona na dostarczaniu ogromnym zbiorom danych niezbędnych wzorów, reguł oraz informacji. Zbiory przybliżone mogą być również instrumentem prognostycznym służącym do zapisywania doświadczeń ekspertów w formie reguł decyzyjnych. Powstają one na bazie materiałów empirycznych i umożliwiają stosunkowo łatwe przetwarzanie informacji. Poszczególne etapy postępowania w trakcie analizy danych przy pomocy zbiorów przybliżonych to: 1. zebranie materiału empirycznego (pierwotna tabela informacyjna), 2. dyskretyzacja danych, 3. zbudowanie wtórnej tabeli informacyjnej, 4. redukcja ilości atrybutów, 5. budowa bazy reguł decyzyjnych, 6. przeprowadzenie oceny jakości i dokładności reguł, 7. wyciągnięcie wniosków. Poniżej przedstawiona została przykładowa indukcja reguł wnioskowania na podstawie zredukowanej tabeli informacyjnej (Tabela 1). Tabela 1. Wtórna, zredukowana tabela informacyjna Średnia wysokość Prowizje zarobków (q2) (q4) Przykład 1 Przykład 2 Przykład 3 Przykład 4 Przykład 5 mała średnia b. mała duża b. mała tak nie tak tak nie Decyzja: czy się zatrudnić? tak nie nie tak nie Źródło: opracowanie własne Przykładowe reguły: R1: Jeżeli (średnia wysokość zarobków = b. mała) i (prowizje = tak) to (zatrudnić się? = nie) R2: Jeżeli (średnia wysokość zarobków = duża) i (prowizje = tak) to (zatrudnić się? = tak) R3: Jeżeli (średnia wysokość zarobków = mała) i (prowizje = tak) to (zatrudnić się? = tak) W przeprowadzonych badaniach teoria zbiorów przybliżonych została zastosowana do zbudowania bazy reguł, na podstawie której można stwierdzić, które z potencjalnych czynników i w jakim stopniu mają wpływ na produkcję sprzedaną przemysłu w Polsce. 92 Andrzej Piegat, Barbara Wąsikowska Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych 6. Podsumowanie Opisane w artykule metody sztucznej inteligencji zostały użyte do identyfikacji czynników wpływających na produkcję sprzedaną przemysłu w Polsce. Zbudowanych zostało kilka modeli w oparciu o radialne sieci neuronowe, modele neuronowe połączone z algorytmem genetycznym, oraz model oparty na teorii zbiorów przybliżonych. Najlepszymi modelami okazały się modele łączące w sobie radialne sieci neuronowe z algorytmem genetycznym. Błędy poszczególnych modeli oraz numery zmiennych mających istotny wpływ na badaną zmienną przedstawia poniższa tabela. Tabela 2. Wyniki badań Sieć RBF + Algorytm genetyczny ilość neuronów w warstwie ukrytej ilość wejść n=3 n=5 n=8 11 11 10 błąd modelu wejścia 0,0619 1, 2, 5, 7, 13, 15, 17, 18, 19, 20, 21 0,0608 0,0601 1, 4, 5, 7, 12, 13, 1, 4, 5, 7, 9, 12, 14, 15, 18, 19, 20 14, 15, 18, 20 Źródło: opracowanie własne Niestety wadą większości z tych metod jest czasochłonność. Na wygenerowanie modelu przy zastosowaniu jedynie sieci radialnych, komputer o parametrach P4, 1,8 GHz, 512 MB RAM potrzebował około dwóch tygodni. Jednak połączenie sieci radialnych z algorytmem genetycznym pozwoliło skrócić czas oczekiwania na wyniki do około 10 minut (tabela 3). Tabela 3. Wyniki badań – cd. ilość neuronów w warstwie ukrytej czas pracy komp. błąd modelu ilość wejść wejścia wspólnych 6 wejść Sieć RBF Sieć RBF + Algorytm genetyczny n=3 n=3 2 tygodnie 10 minut 0,0619 0,0608 11 11 1, 2, 5, 7, 13, 15, 1, 4, 5, 7, 12, 13, 17, 18, 19, 20, 21 14, 15, 18, 19, 20 1, 5, 13, 15, 18, 20 Źródło: opracowanie własne Zaletą tych metod jest za to większa dokładność otrzymanych modeli. Błąd średniokwadratowy większości zbudowanych modeli nie przekraczał 6,5%, co w przypadku modeli opisujących bardzo złożoną rzeczywistość ekonomiczną można uznać za niewielki. 7. Literatura POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 1. 2. 3. 4. 5. 6. 7. 8. 9. 93 Arabas J., 2001. Wykłady z algorytmów ewolucyjnych. WNT Warszawa. Goldberg D. E., 1995. Algorytmy genetyczne i ich zastosowania. WNT Warszawa. Jajuga K., 1993. Statystyczna analiza wielowymiarowa. Wydawnictwo Naukowe PWN Warszawa. Korol J., Szczuciński P., 2005. Modele równań strukturalnych i sieci neuronowe w modelowaniu procesów rozwoju zrównoważonego. Gawe Akademickie Wydawnictwo Ekonomiczne. Nowak E., 1984. Problemy doboru zmiennych do modelu ekonometrycznego. PWN Warszawa. Ososwski S., 2000. Sieci neuronowe do przetwarzania informacji. Oficyna wydawnicza Politechniki Warszawskiej Warszawa. Piegat A. 1999., Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wyd. Exit Warszawa. Tadeusiewicz R., 1993. Sieci neuronowe. Akademicka Oficyna Wydawnicza RM Warszawa. Welfe A., 1996. Ekonometria stosowana. Państwowe Wydawnictwo Ekonomiczne Warszawa. APLICATION OF ARTIFICIAL INTELLIGENCE FOR IDENTIFICATION OF ECONOMICAL FACTORS Summary The article presents the problem of the identification of factors, that have the influence on the particular economic phenomenon, by the application of non-standard methods – methods of Artificial Intelligence. Keywords: Radial Networks, Genetic Algorithms, Theory of Rough Sets, Identification of Economic Factors ANDRZEJ PIEGAT e-mail: [email protected] BARBARA WĄSIKOWSKA Uniwersytet Szczeciński Instytut Informatyki w Zarządzaniu 71-101 Szczecin, ul. Mickiewicza 64 e-mail: [email protected] Witold Rzepiński Wiedza jako czynnik rozwoju polskiego agrobiznesu 94 WITOLD RZEPIŃSKI Mazowiecki Ośrodek Doradztwa Rolniczego WIEDZA JAKO CZYNNIK ROZWOJU POLSKIEGO AGROBIZNESU Streszczenie W niniejszej pracy skoncentrowano się na analizie dostępności wiedzy przez producentów rolnych. Podjęto próbę oceny skutków interwencji edukacyjnej w szybkiej transmisji wiedzy do praktyki rolniczej. Rozwijający się polski agrobiznes nawiązujący do procesu globalizacji sprostał narastającej konkurencji z zachowaniem światowych standardów jakościowych. W działaniach edukacyjnych znaczną rolę odegrały ośrodki doradztwa rolniczego. Słowa kluczowe: agrobiznes, dostępność wiedzy, standardy jakościowe, interwencja edukacyjna 1. Wprowadzenie Funkcjonowanie gospodarstw rolnych w latach 1980 – 2000 poddane zostało procesowi transformacji – z tradycyjnie funkcjonującego rolnictwa przekształcono je w element agrobiznesu funkcjonującego w warunkach współczesnego rynku. Wcześniej rolnicy byli przekonani, że gospodarstwo rolne nie może zbankrutować. Państwo uruchomiło w roku 1994 mechanizm preferencyjnego kredytowania, który pozwalał stopniowo dostosować się zarządzającym gospodarstwami rolnymi do reguł rynkowych. Wielu, szczególnie młodych rolników skorzystało z tego wsparcia finansowego dostosowując swoje gospodarstwa do nowoczesnych standardów ekonomicznych i jakościowych. Wcześniej dość często formułowano stwierdzenie, że „rolnicy są odporni na wiedzę i trudni do zlikwidowania”. Mechanizm rynkowy, który objął rolnictwo sprawił, że młodzi rolnicy w sposób dość agresywny przystąpili do przekształcania swoich gospodarstw w nowoczesne warsztaty pracy funkcjonujące na skomplikowanym rynku rolnym. Zaczęto o nich mówić, że „są ambitni i chłonni wiedzy”. Od 1991 roku, kiedy utworzono ośrodki doradztwa rolniczego, skupiły one swoje działania na rozwoju przedsiębiorczości, ochronie środowiska, poprawie jakości produkcji. Do tego potrzebna była wiedza. Jako, że liderów agrobiznesu było niewielu, a kraj nasz dążył do integracji z gospodarką europejską – czas naglił. Wówczas autor niniejszej pracy doszedł do wniosku, że rolników należy zmusić do pogłębiania wiedzy rolniczej czyli interwencji edukacyjnej. Interwencja edukacyjna to wywieranie zdecydowanego wpływu na społeczność wiejską zmierzającego do przyrostu wiedzy ogólnej i zawodowej, mającego na celu rozwój przedsiębiorczości (aktywność zawodowa, zdolność do ponoszenia ryzyka, innowacje), prowadząca do wzrostu konkurencji w warunkach przemian strukturalnych, w nawiązaniu do ogólnoświatowych standardów jakościowych – w efekcie zabezpieczenie bytu rodzinie wiejskiej [3]. Wiedza we współczesnym społeczeństwie jest zazwyczaj postrzegana jako informacja o rzeczywistości oraz wykorzystanie jej w bieżącej działalności. W prowadzeniu nowoczesnych gospodarstw rolnych, młodzi rolnicy najczęściej będą korzystali z wiedzy typu know-how oraz know-who. Według Adamowicza [2005]: POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 95 − Wiedza typu know-how, dotycząca umiejętności i zdolności do wykonywania różnych działań, tworzona jest głównie przez edukację. Może mieć formę wiedzy naukowej, technicznej i organizacyjnej. Rozprzestrzenia się przez system gromadzenia i udostępniania, poprzez wewnętrzne i zewnętrzne systemy i sieci komunikacji. − Wiedza typu know-who, to wiedza o tym, kto posiada zdolności i umiejętności w określonej dziedzinie i sposób dostępu do różnych źródeł wiedzy. Ma istotne znaczenie dla pracy managerów i skuteczności bieżącego zarządzania organizacją. Wydaje się, że aktualnie największym wsparciem dla dynamicznie rozwijającego się agrobiznesu w Polsce będzie dostępność wiedzy a ściśle rzecz biorąc zarządzanie wiedzą. Obiektywna wiedza fachowa i ogólna jest dzisiaj w dobie agresywnego marketingu i wirtualnej informacji najbardziej potrzebna. Wprawdzie fizyk i filozof A. Einstein dawno już stwierdził, że „wiedza to doświadczenie reszta jest tylko informacją”. Bardziej precyzyjny był Johan Wolfgang Goethe mówiąc „sama wiedza nie wystarczy, trzeba jeszcze umieć ją stosować”. Zatem, należy przyjąć, że na każdym etapie rozwoju społeczeństw istotnym problemem było wykorzystanie aktualnej wiedzy. Celem niniejszej pracy jest wskazanie jak ważnym czynnikiem rozwoju polskiego agrobiznesu jest dostępność wiedzy. 2. Badania i dyskusja Rozwój agrobiznesu oraz obszarów wiejskich w znacznym stopniu zależy od umiejętności i możliwości wykorzystania wiedzy. W zasadzie we wszystkich sektorach polskiego agrobiznesu odnotowuje się dynamiczny rozwój poszczególnych przedsiębiorstw. Często zarządzają nimi młodzi przedsiębiorcy, dynamiczni, wytrwali w działaniu ludzie, którzy współpracują z lokalnym samorządem. Aktywność lokalnej władzy najczęściej wzmaga rozwój lokalnej przedsiębiorczości co daje się mierzyć sprawnością funkcjonowania wiejskich instytucji. Niezmiernie ważna w tym procesie jest wiedza, inicjatywa i innowacyjność lokalnej władzy wespół z lokalnymi podmiotami, które wspólnie działając są w stanie zorganizować dopływ środków finansowych z zewnątrz i współdziałać z właścicielem kapitału. Wiedza przekłada się wówczas na wspólnie realizowane strategie, które dają szansę na ożywienie gospodarcze, tym samym jest podstawą egzystencji rodzin wiejskich. Agrobiznes sam w sobie pozwala na dywersyfikację dochodów społeczeństwa wiejskiego, do czego jest potrzebna aktualna wiedza. Stwierdzenie to zdaje się potwierdzać Tomczak [2004], który podaje, że w USA pojęcie „wiejski” nie jest aktualnie synonimem „rolniczy”. Być może zanika tam już tradycyjne wiejsko – rolnicze środowisko. Rozwój agrobiznesu zależy w znacznym stopniu od wiedzy w zakresie dostępności publicznych środków finansowych, które adresowane są w ten sposób, aby przyczyniły się do jego rozwoju. W Polsce od 1994 roku wprowadzono system kredytów preferencyjnych adresowanych do szeroko rozumianego agrobiznesu. Wówczas skutecznym narzędziem dopływu wiedzy do zarządzających tworzącym się agrobiznesem okazała się interwencja edukacyjna w wykonaniu ośrodków doradztwa rolniczego [3]. Wielu właścicieli gospodarstw rolnych zrozumiało wtedy, że jest to stosowny czas, a może bardziej potrzeba chwili, aby swoje gospodarstwa niezwłocznie przestawić na mechanizm zdecydowanie rynkowy, unowocześniając proces produkcji, dostosowując go do europejskich wymogów ekonomiczno- jakościowych. Jak ważna była to decyzja podejmowana na podstawie dostępnej wiedzy, niech świadczy fakt, że gospodarstwa te generują już dochody, które 96 Witold Rzepiński Wiedza jako czynnik rozwoju polskiego agrobiznesu stanowią gwarancję rozwoju rodzin je obsługujących. Co się zaś dzieje z gospodarstwami rolnymi, których właściciele, zarządzający odrzucili oferowaną im wiedzę – wiele z nich stało się ekonomicznym bankrutem, nie produkują na rynek, brak podstaw ekonomicznego funkcjonowania tych rodzin. Podobna sytuacja zaistniała w sektorze przetwórstwa rolno – spożywczego, które otrzymało szansę w postaci kredytów preferencyjnych oraz adresowanych środków finansowych w postaci różnych projektów europejskich na dostosowanie produkcji do światowych wymogów ekonomiczno – jakościowych. Przykładem niech będą zakłady mleczarskie, mięsne, przetwarzające owoce i warzywa, które dostosowały proces produkcji i zbytu swoich produktów do światowych standardów. Te, które pozostały przy tradycyjnym zarządzaniu, a ich liderzy nie wykorzystali oferowanej im wiedzy – przestały istnieć. Powstało też wiele nowych, nowoczesnych firm zarządzanych przez dynamicznych liderów korzystających z dostępnej, pochodzącej z różnych źródeł wiedzy. Z perspektywy czasu można stwierdzić, że wiedza, jej dostępność jest czynnikiem rozwoju gospodarstw rolnych, których zarządzający (najczęściej właściciele) zdecydowali się na nowoczesny sposób produkcji w momencie, kiedy skierowano do nich duży strumień środków publicznych na ich restrukturyzację. Wiedza, jaką wówczas przekazywały ośrodki doradztwa rolniczego jednoznacznie wskazywała na fakt, iż gwarancję zbytu mleka będą wypracowane przez gospodarstwo rolne kwoty mleczne. Wiele gospodarstw „spóźniło się” lub nie podjęło takiego wyzwania, mimo posiadanej wiedzy na ten temat. Wydaje się, że przyczyną jest niedostatecznie wykształcona przedsiębiorczość u tych ludzi, szczególnie brak ponoszenia ryzyka w podejmowaniu różnych przedsięwzięć. Dzisiaj przetacza się przez polską wieś fala niezadowolenia, ponieważ wiele gospodarstw rolnych wypada z produkcji mleka a także nie zostały dostosowane do europejskich standardów technologiczno – jakościowych. Swoje niezadowolenie wyrażają również zarządzający gospodarstwami, które wypracowały zbyt małą pulę kwoty mlecznej, która ogranicza ich rozwój i dochody na przyszłość. O kwotowaniu produkcji mleka w krajach Unii Europejskiej polscy rolnicy byli powszechnie informowani, zwracano uwagę, że ten system obowiązuje tam od 1984 roku. Podobna sytuacja, choć nie wynika ona z zaniedbania rolników zaistniała na rynku cukru. Otóż UE wprowadziła na tym rynku restrukturyzację polegającą na ograniczeniu poziomu kwot produkcji cukru. Oznacza to, że zmniejszy się możliwość zbytu buraków cukrowych, co w znacznym stopniu ograniczy dochody polskich rolników w niektórych regionach kraju. Rolnicy, których to dotyczy muszą zdecydować się na innego rodzaju produkcję, która zagwarantuje egzystencję ich rodzin. Zdaniem autora, takim segmentem, który może ożywić polski agrobiznes będzie produkcja bioenergii - w najbliższym czasie bardzo dynamicznie rozwijający się sektor agrobiznesu. Za takim stwierdzeniem stoją gwarancje wynikające z dokumentu „ Polityka energetyczna Polski do 2025 roku” przyjęty przez Radę Ministrów w styczniu 2005 roku. Wraz ze znowelizowanym Prawem energetycznym, wprowadzane są do polskiego prawa unijne regulacje w tym zakresie – dyrektywa 2001/77/WE oraz 7 Europejski Program Ramowy. Dużym segmentem w polskim rynku będzie zapewne produkcja biopaliw na bazie produktów pochodzących z polskich gospodarstw rolnych. Bezpieczeństwo energetyczne to przecież jeden z priorytetów polskiej gospodarki. Zatem, szansą na najbliższe lata dla polskich producentów rolnych może być rolnictwo energetyczne. Ale jak z tej szansy skorzystają? Działania rolników mogą wesprzeć samorządy lokalne, bowiem POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 97 nowelizacja ustawy Prawo energetyczne (obowiązuje od 1.10.2005r) nakłada na nie dodatkowe obowiązki, szczególnie w zakresie promocji i wykorzystania odnawialnych źródeł energii. Przyczynę niepowodzeń różnych działalności, jakie mogą podejmować rolnicy, autor upatruje w braku prawa, które może ożywić polski agrobiznes, a także dość często jego nadinterpretacja. Zdaniem autora podjęcie wspólnych działań gospodarczych w naszym agrobiznesie może ułatwić zorganizowanie się podmiotów tam działających w klastry gospodarcze. Istota jego działania sprawia, że, odpowiedzialność jest ograniczona do przedsięwzięcia, w jakim rolnik uczestniczy, co oznacza, że nie traci on własnej tożsamości gospodarczej [4]. W Polsce brakuje uregulowań prawnych w tym zakresie. Dalszy rozwój polskiego agrobiznesu będzie zależał od szybkiego przyswojenia wiedzy z zakresu systemu przepisów prawnych UE, a w szczególności z zakresu finansów publicznych. Polski system transmisji wiedzy w edukacji nie uwzględnia konsekwencji społeczno – ekonomicznych, jakie wynikają z szybkich przemian cywilizacyjnych. Bardzo ważne jest szybkie wdrożenia kierunków polityki spójności na lata 2007-2013 co będzie następnym etapem w rozwoju naszego agrobiznesu. Opublikowano już oficjalny dokument Komisji Europejskiej w tym zakresie – „Polityka spójności wspierająca wzrost gospodarczy i zatrudnienie. Strategiczne wytyczne Wspólnoty na lata 2007-2013”. Bruksela 5 lipca 2005r. [2]. Jednym z celów wspomnianej polityki jest pogłębianie wiedzy oraz innowacji na rzecz wzrostu gospodarczego. Uwzględnia on takie działania, jak: - wzrost i poprawa efektywności inwestycji w badania naukowe i rozwój, - wprowadzenie innowacji i promowania przedsiębiorczości, - promowanie społeczeństwa informacyjnego, - prawo dostępu do finansowania. Wdrożenie zasad wspólnej Polityki Rolnej na lata 2007 – 2013 stanowi pewne zagrożenie dla części polskich gospodarstw rolnych. Niezmiernie trudnym do wprowadzenia elementu WPR będzie przyjęta zasada wzajemnej zgodności – Cross – compliance. Polega ona na uzależnieniu otrzymywania płatności bezpośrednich od spełnienia przez gospodarstwo określonych wymagań dotyczących ochrony środowiska, dobrostanu zwierząt oraz bezpieczeństwa żywności. Spełnienie powyższych warunków, ze względów ekonomicznych w wielu polskich gospodarstwach będzie trudne. Zatem, niezwłocznie należy przystąpić do kampanii informacyjnej skierowanej do osób zarządzających polskim agrobiznesem. 3. Podsumowanie Istnieje potrzeba szerokiego, skutecznego informowania kadry zarządzającej polskim agrobiznesem o strategii funkcjonowania Wspólnot Europejskich w latach 2007 – 2013. Aby osiągnąć najlepsze efekty z relacji zasad Wspólnej Polityki Rolnej już od 2007 roku należy wykorzystać wszystkie możliwe formy edukacji. Wydaje się zasadne wprowadzenie skutecznej metody, jaką jest interwencja edukacyjna. Działania te zapewne wpłyną na podniesienie konkurencyjności naszego agrobiznesu. Witold Rzepiński Wiedza jako czynnik rozwoju polskiego agrobiznesu 98 4. Literatura 1. 2. 3. 4. 5. Adamowicz M., 2005. Wiedza i jej wpływ na tworzenie wartości i zarządzania organizacją. [W:] Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkowstwa w Unii Europejskiej. Wydawnictwo SGGW Warszawa. Monitor Europejski 2005 Nr 15. Rzepiński W., 2004. Znaczenie projektów europejskich w rozwoju mleczarstwa na terenie Polski północno – wschodniej. [W:] Rola Projektów Europejskich w rozwoju lokalnym i regionalnym. Wydawnictwo SGGW Warszawa. Rzepiński W., 2005. Klastry gospodarcze w agrobiznesie. [W:] Zarządzanie wiedzą w agrobiznesie w warunkach polskiego członkostwa w Unii Europejskiej. Wydawnictwo SGGW Warszawa. Tomczak F., 2004. Od rolnictwa do agrobiznesu. Szkoła Główna Handlowa w Warszawie. THE KNOWLEDGE AS DEVELOPMENT FACTOR IN POLISH AGRIBUSINESS Summary In the paper one can concentrated on analysis of availability of the knowledge for agricultural producers. An attempt of evaluation of education intervention effects concerning fast transmitting of the knowledge into agricultural practice was taken . Developing Polish agribusiness being under circumstances of globalization faced increasing competition, saving the world quality standards. In teaching activities extension service centers played essential role. Keywords: Agribusiness, Knowledge Availability, Quality Standards, Education Intervention WITOLD RZEPIŃSKI Mazowiecki Ośrodek Doradztwa Rolniczego 02-456 Warszawa, ul. Czereśniowa 98 [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 99 ANDRZEJ STRASZAK Wyższa Szkoła im. Pawła Włodkowica w Płocku SYSTEMOWA FUZJA I INTEGRACJA E-DANYCH, E-INFORMACJI I E-WIEDZY Streszczenie Rewolucja Wiedzy, najważniejszy problem 2006 roku i lat następnych. Państwa i firmy, które włączą się aktywnie w jej nurt będą zwycięzcami w globalnej konkurencji. Ważne kwestie tej rewolucji według przedstawicieli gospodarki, polityki, mediów i nauki. Krajowy system oparty na Wiedzy i jego podstawowe podsystemy niezbędne dzisiaj. Systemowe procesy w przestrzeniach e-danych, e-informacji i e-wiedzy. Słowa kluczowe: Rewolucja Wiedzy, społeczeństwa wiedzy, gospodarki opartej na wiedzy, Krajowe Systemy Wiedzy, procesy systemowe, e-przestrzenie danych, informacji i wiedzy 1. Wprowadzenie Na pierwszej konferencji naszego Polskiego Stowarzyszenia Zarządzania Wiedzą w 2004 roku przedstawiłem referat p.t. „Miejsce sektora e-wiedzy w społeczeństwie internetowym” (Straszak 2004). Dzisiaj zaledwie dwa lata później, ogromnie wiele się dzieje w zakresie szybkiej cyfryzacji naszej Planety. W chwili obecnej powyżej miliarda osób korzysta z Internetu, z większości państw świata i ze wszystkich kontynentów. Cyfrową telefonią komórkową posługuje się około dwu miliardów abonentów, w tym w listopadzie 2005 roku aż 388 milionów w Chinach, zaś w ciągu pierwszych 11 miesięcy 2005 roku Chińczycy wysłali 274,3 miliarda cyfrowych wiadomości SMS. Liczba krajów, które osiągnęły praktycznie biorąc pełną cyfryzację swoich społeczeństw szybko rośnie. Przedstawienie prototypu taniego laptopa (tzw. laptopa za 100 dolarów) wraz z projektem systemowym jego produkcji i dystrybucji na świecie, na zakończenie Pierwszego Światowego Szczytu Społeczeństw Informacyjnych w Tunisie w listopadzie 2005 roku, stanowi przełom technologiczny i systemowy, a nawet cywilizacyjny, o wielkim znaczeniu strategicznym dla cyfryzacji naszej Planety. Także w listopadzie 2005 roku w Kobe w Japonii odbył się Pierwszy Światowy Kongres Międzynarodowej Federacji Badań Systemowych na temat Nowej Roli Nauk Systemowych dla Społeczeństw opartych na Wiedzy, w którym miałem zaszczyt uczestniczyć wraz z innymi członkami naszego stowarzyszenia. (Bogdan, Straszak, Studziński 2005) (Yoshida 2005) W grudniu 2005 globalny tygodnik Newsweek opublikował specjalne wydanie grudzień 2005 – styczeń 2006, p.t. „The Knowledge Revolution. Why victory will go to the smartest nations and companies”. Powyższa publikacja została wydana tradycyjnie wraz z nadchodzącym Światowym Forum Gospodarczym (World Economic Forum), które odbędzie się w lutym 2006 roku. Interesujące jest to co napisano we wstępie do powyższego wydania. „Every fall we invite world leaders to write for our Special Edition on big issues of the year ahead and maybe half of them beg off politely. Some never answer. This year, virtually every one said yes, quickly, includ- 100 Andrzej Straszak Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy ing very busy people like Tony Blair and Bill Gates, who have declined before, as well as the prime ministers of Sweden and Singapore, the U.S. secretary of Education and CEOs of Google, General Electric, Infosys and Cisco, not to mention both current and former CEOs of IBM. (...). Or – and this is our best guess – we have hit on a theme that weighs heavily on global power players. It is the growing competition among countries, companies and people to dominate the key strategic asset of the emerging global knowledge economy: brains.” Specjalne Wydanie Newsweeka 2005/2006 obejmuje artykuły 44 wybitnych autorów z gospodarki, polityki i nauki, zachęcałbym więc członków naszego Stowarzyszenia do przestudiowania całego 100 stronicowego Wydania Specjalnego, które ogłosiło światową Rewolucję Wiedzy na rok 2006 i dalsze dwadzieścia pięć lat. Szkoda jedynie, że wydawca nie dołączył do wydania tradycyjnego zapisu elektronicznego na płycie DVD, gdyż wersja elektroniczna tego wydania umożliwiłaby lepiej wykorzystać dane, informacje i wiedzę, które znajdują się na stronach tej ogromnie ważnej publikacji. W tym miejscu chciałbym nawiązać do mojego referatu na naszej pierwszej konferencji, w którym mówiłem o eksplozji danych, informacji i wiedzy, w tym głównie dostępnej w formie elektronicznej. Bez ciągłej i powszechnej cyfryzacji danych, informacji i wiedzy światowa Rewolucja Wiedzy jest już według mnie niemożliwa. Żyjemy już na Cyfrowej Planecie i elektroniczne dane, informacje i wiedza są potrzebne nam i w szczególności tworzonym przez nas systemom, tak, jak ziemskiej biosferze tlen. Co więcej, Rewolucja Wiedzy jest niemożliwa bez coraz większego zastosowania automatyzacji w przestrzeniach e-danych, e-informacji i e-wiedzy, a więc bez rozwoju danomatyki, informatyki i wiedzomatyki, bez których niedługo nie będziemy mogli się obyć. Przytoczę tutaj słowa B. Gatesa z artykułu kończącego cytowane Wydanie Specjalne Newsweeka: „Smart software is turning mere data into real knowledge, (...) ‘Intelligent Agents’ and mind-mappers are taking our information democracy to the next stage”. “(...) a new generation of ‘mind mapping’ software can also be used as a digital ‘blank slate’ to help connect and synthesize ideas and data – and ultimately create new knowledge.” “Researchers at Microsoft (...) ‘watch’ you working, then make suggestions about related subjects or ideas. Interestingly, even if the software makes a bad guess, it can still be valuable in helping spark new ideas.” “These technologies promote consilience – literally the ‘jumping together’ of knowledge from different disciplines. They help people combine their own ideas with at least some existing knowledge far more efficiently than was previously possible.” “ [the way] we can now search the Web for information will revolutionize business, science and education.” (Gates 2005) Dla poszerzenia pespektywy zamieszczę dodatkowo, w największym skrócie, istotne wypowiedzi z innych artykułów tej niezwykle ważnej debaty toczonej na łamach Wydania Specjalnego Newsweeka. „The dominant trend of our time is rapid diffusion of knowledge. Spreading wisdom is another matter.” - F. Zakaria. (F. Zakaria 2005) “(...) fourth-grade math scores come to be greater strategic assets than nuclear weapons.” - T. Friedman, autor słynnej książki “The World is Flat”. (T. Friedman 2005) “The popular idea that America is one step smarter and more sophisticated than its rivals is a dangerous myth (...).” - C. Prestowitz. (C. Prestowitz 2005) “You don’t hear the Chinese complain about globalization, do you?” - T. Blair. (T. Blair 2005) POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 101 “Our openness and innovative climate has helped us to build a number of successful international companies such as Saab, IKEA, Volvo, Ericsson and Asea.” - G. Persson. (G. Persson 2005) “We have a long tradition of gathering and trading goods, including knowledge, but in the next phase, we are working to become creators as well.” - T.H. Loong. (T.H. Loong 2005) “China’s journey toward the Knowledge Age is begging to look less like a shortcut and more like a new Long March.” - M. Lin. (M. Lin 2005) “Learning to share.” - R. Foroohar. (R. Foroohar 2005) “The more broadly we disseminate each item of knowledge, the greater the social benefits.” D. Quah. (D. Quah 2005) “We have focused on managing creativity and innovation, but that’s not the only thing that matters at Google.” - E. Schmidt i H. Varian. (E. Schmidt, H. Varian 2005) “By inviting some of our most savvy customers in for ‘Dreaming sessions’ we’ve found a not too complicated path to real breakthroughs.” - J. Immelt. (J. Immelt 2005) “The skeptics are wrong. In the online world, every consumer creates his or her own store, reducing the chaos of infinite options.” - Ch. Anderson. (Ch. Anderson 2005) “By giving away hundreds of its patents, IBM has turned a philosophical movement into a tangible business strategy. The company with the most to lose is Microsoft. A close-up look at the software war.” - K.L. Miller. (K.L. Miller 2005) “Just because the world is awash in information doesn’t mean that globalization will go smoothly, indeed, we are as ignorant as ever.” - R. Samuleson. (R. Samuleson 2005) “The information on Web is virtually limitless, if only we knew how to access it. Scientists are working on a better way.” - F. Guterl i S. Upson. (F. Guterl, S. Upson 2005) “Just seven years old, the company is already cast as a threat to rivals from Microsoft to WalMart.” - J. Battelle, autor książki pt. “The Search: How Google and its Rivals Rewrote the rules of Business and Transforming our culture”. (J. Battelle 2005) “I’m the head of Wikipedia, a volunteer group writing a free encyclopedia, but bad law treats me no differently from a teen music pirate.” - J. Wales. (J. Wales 2005) “The digitizing of entire library collections is producing an explosion of access to books that has the potential to change the future of research once the lawsuits are settled.” - S. Levy. (S. Levy 2005) “China is building new universities so fast that some players see a new bubble looming.” - D. Hewitt i M. Lin. (D. Hewitt, M. Lin 2005) “India skipped the normal development steps, emerging as a knowledge-economy powerhouse while still a largely rural society.” - N. Nilekani. (N. Nilekani 2005) “India is rising fast as a tech power and turning out 280.000 engineers a year. But according to various analysts, as few as one in 25 is ready for international competition.” - R. Moreau i S. Chaterjee. (R. Moreau, S. Chaterjee 2005) “The Scandinavian countries are among the world leaders in educational investment and student performance.” - A. Schleicher. (A. Schleicher 2005) W tej części Specjalnego Wydania na temat Rewolucji Wiedzy pojawia się Polska w swoim osiągnięciu w zakresie umasowienia kształcenia wyższego. Polska znalazła się przed Norwegią, za Finlandią, Szwecją i Islandią. Umasowienie w Polsce wyższych studiów jest dwa razy większe niż w Niemczech. Thomas Friedman (2005) wprowadził nowe bardziej ogólne kryterium innowacyjności krajów a mianowicie według ilości opublikowanych prac naukowych od roku 2000: U.S.A. 34% 102 Andrzej Straszak Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy Japonia W. Brytania Niemcy Inni Francja Chiny Kanada Włochy Rosja Australia Hiszpania Holandia 9% 9% 9% 8% 6% 5% 4% 4% 3% 3% 3% 3% Brak krajów skandynawskich wynika z ich małych rozmiarów, brak Polski wynika z 25-letniego kryzysu w zakresie finansowania B + R w Polsce. Miesiecznik „Wired” z grudnia 2005, w oparciu o dane CIA, NSB, OECD, World Bank podaje wydatki na B + R w 2005 roku jak następuje: Chiny 6.0 % PKB Płd. Korea 4.0 % PKB Rosja 4.0 % PKB Szwecja 3.5 % PKB Finlandia 3.2 % PKB Japonia 2.8 % PKB U.S.A. 2.7 % PKB Belgia 2.6 % PKB Austria 2.6 % PKB Islandia 2.4 % PKB Czechy 2.3 % PKB Singapur 2.3 % PKB Niemcy 2.2 % PKB Kanada 2.2 % PKB Francja 2.1 % PKB Polska z wielkością 0.6% PKB w 2005 oczywiście nie jest notowana. Rozpoczynająca się w obecnym roku światowa Rewolucja Wiedzy, zamienia dotychczasowy Wyścig Zbrojeń na Wyścig B + R. W roku poprzednim na konferencji naszego Stowarzyszenia przedstawiłem problemy realizowania w Polsce Strategii Lizbońskiej Unii Europejskiej w krótkim i długim terminie. Światowa Rewolucja Wiedzy będzie przebiegała w ramach silnej konkurencji trzech kontynentów: europejskiego, amerykańskiego i azjatyckiego, ale także współpracy dwustronnej lub trójstronnej. Australia i Nowa Zelandia nie mają szans na odgrywanie samodzielnej roli, ale wezmą aktywny udział w światowej Rewolucji Wiedzy. Szanse Europy w nowej Rewolucji Wiedzy nie są stracone. Według materiałów opublikowanych we wspomnianym miesięczniku „Wired” (12.2005), w roku 1990 Europa publikowała mniej prac naukowych niż USA, zaś w 2004 roku już znacznie wyprzedziła USA – odpowiednio: 350.000 Europa, 255.000 USA. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 103 Zmodyfikowana w 2005 roku Strategia Lizbońska U.E. zakłada nadal osiągnięcie nakładów na B + R w roku 2010 w wysokości 3.0 % PKB. Polska stała się więc krajem silnie hamującym realizację Strategii Lizbońskiej w U.E. w zakresie najważniejszego wskaźnika. U.E. rozpoczyna w 2006 prace badawcze nad nowymi metodami, narzędziami i środkami realizacji Strategii Lizbońskiej. Badania, na prowadzenie których przetarg rozstrzygnięto w grudniu 2005, będą trwały prawie trzy lata. U.E. nie może zrezygnować ze Strategii Lizbońskiej w warunkach rozpoczynającej się pierwszej globalnej Rewolucji Wiedzy, która będzie trwała co najmniej kilka dziesięcioleci, gdyż ewentualna przegrana byłaby końcem Unii Europejskiej. B. Gates (2005) nazwał swoje zakończenie „The New Road Ahead” – Nowa Droga Naprzód, która „literally transforms how we think and helps us finally realize the potential of the truly global knowledge economy.” Polska nie może nie uczestniczyć w światowej Rewolucji Wiedzy, jeżeli chce istnieć na mapie i w świadomości świata 21 wieku. 2. Krajowy System, Podstawowe podsystemy oparte na wiedzy Rozpoczynająca się Globalna Rewolucja Wiedzy wymaga tworzenia krajowej infrastruktury informacji i wiedzy oraz krajowych sektorów Nauki i Edukacji opartych na wiedzy, wspomagania politycznych instytucji w zakresie informacji i wiedzy. Gospodarka, administracja publiczna, ochrona środowiska także maksymalnie muszą korzystać z wiedzy, w tym wiedzy elektronicznej oraz badań naukowych w celu przekształcenia tych sektorów w sektory wysoce skuteczne (‘the high performance sectors’). 104 Andrzej Straszak Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy Info. Know. INFRASTRUCTURES Knowledge based Knowledge based SCIENCE ECONOMY Knowledge based PUBLIC ADMINISTRATION Knowledge based Knowledge based EDUCATION ENVIRONMENT Knowledge based POLITICAL STRUCTURES Knowledge based SOCIETY Rysunek 1. National knowledege based System (Krajowy System oparty na Wiedzy) [źródło własne] W systemach i podsystemach opartych na wiedzy należy uwzględniać użytkowników zwykłych, zaawansowanych i wysoce zaawansowanych. W systemach i podsystemach opartych na ewiedzy, e-informacja i e-wiedza winny one same ‘znajdować’ zwykłego użytkownika, same POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 105 ‘przyciągać’ zaawansowanego użytkownika, ‘współdziałać’ z wysoce zaawansowanymi użytkownikami. Aby zrealizować powyższe działanie, e-dane, e-informacje i e-wiedza w systemach wspomagających różnych użytkowników muszą wykorzystywać automatyczne szukanie, gromadzenie, przetwarzanie, fuzje i współdziałanie z użytkownikiem, a więc tworzyć układy i systemy wiedzomatyczne. (Rys. 2) OTHER SYSTEMS DATA TRANSFORMATION e-DATA e-INFORMATION FORMALIZATION INTERPRETATION e-KNOWLEDGE e-KNOWLEDGE FROM ALL SOURCES I2CT ACTION REAL REALITY OR VIRTUAL REALITY Rysunek. 2. Wspomaganie wiedzomatyczne [źródło własne] Andrzej Straszak Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy 106 3. Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy Eksplozja przyrostu ilości e-danych, e-informacji i e-wiedzy stwarza konieczność nie tylko ich gromadzenia , przetwarzania i dystrybucji, ale także ich fuzji i integracji w e-metadane, emetainformacje i e-metawiedzę. E-dane, e-informacja i e-wiedza wymagają nie tylko szukania, śledzenia, odkrywania, ale także stosowanej (do potrzeb użytkownika) analizy, syntezy, fuzji i integracji systemowej a następnie dopasowania do użytkowników i dystrybucji. (Rys. 3) Szukanie Śledzenie Odkrywanie Działanie Stosowana analiza systemowa Dopasowanie dystrybucji Stosowana synteza systemowa Fuzja i integracja systemowa Ryunek 3. Pętla procesów systemowych [źródło własne] Realizacja konkretnych pętli procesów systemowych dla konkretnych użytkowników wymaga czaso- i pracochłonnych badań systemowych. Na rys. 4 przedstawiono przykład złożonej struktury POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 107 e-wiedzy dla potrzeb zaawansowanego użytkownika z zakresu rozwiązywania problemów zarządzania jakością systemu wodnego. (Bogdan, Straszak, Studziński 2005) OS and problem ontology Systems research ICT process instance Computer optimisation, monitoring, simulation for water Tech-biophysc-chem process Water system dynamics process Metaontology Generic process ontology Modelling process instance Modelling process instancje for Model ontology Environmental process demands Socioeconomic scence proc- Business process instance Water stress mitigation process Supply – chain management Rysunek. 4 Złożona struktura e-wiedzy [źródło: Bogdan, Straszak, Studziński 2005] 4. Zakończenie Przed badaniami systemowymi otwierają się ogromne możliwości zastosowań, w związku z rozpoczynającą się Rewolucją Wiedzy, są to jednak w Polsce możliwości tylko potencjalne. W 2003 roku, gdy było już wiadomo, że Polska otrzyma znaczne środki UE (12,8 mld euro) na lata 2004-2006, złożyłem wraz z profesorem z RAND Europe wizytę członkowi kierownictwa Ministerstwa Gospodarki i Pracy i złożyliśmy ofertę przeprowadzenia przez IBS PAN i RAND Europe szybkich badań systemowych, w celu wykrycia nieuchronnych błędnych lub zbyt trudnych rozwiązań systemowych związanych z procesami wykorzystania tych środków, gdyż system ten był nowy i nie mógł być sprawdzony nawet częściowo. Otrzymaliśmy odpowiedź, że jest to dobry system, że wszystkie jego ogniwa są w pełni przygotowane, a wszystkie środki UE będą w 99 % wykorzystane właściwie i zgodnie z założonymi celami. W roku 2004 i 2005 rzeczywiste wykorzystanie środków UE było jednak niewielkie, co nawet zaniepokoiło U.E. Zobaczymy, jaki w roku 2006 będzie stopień wykorzystania środków przez Andrzej Straszak Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy 108 nowe Ministerstwo Rozwoju Regionalnego, które przejęło odpowiedzialność za wykorzystanie środków U.E. z Ministerstwa Gospodarki. Mam nadzieję, że administracja publiczna zdobyła już niezbędne doświadczenie, gdyż ‘system’ już ma za sobą praktykę dwu lat. Mam jednak nadal wątpliwości czy bez badań systemowych możliwe jest uzyskanie niezbędnych danych, informacji i wiedzy na temat pracy tego złożonego ‘systemu’ w warunkach rzeczywistych i uzyskanie wysoce sprawnego funkcjonowania tego ‘systemu’, który nie jest oparty o e-wiedzę. Niedługo się o tym przekonamy. Rzeczywistości systemowej nie można oszukać, musimy tworzyć coraz więcej różnorodnych systemów. Prawdopodobieństwo, że jakiś współczesny system, tworzony przez nas, bez wiedzy i badań systemowych będzie dostatecznie sprawnie działał, jest znikome, zatem liczenie w tych warunkach na pomyślny efekt ma cechy myślenia życzeniowego, opartego na braku wiedzy. Zakup komputerów, programów komputerowych i szkolenia, choć konieczne, są bardzo dalekie od spełnienia warunków wystarczających dla dostatecznej funkcjonalności ‘systemu’, a przecież wydanie zaledwie 0,1% środków finansowych związanych z nowym systemem może uchronić nas od klęski systemowej. 5. Literatura 1. Anderson Ch., 2005. The Simple Choice. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 2. Battelle J., 2005. Google’s MASTER PLAN. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 3. Beulens A.J.M., Scholten H., 2005. Towards a Process Ontology for a Model Based Support System for Problem Solving: the Ontology Bootstrap Problem. CSM/KSS-IIASA Workshop. Laxenburg, Austria. 4. Blair T., 2005. Europe is Falling Behind. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 5. Bogdan L., Kaczmarska D., Studziński J., 2005. Computerization of waterworks In Poland – current state and perspectives. [W:] Studziński J., Drelichowski L., Hryniewicz O. (Eds.) Application of Informatics in Environment Engineering and Medicine. PAN IBS Warszawa. 6. Bogdan L., Straszak A., Studziński J., 2005. Poland 21st Century Infrastructure for „Global Great Transition”. (Eco-Info-Communalism) Scenarios. Looking for Future System Research Solution. The First World Congress of the International Federation for System Research. Kobe, Japan. 7. Foroohar R., 2005. Learning to Share. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 8. Friedman T., 2005. The Exhausting Race for Ideas. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 9. Gates B., 2005. The New Road Ahead. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 10. Guterl F., Upson S., 2005. Smarter search. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 11. Immelt J., 2005. Innovation Inc. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 109 12. Kacprzyk J., Nahorski Z., Wagner D. (Eds.), 2005. System Research Application in Science, Technology and Economy. Exit Warszawa. 13. Kulikowski J., Findeisen W., Nałęcz M., Seidler J., Straszak A., Węgrzyn S., 1972. Role of Cybernetics Science in Development of the Nation. Polish Academy of Sciences Warszawa. 14. Levy S., 2005. The 2000 – YEAR dream. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 15. Liautaud B., Hamond M., 2003. e-Business Intelligence. Od informacji przez wiedzę do zysków. Premium Technology Warszawa. 16. Liu M., 2005. How High? [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 17. Loong L. H., 2005. Singapore Way. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 18. Mazurkiewicz R., 2002. Transformacja Wiedzy w budowie i eksploatacji maszyn. Wydawnictwo ITE Radom. 19. Nilekani N., 2005. Poor and Mighty. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 20. Pillman W., 2005. The integration of Environmental Knowledge. EnviroInfo. 21. Prestowitz C. 2005. The World is Tilted. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 22. Samuelson R.J., 2005. The STEALTH Factor. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 23. Schleicher A., 2005. A CLASSLESS Act. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 24. Schmidt E., Varian H., 2005. Google: Ten Golden Rules. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 25. Straszak A., 2003. D&PSS in the uncertainty of the internal society. [W:] Tung B., Sroka H. (Eds.) DSS in the Uncertainty oh the Internet Age. Katowice. 26. Straszak A., 2002. Education needs for knowledge based society. [W:] Owsinski J.W., Straszak A. (Eds.) Information Society and Operation Research & Management (In Polish). Exit Warszawa. 27. Straszak A., 2004. Miejsce Sektora E -Wiedza w Społeczeństwie Informatycznym. Studia i materiały Nr 2. PSZW Bydgoszcz. 28. Straszak A., 2004. Społeczeństwo oparte na Wielkich Zasobach Wiedzy. BOS Warszawa. 29. Straszak A., 2005. Strategia Lizbońska UE. Kluczowy czynnik tworzenia się społeczeństwa i wiedzy i gospodarki opartej na wiedzy w Polsce. Studia i materiały Nr 4. PSZW Bydgoszcz. 30. Quah D., 2005. Knowledge Glut. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 31. Wales J., 2005. I am not a thief. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. 32. Wierzbicki A., Nakamori Y., 2005. Models of Knowledge Creation Processes. CSM/KSS-IIASA Workshop, Laxenburg, Austria. 33. Yoshida T., 2005. The Second Scientific Revolution in Capital Letters – Informatic Turn – Keynote speech. Pierwszy Światowy Kongres Badań Systemowych, Kobe, Japan. 110 Andrzej Straszak Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy 34. Zakaria F., 2005. The Earth’s Learning Curve. [W:] The Knowledge Revolution. Newsweek Special Edition. December 2005 – February 2006. SYSTEM FUSION AND INTEGRATION OF E-DATA, E-INFORMATION AND E-KNOWLEDGE Summary The Knowledge Revolution, why victory will go to the smartest nations & companies. World leaders opinions on this big issue of the 2006 and the next quarter century. National System based on knowledge. Systemomatics for e-data, e-information and e-knowledge spaces. Keywords: Knowledge Revolution, Smartest Nations, Smartest Companies, Systems Processes, e-Data, e-Information, e-Knowledge Spaces, Systemomatics. ANDRZEJ STRASZAK Wyższa Szkoła im. Pawła Włodkowica w Płocku 09-402 Płock, al. Kilińskiego 12 [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 111 JAN STUDZIŃSKI Instytut Badań Systemowych PAN Warszawa PROBLEMY ZARZĄDZANIA INFORMACJĄ W MIEJSKIM PRZEDSIĘBIORSTWIE WODOCIĄGOWYM1 Streszczenie Podstawą prawidłowego funkcjonowania przedsiębiorstwa wodociągowego jest odpowiednie wykorzystanie informacji zbieranych rutynowo i dotyczących produkcji i zużycia wody i ścieków, awarii systemów wodno-ściekowych, kosztów prac inwestycyjnych i kosztów eksploatacyjnych, parametrów technicznych i technologicznych eksploatowanych systemów itp. W artykule przedstawia się obecną niedobrą sytuację w zakresie zarządzania informacją w krajowych przedsiębiorstwach wodociągowych oraz sposoby jej uzdrowienia z wykorzystaniem informatycznych systemów wspomagania decyzji. Omawia się także pewne wstępne wyniki wdrożenia takiego systemu w wodociągach rzeszowskich. Słowa kluczowe: zarządzanie miejskim przedsiębiorstwem wodociągowym, komputerowe systemy wspomagania decyzji, systemy GIS, systemy monitoringu, modelowanie matematyczne systemów wodno-ściekowych 1. Wprowadzenie Miejskie przedsiębiorstwa wodociągowe odgrywają kluczową rolę w prawidłowym funkcjonowaniu społeczności miejskich, zajmując się produkcją i dystrybucją wody pitnej i usuwaniem i utylizacją ścieków. Bez tych efektywnie wykonywanych działań nie można sobie obecnie wyobrazić życia w mieście a woda jest podobnie strategicznym medium, jak energia, gaz i ropa naftowa. Dlatego jest niezwykle ważne, aby produkcja wody i usuwanie ścieków odbywały się sprawnie. Przy tym przez działanie sprawne rozumiemy tutaj działanie skuteczne i tanie, co oznacza, że produkowana woda musi mieć odpowiednią jakość i być dostarczana w odpowiedniej ilości, gospodarowanie wodą powinno być oszczędne, wszystkie ścieki powinny być odbierane od użytkowników wody i odpowiednio oczyszczone a wszystkie te procesy powinny być wykonywane bez zakłóceń i przy możliwie niskich kosztach. Niespełnienie któregoś z tych warunków może powodować ogromne zakłócenia w życiu mieszkańców miasta, wpływając negatywnie na stan ich zdrowia i sytuację finansową. Z powyższego wynika, że przedsiębiorstwa wodociągowe, szczególnie w dużych aglomeracjach miejskich, powinny być poprawnie zarządzane, co zapewniłoby ich sprawne działanie. Przy tym można zauważyć, że zarządzanie to ma charakter wielokryterialny, w którym należy uwzględnić co najmniej kilka kryteriów celu o charakterze technicznym, technologicznym, administracyjnym i ekonomicznym. Jednocześnie miejskie przedsiębiorstwo wodociągowe jest obiektem bardzo złożonym, w którym można wyróżnić co najmniej cztery systemy techniczne, to zna1 Artykuł napisany w ramach realizacji projektu celowego Ministerstwa Nauki i Informatyzacji nr 6T11 2004C/06302 112 Jan Studziński Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym czy stację poboru i uzdatniania wody, sieć wodociągową do dystrybucji wody, sieć kanalizacyjną do odbierania ścieków i oczyszczalnię ścieków do ich utylizacji. Wielokryterialność zarządzania i złożoność obiektu powodują, że praktycznie nie jest obecnie możliwe efektywne zarządzanie takim obiektem bez użycia komputerów i odpowiednich programów, w tym informatycznych systemów wspomagania decyzji wykonujących zwykle wiele zróżnicowanych funkcji. Dlatego jest istotną wiedza, jak wygląda obecnie stan informatyzacji krajowych przedsiębiorstw wodociągowych i czy aktualna sytuacja jest zadowalająca, czy też wymaga poprawy i w jakim zakresie. Te problemy będą omówione w dalszym ciągu artykułu. Na podstawie przeprowadzonych wywiadów w ważniejszych krajowych przedsiębiorstwach wodociągowych dokonano analizy stanu informatyzacji polskich wodociągów [5] a następnie przedstawiono koncepcję uzdrowienia niezdrowej, niestety, sytuacji w tym zakresie. Jednocześnie omówiono pewne wstępne wyniki kompleksowej informatyzacji realizowanej w miejskim przedsiębiorstwie wodociągów i kanalizacji w Rzeszowie [4], gdzie od kilku lat rozwija się zintegrowany system wspomagania decyzji do zarządzania siecią wodociągową [1, 2, 3]. Te prace są prowadzone w ramach projektów badawczych finansowanych przez Komitet Badań Naukowych i Ministerstwo Nauki i Informatyzacji. 2. Stan informatyzacji przedsiębiorstw wodociągowych Jak już wspomniano, stan informatyzacji polskich wodociągów jest zły i trudno obecnie zauważyć, aby istniały jakieś programy jego naprawy. Z grubsza problem informatyzacji przedsiębiorstw wodociągowych można rozbić na dwa zagadnienia: informatyzację zadań technicznotechnologicznych realizowanych w przedsiębiorstwach i informatyzację zadań administracyjnoekonomicznych. Pierwszy przypadek dotyczy takich zadań, jak modelowanie matematyczne, optymalizacja i sterowanie procesami produkcji i dystrybucji wody, transportu i oczyszczania ścieków oraz rozbudowy i remontów sieci wodociągowych i kanalizacyjnych oraz oczyszczalni. Drugi przypadek dotyczy zadań planowania inwestycji, gospodarki magazynowej oraz zarządzania finansami przedsiębiorstwa. Również podobnie na dwie podstawowe grupy można podzielić programy komputerowe, które mogą względnie są stosowane obecnie w przedsiębiorstwach wodociągowych: programy z pierwszej grupy służą do rejestracji i prostego przetwarzania zarchiwizowanych danych, natomiast programy z drugiej grupy służą do generowania określonych procedur postępowania na podstawie danych gromadzonych przez programy z pierwszej grupy. Można się umówić, że mamy do czynienia z programami o działaniu pasywnym (programy pasywne) i programami o działaniu aktywnym (programy aktywne). Biorąc następnie pod uwagę wspomniany wyżej rodzaj zadań realizowanych w przedsiębiorstwie wodociągowym możemy stosowane w nim programy podzielić na programy o funkcjach technicznych (programy techniczne) i programy o funkcjach administracyjnych (programy administracyjne). W rezultacie mamy do czynienia z czterema rodzajami programów rozwijanych i wdrażanych w przedsiębiorstwach wodociągowych: programy techniczne pasywne, programy techniczne aktywne, programy administracyjne pasywne i programy administracyjne aktywne. Dla lepszego zrozumienia tego podziału, który jest zresztą podziałem umownym, można podać przykłady odpowiednich programów: programem technicznym pasywnym będzie na przykład system monitorowania, archiwizacji i wizualizacji przepływów i ciśnień wody w sieci wodociągowej; programem technicznym aktywnym będzie algorytm generujący sygnały sterujące napowietrzaniem komór z osadem czynnym w oczyszczalni ścieków; programem administracyjnym pa- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 113 sywnym będzie program rejestrujący ilość sprzedanej wody użytkownikom sieci wodociągowej; programem administracyjnym aktywnym będzie natomiast algorytm do prognozowania sprzedaży wody i produkcji ścieków, czyli prognozowania dochodów w kolejnym roku działania przedsiębiorstwa. Mówiliśmy dotychczas o programach o ściśle określonych funkcjach. Kolejny podział może dotyczyć programów o działaniu kompleksowym, realizujących zadania o różnym charakterze: zadania techniczne pasywne (na przykład gromadzenie danych o przepływach i ciśnieniach wody w sieci wodociągowej) i aktywne (generowanie algorytmów sterowania zestawami pompowymi w hydroforniach na podstawie zgromadzonych danych) czy zadania techniczne i administracyjne (prognozowanie awaryjności sieci kanalizacyjnej i generowanie planów modernizacji tej sieci na podstawie opracowanych prognoz). Mamy wtedy do czynienia nie tyle z pojedynczymi programami, co z systemami informatycznymi wspomagania decyzji wspomagającymi procesy zarządzania przedsiębiorstwem wodociągowym. Przy czym mogą to być systemy administracyjne lub systemy techniczne a w przypadku najdalej posuniętej informatyzacji przedsiębiorstwa – zintegrowane systemy administracyjno-techniczne. Po wprowadzeniu powyższej systematyzacji oprogramowania przedstawimy poniżej analizę obecnego stanu informatyzacji krajowych przedsiębiorstw wodociągowych. W tym celu przeprowadzono wywiady w 42 przedsiębiorstwach wodociągowych działających w średnich (od stukilkudziesięciu tysięcy do kilkuset tysięcy mieszkańców) i dużych (od kilkuset tysięcy mieszkańców) miastach Polski. W wyniku tej analizy można stwierdzić co następuje [5]: Powszechną praktyką jest stosowanie w przedsiębiorstwach wodociągowych pojedynczych programów a nie zintegrowanych systemów informatycznych. Przy czym nie tylko nie stosuje się i nie rozwija zintegrowanych systemów administracyjno-technicznych, ale również nie stosuje się na ogół systemów wspomagania decyzji przeznaczonych dla wydzielonych obszarów funkcjonowania przedsiębiorstwa, to znaczy obszaru administracyjno-organizacyjnego względnie obszaru techniczno-technologicznego. Przy czym obszar administracyjno-organizacyjny jest na ogół bardziej nasycony programami realizującymi poszczególne zadania, niż obszar technicznotechnologiczny. Jest to spowodowane mniejszą złożonością i mniejszymi kosztami programów administracyjnych w porównaniu z programami technicznymi. Również łatwiej, szybciej i taniej wdraża się w przedsiębiorstwie pojedyncze programy niż złożone systemy informatyczne. Wniosek z tego płynie taki, że o stosunkowo niskim poziomie informatyzacji przedsiębiorstw wodociągowych decydują stosunkowo wysokie koszty bardziej skomplikowanych programów komputerowych, pewne problemy organizacyjne występujące w tych przedsiębiorstwach, uniemożliwiające realizację długofalowych programów informatyzacji, oraz brak wyraźnego przekonania wśród kadry kierowniczej przedsiębiorstw o celowości stosowania bardziej zaawansowanego a więc drogiego oprogramowania. Do programów administracyjnych najczęściej stosowanych w przedsiębiorstwach wodociągowych należą programy obsługi finansowo-księgowej, programy rejestrujące dane o rozbiorach wody przez użytkowników sieci wodociągowej, zapewniające dostęp do informacji o kliencie zarejestrowanym w dziale zbytu przedsiębiorstwa (te dane to: umowa o sprzedaży wody, okresowe odczyty zużycia wody, wystawione faktury do zapłaty i dowody płatności) oraz programy ewidencjonujące środki trwałe przedsiębiorstwa. Jak widać, są to programy o funkcjach pasywnych. W przypadku zagadnień technicznych podstawowe programy użyteczne w przedsiębiorstwie wodociągowym, to mapa numeryczna sieci wodociągowo-kanalizacyjnej, systemy monitoringu dla sieci wodociągowej, sieci kanalizacyjnej i oczyszczalni ścieków, modele matematyczne tych 114 Jan Studziński Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym obiektów oraz algorytmy sterowania dystrybucją wody w sieci wodociągowej czy procesem oczyszczania w oczyszczalni ścieków. Jednak tworzenie i wdrażanie takich programów, jak już wspomniano, jest znacznie trudniejsze niż programów administracyjnych, więc również sytuacja w tym obszarze jest znacznie gorsza. Wprawdzie coraz więcej pracowników i decydentów w przedsiębiorstwach wodociągowych zdaje sobie sprawę z zalet i korzyści, jakie daje miastu i działającym tam instytucjom opieranie swojej pracy o numeryczną mapę miejscowości, jednak tworzenie komputerowego systemu informacji o terenie jest procesem kosztownym i długotrwałym i wymaga bardzo zdyscyplinowanego działania w długim, co najmniej kilkuletnim okresie czasu. Wiele przedsiębiorstw nie zaangażowało się do tej pory w proces tworzenia mapy numerycznej sieci branżowych z wykorzystaniem systemów GIS, ponieważ duże koszty całego procesu są głównym elementem hamującym. Z powodów finansowych, chociaż również organizacyjnych, wiele przedsiębiorstw nie decyduje się na samodzielne tworzenie mapy numerycznej swojej branży, oczekując na wspólne przystąpienie do procesu tworzenia mapy numerycznej urzędu miasta i wszystkich zainteresowanych branż. Przykładem takiej współpracy branż, urzędu miasta i miejskiego urzędu geodezji są Kraków, Bielsko Biała, Częstochowa, Elbląg, Toruń, Poznań, Bydgoszcz, Wrocław i Opole. W większości przedsiębiorstw wodociągowych mapy numeryczne dopiero się jednak opracowuje i można oczekiwać, że nie wcześniej niż za kilka lat 70% ocenianych przedsiębiorstw będzie dysponować mapami swojej branży. Jednak na 42 wybrane przedsiębiorstwa stanowiące reprezentację wodociągów krajowych 30% z nich nie ma i nie planuje opracowania mapy numerycznej, co oznacza, że zarządzanie operacyjne siecią wodociągową odbywa się tam w sposób ręczny. Również niewiele miast podjęło się tworzenia mapy na zasadzie porozumienia międzybranżowego, wymaga to bowiem zgody wszystkich branż na współpracę i ich zobowiązania do regularnego ponoszenia wydatków, co jest zwykle zbyt dużym wymaganiem. W 30% badanych przypadków urzędy geodezyjne nie podejmują się w ogóle wektoryzowania map zasadniczych miasta, głównie z powodu braku środków finansowych, i wtedy branże w miarę swoich możliwości albo samodzielnie podejmują się tego zadania albo po prostu nic nie robią. Prowadząc analizę stanu komputeryzacji krajowych wodociągów ze względu na wdrożenia systemów monitoringu obiektów wodociągowych stwierdza się sytuację jeszcze gorszą, niż w przypadku map numerycznych. Około 40% badanych obiektów nie ma i nawet nie planuje monitorowania sieci wodociągowej czy kanalizacyjnej i jedynie 19% wodociągów mogło się pochwalić posiadaniem w miarę pełnych systemów monitoringu. Pozostałe około 40% przedsiębiorstw wodociągowych monitoruje jedynie wybrane ważniejsze obiekty sieci wodociągowej, takie jak zbiorniki, przepompownie i stacje ujęcia wody, co nie daje informacji o jakości pracy tej sieci. Jednocześnie jedynie w trzech badanych przedsiębiorstwach istniała lub była planowana współpraca między systemami monitoringu i mapy numerycznej, gdy w pozostałych przypadkach systemy te pracowały niezależnie. Można również zauważyć, że nie ma koncepcji wyboru jednego standardu odnośnie programu wizualizacji zbieranych danych pomiarowych czy metody transmisji tych danych. W różnych wodociągach stosuje się różne programy wizualizacji i tak samo różne metody transmisji, od klasycznej telemetrii, poprzez telefonię komórkową GPS czy GPRS, do transmisji radiowej. Stanowczo najgorsza sytuacja dotyczy zastosowań modeli matematycznych obiektów wodociągowych. Jedynie około 24% przedsiębiorstw wodociągowych dysponuje modelami hydraulicznymi sieci wodociągowej, przy czym jest to z reguły model EPANET dostępny w Internecie. W pozostałych przedsiębiorstwach nawet nie planuje się wykonywania obliczeń hydraulicznych. Jednocześnie stosowane modele sieci stanowią autonomiczne programy nie współpracujące z POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 115 systemami map numerycznych lub monitoringu, jeżeli takie w ogóle istnieją w przedsiębiorstwie. Również w przypadku oprogramowania branżowego oferowanego przez wyspecjalizowane firmy komputerowe, które oferują aplikacje przeznaczone do tworzenia mapy numerycznej poszerzone o opcje dotyczące modelowania sieci wodociągowych, nie ma ofert proponujących współpracę tych programów w postaci zintegrowanego systemu. Ponadto w zarządzaniu przedsiębiorstwami wodociągowymi w ogóle nie stosuje się modeli matematycznych sieci kanalizacyjnych i oczyszczalni ścieków. Reasumując należy zauważyć, że szybkie i umiejętne wprowadzenie systemu GIS do powszechnego wykorzystania w przedsiębiorstwie wodociągowym jest niezbędne do prawidłowego unowocześnienia pracy w działach wspierających się mapą sieci wodociągowej w codziennej eksploatacji. Takie działania w niektórych, stosunkowo nielicznych wodociągach krajowych są już realizowane. Główną przeszkodą w powszechniejszym wdrażaniu map numerycznych są wysokie koszty takich przedsięwzięć i problemy organizacyjne, w tym trudności w organizacji współpracy między różnymi branżami funkcjonującymi na terenie miasta. W przypadku systemów monitoringu główny hamulec ich wprowadzania na szerszą skalę, to wysokie koszty urządzeń, w tym przede wszystkim przepływomierzy wody i ścieków. Brak jest również odpowiednich algorytmów umożliwiających wybór właściwych punktów pomiarowych, minimalizujących liczbę urządzeń i optymalizujących jakość zbieranych informacji. Przede wszystkim jednak brak jest w przedsiębiorstwach powszechnej świadomości o użyteczności modeli matematycznych obiektów wodociągowych, bardzo pomocnych w pracach projektowych i eksploatacyjnych. Stąd niezmiernie mała liczba takich modeli używanych w wodociągach i to jedynie w zastosowaniu do sieci wodociągowych. Jednocześnie dużą wadą prowadzonych prac w zakresie informatyzacji jest traktowanie poszczególnych programów w sposób niezależny, podczas gdy powinny one współpracować ze sobą tworząc jednolite systemy informatyczne. Taka sytuacja powinna nastąpić, gdy na większą skalę zacznie się stosować modele matematyczne obiektów wodociągowych, ponieważ kalibracja modelu niejako wymusza sprzęgniecie go z systemem monitoringu i również z mapą numeryczną, przynajmniej w przypadku sieci wodociągowej i sieci kanalizacyjnej. Z kolei duża użyteczność modeli będzie zauważona wówczas, gdy będą one stosowane w obliczeniach optymalizacyjnych, co obecnie praktycznie nie zachodzi. Brak algorytmów optymalizacji w praktyce eksploatacyjnej sieci wodociągowych, sieci kanalizacyjnych i oczyszczalni ścieków jest spowodowany faktem nie posiadania takich algorytmów przez firmy informatyczne komputeryzujące przedsiębiorstwa wodociągowe a z drugiej strony brakiem współpracy między przedsiębiorstwami wodociągowymi i krajowymi jednostkami badawczymi. Dopóki ta sytuacja się nie poprawi, trudno będzie mówić o systemowej komputeryzacji wodociągów krajowych, które obecnie próbują się informatyzować w sposób dosyć przypadkowy i samodzielnie w miarę swoich bardzo zróżnicowanych możliwości finansowych. Na zakończenie tej analizy można jeszcze raz podkreślić, że ogólnie stan informatyzacji w polskich wodociągach nie jest dobry. Zwykle stosuje się pojedyncze programy do rozwiązywania prostych zadań głownie w obszarze administracyjno-organizacyjnym, podczas gdy sprawą decydującą o poprawnym funkcjonowaniu przedsiębiorstwa jest usprawnienie realizowanych w nim procesów techniczno-technologicznych. Kolejnym mankamentem jest często nie wykorzystywanie w pełni również tych informacji, które są gromadzone przez zainstalowane programy. Ponieważ te programy działają zwykle niezależnie od siebie w różnych działach przedsiębiorstwa, więc gromadzone przez nie dane są tam archiwizowane i nie podlegając dalszemu przetwarzaniu 116 Jan Studziński Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym zapominane. W ten sposób przedsiębiorstwo dysponuje informacją, uzyskaną często dużym nakładem kosztów i nie potrafi jej właściwie zużytkować, nie mając dodatkowych narzędzi informatycznych i nie zdając sobie nawet sprawy z możliwości wykorzystania tej informacji. Wreszcie niedobrym zjawiskiem jest również brak jakiejkolwiek standaryzacji narzędzi informatycznych wprowadzanych do przedsiębiorstw wodociągowych, działających w sposób mało zorganizowany i bez wymiany doświadczeń między sobą. 3. Koncepcja usprawnienia zarządzania przedsiębiorstwem wodociągowym Miejski system wodno-ściekowy składa się z czterech obiektów połączonych szeregowo i tworzących praktycznie jeden układ, jednak traktowanych dotychczas zawsze jako układy autonomiczne. Dlatego, chociaż wydaje się, że kompleksowa informatyzacja całego tego systemu byłaby rozwiązaniem optymalnym, tak ze względu na koszty, jak i efektywność zarządzania, to jednak taka perspektywa jest jeszcze bardzo odległa i w związku z tym ograniczymy się również do przedstawienia koncepcja kompleksowej informatyzacji tylko jednego układu: sieci wodociągowej. Koncepcja dotyczy stworzenia informatycznego systemu wspomagania decyzji do zarządzania siecią wodociągową, integrującego realizację funkcji technicznych i administracyjnych. Proponowana struktura takiego systemu jest przedstawiona na rys. 1 [4]. W zakresie zadań technicznych system składa się z programu generującego mapę numeryczną sieci wodociągowej (tutaj przykładowo program GEOMEDIA), z systemu monitoringu, z branżowej bazy danych zawierającej wszystkie informacje techniczne, technologiczne, eksploatacyjne i finansowe o sieci i jej użytkownikach, z modelu hydraulicznego sieci oraz algorytmów optymalizacji i sterowania. W zakresie zadań administracyjnych w systemie uwzględniono programy obsługi wydawanych i przeglądanych warunków technicznych (aplikacja WT na rys. 1), obsługi odbiorów technicznych (aplikacja OT), obsługi awarii i przeglądów sieci wodociągowej (aplikacja AW), obsługi działu gospodarki wodno-ściekowej (aplikacja GWŚ), obsługi planowanych przeglądów eksploatacyjnych sieci wodociągowej w zakresie ewidencji i raportowania (aplikacja PE), obsługi finansowo-księgowej (aplikacja FK) oraz program gromadzący dane o rozbiorach wody realizowanych przez użytkowników sieci (aplikacja MEDIA). Wszystkie wymienione wyżej programy, czy to z obszaru zadań technicznych, czy administracyjnych, mogą działać niezależnie i wiele z nich funkcjonuje już w przedsiębiorstwach wodociągowych, zaś innowacyjność proponowanej koncepcji polega na stworzeniu z nich jednego systemu pracującego w oparciu o jedną bazę danych, z której programy współpracując ze sobą czerpią dane do obliczeń i w której są również zapisywane wyniki tych obliczeń. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 117 SOK (po konwersji) DANE Z GEODEZJI (edytor graficzny) Aplikacja M EDIA Aplikacja OT BRAN ŻOW A BA ZA D ANYCH BBD Aplikacja GW Ś Aplikacja W T Aplikacja AW /PE W ariant stanu rzeczywistego i warianty przewidywanych stanów awaryjnych OBLICZENIA HYDRAULICZNE SIECI W ODOCIAGOW EJ OPTYM A LIZACJA MONITORING Aplikacje system u FK GEOM ED IA STEROW ANIE siecią wodociągową ZT STR Rysunek 1. Koncepcja systemu informatycznego wspomagania decyzji operatora sieci wodociągowej Wdrożenie programów o funkcjach administracyjnych: WT, OT, MEDIA, AW, PE, i ich powiązanie z programami o funkcjach technicznych: mapą numeryczną, obliczeniami hydraulicznymi, optymalizacją i sterowaniem obiektami sieci wodociągowej, pozwoli zdefiniować i użytkować tzw. profile funkcyjne systemu powstające w strukturze zarządzania siecią, będące wypadkową działania kilku różnych programów. Można wstępnie wyróżnić następujące profile funkcyjne: 1. SYSTEM ZARZĄDZANIA TECHNICZNEGO (ZT) – uwzględnia w swej strukturze programy administracyjne AW i PE oraz programy techniczne monitoringu, obliczeń hydraulicznych, optymalizacji i sterowania. Ten system jest w stanie zapewnić sprawną eksploatację sieci wodociągowej oraz profesjonalne planowanie jej rozbudowy i modernizacji. 2. SYSTEM OBSŁUGI KLIENTA (SOK) – uwzględnia programy administracyjne: WT, OT, MEDIA, oraz umożliwia analizy ilościowe i jakościowe realizowane przez program mapy numerycznej. System jest w stanie, poprzez szybki dostęp do informacji o kliencie i obiektach sieci związanych z klientem, zapewnić sprawną obsługę klienta od etapu złożenia warunków technicznych, poprzez etapy projektu, uzgodnień, budowy, odbioru technicznego, aż do etapu zawarcia umowy i systematycznego prowadzenia odczytów wodomierza, wystawiania faktur i kontroli płatności. Jan Studziński Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym 118 3. SYSTEM ELIMINOWANIA STRAT (STR) – rozumiany jako koordynator eliminowania strat wody, będący systemem analizującym dane z Systemu Obsługi Klienta oraz dane gromadzone przez System Zarządzania Technicznego. Stworzenie i wdrożenie proponowanego systemu nie tylko zapewni integrację programów często rozproszonych obecnie w przedsiębiorstwie wodociągowym, ale zapewni również lepszą współpracę różnych działów przedsiębiorstwa, często obecnie dublujących swoje działania bez zdawania sobie z tego sprawy. Poprzez korzystanie z jednej bazy danych system pozwoli również na uniknięcie zdarzających się obecnie błędów spowodowanych faktem, że użytkowane niezależnie programy mają własne bazy danych, do których wprowadza się niejednokrotnie te same informacje. Wprowadzanie i aktualizacja tych samych informacji w różnych bazach danych jest często źródłem trudnych do wykrycia przekłamań. 4. System informatyczny wdrożony w wodociągach rzeszowskich Miejskie przedsiębiorstwo wodociągowe w Rzeszowie eksploatuje sieć wodociągową o ogólnej długości 682 km, zasilaną przez 2 ujęcia brzegowe na rzece Wisłok o łącznej zdolności produkcyjnej 84.000 m3/dobę a dystrybucja wody wspomagana jest przez 25 przepompowni/hydroforni wody oraz 5 zbiorników zapasowo-wyrównawczych o łącznej pojemności 15.600 m3 [3]. Obciążenie sieci wodociągowej wynosi 46.000 m3/dobę, co stanowi zaledwie 55% możliwości produkcyjnych ujęć wody. Woda dostarczana jest na teren całego miasta oraz do odbiorców w sąsiednich gminach podłączonych do sieci miejskiej. Sieć wodociągowa w Rzeszowie, która: - w 80 % pracuje w systemie pierścieniowym, - ma bardzo zróżnicowaną strukturę materiałową, - charakteryzuje się bardzo kłopotliwą strukturą wiekową (tylko 30% sieci ma wiek poniżej 15 lat a 5% sieci, czyli około 30 km, ma powyżej 50 lat i kwalifikuje się do wymiany), - ma awaryjność sięgającą 500 awarii rocznie, - wymaga wspomagania dystrybucji systemem hydroforni, jest skomplikowanym systemem, który dla sprawnego nadzorowania jej pracą i właściwą eksploatacją wymaga zastosowania nowoczesnych narzędzi informatycznych. Dlatego zdecydowano się wdrożyć w wodociągach rzeszowskich aplikacje mapy numerycznej, systemu monitoringu i modelu hydraulicznego sieci wodociągowej, tworząc zręby systemu komputerowego wspomagania decyzji do zarządzania siecią [1, 2]. Jako podstawowe założenie działania systemu przyjęto jego pracę w oparciu o mapę numeryczną. Na bazie mapy numerycznej pracują sprzężone z nią inne moduły pomocne w zarządzaniu bieżącym bądź w planowaniu (rozwoju/modernizacji) sieci wodociągowej. Schemat tego systemu przedstawiono na rys. 2. 119 BRANŻOW A BAZA DANYCH BBD W a ria n t s ta n u rz e c z y w is te g o s ie c i w o d k a n i w a ria n ty d o s y m u la c ji s ta n ó w a w a ry jn y c h M ODEL O B L IC Z E N IO W Y h y d ra u lic z n y s ie c i w o d o c ią g o w e j MONITORING M A PA NUM ERYCZNA (e d y to r g ra fic z n y ) (po konwersji) DANE Z GEODEZJI POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 O P T Y M A L IZ A C J A S T E R O W A N IE s ie c ią w o d o c ią g o w ą Rysunek 2. Schemat systemu wspomagania decyzji operatora sieci wodociągowej w Rzeszowie Można zauważyć, że system wdrożony w wodociągach rzeszowskich składa się z programów realizujących jedynie zadania techniczne, jest to więc system technicznego zarządzania siecią wodociągową. Składa się on z następujących modułów: - mapa numeryczna sieci i BBD – branżowa baza danych zawierająca opis wszystkich elementów sieci wodociągowej i generująca dane do wizualizacji mapy numerycznej, - system monitoringu pracy sieci wodociągowej eksportujący dane pomiarowe do branżowej bazy danych, - model obliczeniowy sieci wodociągowej i procedury optymalizacji pracy sieci korzystające z danych importowanych z branżowej bazy danych i zwracające do tej bazy otrzymane wyniki obliczeń symulacyjnych i optymalizacyjnych. 5. Uwagi końcowe W artykule przedstawiono krytyczną analizę stanu informatyzacji krajowych przedsiębiorstw wodociągowych i przedstawiono koncepcję systemu informatycznego usprawniającego zarządzanie siecią wodociągową. Pokazano także strukturę dosyć prostego systemu informatycznego już wdrożonego w wodociągach rzeszowskich w ramach pierwszego etapu planowej informatyzacji tego przedsiębiorstwa. Ogólna końcowa uwaga jest taka, że dotychczasowy zły stan informatyzacji w polskich wodociągach jest spowodowany wysokimi kosztami profesjonalnego informatyzowania przedsiębiorstw, niedostatecznym stanem wiedzy w tych przedsiębiorstwach na temat możliwości oferowanych przez nowoczesne narzędzia informatyczne oraz na ogół złą organizacją i brakiem sprawdzonych standardów w przypadku zakupu i wdrażania programów komputerowych. Jan Studziński Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym 120 Wydaje się, że sytuacja nie ulegnie szybkiej poprawie bez systemowego podejścia do rozwiązania tego problemu w skali całego kraju i bez nawiązania ściślejszych kontaktów przedsiębiorstw wodociągowych z placówkami badawczymi działającymi w ramach określonych programów badawczych zorganizowanych i finansowanych przez odpowiednie krajowe ministerstwa, w tym przede wszystkim przez Ministerstwo Edukacji i Nauki. 6. Literatura 1. Bogdan L., Karczmarska D., Studziński J., 2005. Computerization of waterworks in Poland – current state and perspectives. [In:] Applications of Informatics in Environment Engineering and Medicine (Studziński J., Drelichowski L., Hryniewicz O., Eds.) PAS SRI, Series Systems Research, Vol. 42, Warsaw, 157-169. 2. Karczmarska D., 2001. Komputerowy system wspomagania decyzji operatorskich w miejskiej sieci wodociągowej w Rzeszowie. Raport MPWiK Rzeszów. Karczmarska D., 2004. Koncepcja systemu komputerowego do zarządzania siecią wodociągową w Rzeszowie z uwzględnieniem potrzeb przedsiębiorstwa i możliwości integracji w systemie obecnie eksploatowanych programów. Raport 02/2004, IBS PAN Warszawa – MPWiK Rzeszów. 3. 4. Popek J., 2004. Opis i analiza stanu technicznego i możliwości eksploatacyjnych sieci wodociągowej w Rzeszowie z uwzględnieniem budowy, struktury, wydajności, awaryjności, strat i kosztów eksploatacji sieci. Raport 05/2004, IBS PAN Warszawa – MPWiK Rzeszów. 5. Studziński J., Karczmarska D., Popek J., 2005. Uwagi o wdrożeniu, eksploatacji i propozycjach rozbudowy GIS-Geomedia w wodociągach rzeszowskich. [W:] Eksploatacja wodociągów i kanalizacji: GIS, modelowanie i monitoring w zarządzaniu systemami wodociągowymi i kanalizacyjnymi. t. 7, PZSIiTS Warszawa. 117-128. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 121 PROBLEMS OF INFORMATION MANAGEMENT IN COMMUNAL WATERWORKS Summary The main reason for proper functioning of a waterworks enterprise is an appropriate using of standard-wise gaining information concerning the production of water and wastewater, the number of accidents of water and sewage systems, the costs of investment and exploitation activities, the technical parameters of objects under operation etc. In the paper the current situation in information management in Polish waterworks is described as well as some ways of its improving with the help of computer aided decisions making systems. Also some results of applying such a system in the waterworks in Rzeszow are presented. Keywords: Communal Waterworks Management, Computer Aided Decisions Making Systems, GIS, Monitoring Systems, Mathematical Modeling of Water and Wastewater Systems JAN STUDZINSKI Instytut Badań Systemowych PAN, Warszawa, Newelska 6 http://www.ibspan.waw.pl/ [email protected] Tatiana Tretyakova Zarządzanie wiedzą przez zastosowanie ontologii dziedzin 122 TATIANA TRETYAKOVA Wydział Informatyki Politechnika Szczecińska ZARZĄDZANIE WIEDZĄ PRZEZ ZASTOSOWANIE ONTOLOGII DZIEDZIN Streszczenie W artykule rozpatruje się zagadnienie opisu metaontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia ze strony niebezpiecznego zjawiska natury” w celu jej dalszego wykorzystania do ustanowienia hierarchii wiedzy i zarządzania wiedzą systemu ekspertowego „HMDecision” przez ontologie zawarte we wskazanej metaontologii. Głównym zadaniem systemu „HMDecision” jest przekazanie wiedzy i ukształtowanie nawyków i umiejętności, niezbędnych przy podejmowaniu decyzji w warunkach sytuacji zagrażających życiu ludzi i normalnemu funkcjonowaniu obiektów. Rozpatrzono przykład struktury wiedzy w bazie wiedzy, ukształtowanej na podstawie ontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej”. Słowa kluczowe: system ekspertowy, ontologia, zarządzanie wiedzą, baza wiedzy, decyzje, e-learning. 1. Wstęp Dla zabezpieczenia dobrej jakości baz wiedzy w ostatnich latach szeroko eksploatuje się ontologie dziedzin, których te bazy wiedzy dotyczą [1, 2, 3]. W niniejszym artykule rozpatruje się jedno z zadań realizowanych przy tworzeniu systemu ekspertowego „HMDecision” - opisu metaontologii dziedziny „Podjęcie decyzji w warunkach zagrożenia oddziaływania niebezpiecznego zjawiska natury”. Ta metaontologia przedstawia sobą całokształt ontologii niższego poziomu, które opisuje się i wykorzystuje się w celu zarządzaniu wiedzą i tworzenia bazy wiedzy danego systemu ekspertowego. Za pomocą ontologii ustala się poziomy hierarchiczne przedstawianej wiedzy. Wykorzystanie podejścia ontologicznego przy tworzeniu baz wiedzy SE „HMDecision”, uzasadnione jest faktem, że ontologia pozwala na efektywne zarządzanie wiedzą, na dokładniejsze określenie struktury bazy wiedzy. Oprócz tego, przedstawienie w ontologii podstawowych pojęć opisywanej dziedziny oraz więzi pomiędzy nimi tworzy narzędzie szybkiego wprowadzenia do tej dziedziny przedmiotowej. Znane pojęcie „ontologia” do zastosowania w informatyce wprowadził w roku 1993 T.Gruber [1]. T.Gruber zdefiniował ontologię jako sformalizowane przedstawienie podstawowych pojęć i więzi pomiędzy nimi. Określenie ontologii ujmuje wiele struktur pojęciowych: hierarchie klas i obiektów w obiektowo-ukierunkowanym programowaniu, sieci semantyczne itp. Ogólnie mówiąc, ontologia - to strukturalna specyfikacja pewnej dziedziny, jej sformalizowane przedstawienie, które zawiera słownik wskaźników na terminy dziedziny i logiczne wyrażenia, które opisują, jak one korelują ze sobą. Ontologie zapewniają systemowość przy opisywaniu dziedziny, przedstawiając jej całościowy obraz. Przy opisaniu ontologii wydzielają się koncepty (bazowe POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 123 pojęcia danej dziedziny) i budują się więzi pomiędzy nimi, tj. wyjaśniają się współzależności i współdziałanie bazowych pojęć. W ten sposób, ontologia tworzy słownik dla przedstawienia i wymiany wiedzy o pewnej dziedzinie i zbiór więzi między pojęciami tego słownika [3]. Dla systemu ekspertowego „HMDecision” potrzebne są ontologie dziedzin, związanych z podjęciem decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury oraz związanych z procesem nauczania i treningu menedżerów, którego celem jest ukształtowanie nawyków i umiejętności odpowiadających sytuacjom, w których podejmuje się decyzje. Za pomocą ontologii w bazie wiedzy danego SE przedstawia się poziomy wiedzy, stosowanej w procesie nauczania skierowanego na ukształtowanie umiejętności i nawyków, niezbędnych do właściwego reagowania na sytuacje problemowe, które mogą powstać lub powstały pod wpływem niebezpiecznego zjawiska natury. E-nauczanie i e-trening są niezbędne po to, aby kierownictwo poziomu regionalnego zarządzania oraz kierownictwo przedsiębiorstw i organizacji, zlokalizowanych na terenach ulegających zagrożeniu wpływem niebezpiecznych zjawisk natury (np., takich jak powódź, tsunami, lawiny śnieżne, lawiny błotne i inne), w warunkach zagrożenia często nie są w stanie szybko przeanalizować sytuacje problemowe wywołane przez te zjawiska. Oczywiście, że wstępne przygotowanie menedżerów za pomocą e-nauczania i e-treningu może znacznie podnieść poziom ich adaptacyjności w omawianych sytuacjach. Metaontologia dziedziny „Podjęcie decyzji w warunkach zagrożenia oddziaływania niebezpiecznego zjawiska natury” zawiera ontologie niższego poziomu takich dziedzin, jak: - schemat podejmowania decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury; scenariusze następstw, związanych z wpływem niebezpiecznym zjawiskiem natury; przedsięwzięcia zapobiegające stratom; reguły zachowania się przy zagrożeniu niebezpiecznego zjawiska natury; proces nauczania i treningu; zarządzanie procesem nauczania i treningu. Każda z tych ontologii zawiera także ontologie niższego poziomu. Rozwiązanie problemów, powstających przed kierownictwem regionów i przedsiębiorstw zlokalizowanych na terenach, znajdujących się pod stałym zagrożeniem niebezpiecznych zjawisk natury, polega na wykorzystaniu informacji dotyczącej stanu środowiska naturalnego (w tym informacji hydrometeorologicznej) oraz specjalistycznej wiedzy z dziedzin, gdzie powstaje konkretny problem. Przez dodanie do struktury systemu klasy Decision Support System (DSS) elementów sztucznej inteligencji rozwinęło te systemy do systemów klasy Business Intelligence (BI). Stworzyło to nowe możliwości wykorzystania tych systemów. Przez uzupełnienie systemu informacyjnego takimi składnikami jak systemy ekspertowe, tworzy się dodatkowa możliwość wsparcia podejmowania decyzji w procesach gospodarczych. Możliwe także staje się e-nauczanie i etrening menedżerów za pomocą systemu ekspertowego. System ekspertowy nauczania może być zastosowany w celu przekazywania wiedzy oraz kształtowania nawyków i umiejętności, niezbędnych menedżerom przy powstaniu różnego rodzaju niebezpiecznych sytuacji. Te niebezpieczne sytuacje mogą powstawać pod wpływem różnych przyczyn. Mogą to być awarie technologiczne, pożary, akty terrorystyczne, katastrofy ekologiczne, niebezpieczne zjawiska natury. W danym artykule akcent kładzie się na sytuacje, których powodem pojawienia się są niebezpieczne zjawiska natury. Do ukształtowania się u menedżerów wiedzy, nawyków i umiejętności, niezbędnych przy podjęciu decyzji na wypadek groźby niebezpiecznego zjawiska natury, proponuje się używać 124 Tatiana Tretyakova Zarządzanie wiedzą przez zastosowanie ontologii dziedzin specjalistyczny system ekspertowy „HMDecision”, konceptualna struktura którego została opracowana i rozpatrzona przez autora we wcześniejszych publikacjach [4, 5]. Wysoki poziom nieokreśloności następstw niebezpiecznych zjawisk natury oraz konieczność szybkiego poprawnego reagowania w przypadku zagrożenia wymaga opracowania i wykorzystania odpowiednich metod zarządzania ryzykiem oraz zastosowania technologii informatycznych. Takie technologie, jak systemy ekspertowe, pozwalają za pomocą mechanizmu wnioskującego wykorzystywać wiedzę, zawartą w ich bazach wiedzy, w celu uniknięcia możliwych negatywnych następstw, spowodowanych przez oddziaływanie niebezpiecznych zjawisk natury. Osiąga się to przez przeprowadzenie e-nauczania i e-treningu menedżerów. Zwykle podejmowanie decyzji w sytuacjach zagrożenia ze strony natury opiera się o informację o stanie środowiska naturalnego, a przede wszystkim o informację hydrometeorologiczną. Uwzględnienie tej informacji jest niezwykle ważne, ponieważ podnosi to adaptacyjny potencjał jej użytkowników, pozwalając wybierać najlepszą strategię i taktykę współdziałania z naturą. Pozwala to przede wszystkim uniknąć lub zredukować straty, uwarunkowane jej niebezpiecznymi zjawiskami. Informację hydrometeorologiczną wykorzystuje się przy rozwiązywaniu różnorodnych zagadnień w różnych dziedzinach: transporcie (w lotnictwie, żegludze), rolnictwie, gospodarce wodnej, budownictwie, energetyce itd. Do takich zagadnień, na przykład, odnoszą się [ 6 ]: - - projektowanie i zarządzanie obiektami; opracowanie planów i zarządzanie przedsięwzięciami, skierowanymi na zapobieżenie stratom, mogącym powstać pod wpływem niekorzystnych zjawisk natury; projektowe zadania, rozwiązywane przy wyborze optymalnego wariantu lokalizacji obiektów gospodarczych; zadania zarządzania procesami technologicznymi i zabezpieczenia obiektów socjalnych, produkcyjnych i rolniczych od niekorzystnego oddziaływania czynników hydrometeorologicznych; zarządzanie ograniczonymi zasobami wodnymi itd. W ramach tych zagadnień menedżerowie zgodnie z ustalonymi celami rozwiązują powstające pod wpływem groźnych czynników natury różne problemy, podejmując określone decyzje. Przedstawimy najpierw etapy procesu podejmowania decyzji, odpowiadającego drzewu celów. Etapy te są właściwymi praktycznie dla każdej sytuacji problemowej, pojawiającej się pod wpływem takiego zjawiska. Pozwolą one częściowo zaznaczyć te dziedziny, które powinny być opisane w ontologiach niższego poziomu stosowanych dla zarządzania wiedzą systemu ekspertowego „HMDecision”. 2. Standardowe etapy w procesie podejmowania decyzji z uwzględnieniem informacji o niebezpiecznym zjawisku natury Wymienimy standardowe etapy algorytmu podjęcia decyzji na podstawie informacji hydrometeorologicznej. Zwykle są to następujące etapy: 1. Analiza prognozy zjawiska (z uwzględnieniem prawdopodobieństwa jego wystąpienia); 2. Diagnozowanie możliwych problemowych sytuacji; 3. Opracowanie i analiza scenariuszy rozwoju następstw, wywołanych przez niebezpieczne zjawisko natury w regionie, w przedsiębiorstwie itd. (ekologicznych, materialnych, kulturalnych, socjalnych); POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 125 4. Ocena potencjalnie możliwych w wyniku oddziaływania niebezpiecznego zjawiska strat; 5. Opracowanie przedsięwzięć skierowanych na ochronę życia ludzi, obiektów gospodarczych z oceną nakładów na ich realizację; 6. Ocena porównawcza efektywności opracowanych przedsięwzięć z uwzględnieniem możliwych ryzyk; 7. Wybór lepszego (optymalnego) wariantu decyzji na bazie ustawionych kryteriów wyboru i ograniczeń. Z przedstawionych etapów procesu podejmowania decyzji z uwzględnieniem informacji hydrometeorologicznej widać, że osoba podejmująca decyzje rozpatruje mnóstwo słabo ustrukturyzowanych problemów. W celu wsparcia decyzji przy rozwiązywaniu właśnie takich problemów przydatne są odpowiednie systemy informacyjne, zawierające bazy wiedzy, w których zarządzanie wiedzą realizuje się za pomocą ontologii odpowiednich dziedzin. Wśród tych systemów szczególne miejsce zajmują systemy informacyjne klasy DSS, rozwijane obecnie do klasy Business Intellegence (BI) [7] przez uzupełnienie ich struktury elementami sztucznej inteligencji, w tym systemami ekspertowymi, których głównym podsystemem jest specjalistyczna baza wiedzy. 3. O strukturze wiedzy bazy wiedzy systemu ekspertowego “HMDecision”. Struktura danych i bazy wiedzy systemu ekspertowego “HMDecision” zależy od tych zadań, które rozwiązuje się za jej pomocą przez użytkowników danego SE (zadania te zostały przedstawione w p.1 niniejszego artykułu). Dany SE przedstawia sobą program komputerowy, który może wyciągać logiczne wnioski na bazie faktów i wiedzy, stosowanych w procesie e-learning’u menadżerów poziomu regionalnego oraz menadżerów organizacji i przedsiębiorstw przy ukształtowaniu nawyków i umiejętności, niezbędnych przy podjęciu decyzji w warunkach zagrożenia niebezpiecznego zjawiska naturalnego. System ekspertowy nauczania „HMDecision” jest przeznaczony do: - przechowywania wiedzy, niezbędnej do prawidłowego reagowania (podjęcia decyzji) w warunkach zagrożenia niebezpiecznego zjawiska natury; - przekazywania wiedzy użytkownikom przy pomocy specjalistycznych interfejsów; - e-nauczania i e-treningu menadżerów w celu ukształtowania nawyków i umiejętności, niezbędnych przy podjęciu decyzji w niebezpiecznych sytuacjach przy pomocy wirtualnego instruktora. Z przedstawionych powyżej zadań, rozwiązywanych przez menadżerów, oraz zadań systemu ekspertowego nauczania, można wysnuć wniosek o strukturze wiedzy w systemie ekspertowym „HMDecision”. Jego baza wiedzy powinna zawierać: - wiedzę, odzwierciedlającą uzyskane w praktyce doświadczenie. Ta wiedza zawiera także scenariusze rozwoju sytuacji i następstw, wywołanych przez niekorzystne zjawiska natury; - wiedzę, która jest niezbędna do rozwiązania różnego rodzaju zadań z uwzględnieniem informacji hydrometeorologicznej dla podjęcia bardziej poprawnych decyzji; - wiedzę, którą wykorzystuje się do przekazania przy pomocy specjalistycznych interfejsów użytkownikom informacji, stosowanej w procesie ich e-nauczania i e-treningu. Pojęcia ze wszystkich dziedzin, których dotyczy baza wiedzy systemu ekspertowego „HMDecision”, definicje tych pojęć oraz więzi pomiędzy nimi przedstawia się w metaontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury”. Wiadomo, że Tatiana Tretyakova Zarządzanie wiedzą przez zastosowanie ontologii dziedzin 126 ontologie mogą służyć jako jeden z instrumentów zarządzania wiedzą. Przy kształtowaniu bazy wiedzy systemu ekspertowego „HMDecision” jakość zarządzania wiedzą zależy także od dokładności opisywanych ontologii. Rozpatrzymy dalej wykorzystanie podejścia ontologicznego na przykładzie dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej”. 4. Ontologia dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej” Opis ontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej” wymaga opisu całej hierarchii ontologii. Oto tylko niektóre z dziedzin, przedstawianych przez ontologie tej hierarchii: - system zarządzania (regionem, przedsiębiorstwem); - możliwe następstwa oddziaływania niebezpiecznego zjawiska natury (ontologia sytuacji); - przedsięwzięcia zapobiegające stratom wywołanym przez oddziaływanie niebezpiecznych zjawisk natury; - reguły zachowania się w warunkach zagrożenia niebezpiecznego zjawiska natury. Zwykle dla opisu ontologii stosuje się różne języki i systemy. Grafy są wygodną formą do wizualnego przedstawienia i analizowania dziedziny. Taka forma przedstawienia została pokazana przez autora w poprzednich publikacjach [5]. Wykorzystuje się również opis ontologii w formie sformalizowanej. Przedstawimy to ostatnie podejście do opisu ontologii w formie sformalizowanej, przy którym model ontologii przedstawia się jako zbiór [8]: M = < P, R, I, A > gdzie: M – model ontologii dziedziny przedmiotowej, P - pojęcia opisywanej dziedziny, R - stosunki między pojęciami dziedziny, I - mechanizm interpretacji pojęć i stosunków między pojęciami, A - wykorzystywane aksjomaty. Przedstawimy model ontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej” - MDL: MDL = < Mdp, MS, MO > gdzie: Mdp - ontologia dziedziny, w której podejmuje się decyzje (na poziomie regionalnym, w przedsiębiorstwie itd), MS – ontologia dziedziny “Scenariusze rozwoju sytuacji”, MO - ontologia dziedziny “Ochronne przedsięwzięcia”. Sięgając w dół hierarchii ontologii MDL przedstawimy model ontologii dziedziny “Scenariusze rozwoju sytuacji” - MS : MS = <MR, MSt, MP> , POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 gdzie: 127 MR – ontologia ryzyk, MSt – ontologia potencjalnych strat, MP – ontologia przedsięwzięć zapobiegających stratom. Z kolei model ontologii “ Ochronne przedsięwzięcia” MO zawiera ontologie następnego niższego poziomu: MO = < MI, ME > , gdzie: MI - ontologia dziedziny “Projekty inwestycyjne , związane z ochroną przed lawinami błotnymi”, ME - ontologia dziedziny „Ewakuacja ludzi, wartości materialnych i kulturalnych”. W ten sposób przedstawia się cała hierarchia ontologii, wchodzących w skład metaontologii dziedziny „Podejmowanie decyzji w warunkach zagrożenia niebezpiecznego zjawiska natury”. Każda ontologia powinna zawierać pojęcia opisywanej dziedziny wraz z ich definicjami, mechanizm interpretacji pojęć i stosunków pomiędzy nimi, a także używane aksjomaty. Tylko wtedy można mówić, że ontologia została opisana całkowicie i stadium konceptualizacji wiedzy przy stworzeniu SE został zrealizowany. W danym artykule zostało omówione tylko jedno z zadań, które rozwiązuje się przy kształtowaniu bazy wiedzy: określenie przez opisanie ontologii statycznej składowej wiedzy, umieszczanej w bazę wiedzy. Niezbędnym jest także rozwiązanie zadania (jego omówienie wychodzi poza ramy danej pracy) przedstawienia w bazie wiedzy składowej dynamicznej, modelującej procesy rozważania eksperta. Po rozwiązaniu tych zadań decyduje się o wyborze modeli przedstawienia wiedzy w bazie wiedzy. Zadanie przedstawienia wiedzy w bazie wiedzy systemu ekspertowego „HMDecision” realizuje za pośrednictwem modeli produkcyjnych, bazujących na regułach (rule-based models). Te modele są wygodne dla przedstawienia wiedzy ekspertów z dziedziny podejmowania decyzji w zadaniach rozwiązywanych logicznie (np., ewakuacja ludzi na wypadek zagrożenia zatopienia terenów albo zachowanie się personelu elektrowni, elektrowni atomowej w niebezpiecznych sytuacjach itp.). Wykorzystanie podejścia produkcyjnego przy przedstawieniu wiedzy jest podejściem najczęściej stosowanym do opisu zachowania się systemu. Opracowanie zboru reguł typu „jeśli < przesłanka > to < wniosek >” pozwoli przedstawić w bazie wiedzy znane warianty rozwiązania zadań na bazie informacji o niebezpiecznych zjawiskach natury. Lewa część (przesłanka) pewnych reguł może być przedstawiana w postaci scenariusza, w którym stan obiektu opisuje się przy pomocy predykatów (wtedy pełny opis stanu obiektu jest koniunkcją wszystkich tych predykatów), albo w postaci opisu ramowego, zawierającego scenariusz niebezpiecznej sytuacji. Ramy są środkiem opisu wiedzy statycznej, wygodne są dla opisu hierarchii pojęć abstrakcyjnych i konkretnych. Podejście to jest bliskim do obiektowego podejścia przedstawienia wiedzy. Poniżej na rys. 1 przedstawiony został przykład drzewa decyzji przy rozwiązaniu problemu „ewakuacja”, które zostanie przekształcone w reguły : jeśli <przesłanka> to <wniosek> dla umieszczenia w bazie wiedzy. 128 Tatiana Tretyakova Zarządzanie wiedzą przez zastosowanie ontologii dziedzin Rysunek 1. Przykład drzewa decyzji (jednej z jego części składowych) przy zagrożeniu ze strony zjawiska natury (opracowanie własne) Opracowanie wszystkich składników drzewa decyzji pozwoli opracować niezbędne dla umieszczenia w bazie wiedzy systemu ekspertowego „HMDecision” reguły. Warto zauważyć, że dla zapewnienia możliwości wnioskowania przy pomocy mechanizmu wnioskowania i stworzenia produkcyjnej części bazy wiedzy potrzebne jest zbudowanie modeli kognitywnych, bazujących na studiowaniu procesów podejmowania decyzji przez menadżerów poziomu regionalnego oraz menadżerów przedsiębiorstw w warunkach zagrożenia niebezpiecznych zjawisk natury albo przy ich oddziaływaniu. Na tej podstawie buduje się modele kognitywne, bazujące na logice wniosków ekspertów. 4. Zakończenie W artykule został rozpatrzony problem opisania ontologii dziedzin w celu podniesienia jakości zarządzania wiedzą na przykładzie dziedziny „Podejmowanie decyzji w warunkach zagrożenia zejścia lawiny błotnej”. Opis tej ontologii wykorzystuje się przy kształtowaniu bazy wiedzy systemu ekspertowego „HMDecision”, która zawiera wiedzę, stosowaną w procesie e-learning’u i etraining’u menadżerów poziomu regionalnego zarządzania i przedsiębiorstw. Celem tego nauczania jest ukształtowanie nawyków i umiejętności podejmowania decyzji przy rozwiązywaniu problemów, pojawiających się pod wpływem niebezpiecznych zjawisk natury w różnych dziedzinach działalności gospodarczej. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 129 5. Literatura 1. 2. 3. 4. 5. 6. 7. 8. Gruber T. R., 1993. Toward principles for Design of Ontologies Used for Knowledge Sharing. International Workshop on Formal Ontology, Marcz, Padova, Italy. Guarino N., 1997. Understanding, Building and Using Ontologies: A Commentary to „Using Explit Ontologies in KBS Development”. Edited by van Heijst, Schreiber, and Wielinga. International Jurnal of Human and Computer Studies 46. Gavrilova T.A., Wojnikov A.W., Danilichenko I.A., Sankina I.A., 1998. Adaptywny wieloagentowy system intelektualny nauczania zdalnego. Problemy informatyzacji, wyd. 1, Moskwa, (w jęz. Ros.). Tretyakova T., 2003. The prototype of expert system „Hydrologist”: the concept of design. Proceedings of the 10-th International Conference Advanced Computer Systems ACS’2003, Szczecin, Poland. Tretyakova T. 2005. Baza wiedzy systemu ekspertowego „HMDecision” w systemie informacyjnym klasy DSS – podejście obiektowe (w jęz. rosyjskim). Materiały 4-ej Konferencji Międzynarodowej Analiza, prognozowanie i zarządzanie w systemach złożonych. Rosyjska Akademia Nauk, Szczecińska Akademia Morska, Szczecińska Akademia Rolniczej, Państwowy Uniwersytet Komunikacji Wodnej w St. Petersburgu, St. Petersburg, 316-322. Wimbierg G.P., Alshanskij Ja.Ju., Braginskaja L.A., Tretyakova T.V. i in., 1991. Metodyka kompleksowej oceny efektu ekonomicznego przy podjęciu decyzji o realizacji przedsięwzięć gospodarczych i wyborze optymalnych wariantów wykorzystania różnych typów informacji hydrometeorologicznej w branżach gospodarki narodowej. St.Petersburg, GGO, (w jęz. Ros). Liautaud B., Chammond M., 2001. e-Business Intelligence: Turning Information into Profit. McGraw-Chill. Czastikov A., Gawrilova T., Below D., 2003. Design of Expert System. CLIPS. St. Petersburg, BHV-Petersburg (w jęz. Ros). 130 Tatiana Tretyakova Zarządzanie wiedzą przez zastosowanie ontologii dziedzin KNOWLEDGE MANAGEMENT THROUGH APPLICATION OF ONTOLOGY OF DOMAINS Summary The problem of the metaontology description in areas "Decision making in conditions of threat from a dangerous natural phenomenon " is considered. This метаontology is used for leveling of knowledge’s hierarchy in the expert system " HMDecision". The main task of system " HMDecision " is formation of skills, necessary for decision’s acceptance in conditions of occurrence of threat of people’s life and to normal functioning of objects. The example of structure of the knowledge generated on the basis of ontology of domain " Decision making in conditions of avalanching threat " is considered. Keywords: Expert System, Ontology, Knowledge Management, Knowledge Base, e-Learning Decisions TATIANA TRETYAKOVA Wydział Informatyki Politechnika Szczecińska 71- 210 Szczecin, ul. Żołnierska 49, [email protected] POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 131 LEONID WOROBJOW Akademia Rolnicza w Szczecinie PRODUKTYWNOŚĆ I EFEKTYWNOŚĆ PRZEDSIĘBIORSTWA Streszczenie W artykule zostały wyróżnione podstawowe czynniki produktywności. Stwierdzono, że konieczna jest koncepcja produktywności łącząca wszystkie wysiłki skierowane na produkcję i wyrażona w postaci wyników. Pokazano, że produktywność jest powiązana z ekonomicznością oraz skutecznością. Wyznaczone podstawowe zadania wyższego kierownictwa przedsiębiorstwem. Słowa kluczowe: produktywność, efektywność, zasady efektywności, ekonomiczność, skuteczność, kierownictwo przedsiębiorstwa 1. Wprowadzenie Wszystkie przedsiębiorstwa w gospodarce postindustrialnej na świecie posiadają mniej więcej równy dostęp do zasobów. Jedyne co odróżnia jedne przedsiębiorstwo od drugiego to jakość zarządzania na wszystkich poziomach. Stałe podnoszenie produktywności to jedno z głównych zadań zarządzania. Jedno z najtrudniejszych, bo produktywność przedsiębiorstwa oznacza ten bilans pomiędzy wszystkimi czynnikami produkcji (materialnymi, finansowymi, ludzkimi, informacyjnymi i innymi), który daje największą produkcję przy najmniejszych wysiłkach. 2. Czynniki produktywności Wzrostu produktywności we współczesnej gospodarce nie można osiągnąć poprzez wysiłki fizyczne, lecz odwrotnie jeśli jest to wynikiem ich skrócenia lub zamiany. Wyróżniamy podstawowe czynniki produktywności [1]. Po pierwsze zamiana fizycznej pracy na umysłową. W wyniku tego decydujący wpływ na produktywność mają nie pracownicy fizyczni a umysłowi (knowledge workers) – menedżerowie, specjaliści, technicy. Podstawowym czynnikiem rozwoju współczesnej gospodarki jest norma „skupienia umysłów” i tempo w jakim państwo produkuje ludzi posiadających wykształcenie, wyobraźnię, zdolności teoretyczne i analityczne. Szybkie unowocześnienie techniki, skupienie informacji i zadań przewiduje nieprzerwaną naukę i podniesienie kwalifikacji personelu. Na podstawie zachodnich opinii dziś połowa wiedzy starzeje się w przeciągu 3-5 lat. Kolejnym problemem jest zagwarantowanie masowej wiedzy komputerowej. Następny czynnik to czas. Nie ma nic bardziej nieproduktywnego od postoju, zatrzymania działania drogiego sprzętu lub wysoko opłacanych i zdolnych ludzi. Nieproduktywnymi mogą być zarówno próby pracy w zbyt małej fabryce na trzy zmiany, na starym lub zużytym sprzęcie. Najbardziej produktywny (lub odwrotnie: nieproduktywny) czas to czas samego menedżera. 132 Leonid Worobjow Produktywność i efektywność przedsiębiorstwa Produktywność jest także funkcją bilansu pomiędzy różnymi kombinacjami jednych i tychże zasobów. Na przykład różnica w dochodzie od różnych asortymentowych możliwości rzadko jest proporcjonalna w stosunku do wydatków produkcyjnych. Przedsiębiorstwo produkujące stałą ilość towarów z niezmiennych materiałów, charakterystycznych i bezpośrednich oraz pośrednich wydatków na pracę, może zarówno wzbogacić się jak i splajtować w zależności od możliwości asortymentowej. Jest także ważny czynnik, który nazywają kombinacją procesów produkcyjnych. Co jest bardziej produktywne dla przedsiębiorstwa – kupić w detalu lub wyprodukować samemu, wykonać konieczną produkcję samemu lub zlecić jej zleceniobiorcy, sprzedawać ją pod własną marką handlową poprzez własną sieć handlową lub wykorzystać usługi niezależnych hurtowni? Na koniec produktywność silnie zależy od organizacyjnej struktury zarządzania przedsiębiorstwem. Brak konkretnej organizacji wymusza na menedżerach, że zamiast twórczej pracy, marnują oni czas na wyjaśnienia tego co inni powinni wykonywać. Bardzo ważne jest nie tylko określenie produktywności obejmującej wszystkie wpływające na nią czynniki, ale i stawić cele podnoszenia produktywności, które brałyby pod uwagę wszystkie czynniki. Potrzebne zasoby pozwalają rozliczyć produktywne i „pasożytnicze” administracyjne wydatki, oceniać jak wpływają na produktywność przedstawione powyżej czynniki. W adekwatnych pomiarach produktywności jest zapotrzebowanie zarówno na menedżment jak i na gospodarkę w całości. Ich niedostateczność to największy minus w statystyce ekonomicznej, poważnie osłabiający politykę gospodarczą. Za pracę produkcyjną uważa się pracę pracowników obsługujących sprzęt i maszyny oraz tworzących produkcję. Do pracy nieprodukcyjnej zalicza się pracę wszystkich osób, które nie obsługują wyposażenia, ale wnoszą wkład w produkcję. Taką pracą jest np. mało produkcyjna praca sprzątaczek, tradycyjnie wysokokwalifikowana praca narzędziowców, wykształconych pracowników przemysłowych: mistrzów, technologów, kontrolerów. Na końcu do „wydatków administracyjnych” (termin ten jest zrozumiały sam w sobie jako moralna dezaprobata) dołączają najbardziej produktywne zasoby ludzkie: menedżerów, badaczy, projektantów, ekonomistów planowania, nowatorów itp. Koncepcja produktywności, która rozumie, że fizyczna praca jest jedynym produktywnym wysiłkiem jest beznadziejnie przestarzała. Konieczna jest koncepcja produktywności łącząca wszystkie wysiłki skierowane na produkcję i wyrażona w postaci wyników. Nawet taka koncepcja będąca znacznym krokiem do przodu będzie nie adekwatna jeśli wysiłki będą ograniczone poprzez rodzaje działalności mierzone w formie konkretnych bezpośrednich wydatków. 3. Efektywność produkcji Pojęcie produktywności jest ściśle powiązane z innymi gospodarczymi wskaźnikami, wśród których szczególne znaczenie ma ekonomiczność (efficiency) oraz skuteczność lub aktywne działanie (effectiveness). Oba te wyrazy na język polski tłumaczą się jako efektywność. Chociaż teraz są wystarczająco konkretne wyznaczniki, w szerokim rozumieniu efektywność oznacza zwiększenie produkcji, zmniejszając jednocześnie wydatki na proces produkcyjny. Jeżeli zwrócić uwagę menedżmentu na ograniczenie wydatków i tym samym podwyższenie efektywności wykorzystania posiadanych zasobów to można powiedzieć, że jest to działanie eko- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 133 nomiczne. Jeżeli uwaga zwrócona jest na możliwości tworzenia rynku, poprawy ekonomicznych statystyk i jakości towarów itp., tym samym zwiększa się aktywne działanie przedsiębiorstwa. Mówiąc o efektywności należy wymienić H.Emersona, który z efektywności uczynił prawdziwą filozofię oraz sformułował 12 zasad fundamentalnych efektywności [2]. Oto te zasady: Konkretne wyrażenie ideałów, znaczenie których dla praktycznej pracy organizacji trudno przecenić. Kierownicy powinni uświadamiać swoich pracowników o przeznaczeniu swojej organizacji. Tylko wtedy przedsiębiorstwo może osiągać wysoki stopień efektywności. Zdrowy sens, bez którego przedsiębiorstwo nie ma szans na efektywną pracę. Przykładem współczesnego menedżmentu jest działający w wielu amerykańskich firmach program optymalizacji technologii produkcyjnej, w której cele organizacji, jej struktura i zdrowy sens znajdują wspólne zastosowanie przy rozwiązaniu problemów produkcji przemysłowej. Porady ekspertów, jest to rola personelu specjalistów technicznych w pracy organizacji. W miarę komplikacji zarządzania kierownik musi coraz częściej zwracać się o pomoc do ekspertów technicznych, gdyż żaden kierownik nie jest od razu specjalistą we wszystkim, co jest niezbędne do sukcesywnego prowadzenia spraw. Dyscyplina. Osiągnięcie ogólnych ideałów poprzez pracę w organizacji zdyscyplinowanej odbywa się przeważnie w formie współpracy. Za Emersonem, współpraca to nie zasada, ale jej brak – to już przestępstwo. Uczciwe prowadzenie spraw. Jednym z najbardziej skomplikowanych i najtrudniejszych problemów do rozstrzygnięcia w sprawach tworzenia klimatu właściwych relacji jest nieumiejętność dotrzymywania równowagi pomiędzy wynagrodzeniem a produktywnością. System wynagrodzeń powinien być taki aby jego poziom był do przyjęcia w dniu dzisiejszym i stwarzał nadzieję na lepsze jutro. Prowadzenie bezpośredniego, adekwatnego i stałego obliczenia. Tylko poprzez analizę produktywnych wskaźników ( normatywów, cen, stawek wynagrodzenia itp.) menedżer może prawidłowo oceniać realny poziom efektywności oraz określić poziom efektywności w porównaniu z istniejącymi normami. System dyspozytorski – to aspekt planowania, który przewiduje się w kalendarzu planowania czasu i wydatków podobnie do rozkładu jazdy pociągów. Standardy i grafiki, jest to zaplanowany wybór regulaminów, norm i przepisów ogólnie przyjętych w wyznaczonej sferze działalności. Warunki standardowe. Techniczne metody i empiryczne przepisy powinny odpowiadać współczesnemu poziomowi produkcji. Standaryzacja operacji, które gwarantują uzyskanie wysokich wyników. W tym wypadku dla osiągnięcia wysokiej efektywności niezbędne są odpowiednie umysłowe zdolności i organizacyjne nawyki pozwalające połączyć swoje działania ze standardowymi przepisami. Normatywy i praktyczne instrukcje wspomagają naukę personelu organizacyjnego oraz stopniowego udoskonalenia zadań. Wynagrodzenie za efektywną pracę to przyznanie efektywności w miejscu pracy w zakresie odpowiedzialności pracownika. Adekwatny system wynagrodzeń pozwala pracownikowi uświadamiać sobie ile jego praca znaczy dla przedsiębiorstwa. Gdy wszystkie te wymienione zasady funkcjonują równocześnie straty mogą być zminimalizowane. Również odwrotnie, nie możemy mówić o efektywności jeśli w danym przedsiębiorstwie funkcjonują niejasne zasady lub nie ma ich wcale. Trzeba je znać i zastosowywać w realnych sytuacjach. 134 Leonid Worobjow Produktywność i efektywność przedsiębiorstwa 4. Wyższe kierownictwo przedsiębiorstwa Wszystkie działy zarządzania przedsiębiorstwem zajmują się zwykle jednym lub dwoma konkretnymi funkcjonalnymi zadaniami. Jedyny wyjątek to wyższe kierownictwo przedsiębiorstwa ( z ang. top management team - to grupa wyższego kierownictwa), które nie posiada jednego zadania. Zawsze są to zadania połączone: Przemyślenia dotyczące misji przedsiębiorstwa, tj. odpowiedź na pytania: „na czym polega nasz biznes?” i „jak powinien wyglądać nasz biznes?”. Zadanie to wyznacza cel w postaci opracowania strategii i podjęcia decyzji co do przyszłych wyników. Może tego dokonać tylko organ spoglądający na przedsiębiorstwo jak na całość, zdolne zbilansować zapotrzebowanie i możliwości oraz skierować zasoby ludzkie, finansowe i inne na osiągnięcie zamierzonych wyników. Ustalenie standardów działalności i zachowań w przedsiębiorstwie ( „u nas tak się nie robi”), likwidacja rozbieżności pomiędzy tym co powinno oficjalnie wykonać przedsiębiorstwo, a tym co faktycznie wykonuje. Organ wyznaczający wartości i perspektywy przedsiębiorstwa powinien spoglądać i rozumieć przedsiębiorstwo jako całość. Organizacja efektywnego współdziałania ludzi, do tego należy przemyśleć strukturę organizacyjną zarządzanie przedsiębiorstwem dziś i jutro, rozpatrywać przedsiębiorstwo w całości. Zachowanie wyższego kierownictwa, jego przekonania i wartości dają przykład całemu przedsiębiorstwu i napawają dumą i szacunkiem każdego pracownika. Pozyskanie i utrzymanie współpracy z klientami i dostawcami, z inwestorami i państwowymi instytucjami. Współpraca ta wpływa na wyniki pracy przedsiębiorstwa i zostaje ustalona przez osoby odpowiedzialne za całe przedsiębiorstwo i mogące być jego upoważnionymi przedstawicielami. Zarządzanie przedsiębiorstwem w ekstremalnych lub nadzwyczajnych warunkach, kiedy powstaje konieczność aby najbardziej doświadczone i odpowiedzialne osoby zakasały rękawy i wzięły się za pracę. Na końcu, przedstawienie przedsiębiorstwa na wszelkich ceremoniach – przyjęciach, prezentacjach, świętach i innych przedsięwzięciach. Idealnego modelu kierownictwa wyższego szczebla nie ma. Powinni oni pracować uwzględniając specyfikę przedsiębiorstwa. Kierowanie na wysokim szczeblu to zadanie raczej dla grupy niż dla jednej osoby. Rzadziej potrzebne są cztery charakterystyki osób: człowiek myślący, człowiek czynu, człowiek psycholog, człowiek publiczny. W prawidłowo działającym zespole wyższego szczebla punktem wyjściowym powinna być analiza postawionych przed nim zadań. Każde z tych zadań powinno być przedstawione osobie, która ponosi za nie bezpośrednią i całkowitą odpowiedzialność. Odpowiedzialność ta powinna być zgodna z charakterystyką osobowości i kwalifikacji członków zespołu. Kierownictwo wyższego szczebla winno akceptować twarde wymogi. Nie jest to proste strukturalnie. Nie będzie kierownictwo dobrze pracować tylko dlatego, że jego członkowie sympatyzują między sobą. Członkowie kierowniczej grupy mogą się nawzajem nie lubić, nawet nie mieć do siebie nawzajem szacunku, ale nie powinni negatywnie o sobie się wypowiadać. Poza naradami publicznymi nie powinni wypowiadać zdań krytycznych wobec siebie, poniżać czy też chwalić jeden drugiego. Dostosowanie się do tej zasady to zadanie kapitana drużyny, który powinien tego obowiązkowo przestrzegać. Kapitan powinien być nie kierownikiem, ale liderem. Jest on niezbędny również dlatego, by w krytycznym momencie wziąć odpowiedzialność na siebie. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 135 Każdy członek drużyny kierownictwa wyższego szczebla odpowiada za wyznaczony zakres i posiada w nim decydujące zdanie. Podwładni nie mogą zaskarżać jego decyzji do pozostałych członków kierownictwa. Nikt nie powinien podejmować decyzji nie należących do zakresu jego kompetencji. Najlepiej jeśli członkowie drużyny nie będą w ogóle wypowiadać się na tematy będące poza zakresem ich obowiązków. Jednocześnie każdy z członków kierownictwa wyższego szczebla występuje w imieniu całej drużyny. W innym przypadku zaczynają się intrygi. Są jednak decyzje, które powinny być podejmowane wspólnie lub w skrajnych okolicznościach omawiane zespołowo – tylko całą drużyną. To powinno dać odpowiedzi na pytania: „na czym polega nasz biznes?” i „jak powinien wyglądać nasz biznes?”. Wspólnie omawia się ważne inwestycje i zasadnicze kwestie personalne, a także zaprzestanie lub wznowienie produkcji istotnych wyrobów. Rozwiązywanie zadań kierownictwa wyższego szczebla wymaga systematycznej i intensywnej wymiany informacji pomiędzy członkami drużyny. Ilość zadań i rozwiązanie każdego z nich wywierają wpływ na działalność przedsiębiorstwa. Z drugiej zaś strony należy poinformować każdego członka kierownictwa wyższego szczebla o konieczności samodzielnego działania w ramach swoich obowiązków, natomiast oni powinni dołożyć wszelkich starań aby informować swoich kolegów o swojej działalności. Kierownictwo wyższego szczebla przedsiębiorstwa to dyrektor i jego zastępcy - osoby zwykle bardzo odpowiedzialne, nacechowane silną wolą i rozsądnym egoizmem. Starają się oni zawsze spełnić oczekiwania postawione im podczas rekrutacji. Spoczywa na nich wysoka odpowiedzialność za wszystko co się wydarzy, chociaż naprawdę są takimi samymi ludźmi jak inni. Przede wszystkim dyrektor. Zwykle nie jest on dostatecznie kompetentny we wszystkim co dotyczy finansów, planowania, wynagrodzenia, księgowości. Kariera dyrektora zwykle przebiega na szczeblu technicznym: mistrz, kierownik działu i hali, kierownik oddziału produkcyjno– spedycyjnego, główny inżynier i w końcu dyrektor. Wysłuchując różnych zdań swoich „funkcjonalnych” nie jest on w stanie w sposób szczególny zrozumieć treści stawianych problemów, nie ma ani czasu ani kwalifikacji do zrozumienia tych problemów. Jednak kompetencje „funkcjonalnych” nie zawsze są właściwe i mogą one bardzo poważnie „podłożyć” dyrektora. W końcu dyrektor zaczyna podejmować decyzje siłą woli i później okazuje się jedynym winnym. W praktyce dyrektorzy przedsiębiorstw mają konflikty z głównymi księgowymi. Jest to związane z tym, że bardzo wiele zasad przewidzianych przepisami jest niemożliwe do wykonania i dyrektorzy, szczególnie młodzi są zmuszeni naruszać je, za co przewidziane są poważne sankcje nawet karne. Główni księgowi nie odpowiadają za pracę przedsiębiorstwa i nie przejmują się tym jeśli na podstawie zapisów finansowych przedsiębiorstwo zostanie sparaliżowane. Stary i doświadczony dyrektor docenia wartość spokojnego życia i stara się mniej łamać przepisy, ale za to traci inicjatywę kierowania przedsiębiorstwem. Dyrektor i kierownicy produkcyjni (liniowi) uważają, że przedsiębiorstwo opiera się na realnej pracy, tj. na konkretnej pracy wykonywanej w hali produkcyjnej. Pisanie papierków to zadanie personelu zarządzającego. Jeśli realna praca jest wykonywana, to ekonomiści funkcjonują tylko dlatego, aby w sprawozdaniu znajdował się niezbędny procent wykonania planu. Jeśli w dokumentach nie można uzyskać niezbędnego procentu wykonania planu to znaczy, że ekonomiści są niekompetentni. Kiedy okazuje się, że od tego jak ekonomiści piszą swoje dokumenty, może lepiej iść realna praca to dla dyrektora jest największym objawieniem. Leonid Worobjow Produktywność i efektywność przedsiębiorstwa 136 5. Podsumowanie Nawet najzdrowsze przedsiębiorstwo może upaść, jeżeli nie będzie przywiązywać dostatecznej wagi do efektywności. Nawet najbardziej ekonomiczne przedsiębiorstwo nie może funkcjonować jeśli produkuje zbędne produkty czyli przy braku skuteczności. Skuteczność jest podstawą sukcesu. Ekonomiczność jest podstawowym warunkiem przeżycia po osiągnięciu sukcesu. 6. Literatura 1. Worobjow Ł.A.., 1999. Mjenjebżmjent organizacii. Izdatjelstwo PRO, Мinsk. 2. Emerson H., 1913.The Twelve Principles of Efficiency. Engineering Magazine New York. PRODUCTIVITY AND EFFICIENCY OF THE ENTERPRISE Summary The paper presents basic factors of productivity. It is stated that there is necessity of adaptation of the productivity concept included all efforts for production and its effects. There is proved that productivity is connected with economicalness and effectiveness. The basic tasks of enterprise management staff were pointed. Keywords: Productivity, Efficiency, Efficiency Rules, Effectiveness, Economicalness, Enterprise Management Staff PROF. DR HAB. LEONID WOROBJOW Katedra Ekonomii Akademii Rolniczej w Szczecinie 71-210 Szczecin, ul. Żołnierska 47, tel/fax (0-91) 4870-229 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 137 KAROLINA WOŹNICKA STRATEGIA PRZODOWNICTWA KOSZTOWEGO W WALCE Z KONKURENCJĄ Streszczenie Celem niniejszej pracy jest prezentacja strategii przodownictwa kosztowego jak również walka przedsiębiorstw z konkurencją. Praca ta została napisana na podstawie studiów literaturowych, które obejmują pozycje książkowe, artykuły autorów polskich jak i zagranicznych, jak również źródła internetowe oraz na podstawie obserwacji dotyczących treści charakteryzowanego przedsiębiorstwa. Przedstawionemu celowi pracy podporządkowana jest jej struktura, na którą składa się wprowadzenie w tematykę konkurencyjności. Rozdział ten dotyczy działania w konkurencyjnym otoczeniu rynkowym konkurentów. Można w rozdziale tym znaleźć informacje dotyczące konkurencyjności, czyli podstawowe pojęcia konkurencyjności, rodzaje konkurencji. Oprócz tego w rozdziale tym opisane jest jak przedsiębiorstwo może uzyskać przewagę nad konkurentami oraz jakie strategie może wykorzystać, aby zdobyć przewagą konkurencyjną. Natomiast następnie opisane jest tworzenia przewagi konkurencyjnej na podstawie przodownictwa kosztowego. Czynnikami za pomocą, których przedsiębiorstwo może uzyskać przewagę konkurencyjna jest cena oraz koszty. W rozdziale tym ukazane są możliwości obniżki kosztów w przedsiębiorstwie. Dlaczego ten temat jest ważny? Być może dlatego, że, polskie przedsiębiorstwa stoją w obliczu nowych wyzwań, gdyż tylko perfekcyjne opanowanie sztuki działania na w pełni konkurencyjnym rynku może zapewnić im szanse na efektywne funkcjonowanie w ramach struktury gospodarczych zjednoczonej Europy. Postępujący proces globalizacji działań gospodarczych nie pozwala na działanie wbrew regułom gry konkurencyjnej oraz wymusza rozszerzenie horyzontów postrzegania rynku i roli, jaką przedsiębiorstwo ma szanse odegrać. Polska nie wykreowała do tej pory silnej marki narodowej, która stałaby się symbolem wizerunku kraju, odbieranym wszędzie i przez wszystkich jednoznacznie pozytywnie. Polska gospodarka nie będzie dostatecznie konkurencyjna, nie sprosta konkurencji międzynarodowej w Unii Europejskiej i poza Unią, bez silnych marek firmowych, handlowych, marek regionalnych, a także bez mocnej i szanowanej marki narodowej. Należy wykorzystać szansę na poprawę tej sytuacji, umacnia się bowiem międzynarodowa reputacja gospodarki naszego kraju, przede wszystkim w kontekście bliskiego członkowstwa w Unii Europejskiej. Słowa klucze: strategia przodownictwa kosztowego, konkurencja 138 Karolina Woźnicka Strategia przodownictwa kosztowego w walce z konkurencją 1. Konkurencyjność przedsiębiorstwa na rynku Udział marketingu w procesach konkurencji związany jest z istnieniem otoczenia konkurencyjnego przedsiębiorstw. Każde przedsiębiorstwo działa w mniej lub bardziej rozwiniętym otoczeniu konkurencyjnym. Otoczenie konkurencyjne przedsiębiorstwa nazywane jest często otoczeniem bliższym przedsiębiorstwa, przemysłowym bądź sektorowym. M. E. Porter używa w swoich książkach również takich określeń otoczenia konkurencyjnego a mianowicie ,,sektor’’ lub ,,analiza sektora’’ jako najbardziej precyzyjnych i jednoznacznych pojęć. Każde przedsiębiorstwo posiada otoczenie i w nim funkcjonuje, ale chcąc w nim działać musi zrozumieć podstawowe elementy swojego otoczenia, żeby mogło w nim dobrze funkcjonować. Dlatego należy zacząć od wyjaśnienia pojęcia otoczenia, którym nazywamy „zbiory składników, których nie zalicza się do samej organizacji, ale ich bezpośrednie oddziaływanie lub zmiana właściwości może spowodować zmianę stanu samej organizacji” [6]. Mając zdefiniowane pojęcie otoczenia, można przejść do jego klasyfikacji. Najbardziej znany podział otoczenia w marketingu jest podział na mikrootoczenie oraz makrootoczenie. Przedsiębiorstwo działające w danym otoczeniu może zmierzać do unikania form konkurencji, którym towarzyszą: 1. Wysoki poziom ograniczeń stwarzanych przedsiębiorstwu przez jego otoczenie konkurencyjne. 2. Parametryzacja wszystkich lub niektórych instrumentów marketingowych. 3. Forma konkurencji decyduje o: • stopniu intensywności motywacji do stosowania marketingu, • możliwościach mniej lub bardziej swobodnego operowania przez przedsiębiorstwo poszczególnymi instrumentami marketingu, • podstawowej funkcji marketingu w procesach konkurencji. Wyodrębnienie poszczególnych rodzajów instrumentów konkurowania pozwala na określenie rodzajów konkurencji. Występują różne kryteria podziałów konkurencji, w przypadku jednego z tych kryteriów można podzielić konkurencję na: 1. Konkurencja jakościowa. 2. Konkurencja cenowa. 3. Konkurencja informacyjna. Stosowanie marketingu pozwala firmie na znalezienie dla siebie miejsca na polu rynkowej walki o uznanie wśród nabywców bez względu jaki rodzaj konkurencji dominuje na rynku. Poniższa tabela 1 prezentuje związki między rodzajami konkurencji, a podstawowymi instrumentami konkurowania. Rodzajowa struktura procesów konkurencyjnych na rynku może być oraz jest zróżnicowana w różnych segmentach rynku. Konkurencja jakościowa, której może towarzyszyć nasilona konkurencja informacyjna, dominuje w pewnych segmentach rynku natomiast w innych może dominować konkurencja cenowa. Taka struktura nie ma trwałego charakteru, lecz może ulegać zmianie. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 139 Tabela 1. Rodzaje konkurencji i instrumenty marketingu Rodzaje konkurencji Cenowa Jakościowa Informacyjna Instrumenty i działania konkurencyjne Cena Promocja oparta na materialnym zainteresowaniu nabywców Produkt Opakowanie Dystrybucja Sprzedaż bezpośrednia (osobista) Reklama Public relations Promocja oparta na pozamaterialnym zainteresowaniu nabywców Marka Źródło [3] Możliwość kształtowania się rodzajów konkurencji wynikają z [10]: • Charakteru otoczenia rynkowego poszczególnych producentów, • Zakresu swobody producentów w wykorzystaniu i zmianach instrumentów konkurencji. W procesie konkurowania każdy rodzaj konkurencji ma inne znaczenie. Różna skuteczność instrumentów co związane jest z różnymi rodzajami konkurencji prowadzi do dominacji jednego rodzaju konkurencji. Wracając do rodzajów konkurencji to pierwszym rodzajem konkurencji jest konkurencja cenowa, która jak sama nazwa wskazuje opiera się na cenie wyrobu oraz zmianach jej poziomu. Zmiany poziomu ceny mają na celu wyróżnienie oferty na tle ofert rywali oraz zdobycie na tej podstawie cenowej przewagi konkurencyjnej. Konkurencja ta może mieć miejsce tylko między wyrobami o podobnej jakości. Zmiany poziomu ceny powinny[10]: 1. Wywoływać pożądaną zmianę wielkości popytu u nabywców, 2. Nie wywoływać reakcji u rywali (lub wywoływać reakcje zaplanowane przez producenta). Natomiast, jeżeli w rezultacie zmiany poziomu ceny nabywcy chcą kupić oferowany wyrób, wtedy konkurencja cenowa powoduje wzrost efektów osiąganych przez producentów. Różny popyt przy zmianach poziomu ceny oznacza, że alokacja dochodu nabywców jest determinowana tymi zmianami. Związane jest to z kształtowaniem się cenowej elastyczności popytu na dobro. Elastyczność cenowa popytu wyraża stosunek relatywnej zmiany popytu do relatywnej zmiany ceny. Jeśli poziom cenowej elastyczności popytu na dobro jest niski, to obniżenie ceny może spowodować zmniejszenie na rynku udziału przedsiębiorstwa. Zmiana ceny nie wywołuje dużej reakcji nabywców oraz nie stanowi zagrożenia dla konkurentów. Przy wysokim poziomie cenowej elastyczności popytu na dobro obniżanie cen wywołuje większy popyt. Następny rodzaj konkurencji to konkurencja jakościowa. Konkurencja ta opiera się na produkcie oraz usługach towarzyszących procesowi jego oferowania na rynku oraz występuje tylko między produktami o charakterze substytucyjnym. Trzeci rodzaj konkurencji to konkurencja informacyjna, której podstawą jest proces komunikowania się podmiotów na rynku. Typowym instrumentem konkurencji informacyjnej jest rekla- 140 Karolina Woźnicka Strategia przodownictwa kosztowego w walce z konkurencją ma, która poprzez wypełnienie swoich dwóch podstawowych funkcji (informacyjnej i nakłaniania nabywców do pożądanych reakcji) przynosi zainteresowanie nabywców produktami przedsiębiorstwa [10]. Producent, analizując rynek, na którym chce działać, najpierw ustala, co będzie chciał produkować i oczywiście dla kogo? Jeżeli producent zna swoje możliwości finansowe, to wybierze najlepszą z dostępnych technologii produkcji. Pozostanie mu tylko odpowiedź na pytanie: ile wyprodukować, żeby osiągnąć maksymalny zysk? Dla wyliczenia swojego zysku producent powinien znać nie tylko koszty wytworzenia różnych wielkości produkcji, ale też przychody ze sprzedaży produktów, które z kolei zależą od struktury rynku, na którym firma funkcjonuje. Omówiliśmy rodzaje konkurencji, a nie wyjaśniliśmy pojęcia konkurencyjności. Konkurencja to wyrażenie pochodzące od średniowieczno – łacińskiego słowa concurrentia, które oznaczało ,,rywalizację przedsiębiorstw o korzyści ekonomiczne, które można osiągnąć prowadząc daną działalność gospodarczą”. Ogólnie mówiąc, konkurencja jest to proces, w którym uczestnicy rynku, dążąc do realizacji swych interesów, próbują przedstawić oferty korzystniejsze od innych ze względu na cenę, jakość, warunki dostawy i inne czynniki mające wpływ na podjęcie decyzji o zawarciu transakcji. Konkurencja jest chroniona przez prawo we wszystkich rozwiniętych krajach (antymonopolowe ustawodawstwo). O konkurencji mówimy, kiedy na rynku istnieje duża liczba przedsiębiorstw tzw. twórców podaży. Konkurencja jest jednym z najważniejszych elementów gospodarki rynkowej, a wręcz jej synonimem, a także motorem napędzającym do działania umożliwiającym dokonywanie wyborów dla konsumentów w świetle marketingowym. Istnienie konkurencji zależy od występowania pewnych warunków [9]: • W danym segmencie działa więcej niż jeden producent. • Między producentami zachodzi konflikt interesów – jest to warunek uzupełniający, lecz konieczny, gdyż brak konfliktu interesów zmniejsza lub wyklucza motywacje do rywalizowania. Wartość potencjalnych przychodów wszystkich firm jest ograniczona. Natomiast walka o zdobycie dużej części tych przychodów jest istotą konkurencji. Trudność konkurowania polega na tym, że w warunkach ustabilizowanej gospodarki rynkowej popyt jest dość stały, dlatego tylko zdecydowanie lepsze dostosowanie oraz działanie firmy może spowodować zagarnięcie większej części popytu kosztem firmy mniej efektywnej. W życiu gospodarczym celem konkurencji jest zmniejszenie udziału konkurenta w rynku lub jego eliminacja. Konkurencja pełni cztery funkcje, które zostały zaprezentowane poniżej[9]: • Funkcja sterownicza – sterowanie podziałem oraz przepływem produktów i usług według kryterium preferencji nabywców, co służy zaspokajaniu ich potrzeb w najlepszy możliwy sposób. • Funkcja dostosowawcza – adaptowanie produktów i zdolności wytwórczych do zmian w popycie i technice produkcji, co pozwala na oszczędności w sferze inwestycji. • Funkcja ekonomiczna – zapewnianie podziału dochodów między uczestnikami procesów rynkowych według kryterium wydajności i efektywności zamiast podziału według kryterium siły ekonomicznej. • Funkcja innowacyjna – przyśpieszenie wprowadzania innowacji oraz postępu techniczno – organizacyjnego. Przedsiębiorstwa, które współzawodniczą między sobą prowadzą swoją działalność w warunkach ciągłej niepewności, często narażone są na kryzys. Chcąc utrzymać zdolność do rywalizacji muszą być elastyczne oraz łatwo się adaptować do nowych sytuacji. Warunkami sukcesu firmy jest wykreowanie unikalnych zdolności, które dotyczą sposobu jej funkcjonowania. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 141 2. Metody oceny konkurencyjności przedsiębiorstw Analiza konkurencji jest częścią zarządzania strategicznego dotyczącego oceny środowiska zewnętrznego. W analizie strategicznej duże znacznie ma metoda SWOT. Jest to kompleksowa metoda, która służy do badania otoczenia organizacji i analizy jej wnętrz. Analiza SWOT stosowana jest do porównania atutów oraz słabości przedsiębiorstwa z możliwościami i zagrożeniami wynikającymi z charakteru jej otoczenia. Nazwa SWOT jest akronimem angielskich słów Strengths (mocne strony), Weaknesses (słabe strony), Opportunities (szanse w otoczeniu), Threats (zagrożenia w otoczeniu). Analiza SWOT polega na przewidywaniu zmian jakie zajdą w przyszłości i określeniu, które tych zmian stwarzają szanse a które są źródłem zagrożeń dla działalności przedsiębiorstwa. Metody portfelowe stanowią zbiór narzędzi, które umożliwiają dokonanie oceny możliwości działania i określenia przyszłej pozycji przedsiębiorstwa. Dają możliwość precyzyjnej oceny sytuacji konkurencyjnej przedsiębiorstwa w różnych segmentach rynku. Metody portfelowe stanowią podstawę do planowania strategicznego. Wyróżnia się najbardziej znane i stosowane metody analiz portfelowych, do których zliczamy[5]: • Portret przedsięwzięć gospodarczych. • Macierz kierunków polityki gospodarczej. • Macierz oceny produktu. • Macierz wzrostu udziału w rynku (inaczej macierz BCG). • Mc KINSEY (w skrócie McK). • Macierz oceny rynku lub macierz Arthura D. Little’a (w skrócie nazywana ADL). Zajmijmy się trzema z tych metod portfelowych zaczynając od macierzy BCG (Boston Consulting Group) jest powszechnie stosowaną metodą zarządzania portfelem przedsiębiorstwa, macierz ta klasyfikuje poszczególne jednostki strategiczne operacyjne według stopy wzrostu ich rynku oraz względnego udziału w rynku. Metoda ta została opracowana przez Bostońską Grupę Konsultingową w 1969 roku. Ogólnie mówiąc macierz BCG pomaga w zrozumieniu wkładu różnych strategicznych jednostek operacyjnych do wyników całego przedsiębiorstwa. Kolejną metodą jest macierz McKinseya nazywana jest macierzą atrakcyjności produktu czy atrakcyjności rynku (Business – Industry Attractiveness Matrix) albo macierz GE. Początki tej macierzy można zaobserwować w latach siedemdziesiątych w firmie General Electric Corporation, która współpracowała ze współczesną firmą doradczą McKinsey. Zmian dokonano w określeniu zmiennych z jednowymiarowych na zmienne określające czynniki sukcesu rynkowego firmy w postaci atrakcyjności rynku oraz pozycji konkurencyjnej wewnątrz danego sektora. Zmiany te dały duże możliwości analizy portfela produkcji firmy na tle danego sektora bądź przemysłu[9]. Następną metodą portfelową, która powstała w latach siedemdziesiątych w firmie doradczej A. D. Little jest macierz A. D. Little’a nazywaną w skrócie ADL. Przeprowadzone wcześniej badania nad zachowaniem firm oraz prawami rynku PIMS zwraca uwagę menadżerów na to, że czynnikiem atrakcyjności rynku jest nie tylko jego chłonność, ale również faza cyklu życia, w jakiej się znajdują produkty oraz wzajemne relacje między nimi. Oznacza to stosunek wyrobów, które są nowo wprowadzone na rynek do tych, które są w fazie dojrzałości czy schodzenia z rynku. Jest to odmienne podejście do tworzenia zbilansowanego portfela wyrobów firmy. Właśnie z takich poszukiwań zrodziła się technika analizy portfelowej zwana macierzą ADL. Karolina Woźnicka Strategia przodownictwa kosztowego w walce z konkurencją 142 3. Strategie osiągania i utrzymywania konkurencyjności W procesie formułowania efektywnej i realistycznej strategii przedsiębiorstwo musi wziąć pod uwagę wiele czynników determinujących wybór strategii. Wybór metod i sposobu rozwoju danego przedsiębiorstwa, czyli strategii rozwoju, zależy od potencjału danego przedsiębiorstwa istniejącego obecnie oraz możliwego do osiągnięcia w przyszłości. Ów potencjał określa zdolności strategiczne danej firmy, czyli jej możliwości opracowania, wdrożenia i eksploatacji efektywnej strategii rozwoju. Zdolności strategiczne danej firmy są zdeterminowane przez kulturę organizacji, jej zdolność zarządzania oraz jej materialne i niematerialne zasoby. Czynniki determinujące strategie rozwoju przedsiębiorstwa można podzielić na czynniki wewnętrzne i czynniki zewnętrzne. Ocena tych czynników pod względem istotności i sposobu wpływu na firmę jest przedmiotem analizy strategicznej. Trzeba określić co będziemy rozumieć pod pojęciem strategii konkurencyjnej? Pod tym pojęciem według F. Bartasa ,,będziemy rozumieć skutki działalności i metod, które w przypadku należytej realizacji powinny zapewnić firmie większe prawdopodobieństwo osiągnięcia wyznaczonych celów w określonym środowisku marketingowym, w danym momencie’’[1] Według Portera na wybór strategii konkurencyjnej duże znaczenie wywierają dwa czynniki[1, s.60]: 1. Atrakcyjność branży. 2. Pozycja konkurencyjna firmy w danej branży. Jeżeli przedsiębiorstwo wybiera i wytwarza odpowiednia strategię konkurencyjną, musi przeprowadzić analizę pięciu dynamicznych czynników konkurencyjnych . Czynniki te determinują atrakcyjność branży. Działanie tych czynników określone jest przez stosunki konkurencyjne. Czynniki te należy poznać, zrozumieć oraz wykorzystać ich działanie na korzyść własnego przedsiębiorstwa. Jeden lub kilka z czynników można zmienić jednakże prowadzi to do zmian struktury branży w wyniku czego również do zmiany jej atrakcyjności[1, s. 61]. Każda firma konkurująca w danym sektorze ma strategię konkurencji, sformułowaną świadomie lub wynikowo. Strategia może być celowo opracowana w toku procesu planowania albo może być efektem działalności różnych działów funkcjonalnych firmy. Każdy dział będzie jednak postępować zgodnie ze swoją zawodową orientacją i motywacją kierownictwa. Dlatego suma działań poszczególnych działów rzadko kiedy składa się na najlepszą strategię. Firma ma do wyboru wiele opcji strategicznych. W teorii zarządzania strategicznego istnieje wiele podziałów strategii. Jednak zanim dokona się podziału strategii należy sformułować trzy poziomy strategii: 1. Strategia firmy - określa jaki rodzaj lub rodzaje działalności muszą być prowadzone, aby osiągnąć przewagę strategiczną. 2. Strategia biznesu - precyzuje działalności, które prowadzą do osiągnięcia założonych celów. 3. Strategia funkcjonalna - działania na każdym poziomie funkcjonalnym firmy, które mają zapewnić realizację strategii biznesu przy wykorzystaniu strategii firmy. Najważniejsza jest strategia na poziomie firmy. To ona określa strumień działań i decyzji prowadzących do osiągnięcia sukcesu rynkowego. Jednym z najczęściej stosowanych podziałów POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 143 strategii na poziomie firmy, często określanym mianem podziału pierwotnego jest podział na następujące strategie: • Strategie kosztowe - przewagę konkurencyjną uzyskuje się na drodze redukcji kosztów wytwarzania, często strategię tę utożsamia się ze strategią wolumenu, gdyż duża skala produkcji powoduje obniżenie kosztu jednostkowego. • Strategie dyferencjacji (wyróżniania się) - polega na oferowaniu przez przedsiębiorstwo produktów specyficznych, które wyraźnie wyodrębniają się od pozostałych produktów konkurencji, są jednoznacznie utożsamiane z daną firmą. Dwa podstawowe typy przewagi konkurencyjnej przedsiębiorstwa, czyli przywództwo kosztowe oraz pozytywne wyróżnianie, w połączeniu z zakresem działalności pozwalają na wyróżnienie trzech potencjalnie skutecznych strategii konkurencji. Ten klasyczny podział trzech podstawowych strategii konkurencji w 1985 roku określił Michael P. Porter[7, s. 50]: • Strategia minimalizacji kosztów – inaczej strategia wiodąca pozycja pod względem kosztów całkowitych, analogia do strategii kosztowych. • Strategia różnicowania - inaczej dyferencjacji. • Strategia koncentracji. Strategie nazywane kosztowymi ukierunkowują wszystkie działania przedsiębiorstwa na jedyny główny cel, jakim jest minimalizacja kosztów całkowitych. Strategie kosztowe opierają się na założeniu, że najlepszą pozycję konkurencyjną uzyskują te firmy, które mają najniższe koszty. Obok strategii wyróżniania oraz koncentracji jest strategia przywództwa kosztowego, która jest jedną z trzech podstawowych strategii konkurowania rozwiniętych w końcu lat siedemdziesiątych XX wieku przez M. E. Portera. Strategia przywództwa kosztowego bądź strategia pozycji wiodącej pod względem kosztów całkowitych jest nazywana często strategią niskich cen. Cena jest wyrażoną w pieniądzu wartością towaru. Stanowi ona również ważny element rywalizacji między przedsiębiorcami, ponieważ jest jednym z najważniejszych czynników wpływających na wybór produktu przez nabywcę. Jeżeli konkurencyjne produkty nie różnią się między sobą innymi cechami na przykład jakością, serwisem, łatwością dostępu, czyli w istotny sposób, wtedy cena może stać się czynnikiem decydującym. Z tego powodu współczesny wolny rynek charakteryzuje się występowaniem presji cenowej między jego uczestnikami. Pozycje konkurentów i przedsiębiorstwa na rynku wyznacza cena wyrobu oraz użyteczność oferowana. Przedsiębiorstwo, którego oferta w tym zakresie będzie dla klienta atrakcyjniejsza zdobędzie przewagą konkurencyjną. Przygotowanie oferty wymaga dokładnego poznania wszystkich wierzchołków trójkąta strategicznego, czyli własnego przedsiębiorstwa, konkurencji i klientów oraz poznanie związków zachodzących między nimi. Chcąc osiągnąć i utrzymać trwałą przewagę konkurencyjną pod względem cenowym przedsiębiorstwo musi zajmować korzystną pozycję w sferze kosztów. Zarządzanie cenami jest funkcją zarządzania kosztami, tak więc przedsiębiorstwo które decyduje się zdobywać rynek za pomocą atrakcyjnych dla klientów niskich cen powinno prowadzić w tym zakresie ścisłą kontrolę. Strategia niskich cen została rozpowszechniona w lachach siedemdziesiątych dzięki koncepcji krzywej doświadczenia (zwanej krzywą uczenia się). Karolina Woźnicka Strategia przodownictwa kosztowego w walce z konkurencją 144 Koncepcja ta powstała w 1926 roku, kiedy oficer Armii Stanów Zjednoczonych dowodzący bazą Wright Patterson w Dayton zauważył, że za każdym razem, gdy podwaja produkcję, koszty jednostkowe maleją o około 20 % [10]. Skonstruowana na tej podstawie krzywa doświadczenia to „wykres obrazujący empirycznie stwierdzona zależność (…) między skalkulowaną w całym okresie produkcji ilością wytworzonego produktu, a wielkością kosztu jednostkowego” [3]. Strategia przywództwa kosztowego, czyli wiodąca pozycja pod względem kosztów wymaga agresywnego inwestowania w urządzenia produkcyjne na efektywną skalę, energicznego dążenia do obniżania kosztów poprzez zdobywanie doświadczenia, ścisłą kontrolę kosztów bezpośrednich oraz ogólnych jak również unikanie klientów o marginalnym znaczeniu i minimalizację kosztów w takich dziedzinach jak B + R, obsługa posprzedażowe, reklama, zespół sprzedawców. Natomiast motywem przewodnim strategii przodownictwa kosztowego staje się niski koszt wytwarzania w porównaniu z konkurentami, jednak nie można pomijać jakości i poziomu obsługi klienta[7]. Nie każde przedsiębiorstwo jednak może pozwolić sobie na prowadzenie takiej strategii. Chcąc prowadzić taką strategię przedsiębiorstwo musi zajmować silną pozycję na rynku. Przy stosowaniu strategii niskich cen użyteczna jest koncepcja łańcucha kosztów, ukazująca miejsca powstawania kosztów w przedsiębiorstwie. W związku z działalnością podstawową przedsiębiorstwa wyróżnia się: • Koszty zakupu materiałów oraz komponentów zużywanych w procesie produkcyjnym. • Koszty operacji wytwórczych. • Koszty logistyki wyjściowej. • Koszty marketingu. • Koszty usług, serwisu i tym podobne. Podział w związku z działalnością pomocniczą jest następujący: • • • Koszty tworzenia i utrzymywania infrastruktury przedsiębiorstwa. Koszty gospodarki kadrowej. Koszty prac badawczo – rozwojowych. Aby uzyskać najkorzystniejszą pozycję konkurencyjną przedsiębiorstwo może przeprowadzić w ramach swojego łańcucha kosztów: • Alokacje zasobów, która zagwarantuje bardziej produktywne ich wykorzystanie, koncentrację zasobów na wyrobach, jednostkach organizacyjnych, funkcjach i rynkach przynoszących największy zysk. • Eliminację wyrobów, jednostek organizacyjnych, funkcji i rynków nie zapewniających efektywnego wykorzystania zasobów i nie ponoszących odpowiednio wysokiego zysku. W ten sposób przedsiębiorstwo zmniejsza zakres swojej działalności oraz zmniejsza koszty. Koncepcja łańcucha kosztów pomocna jest w obniżce nakładów, co stanowi podstawę konkurowania ceną[11, s. 19 - 20]. Przedsiębiorstwo, które stosuje strategię niskich cen może osiągać większe zyski niż jego konkurenci, którzy mają wyższy poziom kosztów i nie mogą znacznie obniżyć ceny. Pozostaje im rywalizacja między sobą. Osiągnięcie przywództwa kosztowego stanowi ochronę nie tylko przed rywalami, ale i przed siłami konkurencyjnymi. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 145 4. Podsumowanie Przywództwo kosztowe jest to osiągnięcie przez przedsiębiorstwo działające w danej gałęzi produkcji poziomu kosztów umożliwiających mu sprawowanie przywództwa i podjęcie jednej z wielu walk konkurencyjnej o miejsce na rynku. Przedsiębiorstwo, które cechują niskie koszty musi wyszukiwać i wykorzystywać każdą okazję, aby osiągnąć przewagę w tej sferze. Znaczenie mogą mieć tutaj zwłaszcza takie czynniki, jak: korzyści skali, pierwszorzędna technologia, dostęp do surowców, korzystna lokalizacja. Przedsiębiorstwa, które uzyskują przodownictwo mają w obrocie najważniejsze dla danego rynku towary, silnie rozbudowaną sieć dystrybucji i stosują zasadę różnicowania, tj. stwarzania czegoś, co w całym przemyśle jest uznawane za unikalne, czyli obsługa, serwis, jakość, styl, technologia itp. Przywódca w sferze kosztów jest w ciągłym napięciu związanym z koniecznością obrony swej pozycji. Musi on mieć dobre zaplecze inżynieryjno - techniczne, dobry dział zaopatrzenia i zbytu, musi też być przygotowany na pojawienie się innowacji i firm z niższymi kosztami[7]. Motywem przewodnim strategii przodownictwa kosztowego jest osiągnięcie niskich kosztów produkcji, ale należy przy tym pamiętać, aby klientom nie proponować produktów niższej jakości, a konkurować ze swoimi rywalami. Należy pamiętać, że strategia przywództwa kosztowego powinna oferować klientom akceptowalną przez nich jakość, przy ustaleniu niskiego poziomu cen wobec konkurentów[7]. 5. Literatura 1. 2. 3. Bartes F., Srzednicki A., 2003. Walka konkurencyjna. C. H. Beck, Warszawa, 60-61. Bielski I., 1998. Podstawy marketingu. TNOiK Toruń. Garbarski L., Rutkowski J., Wrzosek W., 2000. Punkt - zwrotny nowoczesnej firmy. PWE Warszawa, 127, 128-129. 4. Gierszewska G., Romanowska M. 2002. Analiza strategiczna przedsiębiorstwa. Polskie Wydawnictwo Ekonomiczne S. A. Warszawa. 5. Kochanowski J. 2003. Podstawy i zarządzanie marketingiem. Oficyna Wydawnicza Uniwersytetu Zielonogórskiego Zielona Góra, 145. 6. Pabian A., 2005. Marketing szkoły wyższej. Oficyna Wydawnicza ASPRA – JR Warszawa, 33. 7. Porter M. E., 1996. Strategie konkurencji. Metody analizy sektorów i konkurentów. Polskie Wydawnictwo Ekonomiczne Warszawa, 60. 8. Sznajder A., 1995. Strategie marketingowe na rynku międzynarodowym. Wydawnictwo Naukowe PWN Warszawa. 9. Thomas M. J., 1998. Podręcznik marketingu. Wydawnictwo Naukowe PWN, Warszawa, 240-242. 10. Wrzosek W., 1998. Funkcjonowanie rynku. Polskie Wydawnictwo Ekonomiczne Warszawa, 308-310. 11. Otta W. J., 1989. Strategia konkurencyjna. Przegląd Organizacji 1. 146 Karolina Woźnicka Strategia przodownictwa kosztowego w walce z konkurencją STRATEGY OF LEADING COST AGAINST COMPETITION Summary Strategies called cost strategies lead all the company’s action on one purpose, which is minimalization of the full cost. Cost strategies are based on the foundation that the best competitive position get those firms which have the lowest costs. Beside distinguish strategy and concentration strategy, there is leading cost strategy, which is one of basic three competition strategies developed in the end of the 70’s of XX century by M. E. Porter. Positions of the competitors and the company on the market are appointed by the product price. The company, which offer in this vange is the most attractive for the customer, will get the competitive superiority. In order to achieve and maintain the permanent competitive superiority in respect of the price, the company must occupy advantageous position in the sphere of cost. Keywords: competition, strategy of excellence costs Keywords: Strategy of Cost Leading, Competition KAROLINA WOŹNICKA ul. Ogrodowa 12 87 – 500 Rypin Województwo kujawsko - pomorskie e-mail: [email protected] tel. 608 88 54 37 POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 147 GRAŻYNA WÓJCIK Ministerstwo Finansów ZDZISŁAW SZYJEWSKI Instytut Informatyki w Zarządzaniu, Uniwersytet Szczeciński PRZEKSZTAŁCANIE WIEDZY UKRYTEJ W WIEDZĘ JAWNĄ Streszczenie Przekształcanie wiedzy ukrytej w jawną należy do jednego z najbardziej wrażliwych elementów występujących w problematyce zarządzania wiedzą ze względu na występowanie zagrożeń interesów jednostki w organizacji. Internalizacja (uczenie się) jest to przekształcanie wiedzy jawnej w ukrytą (wykorzystanie doświadczeń i know-how zdobytego przez innych). Przekształcenie wiedzy jawnej w ukrytą, to wszelkie procesy uczenia się z dokumentów, opisów, czy innych form jawnej prezentacji wiedzy. Dzięki zastosowaniu technologii informatycznych coraz więcej wiedzy ukrytej staje się wiedzą jawną i możliwą do stosowania przez pracowników firmy w szerszym niż dotychczas zakresie. Słowa kluczowe: zarządzanie wiedzą, wiedza jawna, wiedza ukryta, technologia informacyjna 1. Wprowadzenie Nowoczesna technologia informatyczna wykorzystywana jest do wspomagania procesów decyzyjnych w różnych obszarach aktywności. Dane zgromadzone na nośnikach komputerowych są przetwarzane i wykorzystywane do wspomagania podejmowanych decyzji. Wraz z zwiększającą się mocą obliczeniową komputerów, coraz pojemniejszymi pamięciami na nośnikach komputerowych, zwiększa się możliwość i zakres wspomagania. Dane podlegają strukturalizacji, poddawane są coraz bardziej złożonym przekształceniom algorytmicznym, aby sprostać wzrastającym wymaganiom użytkowników. Procedury operowania danymi pozwalają na efektywne wspomaganie prostych działań ewidencyjnych, wspomagają wybrane, najczęściej dobrze zalgorytmizowane procedury decyzyjne, ale nie można przekroczyć pewnej granicy dostępnej dla mózgu ludzkiego, polegającej na łatwym kojarzeniu i wartościowaniu informacji posiadanych w wyniku uczenia się i zdobywania doświadczeń życiowych. Możliwości są tym większe im więcej różnorodnych danych zostanie zgromadzonych i poddanych procesom przetwarzania w celu wypracowania najlepszej opcji decyzyjnej. Systemy ekspertowe, doradcze ograniczają się jedynie do wspomagania procesów dobrze strukturalizowanych i algorytmizowanych. Zapisane w systemach informatycznych reguły wnioskowania pozwalają na sugerowanie rozwiązań dla opisanych w tych systemach sytuacji. Niezależnie od przydatności takich rozwiązań i ich zakresu jest to zawsze skończona ilość możliwości, najczęściej mniejsza niż potrafi to zrealizować człowiek1. 1 Ciekawym przykładem takiej aktywności są zmagania szachistów z programami komputerowymi w grach człowieka z komputerem. 148 Grażyna Wójcik, Zdzisław Szyjewski Przekształcanie wiedzy ukrytej w wiedzę jawną Powstające coraz to nowsze rozwiązania informatyczne wykorzystujące wiedzę z obszaru genetyki, są próbą przekroczenia tej granicy. Stale doskonalone są metody gromadzenia danych i manipulowania danymi. Powstają coraz doskonalsze i bardziej pojemne nośniki pamięci komputerowych, pozwalające gromadzić na małej przestrzeni potężne ilości danych zapisanych w postaci multimedialnej. Wszystkie te działania podejmowane są w celu lepszego wspomagania działania człowieka w prowadzonych przez niego aktywnościach i chcielibyśmy przekraczać kolejne granice. Jednym ze sposobów na zwiększenie efektywności tych działań jest gromadzenie w pamięciach komputerowych i poddawanie procesom analizy nie tylko prostych danych, ale również innych aspektów istotnych w procesach decyzyjnych. Celowe staje się gromadzenie i analizowanie ukrytych aspektów podejmowanych decyzji. Graficznie obrazuje to rysunek 1. Dolna część rysunku pokazuje zakres domeny sprzętu komputerowego i systemów informatycznych. Na nośnikach komputerowych mogą być gromadzone surowe fakty, które w postaci danych zbierane są w systemach informatycznych w postaci bardziej lub mniej ustrukturalizowanej. Dane te mogą być samodzielnymi wielkościami, ale również możemy zapisywać związki i relacje pomiędzy nimi. Kiedy danym tym nadamy kontekst, to stanowi to informacje dla korzystających z nich ludzi. Przykładowo jeśli zapisana jest liczba 30, to nie jest to dla nas żadna informacja, gdyż może to być numer linii tramwajowej, może to być wartość jakiejś transakcji lub waga czegoś. W sytuacji jeśli wiemy, że jest to prognozowana temperatura na dzisiaj, to staje się to dla nas informacją. Wynikający z tego fakt, że jest gorąco i powinniśmy się lekko ubrać jest już wiedzą dostępną jedynie dla człowieka. Pewnym istotnym rozszerzeniem tych danych jest powiązanie tych informacji z miejscem, czyli lokalizacja geograficzna pobrana z systemu informacji geograficznej. Problematyka związania danych przechowywanych w bazach komputerowych z miejscem geograficznym jest obiektem badań naukowych [1]. Wiedza ta powstaje w kontekście przetworzenia posiadanej informacji w kontekście posiadanych doświadczeń i innej wiedzy, którą posiadamy na temat średnich temperatur w danej okolicy. Istnieje ograniczona możliwość zaszycia tak obszernej wiedzy kontekstowej w bazie wiedzy, ale zawsze będzie to jedynie skończona ilość wnioskowań z posiadanych informacji. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 149 Rysunek 1. Wiedza – określenie Źródło: [NONA00] Istnieje więc granica, gdzie kończą się możliwości technologii informatycznej a zaczyna się domena mózgu człowieka i jego sposobów wnioskowania. Granica początkowo postawiona bardzo nisko zaczyna być przesuwana coraz wyżej wraz z zwiększającymi się możliwościami technologii informatycznych. Wyzwaniem obecnych czasów jest próba dalszego przesunięcia granicy pomiędzy domeną komputerów i systemów informatycznych a ludźmi. Na rysunku 1 jest to nieostra granica pomiędzy wiedzą a informacjami, gdyż niektóre aspekty z zakresu wiedzy dają się zaszyć w systemy informatyczne i poprzez algorytmiczne metody wnioskowania pozyskujemy nową wiedzę. Aktualnym i istotnym problemem pozostaje przekształcanie wiedzy ukrytej w mózgu ludzkim i wykorzystywanej w procesach decyzyjnych do postaci jawnej, możliwej do zapamiętania i poddania przetwarzaniu w systemach informatycznych. 2. Postacie wiedzy i procesy jej konwersji Nonaka I. oraz Takeuchi H. [2] postulują występowanie wiedzy w dwóch postaciach: wiedzy ukrytej (ang. Tacit knowledge) i wiedzy jawnej, dostępnej (ang. Explicit knowledge). Odnosząc się do poprzedniego przykładu z daną 30 zinterpretowaną jako temperatura, wiedza ukryta pozwala na wnioskowanie z prognozowanej temperatury na wybór odpowiedniego sposobu ubrania i zachowania się w takiej sytuacji. Jeśli w jakichś dokumentach, instrukcjach byłoby zapisane, że w przypadku temperatury 30 stopni należy zakładać koszulę z krótkim rękawem to byłaby wiedza jawna. Ten prosty przykład nie oddaje wszystkich złożoności i zawiłości występowania wiedzy, ale pozwala na prostą interpretacje podziału wiedzy na ukrytą i jawną. Wiedzą jawną jest to, co zostało w jakiś sformalizowany sposób zapisany w systemach informatycznych i może być wykorzystane w procesach decyzyjnych w sposób bezpośredni lub poprzez znane algorytmy przekształcenia. W środowisku informatycznym mamy szansę na zetknięcie się jedynie z wiedzą jawną zapisaną w bardziej lub mniej złożonej postaci na nośnikach komputerowych [5]. Wiedza ukryta pozo- Grażyna Wójcik, Zdzisław Szyjewski Przekształcanie wiedzy ukrytej w wiedzę jawną 150 staje najczęściej w naszych głowach, często jest to wiedza zbiorowa powstająca w wyniku działań zespołów. Można zauważyć, że wiedzę nabywa się i weryfikuje na dwa zasadnicze sposoby: • Poprzez osobiste obserwacje, przemyślenia i indywidualnie przeprowadzane eksperymenty. W ten sposób nabywa się osobistej wiedzy faktograficznej. Taka wiedza, jakkolwiek wydaje się najbardziej pewna, posiada dość znaczne ryzyko niepewności i błędu, ze względu na swoją jednostkowość, niekompletność, możliwość poddania się iluzji lub autosugestii. • Poprzez przekaz od innych ludzi, czyli słuchanie innych ludzi, czytanie książek, przekaz radiowy, telewizyjny itp. Sam fakt, że nabyliśmy wiedzę poprzez przekaz jeszcze nie decyduje czy jest ona prawdziwa. Możemy być bowiem poddani świadomej lub nieświadomej manipulacji. Stąd wiedzę tę zwykle weryfikuje się poprzez zestawianie jej z własną wiedzą osobistą i/lub innymi źródłami wiedzy przekazywanej. Źródło wiedzy przekazywanej, które dana osoba uważa z dowolnych powodów za szczególnie wiarygodne nazywa się autorytetem. Autorytetem może być nie tylko konkretny człowiek, ale też określona książka lub instytucja. Siła oddziaływania autorytetu może być na tyle duża, że dana osoba przyjmuje wiedzę autorytetu za prawdę, nawet wbrew dotychczas zdobytej wiedzy osobistej. Podział na wiedzę faktyczną i rozumową wynika z kolei z jej stosunku do faktów: • Wiedza faktyczna, nazywana też często pierwotną jest tylko zbiorem faktów i niczym więcej. Wiedza taka stanowi podstawową bazę dla innych rodzajów wiedzy, ale sama w sobie jest właściwie nieprzydatna. • Wiedza rozumowa pochodzi z procesu rozumowania. Proces ten może obejmować analizę faktów, ale może również być rozumowaniem czystym, czyli całkowicie ignorującym wiedzę faktyczną. Zagadnienie poprawnego budowania wiedzy wtórnej z wiedzy pierwotnej, oraz wiarygodność wiedzy wtórnej pochodzącej z czystego rozumowania jest jednym z podstawowych zagadnień filozoficznych. Powstaje problem, jaki jest stosunek wiedzy jawnej do ukrytej? Czy jest możliwość przekształcenia wiedzy ukrytej w jawną? Jak można wreszcie zarządzać wiedzą z wykorzystaniem technologii informatycznych? Te pytania stają obecnie przed informatykami próbującymi przesuwać granicę nakreśloną na rysunku 1 pomiędzy wspomaganiem informatycznym zapisanych informacji a wiedzą wykorzystywaną w aktywności ludzkiej. Rysunek 2 obrazuje procesy konwersji wiedzy. Procesy przedstawione w postaci kwadratu przez profesora Nonaki, obrazują cztery sposoby konwersji wiedzy. Socjalizacja jest przekształcaniem wiedzy ukrytej w wiedzę ukrytą. Następuje to poprzez dzielenie się wiedzą ukrytą (wewnętrzną) w czasie wykonywania wspólnych czynności przez członków organizacji. Typowym przykładem jest znany powszechnie sposób praktyk zawodowych, gdzie osoba uczestnicząca w jakichś procesach zdobywa nowe umiejętności, jakie posiada mistrz wykonujący te czynności, czyli posiadający wiedzę ukrytą. Rzemiosło w ten sposób zdobywało następne kadry do podtrzymywania realizowanych aktywności gospodarczych. Konwersja wiedzy ukrytej w wiedzę ukrytą realizowana jest wszystkimi zmysłami dostępnymi człowiekowi i nie można tego ani zautomatyzować ani opisać, czy w jakikolwiek inny sposób przekazać z wykorzystaniem technologii informatycznej. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 151 Rysunek 2. Procesy konwersji Źródło: [NONA00] Eksternalizacja (uzewnętrznianie) jest działaniem mającym na celu przekształcenie wiedzy ukrytej w wiedzę jawną. Polega to na wyrażaniu wiedzy ukrytej w publicznie dostępnej i przyswajalnej postaci. Może to być zapis słowny opisujący jakieś określone działanie znane tylko posiadaczowi wiedzy ukrytej. Szczególnym przypadkiem może to być rysunek, czy zapis dźwiękowy. Tworzenie instrukcji postępowania w określonej sytuacji, czy obsługi jakiegoś urządzenia jest takim procesem. Wytworzenie dokumentacji czy szczegółowego opisu czy też oprogramowanie różnych postaci pomocy (helpów) w systemach informatycznych jest przekształcaniem wiedzy ukrytej, autorów rozwiązania informatycznego w wiedzę jawną wykorzystywaną przez użytkowników tego rozwiązania informatycznego. Kombinacja, klasyfikowanie jest przekształcaniem wiedzy jawnej w inną postać wiedzy jawnej. Realizowane jest to poprzez komunikację, rozpowszechnianie, systematyzację wiedzy jawnej. Tworzenie zestawień, klasyfikacji, porównań, tabel jest takim działaniem, które pozwala wiedzę opisaną zestawić z inną wiedzą opisaną, co daje nową wiedzę, która może być wykorzystana w nowych obszarach. Ten sposób konwersji wiedzy jest najlepiej wspomagany przez technologię informatyczną, gdyż wykorzystywana jest szybkość działania komputerów w dostępie do skodyfikowanej wiedzy jawnej i wyprowadzona jest nowa wiedza jawna w postaci wyników działania systemu informatycznego. Typowym przykładem takiego sposobu działania są wszelkiego typu systemy wyszukiwacze, od prostych wyszukiwań do złożonych wyszukiwań połączonych z mechanizmami wnioskowania. Grażyna Wójcik, Zdzisław Szyjewski Przekształcanie wiedzy ukrytej w wiedzę jawną 152 Internalizacja (uczenie się) jest to przekształcanie wiedzy jawnej w ukrytą (wykorzystanie doświadczeń i know-how zdobytego przez innych). Przekształcenie wiedzy jawnej w ukrytą, to wszelkie procesy uczenia się z dokumentów, opisów, czy innych form jawnej prezentacji wiedzy. Powstała w wyniku uczenia się wiedza może zostać spożytkowana w prosty sposób poprzez zwykłe odtworzenie lub wzbogacona o inwencje i posiadaną już wiedzę ukrytą. Opisane sposoby konwersji wiedzy mogą być wykonywane indywidualnie, czyli mamy do czynienia z zarządzaniem wiedzą przez pojedynczych użytkowników systemów informatycznych lub jest to realizowane w organizacjach gospodarczych. Szczególnie konwersja wiedzy organizacji jest obiektem zainteresowań z uwagi na silną konkurencję rynkową i stałe dążenie do doskonalenia organizacji. Wykorzystanie w tych procesach technologii informatycznych jest wielkim wyzwaniem dla informatyków. Dostępna technologia informatyczna i rozwój zastosowań informatyki pozwalają na efektywne wspomaganie tych procesów. Powstaje problem jak przekształcić wiedzę ukrytą w firmie i jej pracownikach w wiedzę jawną, która może być wykorzystana w procesach realizowanych w danej firmie. 3. Zarządzanie konfiguracją systemów informatycznych w Ministerstwie Finansów (MF) Zarządzanie konfiguracją jest procesem zarządzania, który ma zapewnić i utrzymać zgodność funkcjonalnych i fizycznych elementów produktu z jego wymaganiami, projektem i informacjami operacyjnymi. Ma ono miejsce w czasie istnienia Projektu. Konfiguracja składa się ze wszystkich elementów wymaganych do skutecznego opracowania i korzystania z systemu. Elementy te obejmują sprzęt, oprogramowanie, urządzenia, produkty związane z organizacyjną zmianą pracy, dokumentację. Zarządzanie zmianami w ramach systemu dokonuje się przez zarządzanie zmianami w ramach tych elementów. Zarządzanie konfiguracją dotyczy procedur, których celem jest zapewnienie, że elementy wchodzące w skład systemu są znane oraz że zmiany są dokonywane przez osoby uprawnione. Zarządzanie konfiguracją jest zarówno zarządzaniem, jak i dyscypliną techniczną, która obejmuje niemal wszystkie osoby w Projekcie, albo w sposób aktywny, jako wykonawców czynności związanych z zarządzaniem konfiguracją, albo pasywnie, jako otrzymujących informacje związane z zarządzaniem konfiguracją. Istotą zarządzania konfiguracją jest kontrola – ustalenie, co powinno być przedmiotem kontroli, kontrolowanie tego przez zarządzanie zmianą i funkcje kontroli konfiguracji, i wreszcie, zapewnienie, że procesy kontroli są przeprowadzane skutecznie. Zarządzanie konfiguracją obejmuje pojęcia wymienione poniżej: • Elementy poddane zarządzaniu konfiguracją – Elementy, które są bezpośrednio objęte przez system zarządzania konfiguracją i tym samym są częścią linii bazowych. Do tych elementów stosują się wszystkie aspekty zarządzania konfiguracją. Tymi elementami są: 1. Elementy dostaw; na wszystkich poziomach, od elementów konfiguracji aż do jednostek konfiguracji. 2. Odnośne dokumenty – Dokumenty, które definiują elementy i komponenty konfiguracji, takie jak wynegocjowane porozumienia, specyfikacje, wykresy, rysunki, kod oraz Wnioski Zmian. 3. Sprzęt i oprogramowanie "z półki". 4. Oprogramowanie rozwijane w ramach Projektu. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 153 • Dokumentacja dotycząca projektu, która nie zawiera się w liniach bazowych, również musi być zarządzana i kontrolowana. Te działania mają zapewnić, że zmiany dokonywane są w sposób zorganizowany oraz że wersja bieżąca jest zawsze znana i dostępna. Przykładami takich dokumentacji są Plan Jakości Projektu, plany projektu, standardy, itp. • Repozytoria – jedno lub więcej repozytoriów z kontrolą właściwego dostępu oraz procedurami dla tworzenia wersji zapasowych oraz odtwarzania danych. • Kontrola Wersji i Kontrola Budowy – Kontrola wersji zapewnia jednoznaczną identyfikację każdej wersji elementu konfiguracji i możliwość ponownego utworzenia jakiejkolwiek wersji. Kontrola budowy określa ważne kombinacje wersji komponentów. • Linie Bazowe – Są to zbiory określonych wersji elementów. Te zbiory są punktami odniesienia dla następującego potem zarządzania zmianami. • Kontrole Zmian – Są to kontrole, które zapewniają, że bez autoryzacji system nie odbiega od swoich linii bazowych oraz że system obejmuje wszystkie autoryzowane zmiany. Przeglądy zmian i proces akceptacji nie powinny być sztucznie biurokratyczne. • Kontrole Konfiguracji – Są to okresowe weryfikacje, czy zarządzanie konfiguracją dokonuje się prawidłowo. Zarządzanie konfiguracją obejmuje czynności związane z kontrolą archiwum Projektu. Ta kontrola zapewnia, że wersje są przechowywane, że historie zmian są utrzymywane, że bieżące wersje są ogólnie dostępne, oraz że nieaktualne wersje są oznaczone jako nieaktualne. Raportowanie statusu konfiguracji odpowiada na następujące pytania: co się stało?, kto to zrobił?, kiedy to się stało?, na co będzie to miało wpływ? W jego skład wchodzą następujące zadania: Śledzenie zmian stanu konfiguracji. Dokumentowanie zmian stanu konfiguracji. Przegląd konfiguracji ocenia elementy konfiguracji pod kątem cech charakterystycznych zwykle niebranych pod uwagę podczas przeglądu technicznego. Przegląd zadaje następujące pytania i udziela na nie odpowiedzi: • Jaki jest stan realizacji poszczególnych Wniosków Zmian? • Czy są przeprowadzane przeglądy nowo powstających elementów konfiguracji? • Czy standardy są przestrzegane? • Czy dokumentacja konfiguracji jest zgodna ze stanem faktycznym? Dokumentacja Projektu składa się z części elektronicznej oraz części papierowej. Administrowanie dokumentacją elektroniczną oraz papierową jest koordynowane przez Kierownika Projektu. Wskazane jest, aby dane Projektu były przechowywane elektronicznie na serwerze plików. Elektroniczne archiwum projektu obejmuje również płytotekę CD, zawierającą kopie dostaw w formie CD, oprogramowanie narzędziowe oraz inne dokumenty przekazywane na CD. Wszelkie oprogramowanie wyprodukowane w ramach Projektu powinno być zarządzane za pomocą narzędzia zarządzania konfiguracją (np. Microsoft Source Safe). Wszystkie wersje oprogramowania powinny być dostępne. Zarządzanie konfiguracją projektów informatycznych w MF wg metodyki PRINCE 2 Grażyna Wójcik, Zdzisław Szyjewski Przekształcanie wiedzy ukrytej w wiedzę jawną 154 Zarządzanie konfiguracją dostarcza techniki i procedury do wypełniania następujących funkcji: identyfikowanie poszczególnych elementów podlegających zarządzaniu, zwanych elementami konfiguracji, rejestrowanie, monitorowanie i raportowanie aktualnego stanu każdego elementu konfiguracji w miarę postępu jego rozwoju w określonym dla niego cyklu rozwoju, wypełnianie wszelkiej dokumentacji produktu, tworzonej w ciągu „życia” elementów konfiguracji w projekcie, dystrybuowanie kopii dokumentacji projektowej wszystkich elementów konfiguracji oraz rejestrowanie posiadaczy kopii, zarządzanie zagadnieniami projektowymi zgłoszonymi podczas realizacji projektu, zarządzanie zmianami dotyczącymi wszystkich elementów konfiguracji, od otrzymania zgłoszenia zagadnienia projektowego, poprzez ocenę skutków proponowanych zmian, aż do przekazania dokumentacji i samego produktu. Konfiguracja jest to logicznie powiązany zbiór produktów, które powinny być zarządzane jako jeden złożony zestaw. Konfigurację podlegającą zarządzaniu można określić zatem, jako sumę całego stosowanego wyposażenia, instrukcji, informacji i dokumentacji, które wspólnie reprezentują całość produktów lub produktów cząstkowych projektu. Sugerowana struktura gromadzenia dokumentacji według metodyki PRINCE 2 Tabela. 1. Sugerowana struktura gromadzenia dokumentów wg metodyki PRINCE 2 (Źr. [3]) DOKUMENTACJA Dokumentacja zarządcza Teczka projektu Organizacja Plany Uzasadnienie biznesowe Rejestr ryzyka Dokumenty dotyczące sterowania Lista kontrolna produktów Zagadnienia projektowe Rejestr zagadnień projektowych Rejestr nauczek z projektu Dokumentacja specjalistyczna Teczka (-i) etapu (ów) Organizacja Raport końcowy etapu Plany etapu zarządczego Raporty o odchyleniach Plany naprawcze Dokumenty sterowania Dziennik Korespondencja Lista kontrolna produktów Teczka jakości Plan jakości projektu Zapisy konfiguracji Produkty przeglądów jakości Rejestr jakości Charakterystyki produktów Zagadnienia projektowe Rejestr zagadnień realizacyjnych Dokumenty dotyczące produktów Korespondencja specjalistyczna POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 155 Zarządzanie konfiguracją jest funkcją usługową, pomagającą w zwiększaniu efektywności działań specjalistycznych i zarządczych. Skuteczność procesów zarządzania konfiguracją rośnie proporcjonalnie do stopnia, w jakim dyscyplina jest częścią codziennych działań wszystkich osób zaangażowanych w projekt. Zarządzanie konfiguracją projektów informatycznych w MF wg metodyki MaXXIme Zarządzanie konfiguracją jest zabezpieczeniem, że składniki systemów są znane, że zmiany są autoryzowane i że dokumentacja dokładnie opisuje system. Zarządzanie konfiguracją jest zarówno zarządzaniem, jak i techniczną obsługą powiązanych ze sobą w projekcie osób, albo czynnie powiązanych z zarządzaniem konfiguracją – jak wykonawcy, albo biernie – jak odbiorcy. Istotą zarządzania konfiguracją jest kontrola – po określeniu, jakie elementy powinny być kontrolowane, kontrolując te elementy przez zmianę zarządzania i kontrolę funkcjonalną konfiguracji, tworzy się okresowe raporty, które pokazują stan elementów pod kontrolą, a w efekcie końcowym dają pewność, że kontrola jest skuteczna. Zarządzanie konfiguracją utrzymuje i pokrywa się z działalnością odnoszącą się do dokumentacji i kontroli danych, która zapewnia, że wersje są archiwizowane, że zmiany historyczne są przechowywane, że aktualne wersje są rozsyłane do wszystkich miejsc użytkowania systemu i że przestarzałe wersje są usuwane z miejsc użytkowania systemu. 156 Grażyna Wójcik, Zdzisław Szyjewski Przekształcanie wiedzy ukrytej w wiedzę jawną Rysunek. 3. Zarządzanie konfiguracją wg metodyki MaXXIme (źr. [4]) Efektywne zarządzanie konfiguracją zapobiega sytuacjom, w których ostatnio dostarczone wersje lub dokumenty są nieznane albo niejasne. Zarządzanie konfiguracją kontroluje zabezpieczenie ważnych wskaźników dostaw i ryzyka zarządzania danymi. Na przykład: Liczba i wielkość składników są ostro sprawdzane przy śledzeniu rozwoju implementacji. Wskaźniki i trendy zgłoszonych problemów, zatwierdzenie zmian i kontrola części nadrzędnych dają wgląd do stabilności systemu. Typy zgłoszonych problemów i powiększenia wymagań dają wgląd do terminów płatności. POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 157 Nie zaplanowana wysoka albo niska koncentracja zgłoszonych problemów flag składników, które mogą wymagać zmian w źródłach lub dostępie danych. W systemach informatycznych przechowywane są dane. Odpowiednio przetworzone dane stają się informacją. Z kolei przetworzona informacja staje się wiedzą. A więc z surowych danych możemy uzyskać informacje, wreszcie z informacji, poprzez wykorzystanie ludzkiego doświadczenia i intuicji możemy otrzymać wiedzę. Przy odpowiednim zorganizowaniu struktury organizacyjnej, wyznaczeniu wspólnych repozytoriów, miejsc składowania i przetwarzania informacji o wykonywanych projektach, zdecydowanie zmniejsza się ryzyko ponownego odkrywania Ameryki. Dużą pomoc w tej sytuacji mogą stanowić korporacyjne portale zarządzania wiedzą, integrujące systemy składowania dokumentów, zarządzania procesem publikacji (w tym zatwierdzania nowych dokumentów przez osoby znające ogólnie sytuację we wszystkich projektach – w celu uniknięcia duplikowania się zadań), komunikacyjne i inne. Produktów, które oferują takie możliwości, lub mogą być w prosty sposób przystosowane do wypełnienia powyższych zadań jest wiele. Są to produkty zarówno darmowe (oparte na licencjach GPL) jak również i komercyjne (np. system SharePoint Portal Server). 4. Podsumowanie Wykorzystanie technologii informatycznych a w szczególności technologii internetowej otwiera zupełnie nowe możliwości wynikające z globalizacji i nowych kanałów informacyjnych. Podnoszenie poziomu wiedzy jawnej wśród pracowników, zamiana rozproszonej wiedzy jawnej na skodyfikowaną wiedzę jawną w połączeniu z zaszyciem jej w systemy informatyczne daje nowe efekty. Szerokie stosowanie wiedzy jawnej i ukrytej w połączeniu z metodami wyzwalania inwencji pracowników pozwala na uzyskiwanie przewagi konkurencyjnej. Obszary wykorzystywania wiedzy są ściśle związane z możliwościami technologii. Nowoczesne technologie komunikacyjne a w szczególności Internet i techniki multimedialne pozwalają na realizacje zadań wcześniej nieosiągalnych. Szybkość komputerów, duże zasoby pamięciowe pozwalające na zapamiętanie masywu danych, stwarzają nowe szanse biznesowe. Metody szybkiego wyszukiwania w komputerowych bazach danych, pozwalają na stosowanie efektywnych metod wnioskowania. Dzięki zastosowaniu technologii informatycznych coraz więcej wiedzy ukrytej staje się wiedzą jawną i możliwą do stosowania przez pracowników firmy w szerszym niż dotychczas zakresie. Sprawne metody zarządzania wiedzą jawną zwiększają konkurencyjność organizacji i gwarantują jej przewagę konkurencyjną na rynku. 5. Spis literatury 1. 2. 3. 4. Laska M., 2005. Zastosowanie systemów informacji przestrzennej w zarządzaniu przedsiębiorstwem. Praca doktorska, Akademia Ekonomiczna we Wrocławiu Wrocław. Nonaka I., Takeuchi H., 2000. Kreowanie Wiedzy w Organizacji. Polska Fundacja Promocji Kadr Warszawa. Bradley K. 2002. Podstawy Metodyki PRINCE 2. Wydawca wydania polskiego: Centrum Rozwiązań Menedżerskich S.A. Warszawa. The Project Support Office (PSO) of Unit A1 (Information Technology) of Directorate– General XXI (Customs and Indirect Taxation) MaXXIme Version 2.0, 2002. System Development Techniques Configuration Management. PSO MDB Brussels Belgium. Grażyna Wójcik, Zdzisław Szyjewski Przekształcanie wiedzy ukrytej w wiedzę jawną 158 5. 6. 7. Szyjewski Z., 2005. Zarządzanie wiedzą jawną w Problemy zarządzania 1(7) Informatyka w zarządzaniu, Wydział Zarządzania Uniwersytetu Warszawskiego, Warszawa. Szyjewski Z., 2004. Metodyki Zarządzania Projektami Informatycznymi. Wydawnictwo Placet Warszawa. Szyjewski Z., 2001. Zarządzanie Projektami Informatycznymi. Metodyka Tworzenia Systemów Informatycznych. Czynniki Sukcesu Wymiarowanie Projektu, Agencja Wydawnicza Placet Warszawa. TRANSFORMATION OF IMPLICIT KNOWLEDGE INTO EXPLICIT KNOWLEDGE Summary Transformation of implicit knowledge into explicit one belongs to a one of the most sensitive elements occurring in Knowledge Management Problems because of occurrence of threats of personal interest in organization. Internalization (selflearning) is a transformation of explicit knowledge to implicit one (a usage of experiences and know-how got by others). A transformation of explicit knowledge into implicit one include all processes of learning from documents, descriptions or other forms of explicit presentation of knowledge. Thanks application of Information Technology more and more implicit knowledge becomes explicit knowledge, so its’ wider application is more possible by workers of enterprise than up to now. Keywords: Knowledge Management, Explicit Knowledge, Implicit Knowledge, Information Technology GRAŻYNA WÓJCIK Ministerstwo Finansów 00-916 Warszawa, ul. Świętokrzyska 12 [email protected] ZDZISŁAW SZYJEWSKI Instytut Informatyki w Zarządzaniu, Uniwersytet Szczeciński 71-101 Szczecin, ul. Mickiewicza 64 [email protected]. szczecin.pl POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 159 ZYGMUNT ZYGMUNTOWICZ Akademia Techniczno-Rolnicza w Bydgoszczy TWORZENIE BAZ WIEDZY DLA WYCENY DÓBR NIERYNKOWYCH W ASPEKCIE OKREŚLANIA WARTOŚCI RYNKOWEJ NIERUCHOMOŚCI Streszczenie Gospodarowanie przestrzenią jako dobrem rzadkim winno być połączone z realizacją ekopolityki. Wartość rynkowa stanowi jedną z najważniejszych przejawów wartości. Rozważania ograniczono do dóbr ekonomicznych, czyli takich, które występują w ograniczonej ilości w odróżnieniu od dóbr nierynkowych. Czynniki materialne są istotne, ale mogą zostać zdeterminowane przez wpływ czynników pozostałych (nierynkowych). Wartość zmienia się, gdy czynniki determinujące jej poziom ulegają zmianie. W zaproponowanym artykule przedstawiono próbę zmian w metodyce określania wartości rynkowej nieruchomości poprzez rozszerzenie jej o wpływy oddziaływania na wartość dóbr nierynkowych. Oddziaływania te wnoszą nowe elementy i zmieniają istniejące w nim współzależności oraz bazę wiedzy w tym zakresie. Tworzą jej nową jakość, która wymaga nowego zarządzania i wyceny dóbr środowiska. Słowa Kluczowe: bazy danych, metodyka wyceny nieruchomości, wartość rynkowa, wartość dóbr nierynkowych 1. Wprowadzenie Problematyka wyceny wartości nieruchomości (podobnie jak i wyceny przedsiębiorstw) w krajach o gospodarce rynkowej jest zaliczana do „królewskich dyscyplin” wśród nauk ekonomicznych. Potrzeba wyceny nieruchomości pojawia się w wielu przypadkach, takich jak: transakcje kupna - sprzedaży, darowizny, postępowanie spadkowe, odszkodowawcze, fuzje i podział majątku, emisja papierów wartościowych, zmiany w stanie zasobów majątkowych itp. Zapotrzebowanie na wycenę nieruchomości wynika zarówno z funkcji właścicielskich, zarządczych, jak i kontrolnych. Rośnie w miarę nasilania się zjawiska oderwania własności nieruchomości od użytkownika, zarządzania i kontroli oraz pojawiania się nowych form inwestowania. Wzrost roli wyceny nieruchomości i wiedzy na ten temat wynika ze zmian ustrojowych w Polsce i przejścia na model gospodarki rynkowej. Wycena nieruchomości jest dokonywana przy wykorzystaniu określonych w praktyce narzędzi ekonomicznych. Mimo to, wiele zagadnień w procesie wyceny nieruchomości budzi emocje i kontrowersje. Kontrowersje występują nawet w krajach o długich tradycjach rynkowych i bogatym doświadczeniu w zakresie wycen, a przy tym dysponujących rozwiniętym rynku kapitałowym. Wynika to zarówno ze złożoności tej problematyki, jak i specyfiki kategorii nieruchomości. Złożoność ta sprawia, że nie może być mowy o jednej, jedynie słusznej wycenie nieruchomości. O wartości nieruchomości decydują bowiem nie tylko jej cechy materialne, ale także zdolność do generowania dochodów, co z kolei wiąże się z otoczeniem rynkowym. Wartość nieruchomości jako podstawy sporządzania prognozy skutków finansowych uchwalanych planów miejscowych może odby- 160 Zygmunt Zygmuntowicz Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej nieruchomości wać się w oparciu o analizę rynku nieruchomości przy wykorzystaniu ogólnych założeń podejść, metod i technik znanych w teorii wyceny. Ponieważ przedmiotem szacowania dla tych celów będą nieruchomości, zatem znane metody wymagają ich dostosowania, a pewne pojęcia usystematyzowania. Zachodzi potrzeba doskonalenia metodyki określania wartości rynkowej nieruchomości poprzez kreowanie, doskonalenie umiejętności, poszerzanie bazy wiedzy powiązanej z oszacowaniem wartości dóbr środowiskowych. 2. Dobra nierynkowe a środowisko Gospodarowanie przestrzenią jako dobrem rzadkim winno być połączone z realizacją ekopolityki. Zasadność ekopolityki jest dość powszechnie uznawana, jednakże praktyczna realizacja zasad napotyka wiele trudności. Należą do nich przede wszystkim ograniczone zasoby gospodarcze. Realizacja ekopolityki wpływa na postulaty do planu przestrzennego zagospodarowania oraz powiązania z szeroko pojmowaną racjonalnością społeczno – gospodarczą. Uspołecznienie planowania przestrzennego winno zmuszać do zapewnienia ludziom przynajmniej minimalnej przestrzeni jednostkowej oraz szerokiego dostępu do przestrzeni publicznej. Wiadomo, że środowisko nie istnieje poza przestrzenią. Rzadkość dóbr środowiskowych oznacza, że użytkownicy muszą o nie konkurować. Elementy środowiska są współzależnie powiązane złożoną siecią wzajemnych oddziaływań. Zasoby środowiska pełnią trzy funkcje: podtrzymują ekosystemy, są ujemnymi nakładami w procesach produkcyjnych (odbiornikami zanieczyszczeń), dostarczają dóbr i usług, które są bezpośrednio konsumowane (czyste powietrze do oddychania, woda na użytek gospodarstw, pozyskiwanie drewna w lasach, możliwość rekreacji na naturalnych obszarach itp.). Funkcje te wraz z innymi dobrami i usługami ekonomicznymi wpływają bezpośrednio lub pośrednio, w sposób negatywny lub pozytywny, na dobrobyt społeczny. Funkcje środowiska, a także zasoby, które je pełnią są dobrami lub usługami ekonomicznymi, ponieważ w nowoczesnym społeczeństwie nie są one dobrami wolnymi. Dostarczanie, utrzymanie i zachowanie tych dóbr oznacza rezygnację z produkcji jakichś alternatywnych dóbr i usług. Dobra i usługi środowiska nie wiążą się z transakcjami rynkowymi i nie istnieją dla nich rynkowo określone miary wartości (ceny). Stąd w teorii ekonomii takie dobra nazywane są dobrami nierynkowymi oraz dobrami publicznymi. Rynkowe metody wyceny korzyści dzieli się na dwie grupy: metody oparte na obserwacji, tj. pośrednie oraz na metody hipotetyczne, tj. bezpośrednie. Metody pośrednie służą do określania ukrytej wartości dóbr nierynkowych na podstawie obserwowanych i determinowanych przez rynek cen dóbr i usług rynkowych. Należą tu metody: kosztów podróży, cen hedonicznych, płac hedonicznych, kosztów choroby, funkcji produkcji gospodarstwa domowego, funkcji produkcji zdrowia. Metody bezpośrednie służą do szacowania wartości oraz popytu na usługi środowiska. Świadomość ekologiczna decyduje o wartościowaniu przez człowieka świata przyrody, kształtuje myślenie ekologiczne i tzw. moralny charakter rozwoju ekonomicznego, który jest zgodny z zasadami dobra wspólnego, odpowiedzialności i solidarności, w którym stosuje się metody i instrumenty łagodzące napięcia między ekonomią a zachowaniem zdrowego środowiska, przemieniając je we współdziałanie. Moralny charakter rozwoju wymaga innego spojrzenia na zjawiska i procesy gospodarcze. Nie mogą one i nie powinny być sprowadzone do rozwoju dynamiki fizycznej strony procesu reprodukcji, lecz wzbogacania jakości życia obecnych i przyszłych pokoleń. Koncepcja rozwoju POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 161 musi więc mieć charakter wielowymiarowy: programować zmiany w gospodarce, spełniając wymogi innowacyjności. Ekonomiczne aspekty określenia wartości rynkowej nieruchomości budzą kontrowersje. Mimo, że posługują się one skomplikowanymi podejściami, metodami i technikami wyceny – z modelami komputerowymi i specjalnymi matrycami do badań – coraz mniej można powiedzieć o tym, jaka naprawdę jest wartość rynkowa nieruchomości w chwili obecnej. Oznacza to, że powinno się dostosowywać strategię wyceny do lokalnych potrzeb z zachowaniem lokalnego rynku nieruchomości. Życie jest w coraz większym stopniu warunkowane przez wydarzenia globalne. Globalną współzależność trafnie oddaje określenie: what happens there matters here (co się dzieje tam, ma znaczenie tutaj). Podobnie jest w gospodarce, procesy wyceny wnoszą do niej nowe elementy i zmieniają istniejące w niej współzależności. Tworzy się jej nowa jakość, która wymaga nowego zarządzania i wyceny dóbr środowiska. Jest wysoce nieprawdopodobne, aby za pomocą praktycznych rachunków, dokonywania kalkulacji obserwowanych strat wykonywanych często dyskusyjnych wskaźników, można było pokusić się o wyrażenie w pieniądzu wartości nienaruszonego ekosystemu, wycenić wyjątkowo piękny krajobraz lub biologiczną różnorodność rzadkiego gatunku. Dlatego też metody bezpośredniej wyceny środowiska, przede wszystkim metoda wyceny warunkowej, mają ogromne znaczenie dla rozwoju badań nad wyceną dóbr środowiska. Zasoby te obejmują powietrze, śródlądowe wody powierzchniowe i podziemne, lasy, unikatowe krajobrazy, naturalne bagna itp. Wydaje się uzasadnione aby tworzyć dziedzinowe bazy wiedzy gromadzące opracowane wyceny oraz kryteria decydujące o przyznaniu określonego poziomu wartości tego typu dóbr. 3. Metody wyceny dóbr nierynkowych Jeden z dość akceptowanych podziałów metod wyceny korzyści dzieli je na metody oparte na obserwacji, tj. pośrednie, i na hipoteczne, bezpośrednie metody wyceny. Za pomocą metod z pierwszej grupy można w sposób pośredni wnioskować o ukrytej wartości dóbr nierynkowych na podstawie obserwowalnych, determinowanych przez rynek cen dóbr rynkowych. Druga grupa metod z kolei jest nastawiona na szacowanie wartości oraz popytu na usługi środowiska w sposób bezpośredni, poprzez wywiady z konsumentami, przy czym w celu zdobycia informacji o wycenie od osób czy gospodarstw domowych stosuje się kwestionariusze. Ekonomiści mają tendencję do zawierzania bardziej wycenie dostarczanej przez rynek, a konkretnie cenom wynikającym z zależności pomiędzy zdecentralizowanymi siłami podaży i popytu. Przy braku interwencji rządu takie ceny zdeterminowane przez rynek są uważane za obiektywne i realne w tym sensie, że są odbiciem prawdziwej wyceny konsumentów. Co prawda popyt, a więc i ceny rynkowe są także poddawane manipulacji przez zainteresowane podmioty np. za pomocą wszelkiego rodzaju reklam i dlatego niekoniecznie wyrażają preferencje konsumentów. Preferencje te nie są jednak ujawniane w sztucznych warunkach, tak jak ma to miejsce w przypadku niektórych podejść bezpośrednich stosowanych przy wycenie usług środowiska. Podejście opierające się na obserwacji, inaczej – pośrednie, zakłada, że istnieje konkretny związek pomiędzy popytem na dobro a podażą dobra środowiskowego. Konsumpcja dóbr rynkowych ma być w jakiś sposób powiązana z poziomem podaży dóbr środowiskowych. Wychodząc z tego założenia, wartość dobra nierynkowego otrzymuje się przez zebranie danych o tym, jak zmienia się popyt na dobro rynkowe przy zmianach w dostępności (jakości) dóbr środowiska. Na przykład: jakość powietrza lub hałas mogą wpływać na ceny nieruchomości. Oczekuje się, że lepsza jakość powietrza lub mniejszy hałas będą połączone z wyższymi cenami posiadłości w czystszej czy spokojniejszej 162 Zygmunt Zygmuntowicz Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej nieruchomości okolicy. Wpływ zanieczyszczenia na zdrowie może oddziaływać na popyt na usługi medyczne (np. wizyty lekarskie, zakup leków, hospitalizację). Skala i kierunek dających się zaobserwować zmian w popycie pozwalają ekonomistom, przy zastosowaniu różnych technik ekonometrycznych, na oszacowanie wartości dla dóbr środowiskowych. Zapotrzebowanie na dobro będzie wyższe niezależnie od ceny, gdyż lepsza jakość wywołuje dodatkowy popyt na dobro. W artykule zaprezentowano przegląd (ale bez szczegółów technicznych) głównych metod pośrednich stosowanych w celu ustalenia cen szkód wywołanych degradacją środowiska (lub wręcz przeciwnie, w celu wyceny korzyści wynikających ze wzrostu jakości usług lub dobra środowiska). Poza tym, ze względu na związek z powyższym zagadnieniem, przedstawione są tu także niektóre z metod stosowanych do wyceny redukcji ryzyka śmiertelności (często określane jako wartość ludzkiego życia lub wartość długowieczności), związanej z poprawą jakości środowiska. W związku z brakiem możliwości ustalenia rynkowej ceny środowiska, jego wartość może być określona na podstawie dóbr zastępczych, którymi są wartość nieruchomości oraz praca człowieka. Metoda polega na obserwowaniu różnic cen nieruchomości między regionami i określeniu wpływu jakości środowiska na ich kształtowanie się. Zależność pomiędzy cennością ekologiczną dóbr nierynkowych a wartością ekonomiczną rozpatrywać można w sytuacjach: - gdy nie są zgodne co do wzrostu (wzrost wartości jednej z nich powoduje spadek wartości drugiej), - gdy są zgodne co do wzrostu (wartość jednej z nich powoduje wzrost wartości drugiej). Ustalenie zależności pomiędzy wartością nieruchomości a zmiennymi charakteryzującymi jakość środowiska jest tylko częścią czynności do ustalenia ceny. Istnieje wiele przyczyn wpływających na wartość budynków i gruntów. Stosując metody statystyczne, możemy spośród wielu zmiennych wyodrębnić tę jedną, która wskaże nam, jaki jest wpływ warunków środowiska na nieruchomości. Przyjmując pewne dodatkowe założenia, cenę tę możemy traktować jako miarę wartości, którą ludzie gotowi są płacić za jakość środowiska. 4. Wpływ czynników infrastruktury ekologicznej na wartość rynkową nieruchomości Okazuje się, że na wartość nieruchomości wpływają czynniki wykraczające poza cechy samej nieruchomości. Czynniki prawne, ekonomiczne i środowiskowe tworzą tło wyceny, które mogą zdecydować o poziomie wartości. Na gruncie ekonomii „wartość” stanowi jedną z najważniejszych, ale i najtrudniejszych kategorii. W praktyce gospodarczej występują różne postaci wartości. Do najczęściej rozważanych należą: • wartość rynkowa • wartość wymienna • wartość użytkowa Inne postaci przejawów wartości to m.in.: • • • • wartość kosztowa wartość likwidacyjna wartość księgowa wartość taksacyjna POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 163 Przejawem wartości możemy oznaczyć zdolność danego dobra do zaspokojenia potrzeb człowieka. Pod pojęciem dobra rozumiemy zarówno dobra materialne, czyli przedmioty, takie jak: dom, mieszkanie, czy usługi. Rozważania nie ograniczono do dóbr ekonomicznych, czyli takich, które występują w ograniczonej ilości, lecz również do dóbr wolnych. Dobra służą do zaspokojenia potrzeb ludzkich. Potrzeby ludzkie są różnorodne. Można wyróżnić potrzeby biologiczne, których zaspokojenie jest niezbędne do życia, potrzeby kulturowe, czy potrzeby wyższego rzędu, które stanowią wyraz rozwoju cywilizacyjnego społeczeństwa. Warunkiem powstania rynku jest wystąpienie wielu nabywców, sprzedawców i dóbr. Wśród uczestników rynku wytwarza się konkurencja o dobra występujące na rynku w niewystarczającej ilości. Dyskusja tocząca się wokół definicji wartości rynkowej na forum międzynarodowym ujawniła kilka elementów kontrowersyjnych. Pomimo tych różnic, interpretacja wartości rynkowej w Polsce musi być zgodna z interpretacją na forum europejskim i na forum światowym. Oznacza to, że „najbardziej prawdopodobna cena” czy „przewidywana cena”, to szacunkowa kwota, za jaką najczęściej dokonywane są transakcje na rynku dotyczące określonego typu nieruchomości. Jest to cena zbliżona do uzyskanej przez sprzedawcę i najbardziej korzystna dla nabywcy. Interpretacja wartości rynkowej jako ceny możliwej do uzyskania dowodzi, że wartość nieruchomości jest szacunkiem kwoty pieniężnej, jaką można uzyskać za nieruchomość. Jest to hipoteza ceny, a nie założona z góry, czy rzeczywista cena sprzedaży. W wielu krajach, dla ściśle wskazanych celów, ustawodawca precyzuje własną definicję prawną wartości rynkowej nieruchomości. Przyjmując inne kryteria, można wyróżnić potrzeby indywidualne, odczuwane przez konkretne jednostki i potrzeby zbiorowe, odczuwane przez całą zbiorowość społeczną. Dobro posiada wartość użytkową bez względu na to, czy uświadamiamy sobie jego występowanie, czy nie. Potrzeby ludzkie są nie tylko różnorodne, ale są również zmienne. Zmieniają się one wraz ze zmianą potrzeb, ale również wraz ze zmianą cech danego dobra, posiadają charakter dynamiczny. Można postawić hipotezę, czy dobra, które nie odznaczają się: • użytecznością, • rzadkością, • dostępnością (zdolnością do wymiany), • efektywnym popytem na usługi lub korzyści jakie niesie posiadanie dobra, • osadzeniem dobra w warunkach prawa i porządku, tak aby osoby inwestujące w te dobra nie ponosiły strat z tytułu prawnej czy politycznej niepewności posiadają wartość rynkową. Warto przyjrzeć się tym cechom i ocenić ich wpływ na dobra wolne. Są one odróżnione od konwencjonalnych dóbr i usług na takiej zasadzie, ale ich używanie nie zawsze jest połączone z transakcjami rynkowymi. Dlatego przedstawia się je jako dobra nierynkowe lub dobra wolne. W takiej sytuacji nie istnieją bodźce rynkowe, które pokrywają koszty dostarczenia dobra. Rola poszczególnych czynników jest różna nie tylko w odniesieniu do poszczególnych rodzajów nieruchomości, ale jest również zmienna, np. wzrastająca rola czynników środowiskowych powoduje wzrost wrażliwości rynku na ekonomiczne konsekwencje stwierdzonego lub spodziewanego występowania np. substancji toksycznych, skażenia gruntu oraz związanych z nimi potencjalnych lub faktycznych zobowiązań prawnych. W obszarze tej grupy czynników istotnego znaczenia nabierają elementy infrastruktury ekologicznej: - uciążliwość środków komunikacji, - bliskie sąsiedztwo uciążliwych zakładów przemysłowych, - poziom bezpieczeństwa mieszkańców, 164 - Zygmunt Zygmuntowicz Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej nieruchomości niski status majątkowy mieszkańców, zła nawierzchnia dróg, uciążliwe zapachy z wysypisk śmieci lub oczyszczalni ścieków, bliskie sąsiedztwo szkół publicznych oraz domów z chorymi wysokiego ryzyka, sąsiedztwo supermarketów lub dużych hurtowni, sąsiedztwo dyskotek i klubów rozrywkowych, zjawiska o podłożu naturalnym, takie jak występowanie radonu lub metanu, hałas, wibracje i zanieczyszczenie powietrza, - czynniki powodujące skażenie chemiczne, wynikające z procesów zachodzących obecnie i w przeszłości na danym terenie lub docierające z terenów przyległych, - czynniki postrzegane jako szkodliwe, np. pole elektromagnetyczne, - szczególne preferencje inwestorów wobec pewnych elementów konstrukcyjnych, np. produktów nadających się do ponownego przetwarzania. Cechy materialne są istotne dla określenia wartości rynkowej, ale mogą zostać zdeterminowane przez wpływ czynników środowiskowych, obejmujące sytuację demograficzną regionu czy kraju, wielkość rodziny, styl życia, modę, przyzwyczajenia, a także otoczenie nieruchomości, a więc dostępność usług, centrów handlowych i produkcyjnych, okolice, sąsiedztwo oraz stopień skażenia środowiska. Wartość nie tkwi więc w istocie danego dobra, jest ona tworzona w umysłach uczestników rynku. Zależności, te tworzą wartość i mają charakter złożony. Wartość zmienia się, jeżeli czynniki determinujące jej poziom ulegają zmianie. Wartość nieruchomości jest tą kategorią, której nie można uzyskać w wyniku bezpośredniego pomiaru, lecz jej szacowanie zaczyna się od obserwacji zachowań ludzkich na rynku. Poziom wartości nieruchomości kształtują różnorodne czynniki nie zawsze związane z ich cechami fizycznymi. Duża różnorodność tych czynników oraz zmienność ich oddziaływania sprawia, że trudno opracować uniwersalną formułę opisującą zmienność wartości, a nawet pełną listę czynników wpływających na wartość rynkową nieruchomości. Uwarunkowania infrastruktury ekologicznej wprowadzają nowe urządzenia, modele i procedury do monitorowania infrastruktury ekologicznej oraz tworzenia spójności wyceny nieruchomości, co wydaje się niezwykle ważnym zagadnieniem. Wiele problemów natury metodologicznej w przedstawionym artykule ma bardzo złożony charakter i nie wskazuje na to, że zostaną one w najbliższej przyszłości definitywnie rozwiązane. W związku z tym zaproponowane metody wyceny wartości rynkowej dóbr nierynkowych nie należy postrzegać jako rozwiązania, lecz jako poszerzenie bazy wiedzy, które wymagają dalszej dyskusji. Niektóre procedury mają charakter półśrodków. Moglibyśmy mieć większe zaufanie do znanych metod, gdyby wszystkie zasoby środowiska oraz efekty ludzkiej działalności dawały się przedstawić w kategoriach ekonomicznych. Wartość nieruchomości jako cecha przestrzeni planistycznej odnosi się do aktualnego i przyszłego przeznaczenia terenu, co ma znaczący wpływ na skutki finansowe uchwalania planu miejscowego. Realność oszacowania zależeć będzie również od uwzględnienia m.in. wpływu czynników infrastruktury ekologicznej. Takie podejście do ochrony środowiska będzie musiało cechować odejście od traktowania ochrony środowiska wyłącznie w kategoriach kosztów, a więc bariery dla rozwijania swej działalności, na rzecz jej projektowania jako instrumentu promocji swych wyrobów i swego wizerunku w otoczeniu. Budowa strategii ekologicznej oraz utrzymanie najlepszych stosunków z otoczeniem może zapewnić sukces na rynku oraz zaufanie i sympatię społeczeństwa, zaś państwo będzie wy- POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 165 muszać ich zachowanie proekologiczne w prawnych uregulowaniach, mających wpływ na proces określania wartości rynkowej nieruchomości. 5. Podsumowanie Wartość nieruchomości jako cecha przestrzeni planistycznej odnosi się do aktualnego i przyszłego przeznaczenia terenu, co ma znaczący wpływ na skutki finansowe uchwalania planu miejscowego. W związku z tym zaproponowane metody wyceny wartości rynkowej dóbr nierynkowych nie należy postrzegać jako rozwiązania, lecz jako poszerzenie bazy wiedzy, które wymagają dalszej dyskusji. Niektóre procedury mają charakter półśrodków. Moglibyśmy mieć większe zaufanie do znanych metod, gdyby wszystkie zasoby środowiska oraz efekty ludzkiej działalności dawały się przedstawić w kategoriach ekonomicznych. Budowa strategii ekologicznej oraz utrzymanie najlepszych stosunków z otoczeniem może zapewnić sukces na rynku oraz zaufanie i sympatię społeczeństwa, zaś państwo będzie wymuszać ich zachowanie proekologiczne w prawnych uregulowaniach, mających wpływ na proces określania wartości rynkowej nieruchomości. Na określenie wartości nieruchomości wpływają czynniki wykraczające poza cechy samej nieruchomości. Wartość rynkowa wpływu czynników środowiskowych tkwi w istocie danego dobra i jest tworzona w umysłach uczestników rynku. Zależności, które tworzą wartość mają charakter złożony i winny być w tym zakresie uwzględniane przy określaniu wartości rynkowej nieruchomości. 6. Literatura 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. Champness P., 1997. Approved Europen Property Valuation Standards. Commissioned by TEGOVA, The European Group of Valuers Associations. Cymerman R. (pod red.), 2000. Wycena środowiska a ochrona środowiska. Wyd. Educaterra Sp. z o.o. Olsztyn. Domański R., 1983. Gospodarka przestrzenna. Wyd. PWN Warszawa. Łaguna T. M., 1998. Wycena nieruchomości i gospodarstw rolnych. Wyd. Zachodnie Centrum Organizacji. Olsztyn – Zielona Góra. Łojewski S., 2002. Metody analizy ekonomicznej w ocenie środowiskowej systemów przestrzennych. Materiały pokonferencyjne z cyklu Instrumenty Zarządzania Ochroną Środowiska. Kucharska – Stasiak E., 2001. Wartość rynkowa nieruchomości. Twigger Warszawa. Mączyńska E., Prystupa M., Rygiel K., 2004. Ile jest warta nieruchomość? Wyd. Poltext Warszawa. Penc J., 2003. Zarządzanie w warunkach globalizacji. Wyd. Delfin Sp. z o.o. Warszawa. Stacewicz J. 1998. Racjonalność gospodarowania a współczesne wyznania rozwojowe. PWE Warszawa. Stoner A.F. , Freeman R.E., Gilbert D.R., 1997. Kierowanie. PWE Warszawa. Wiliams W.L. Ventolo, 1994. Fundamentals of Real Estate Approvisal. Real Estate Approvisal, Real Estate Education Company. Winpenny Jamest T., 1995. Wartość środowiska. Metody wyceny ekonomicznej. PWE Warszawa. Zaorska A., 1998. Ku globalizacji? Przemiany w korporacjach transnarodowych i w gospodarce światowej. PWN Warszawa. 166 Zygmunt Zygmuntowicz Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej nieruchomości 14. Zonin R. Ambrosi L., 1999. Etyka, środowisko i ekonomia. „Środowisko” nr 4. 15. Zygmuntowicz Z., 1996. Ekonomiczna wycena miasta Żnin. Wyd. Uczelniane ATR Bydgoszcz. 16. Zygmuntowicz Z., 2004. Wartość rynkowa dóbr nierynkowych w procesie globalizacji. Materialy pokonferencyjne. Ochrona Środowiska a procesy integracji i globalizacji. Szkoła Główna Handlowa w Warszawie. 17. Zygmuntowicz Z., 2004. Dobra rynkowe w aspekcie gospodarki przestrzennej. Materiały pokonferencyjne. UMW w Olsztynie. 18. Żróbek S., 2005. Metodyka określania wartości rynkowej nieruchomości. Wyd. Educaterra Olsztyn. CREATING THE KNOWLEDGE BASES FOR NOT MARKET GOOD EVALUATION IN ASPECT OF ESTIMATION OF MARKET VALUE OF REAL ESTATES Summary Space management being scarce good should be connected with ecologic policy realization. Market value is a one of the most important aspect of the value. The considerations were limited to economical goods as such, which occurred in restricted quantity and being different than not market goods. The value is changed if factors determining its level will change. In proposed paper an attempt of methodical changes in a definition of market value of real estates including also its influence on value of not market goods was presented. Keywords: the Data Bases, the Method of Real Estate Evaluation, Market Value, Value of Not Market Goods, DR INŻ. ZYGMUNT ZYGMUNTOWICZ Akademia Techniczno – Rolnicza w Bydgoszczy Katedra Ekonomiki Zasobów i Informacji Przestrzennej 85-796 Bydgoszcz, ul. Kaliskiego 7 [email protected]