Problemy Zarządzania 2012 nr3 - Warsaw University Digital Library
Transkrypt
Problemy Zarządzania 2012 nr3 - Warsaw University Digital Library
XZDUXQNRZDQLD]DVWRVRZDñV\VWHPöZ LQIRUPDW\F]Q\FKZJRVSRGDUFH YROQU YROQU XZDUXQNRZDQLD]DVWRVRZDñ V\VWHPöZLQIRUPDW\F]Q\FK ZJRVSRGDUFH MHVLHñ vol. 10, nr 3 (38) uwarunkowania zastosowań systemów informatycznych w gospodarce jesień 2012 Wydział Zarządzania Uniwersytet Warszawski ISSN 1644-9584 Redakcja dr hab. prof. UW Beata Glinka, dr hab. Przemysław Hensel Redaktor tematyczny prof. dr hab. Witold Chmielarz Redaktor statystyczny prof. dr hab. Jerzy Wierzbiński Recenzenci prof. dr hab. Witold Chmielarz prof. dr hab. Mirosława Lasek (WNE UW) dr hab. prof. SGGW Joanna Kisielińska dr Tomasz Parys Redakcja językowa mgr Monika Sikorska, mgr Amelia Wydra Sekretarz redakcji mgr Anita Sosnowska Rada Programowa prof. Bernard Arogyaswamy (Le Moyne College, NY) prof. dr hab. Ryszard Borowiecki (Uniwersytet Ekonomiczny, Kraków) prof. Lothar Cerny (Cologne University of Applied Sciences) prof. Barbara Czarniawska (Gothenburg Research Institute, Uniwersytet w Göteborgu) prof. dr hab. Marian Gorynia (Uniwersytet Ekonomiczny, Poznań) prof. dr hab. Stefan Kwiatkowski (Wydział Zarządzania, UW) prof. dr hab. Krzysztof Konecki (Instytut Socjologii, Uniwersytet Łódzki) prof. dr Slawomir Magala (Rotterdam School of Management, Erasmus University) dr Julian Mahari (BPH Breakthrough Projects Holding AG, Szwajcaria) prof. Jeff Michelman (University of North Florida) prof. dr hab. Alojzy Z. Nowak – przewodniczący (Wydział Zarzadzania, UW) prof. dr hab. Krzysztof Obłój (Wydział Zarzadzania, UW) prof. Patrick O’Sullivan (Grenoble Bussines School, Francja) prof. Rolf Solli (Goteborg University i Gothenburg Research Institute, Szwecja) prof. Victor Starodubrovskij (Międzynarodowy Instytut Zarządzania, Moskwa) prof. Jeff W. Steagall (Weber University, Uthah) prof. dr hab. Andrzej Szumański (Wydział Prawa i Administracji, Uniwersytet Jagielloński) prof. Ruth Taplin (University of Leicester) prof. Janine Wedel (SPP, George Mason University) prof. dr hab. Zofia Wysokińska (Instytut Ekonomii, Uniwersytet Łódzki) prof. dr hab. Anna Zielińska-Głębocka (Wydział Ekonomiczny, Uniwersytet Gdański) Adres redakcji Redakcja Problemów Zarządzania, Szturmowa 1/3 pok. A102, 02-678 Warszawa www.pz.wz.uw.edu.pl, [email protected] Wydawca Wydawnictwo Naukowe Wydziału Zarządzania UW Pismo można zaprenumerować lub nabyć pojedyncze egzemplarze, wysyłając zamówienie na e-mail: [email protected] lub fax: (22) 5534198 z dopiskiem: Wydawnictwo Naukowe WZ. Chęć dokonania prenumeraty można również zgłaszać telefonicznie pod numerem: (22) 5534198. Na zamówieniu złożonym przez instytucję należy podać: nazwę instytucji zamawiającej, adres, numer NIP oraz zgodę na wystawienie faktury bez podpisu odbiorcy. Cena kwartalnika dla prenumeratorów 25 zł (100 zł za rok). Wysyłka niezwłocznie po ukazaniu numeru. Cena prenumeraty zawiera koszt przesyłki. Prenumeratorzy prywatni (nie instytucje) mogą zamawiać kwartalnik wysyłając pieniądze na konto: Uniwersytet Warszawski Wydział Zarządzania, numer konta: 11-116022020000000060848803 z dopiskiem „zapłata za kwartalnik Problemy Zarządzania”. Opracowanie komputerowe, druk i oprawa: Dom Wydawniczy ELIPSA, ul. Inflancka 15/198, 00-189 Warszawa tel./fax 22 635 03 01, 22 635 17 85 e-mail: [email protected], www.elipsa.pl Spis treści Od redaktora naukowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Artykuły Systemy informatyczne w organizacjach zorientowanych procesowo Ewa Ziemba, Iwona Obłąk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Kryteria wyboru metod zarządzania projektami informatycznymi Witold Chmielarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych – próba klasyfikacji pod kątem barier i działań nim obarczonych Tomasz Parys . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną przez współczesne organizacje gospodarcze Janusz Wielki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Innowacyjne modele e-biznesu – perspektywy rozwojowe Włodzimierz Szpringer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania Dariusz Dziuba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów na potrzeby wieloagentowego modelu symulacyjnego Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Sieci neuronowe Kohonena w przeprowadzaniu analiz danych. Próba wykorzystania w eksploracji danych dotyczących jednostek terytorialnych Mirosława Lasek, Ada Myzik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne Krzysztof Redlarski, Marcin Sikorski . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 Metody oceny architektur korporacyjnych Małgorzata Pańkowska . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych na przykładzie instytucji sektora publicznego Mirosław Dyczkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji, oparte na ontologii wielowymiarowego systemu wczesnego ostrzegania Helena Dudycz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy dla systemów edukacyjnych Jerzy Kisielnicki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie dla rozwoju firm informatycznych Jerzy Rosiński . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 Podstawowe aspekty tworzenia systemów grafiki kognitywnej Olga Pilipczuk, Dima Shamroni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 Gry komputerowe w organizacji – uwarunkowania psychologiczne Michał Mijal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 Recenzje Recenzja książki Janusza Wielkiego Modele wpływu przestrzeni elektronicznej na organizacje gospodarcze Witold Chmielarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 Recenzja książki Zbigniewa Banaszaka, Sławomira Kłosa, Janusza Mleczko Zintegrowane systemy zarządzania Tomasz Parys . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 Contents and Abstracts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280 Problemy Zarządzania, vol. 10, nr 3 (38): 5 – 7 ISSN 1644-9584, © Wydział Zarządzania UW Od redaktora naukowego Informatyka ekonomiczna określana jest na ogół jako ta część dyscypliny naukowej informatyki, która precyzuje zasady metodyczne i pragmatyczne zastosowania systemów informatycznych w organizacjach gospodarczych. Precyzując, to nauka, która spaja metody, środki i cele biznesowe za pomocą systemów i sieci informacyjnych na potrzeby użytkowników finalnych tych organizacji. Dlatego, znajdując się na pograniczu i przecięciu różnych nauk (informatyki, ekonomii, zarządzania, finansów, socjologii i psychologii), podlega istotnym ograniczeniom i uwarunkowaniom. Wpływają one bezpośrednio nie tylko na kształt ostateczny implementowanych rozwiązań technologii informacyjnych, ale także na ekonomiczne skutki tych zastosowań. Ponadto projektowanie, tworzenie, modyfikacje i wdrażanie systemów informatycznych przebiega według określonych schematów i procedur. Ich cechą szczególną jest zmienność i dostosowywanie się do dynamicznie ewoluujących warunków technicznych i organizacyjnych. A na to wszystko nakładają się też krańcowo zróżnicowane warunki gospodarcze, w których przychodzi im działać, oraz rosnąca świadomość ostatecznego użytkownika (klienta) coraz bardziej obciążonego rosnącymi wymogami profesjonalnej obsługi systemów. Rozwój informatyki ekonomicznej miał bowiem zawsze dwa przeciwstawne trendy. Z jednej strony sprawiał, że systemy informatyczne sytuowano coraz bliżej klienta – były coraz bardziej przyjazne, użyteczne, łatwe w obsłudze itp., a z drugiej strony systemy służyły do obsługi coraz bardziej skomplikowanych problemów zarządzania powstających w organizacjach – przewidywania możliwych strategii rozwoju, wykorzystania najlepszych praktyk biznesowych itp. – co z kolei komplikowało ich profesjonalne wykorzystanie na potrzeby użytkownika. Takich sprzeczności w zastosowaniach systemów informatycznych, wynikających z konieczności uwzględnienia w zastosowaniach systemów problemów związanych z wykorzystaniem nieobliczalnego czynnika ludzkiego i niepewnych, czasem nie do końca sprawdzonych technologii, jest oczywiście więcej i stanowią w innej płaszczyźnie też swego rodzaju czynniki warunkujące zastosowania systemów informatycznych. Kolejnym obszarem rozważań w tym zakresie jest opłacalność tych zastosowań. Pomimo upływu wielu lat, w czasie których wykorzystywano systemy informatyczne do wspomagania zarządzania, nikt jeszcze nie wymyślił metodyki pomiaru efektywności na tyle sprawdzonej i adekwatnej do rodzaju zastosowań, żeby była w pełni wiarygodna. I tak można by wyliczać niemal w nieskończoność. vol. 10, nr 3 (38), 2012 5 Od redaktora naukowego Jak widać na powyższych przykładach, próba podejścia do pełnego przeglądu wszystkich problemów związanych z uwarunkowaniami zastosowań systemów informatycznych w organizacji musiałaby się skończyć niepowodzeniem. Dlatego przedstawiony w niniejszym numerze Problemów Zarządzania zbiór artykułów naukowych też tego tematu nie wyczerpuje. Niemniej jednak pozwala on na wyodrębnienie kilku najistotniejszych trendów w identyfikacji i przezwyciężaniu problemów wynikających z różnego rodzaju uwarunkowań zastosowania systemów informatycznych w zarządzaniu. Pierwsze trzy artykuły nawiązują do uwarunkowań metodyczno-organizacyjnych projektowania systemów informatycznych, związanych z procesowym podejściem do tworzenia systemów, wyborem adekwatnej metodyki do obsługi określonego projektu oraz problemów pokonywania lub ograniczania ryzyka związanego z realizacją projektów informatycznych. Kolejna część numeru dotyczy uwarunkowań związanych z wykorzystaniem systemów informatycznych w przestrzeni elektronicznej, szczególnie w przypadku gwałtownych zmian innowacyjnych, i skutków oraz oddziaływań przestrzeni elektronicznej na użytkownika. Istotnym ograniczeniem zastosowań systemów informatycznych był zawsze również stopień komplikacji projektów realizowanych za pomocą systemów informatycznych. W przypadku zadań złożonych, nieliniowych, probabilistycznych, niepewnych itp. nie istnieją takie metody, o których z całą pewnością moglibyśmy powiedzieć, że dokładnie odzwierciedlają rozwiązanie. Albo jest to kwestią czasu lub liczby iteracji, które trzeba wykonać, aby uzyskać kolejny, coraz bardziej przybliżony do rzeczywistości wynik. A w podejmowaniu decyzji czas jest często bardziej istotny od jakości wyniku. Toteż w obecnym numerze znalazły się dwa artykuły zmniejszające w szczególnych przypadkach niektóre z tych ograniczeń – za pomocą sieci neuronowych czy zbiorów przybliżonych. Następne cztery artykuły poświęcono kwestiom oceny systemów informatycznych od strony jakości, użyteczności i efektywności ekonomicznej z punktu widzenia użytkownika końcowego: dla usług mobilnych, dla architektur korporacyjnych, dla wdrażania telepracy w zespołach informatycznych oraz wyszukiwania informacji bazującej na ontologii wielowymiarowego systemu wczesnego ostrzegania. Aspekty teoretyczne i praktyczne uwarunkowań związanych z tworzeniem platform informacyjnych pozyskiwania wiedzy dla systemów edukacyjnych stanowią kanwę jednego z następnych artykułów zawartych w publikacji. Ostatnie trzy artykuły przedstawiają uwarunkowania związane z czynnikiem ludzkim w organizacji: badania postaw pracowników IT wobec pracodawców, aspekty tworzenia i wykorzystania grafiki kognitywnej (automatyzującej, przynajmniej częściowo, procesy poznawcze użytkownika) czy wreszcie psychologiczne aspekty stosowania gier komputerowych do szkoleń w organizacji. 6 Problemy Zarządzania Od redaktora naukowego Zestaw przedstawionych uwarunkowań, które udało się przedstawić, jest więc, jak widać, wbrew początkowym zastrzeżeniom, stosunkowo szeroki i zróżnicowany. Pozostaje mieć nadzieję, że każdy czytelnik z tak szerokiego wachlarza tematów będzie mógł wybrać dla siebie coś, co go głęboko zainteresuje i zachęci do podjęcia dalszych badań w tym kierunku. Wydaje się jednak, że tak obszerny zakres omawianych zagadnień pozwoli czytelnikowi poznać istotę uwarunkowań zastosowania systemów informatycznych w gospodarce i zrozumieć złożoność problemów, przed którymi stoi informatyka ekonomiczna. W tym miejscu wypada też podziękować autorom za nadesłanie interesujących tekstów – nie tylko tych, które złożyły się na tę publikację, ale również tych, które wbrew moim intencjom w niniejszym numerze niestety się nie zmieściły. Dziękuję też recenzentom, których cenne uwagi przyczyniły się do dokonanego wyboru oraz podniesienia i tak wysokiej jakości merytorycznej niniejszej publikacji, której ostateczną weryfikacją będzie zainteresowanie czytelników. W imieniu Redakcji prof. dr hab. Witold Chmielarz vol. 10, nr 3 (38), 2012 7 Problemy Zarządzania, vol. 10, nr 3 (38): 8 – 24 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.1 Systemy informatyczne w organizacjach zorientowanych procesowo Ewa Ziemba, Iwona Obłąk Artykuł opisuje podejście procesowe w organizacjach (Business Process Orientation – BPO) oraz systemy informatyczne wspomagające jego realizację. Na wstępie scharakteryzowano procesy biznesowe oraz koncepcję zarządzania procesami biznesowymi (Business Process Management – BPM). Następnie zaprezentowano systemy informatyczne wspomagające główne procesy w organizacji oraz poszczególne etapy cyklu życia zarządzania procesami biznesowymi (BPM Lifecycle). Wskazano również na istotną rolę systemów zarządzania procesami biznesowymi (Business Process Management Systems – systemy BPM). Badania zostały przeprowadzone na podstawie analizy literatury, doświadczeń empirycznych, a także konstruktywnego myślenia i indukcyjnych metod wnioskowania. 1. Wprowadzenie Od kilku lat wysiłki projektantów systemów informatycznych skupione są na integracji trzech poziomów architektury systemów, a mianowicie: koncepcji biznesu, procesów biznesowych i systemów aplikacji użytkowych (Kasprzak 2000). Wynika to z faktu, iż firmy, które dążą do poprawy sposobu funkcjonowania, muszą zacząć wykorzystywać technologie informatyczne do przeprojektowania procesów biznesowych (Davenport i Short 1990). Obecnie, coraz więcej procesów biznesowych realizowanych w organizacjach może być wspieranych przez systemy informatyczne. Niejednokrotnie procesy biznesowe mogą być wykonywane automatycznie, bez konieczności ludzkiej ingerencji. Niestety, w praktyce w wielu organizacjach brakuje spójności pomiędzy funkcjonalnością wdrożonych systemów informatycznych a procesami biznesowymi, których realizacja powinna być wspierana. Konieczna jest zatem identyfikacja procesów biznesowych i etapów zarządzania nimi, które z powodzeniem mogą być wspierane przez systemy informatyczne, a także identyfikacja i wdrożenie adekwatnych systemów informatycznych. Nabiera to istotnego znaczenia w kontekście ostatnich debat naukowych dotyczących zarządzania procesami biznesowymi, łączącego nauki o zarządzaniu i technologie informatyczne (Kirchmer 2009). 8 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo Wdrażanie systemów informatycznych wspomagających zarządzanie procesami biznesowymi stanowi nieodłączny element podejścia procesowego (Business Process Orientation – BPO) w organizacjach (Cieśliński 2011). Takie podejście wpływa zwłaszcza na zarządzanie jakością, informacją i efektywnością. W następstwie przyczynia się to do poprawy sytuacji biznesowej organizacji, umożliwiając dostarczanie na rynek towarów i usług o wymaganej funkcjonalności i jakości, w konkurencyjnych cenach i krótkim terminie realizacji. Niniejszy artykuł poświęcony jest systemom informatycznym w organizacjach zorientowanych procesowo. Na wstępie scharakteryzowano organizację zorientowaną procesowo. Następnie przedstawiono koncepcję zarządzania procesami biznesowymi (Business Process Management – BPM) oraz różne kategorie procesów biznesowych. W dalszej części zaprezentowano systemy informatyczne wspomagające procesy biznesowe w organizacji oraz etapy cyklu życia zarządzania procesami biznesowymi (BPM Lifecycle). Wskazano również istotną rolę systemów zarządzania procesami biznesowymi (Business Process Management Systems – systemy BPM) oraz wybrane elementy wdrażania systemów informatycznych w organizacjach zorientowanych procesowo. Zaprezentowane wyniki mogą być przydatne dla menedżerów, analityków biznesowych i specjalistów z zakresu planowania i wdrażania systemów informatycznych w organizacjach zorientowanych procesowo. Artykuł jest wprowadzeniem do dalszych badań dotyczących informatycznych systemów zarządzania procesami biznesowymi w organizacji. 2. Metodologia badań Celem badań było zidentyfikowanie systemów informatycznych wspomagających procesy biznesowe organizacji oraz poszczególne etapy cyklu życia zarządzania procesami. Realizacja celu wymagała badań o charakterze poznawczym i utylitarnym. Wykorzystano analizę literatury, doświadczenia empiryczne w modelowaniu i wdrażaniu systemów informatycznych wspomagających procesy biznesowe oraz indukcyjne metody wnioskowania. Badania przeprowadzono w ramach projektu „Opracowanie systemowego podejścia do zrównoważonego rozwoju społeczeństwa informacyjnego – na przykładzie Polski” finansowanego z środków Narodowego Centrum Nauki, 2011/01/B/HS4/00974, 2011–2014. vol. 10, nr 3 (38), 2012 9 Ewa Ziemba, Iwona Obłąk 3. Wyniki badań teoretycznych na temat organizacji zorientowanej procesowo 3.1. Procesy biznesowe i organizacja zorientowana procesowo Z chwilą rozpowszechnienia definicji podejścia procesowego stało się jasne, że jest ono pożądanym lub nawet koniecznym sposobem zarządzania organizacją (Durlik 1998). Przewaga konkurencyjna organizacji zorientowanych na procesy biznesowe stała się dostrzegalna. Wysunięte zostało nawet stwierdzenie, że organizacja do realizacji swoich celów powinna być zaprojektowana z uwzględnieniem procesów biznesowych. Podyktowane jest to potrzebą spojrzenia ponad granice funkcjonalne organizacji, aby zrozumieć poszczególne procesy i sposób, w jaki organizacja rzeczywiście funkcjonuje. BPO wymusza myślenie zorientowane na procesy, natomiast pomija obowiązującą hierarchię w organizacji (McCormack 1999). Jednocześnie nie wyklucza orientacji funkcjonalnej organizacji, czyli podziału na działy funkcyjne. W praktyce, te dwie orientacje uzupełniają się wzajemnie i umożliwiają efektywniejsze funkcjonowanie organizacji. Pojęcie BPO zostało wprowadzone przez takich autorów jak Harrington (1991), Davenport (1993), jak również Hammer i Champy (1994). Bazuje ono na procesach biznesowych, które definiuje się, jako grupę powiązanych działań, wymagającą na wejściu wkładu i dającą na wyjściu rezultat, który ma pewną wartość dla klienta (Hammer i Champy 1994). Proces biznesowy jest również definiowany jako przeprowadzanie działań w określonej kolejności, w danym miejscu i czasie, o określonym początku i końcu oraz z oznaczonymi punktami wejścia i wyjścia (Davenport 1993). Proces biznesowy może być ograniczony do jednego działu organizacji, ale również może kompleksowo obejmować kilka działów, włączając w to ich relacje z klientami biznesowymi. Uważa się również, że proces to zbiór czynności przebiegających równolegle, warunkowo lub sekwencyjnie, prowadzący do zmian zasobów organizacji na wejściu, w efekty końcowe w postaci produktu lub usługi (Perechuda 2000). Każdy proces biznesowy wymaga: elementów wejścia, takich jak dane i informacje, aby móc stworzyć elementy wyjścia, takie jak: przetworzone informacje i wiedza. Tworzy kompleksowy łańcuch działań zaprojektowany w sposób zwracający oczekiwane wyniki (Silver 2006). Proces biznesowy jest również definiowany jako powtarzający się cykl, którego celem jest osiągnięcie korzyści biznesowych (Debevoise 2005). Jest oczywiste, że przemiana, jaka w nim występuje, powinna dodać wartości elementom wejściowym i stworzyć elementy wyjściowe, które będą posiadały cechy przydatne dla odbiorcy (Johansson i in. 1993; Lindsay, Downs i Lunn 2003). Proces biznesowy jest również rozpatrywany, jako element integrujący pracowników organizacji i zasoby organizacji, jakimi są systemy informatyczne. Ten rodzaj współpracy pozwala na osiąganie celów w sposób sprawny i skuteczny, zwłaszcza gdy systemy informacyjne są dobrze dostosowane do potrzeb organizacji. 10 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo Konkludując, w niniejszym artykule proces będzie rozumiany jako skoordynowana, logicznie ułożona sekwencja działań, która dzięki zaplanowanym przekształceniom zwraca oczekiwany rezultat. Procesy biznesowe oraz podejście procesowe są nieodłącznie sprzężone z pojęciem zarządzania procesami biznesowymi (Business Process Management – BPM). Relację tę przedstawiono na rysunku 1. Wszystkie pokazane tam elementy tworzą ekstensję organizacji zorientowanej procesowo. BPO BPM Struktura procesu Zarządzanie Kultura procesu Optymalizacja Procesy biznesowe Wdrażanie Modelowanie Rys. 1. Elementy organizacji zorientowanej procesowo. Źródło: A. Van Looy, M. De Backer i G. Poels 2010. Which Maturity is Being Measured? A Classification of Business Process Maturity Models, Eindhoven: 5th SIKS/BENAIS Conference on Enterprice Information Systems. BPO przedstawia szeroko rozumiane podejście procesowe w organizacji, reprezentowane przez strukturę i kulturę procesu. BPM zarządza i optymalizuje poszczególne procesy biznesowe (Jeston i Nelis 2008). Proces biznesowy jest modelowany i wdrażany w ramach BPM, co pozwala lepiej zrozumieć powiązania w samych procesach, jak również pomiędzy poszczególnymi procesami. Te aspekty są szerzej rozwinięte w dalszej części artykułu. 3.2. Zarządzanie procesami biznesowymi BPM jest zbiorem koncepcji, metod i technik wspierających zarządzanie administracją, konfiguracją i analizą procesów biznesowych (Weske 2007; Zairi 1997; Smith i Finger 2003; Rudden 2007). BPM określa również zarządzanie procesami biznesowymi organizacji przez zastosowanie metod, technik i narzędzi do projektowania i analizy procesów biznesowych, wykorzystując zasoby ludzkie, zasoby organizacji, aplikacje, dokumenty i inne źródła informacji (Van Der Aalst, Hofstede i Weske 2003: 1–12; Gartner Research 2011). BPM można zaprezentować jako cykl zawierający określone kroki, które odpowiednio realizowane w znacznym stopniu podnoszą jakość procesów biznesowych w organizacji (Debevoise 2005; Keen i in. 2006; Vonderheide-Liem i Pate 2004). W literaturze jest to opisywane jako cykl życia BPM (BPM Life Cycle), który składa się z trzech faz: modelowania procesów biznesowych, wykonania procesów biznesowych i monitorowania procesów biznesowych (Schumm, Leymann i Streule 2010: 131–142). Inni autorzy przedstawiają vol. 10, nr 3 (38), 2012 11 Ewa Ziemba, Iwona Obłąk cykl życia BPM w czterech fazach: projektowanie (modelowanie), wdrażanie, zatwierdzanie oraz analiza (Muehlen i Rosemann 2004). Istnieje również bardziej rozbudowany model cyklu życia BPM, składający się z pięciu faz (Pourshahid i in. 2009). Model ten jest zaprezentowany na rysunku 2. Ulepszanie Monitorowanie i zarządzanie wydajnością Wdrożenie i wykonanie Odkrywanie i modelowanie Walidacja i symulacja Rys. 2. Cykl życia BPM. Źródło: A. Pourshahid, D. Amyot, L. Peyton, S. Ghanavati, P. Chen, M. Weiss i A.J. Forster 2009. Business Process Management with the User Requirements Notation. Electronic Commerce Research, nr 4 (9), s. 269–316. Cykl życia BPM rozpoczyna się fazą odkrywania i modelowania. Następnie proces biznesowy jest walidowany i przeprowadzana jest jego symulacja. Kolejną fazą jest wdrożenie procesu biznesowego, a następnie monitorowanie i zarządzanie jego wydajnością. Ostatnią fazą cyklu życia BPM jest ciągłe udoskonalanie procesu biznesowego. Stanowi ona jednocześnie fazę, w której powstają pomysły i innowacje, które należy odkryć i zamodelować. 3.3. Rodzaje procesów biznesowych w organizacji Procesy biznesowe organizacji są dzielone na główne procesy, które są kluczowe dla działalności organizacji, oraz procesy wspomagające, które wspierają realizację głównych procesów (Brilman 2002). Główne procesy biznesowe są zazwyczaj bezpośrednio związane z klientami biznesowymi i rozpoczynają się wraz z nawiązaniem kontaktu z klientem, a kończą na zawarciu transakcji. Procesy wspomagające specjalizują się w określonym rodzaju działań pozwalających na dostarczanie produktów i usług (Repa 2011). W praktyce identyfikacja procesów głównych poprzedza definicję procesów wspomagających, które nie są kluczowe dla prowadzenia działalności organizacji, ale uzupełniają ich funkcjonowanie (Hernaus 2008). Nie wszystkie procesy są równie istotne dla prowadzonej działalności organizacji. Każda organizacja powinna opracować mapę swoich procesów, aby zdefiniować te, 12 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo które mają krytyczne znaczenie dla osiągnięcia korzyści w danym momencie (Brilman 2002). Mapa procesów pomaga koncentrować zasoby wokół procesów najistotniejszych, które generują zyski oraz tworzą wartość dodaną. International Benchmarking Clearinghouse (1996) definiuje sześć głównych procesów (operating processess) i siedem procesów wspierających (management and support processes). Główne procesy, reprezentujące operacyjną działalność organizacji, określane są jako: rozumienie rynków i klientów, opracowanie wizji i strategii, wytwarzanie produktów i usług, marketing i sprzedaż, produkcja i dostawy w przedsiębiorstwach produkcyjnych lub produkcja i dostawy w przedsiębiorstwach usługowych, fakturowanie i obsługa klientów. Wspomagające procesy, odpowiedzialne za strategiczną działalność organizacji to: zarządzanie zasobami ludzkimi, zarządzanie zasobami informacyjnymi, zarządzanie zasobami finansowymi i materialnymi, wdrażanie programów środowiskowych, zarządzanie relacjami zewnętrznymi, zarządzanie doskonaleniem i zmianą. Inną klasyfikację procesów w organizacji prezentuje Grajewski (2007), wyróżniając: procesy główne, procesy pomocnicze i procesy zabezpieczające. Głównymi procesami są: rozwój produktu, obsługa klienta, strategia i zarządzanie, zarządzanie zaopatrzeniem, planowanie, proces produkcji, rozwój kardy, zarządzanie finansami. Procesami pomocniczymi są remonty, inwestycje, zarządzanie środkami trwałymi. Procesami zabezpieczającymi są zabezpieczenie jakości i controlling operacyjny. W niniejszym artykule procesy biznesowe są identyfikowane w celu zdefiniowania całościowej struktury procesowej organizacji i wykazania, w jakim stopniu poszczególne procesy biznesowe mogą i powinny być wspierane przez systemy informatyczne. W tym celu procesy z obu przedstawionych wyżej klasyfikacji zostały porównane, a wynikiem jest klasyfikacja biorącą pod uwagę wszystkie procesy, jakie mogą wystąpić w organizacji i jakie mogą być wspomagane systemami informatycznymi. Procesy biznesowe, które mają taki sam lub zbliżony charakter, zostały zastąpione jednym pojęciem. W rezultacie otrzymujemy jedenaście procesów biznesowych: – strategia i zarządzanie, – zarządzanie zasobami informacyjnymi, – zarządzanie zasobami ludzkimi, – zarządzanie zasobami finansowymi i materialnymi, – zarządzanie relacjami zewnętrznymi, – zarządzanie doskonaleniem i zmianą, – planowanie, rozwój produktów i usług, – proces produkcji, – zarządzanie zaopatrzeniem, – marketing, – sprzedaż. Zaprezentowana klasyfikacja procesów stanowi podstawę dalszych rozważań zaprezentowanych w artykule. vol. 10, nr 3 (38), 2012 13 Ewa Ziemba, Iwona Obłąk 4. Wyniki badań empirycznych – identyfikacja systemów informatycznych na potrzeby organizacji zorientowanej procesowo 4.1. Systemy informatyczne wspomagające etapy zarządzania procesami biznesowymi Jak zauważają Davenport i Short (1990), mimo iż procesy biznesowe i systemy informatyczne tworzą wzajemne relacje, w rzeczywistości związki między nimi nie zostały jeszcze w pełni wykorzystane. Z jednej strony oczekuje się, że zarządzanie organizacją będzie miało wpływ na budowę systemów informatycznych w kontekście procesów biznesowych. Z drugiej jednak strony szybko postępująca komputeryzacja i eksploatacja nowych technologii informatycznych dostarcza możliwości, które również wpływają na rozwój procesów biznesowych. Tak więc zarówno procesy biznesowe wprowadzają zmiany w systemach informatycznych, jak i systemy informatyczne usprawniają funkcjonowanie procesów biznesowych. Wpisuje się to w fazę doskonalenia procesów biznesowych, która – napędzana ciągłymi zmianami – w długofalowej perspektywie nigdy się nie skończy. Organizacje zorientowane procesowo powinny w głównej mierze skoncentrować się na systemach dedykowanych do wspierania procesów biznesowych, takich jak systemy zarządzania procesami biznesowymi (Business Proces Management Systems – systemy BPM) (Winn i Thwe Oo 2011). Systemy BPM stanowią nową klasę systemów informatycznych, które wykorzystują bazy danych oraz inne systemy informatyczne do realizacji procesów biznesowych. Systemy BPM integrują technologię informatyczną z zarządzaniem procesami biznesowymi, wspomagając użytkowników we wdrożeniu sekwencji działań składających się na określony proces. Systemy te stosowane są do definiowania i modelowania głównych procesów organizacji, które są realizowane przekrojowo, przechodząc przez poszczególne działy funkcjonalne organizacji. Systemy BPM swoim zakresem działania obejmują całość organizacji. W ramach systemów BPM, które w całości koordynują przebieg procesu, włączane są również procesy działów funkcyjnych, które są wspierane przez systemy informatyczne dostosowane do profilu ich działalności, takie jak: systemy zarządzania zasobami przedsiębiorstwa (Enterprise Resource Planning – ERP), systemy planowania zasobów produkcyjnych (Manufacturing Resource Planning II – MRPII), systemy zarządzania relacjami z klientami (Customer Relationship Management – CRM), systemy zarządzania łańcuchem dostaw (Supply Chain Management – SCM), systemy zarządzania jakością (Quality Management System – QMS), systemy komputerowego wspomagania projektowania (Computer Aided Design – CAD), systemy realizacji produkcji ((Manufacturing Execution System – MES) oraz system zaawansowanego planowania i harmonogramowania produkcji (Advanced Planning and Scheduling Tools – APS). Wymienione systemy swoim zakresem obejmują procesy w określonym obszarze funkcyjnym organizacji. 14 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo Systemy ERP składają się z modułów, z których każdy odpowiedzialny jest za inny obszar funkcjonalny, np. zarządzanie finansami, zarządzanie kadrami, zarządzanie magazynem, zarządzanie planowaniem. Moduły są zintegrowane i zapewniają wzajemny przepływ danych między sobą, co umożliwia realizację procesów biznesowych, np. począwszy od planowania produktu, zakupu części, kontrolowania stanów magazynowych, dostarczenia produktu, po monitorowanie złożonych zamówień (Umble, Haft i Umble 2003). Systemy ERP odpowiadają za skuteczne planowanie wszystkich zasobów organizacji (Feng 2000). Systemy CRM są systemami dedykowanymi do zarządzania kontaktami z istniejącymi oraz potencjalnymi klientami (Richards i Jones2008). Systemy SCM wspomagają zarządzanie łańcuchem dostaw, zezwalając na koordynowanie współpracy między organizacjami, dostawcami, producentami, dystrybutorami i partnerami biznesowymi (Ketchen i Giunipero 2004). Systemy QMS zarządzają jakością przez kontrolę procesów w celu sprawdzania ich skuteczności i efektywności działania (Van der Wiele, Dale i Williams 2000). Systemy CAD wykorzystują technologię informatyczną w procesie projektowania produktów i tworzenia dokumentacji projektowej. Pozwalają na wykonanie rysunków, obliczeń i przeprowadzenie symulacji zachowań konstruowanych elementów, tym samym umożliwiając inżynierom i architektom tworzenie rozbudowanych trójwymiarowych modeli produktów (Hammond 1986; Hirz, Harrich i Rossbacher 2011). Systemy MES i APS obsługują warstwy planowania i sterowania wykonawczego procesu produkcji. Stanowią łącze między systemami ERP i MRP II a linią produkcyjną, tworząc zintegrowane rozwiązanie, obsługujące komputerowo wspomagane planowanie i sterowanie procesów produkcyjnych (Klonowski 2004). Warto również nadmienić, że poza wymienionymi systemami istnieją takie systemy, jak: Business Intelligence (BI), Business Activity Monitoring (BAM), Enterprise Application Integration (EAI) oraz Business Service Management (BSM). Systemy BI zostały stworzone, aby gromadzić, przechowywać, analizować i udostępniać dane w celu wspierania procesów decyzyjnych oraz wspomagania w podejmowaniu decyzji biznesowych (Olszak i Ziemba 2007; Januszewski 2008). Systemy BAM monitorują bieżącą aktywność organizacji, wyznaczając wskaźniki i punkty kontrolne, których przekroczenie jest komunikowane użytkownikowi systemu. Nieustanne monitorowanie i kontrolowanie statusu wykonywanych procesów wpływa na redukcję ryzyka, wzrost rentowności oraz optymalizację wydajności organizacji (Dresner 2003: 4–7; Gartner Research 2005). Systemy EAI integrują istniejące systemy organizacji w jedną wspólną aplikację (Urlich 2001; Mantzana i Themistocleous 2006). Systemy BSM wspomagają zarządzanie zależnościami między klientami biznesowymi a celami organizacji. Obecnie na rynku są również dostępne systemy klasy Business Process Intelligence (BPI), stanowiące połączenie systemów BI i systemów BPM. Reprezentują one nowe podejście do systemów BI, łącząc analizę danych vol. 10, nr 3 (38), 2012 15 Ewa Ziemba, Iwona Obłąk z podejściem procesowym (Kimball i Ross 2002). Zaprezentowany rodzaj korelacji oraz tworzenie hybrydowych systemów staje się popularne ze względu na korzyści. Wymienione systemy nie wyczerpują listy systemów informatycznych prezentowanych w literaturze i dostępnych na rynku, jednak są najbardziej istotne z punktu widzenia organizacji zorientowanej procesowo (Sattarova 2009). Systemy informatyczne są bezpośrednio powiązane z fazami cyklu życia BPM. Systemy CAD oraz systemy BI w znacznej części wspierają fazę odkrywania i modelowania, jak to zostało zaprezentowane na rysunku 3. Systemy BI uczestniczą również w fazie walidacji i symulacji. Systemy EAI, integrujące systemy organizacji, występują w trzech fazach: walidacja i symulacja, wdrożenie i wykonanie oraz monitorowanie i zarządzanie wydajnością. Systemy ERP, MRP II, CRM, SCM, MES, APS wspomagają realizację dwóch faz cyklu BPM: wdrożenie i wykonanie oraz monitorowanie i zarządzanie wydajnością. Systemy QMS, odpowiedzialne za zarządzanie jakością zawierają się w fazie udoskonalania. Systemy BAM wspierają realizację faz monitorowania i zarządzania jakością. Systemy BSM w głównej mierze obsługują fazy monitorowania i zarządzania wydajnością, jak też fazę udoskonalania. Cały cykl życia BPM, obejmując wszystkie jego fazy jest zarządzany przez systemy BPM. QMS, BSM Ulepszanie ERP, MRPII, CRM, SCM, BI, BAM, EAI, BSM, MES, APS CAD, BI Monitorowanie i zarządzanie wydajnością Wdrożenie i wykonanie ERP, MRPII, CRM, SCM, EAI, MES, APS BPM Odkrywanie i modelowanie Walidacja i symulacja BI, EAI Rys. 3. Systemy informatyczne wspierające cykl życia BPM. Źródło: opracowanie własne. 16 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo 4.2. Systemy informatyczne wspomagające procesy biznesowe Systemy BPM są niezbędne w organizacjach zorientowanych procesowo, a zakres ich funkcjonalności powinien być dostosowany do profilu organizacji, a szczególnie procesów, które są w niej realizowane. Procesy biznesowe w organizacji i systemy informatyczne je wspierające są zaprezentowane w tabeli 1. Procesy biznesowe w organizacji Systemy informatyczne Strategia i zarządzanie BAM, BI Zarządzanie zasobami informacyjnymi BAM, EAI Zarządzanie zasobami ludzkimi ERP Zarządzanie zasobami finansowymi i materialnymi ERP Zarządzanie relacjami zewnętrznymi BSM, EAI Zarządzanie doskonaleniem i zmianą QMS Planowanie BI, ERP Rozwój produktów i usług BI, CAD Proces produkcji ERP, MRP II, MES, APS Zarządzanie zaopatrzeniem SCM Marketing i sprzedaż CRM, BI, ERP Tab. 1. Systemy informatyczne wspierające procesy biznesowe organizacji. Źródło: opracowanie własne. Jednym z najważniejszych procesów organizacji jest tworzenie strategii i zarządzanie. Wspierane jest to przez bieżące analizy i raporty dostarczane przez systemy BI, stanowiące podstawę planowania strategicznego. Jednym z głównych założeń systemów BI jest wspomaganie procesów podejmowania decyzji, co idealnie wpasowuje się w ten proces. Systemy BI są także obecne w dwóch innych procesach odpowiedzialnych za planowanie i rozwój produktów i usług. W obu procesach systemy BI dostarczają raportów, symulacji i prognoz, na podstawie których podejmowane są decyzje co do dalszych działań. Systemy BAM odpowiedzialne za analizę wskaźników bieżącej działalności i dostarczanie aktualnej informacji, kreują całościowy obraz kondycji organizacji. Wraz z systemami EAI wspierają proces zarządzania zasobami informacyjnymi. W tym procesie systemy EAI scalają napływające z różnych systemów informatycznych informacje w czytelny obraz oraz kontrolują prawidłowy przepływ procesu. Kontrola wskaźników udostępnianych dzięki systemom BAM wykorzystywana jest również w procesie strategii i zarządzania. vol. 10, nr 3 (38), 2012 17 Ewa Ziemba, Iwona Obłąk Systemy ERP, a zwłaszcza ich moduł kadrowy wspiera proces zarządzania zasobami ludzkimi i kapitałem ludzkim. Moduł kadrowy utrzymuje wszystkie informacje dotyczące pracowników istotne z punktu widzenia organizacji, takie jak: dane kontaktowe, informacje o wynagrodzeniach, oceny wydajności i zakresy kompetencji pracowników. Zarządza procesem rekrutacji, zaczynając od definiowania potrzeb odnośnie zatrudnienia, a kończąc na planowaniu potrzeb szkoleniowych poszczególnych pracowników. Moduł finansowy systemów ERP odpowiedzialny jest za proces zarządzania zasobami finansowymi. Jest on uważany za kluczowy ze względu na rejestrowanie danych finansowych organizacji. Moduł finansowy gromadzi informacje finansowe dotyczące wszystkich działów organizacji i przedstawia sytuację finansową w postaci raportów i sprawozdań. Proces zarządzania relacjami zewnętrznymi realizowany jest przy wsparciu systemów BSM i EAI. Systemy BSM koordynują proces zarządzania relacjami z kontrahentami na zewnątrz i wewnątrz organizacji, wpływają na jakość obsługi i kontrolują przepływ usług. Systemy EAI wspomagają proces zarządzania relacjami zewnętrznymi, utrzymując spójność informacji między innymi systemami informatycznymi organizacji. Proces zarządzania doskonaleniem i zmianą jest obsługiwany przez systemy QMS, które utrzymują standardy jakości. Systemy QMS zapewniają spójność w zakresie stosowanych metod, materiałów, sprzętu i współpracy między działami funkcjonalnymi organizacji. Proces planowania wspierany jest również przez moduł planowania systemu ERP. Tutaj całkowicie kontrolowany jest przebieg procesu, optymalizując wykorzystanie zdolności produkcyjnych, części, komponentów i zasobów materialnych z wykorzystaniem danych historycznych produkcji i prognozowania sprzedaży. Proces rozwoju produktu i usług, poza wsparciem systemów BI, jest zarządzany z wykorzystaniem systemów CAD. Umożliwiają one projektowanie oraz tworzenie wirtualnego obrazu produktu, ułatwiając wybór odpowiedniej wersji. Systemy BI pozwalają dokonać analizy sprzedaży obecnie istniejących produktów i usług i na tej podstawie wyciągnąć wnioski, jakie produkt lub usługi powinny być rozwijane w przyszłości. Moduł produkcyjny systemów ERP, systemy MRP II oraz systemy MES i APS odpowiadają za zarządzanie procesem produkcji. Systemy MES i APS integrują procesy produkcyjne bezpośrednio związane z linią produkcyjną z informacjami zarządczymi w systemach ERP i MRP II. Systemy SCM odpowiadają za procesy zarządzania zaopatrzeniem, obsługują proces zarządzania łańcuchem dostaw od zakupu aż po dostarczenie produktu. Systemy CRM, które są odpowiedzialne za zarządzanie kontaktami z klientami, wspierają proces marketingu i sprzedaży. Wspomagają pozyskiwanie klientów, zawieranie transakcji, śledzenie realizacji zamówienia oraz utrzymywanie relacji z klientami, co stanowi całościowy proces obsługi klienta. 18 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo Dodatkowo niektóre systemy CRM posiadają funkcjonalność umożliwiającą realizowanie celów marketingowych, wspierając tym samym proces marketingu i sprzedaży. Funkcjonalność pozwala na prowadzenie kampanii marketingowych dla różnych segmentów klientów, śledzenie kluczowych wskaźników, rozpoznawanie trendów i budowanie na tej podstawie celów sprzedażowych. Tak rozbudowane systemy CRM mają wbudowane narzędzia analityczne systemów BI umożliwiające prognozowanie przyszłej sprzedaży. Realizacja sprzedaży wspierana jest przez moduł systemu ERP odpowiedzialny za przygotowanie oferty, realizację zamówień, wystawianie faktur oraz obsługę płatności. Bardzo często sprzedaż powiązana jest z obrotem towarów w magazynie, dlatego jednocześnie łączy się z modułem zarządzania magazynem systemu ERP. 4.3. Wdrożenie systemów informatycznych na potrzeby organizacji zorientowanej procesowo Aby zwiększyć konkurencyjność organizacji, zarządzanie procesami musi być wspomagane przez systemy informatyczne (Olszak i Ziemba 2010b). Bez informatycznego wspomagania trudno jest śledzić przebieg procesu i bardzo łatwo można przeoczyć ewentualne odstępstwa od wyznaczonych norm. Dużym wyzwaniem dla organizacji zorientowanych procesowo jest wdrożenie systemów informatycznych wspomagających poszczególne procesy biznesowe oraz poszczególne etapy cyklu życia tych procesów. Twórcy systemów informatycznych doskonale zdają sobie sprawę, na jakie newralgiczne aspekty procesów i zarządzania procesami należy zwrócić szczególną uwagę. Dlatego też wdrożenie systemów informatycznych pozwala na korzystanie z doświadczeń producentów systemów informatycznych, ponieważ wraz z gotowym systemem przekazują wiedzę i doświadczenie w postaci konkretnych rozwiązań. Ponadto, planując wdrożenie systemu informatycznego, najpierw wykonuje się analizę biznesową, podczas której definiuje się wszystkie procesy biznesowe występujące w organizacji. Tak więc już na tym etapie organizacja ma możliwość przyjrzenia się procesom, co stanowi pierwszą fazę cyklu życia BPM – odkrywanie i modelowane. Następnie modelowane procesy walidowane są pod kątem funkcjonalności wybranego systemu informatycznego i dokonuje się ewentualnych dopasowań systemu do potrzeb organizacji tak, aby jak najlepiej odwzorowywał poszczególne procesy proces. W tej fazie wprowadzane są również usprawnienia procesów, które można uzyskać dzięki wykorzystaniu systemu informatycznego. Jest to faza druga cyklu życia BPM – walidacja i symulacja. Kolejno przechodzimy do fazy trzeciej – wdrożenie i wykonanie, gdy wdrażana jest pilotażowa wersja systemu informatycznego, a tym samym procesów biznesowych, które obsługuje. Następnie system informatyczny jest testowany przez użytkowników, gdzie wykonują oni swoje dotychczasowe obowiązki, ale z wykorzystaniem systemu informatycznego i zdefiniowanych procesów. Na tym etapie zgłaszane są wszystkie nieprawidłowości lub ewentualne usprawnienia. Stanowi to fazę czwartą cyklu życia BPM – monivol. 10, nr 3 (38), 2012 19 Ewa Ziemba, Iwona Obłąk torowanie i zarządzanie wydajnością. Po wstępnych testach i zgłoszonych uwagach system informatyczny jest dopracowywany i wdrażany w ostatecznej formie. Działający system jest objęty usługą powdrożeniową, która obejmuje modyfikacje systemu na życzenie użytkownika w przypadku zgłoszenia takiej potrzeby. Jest to już ostatnia faza cyklu życia BMN – ulepszanie. Gdy podczas przepływu procesu zostaną dostrzeżone obszary, które można wykonać bardziej efektywnie, istnieje możliwość ich poprawy. Jak więc można zauważyć, samo wdrożenie systemu informatycznego idealnie wpasowuje się w cykl życia BPM, co jest szczególnie istotne dla organizacji zarządzanych procesowo i stanowi argument przemawiający za przydatnością tych systemów. Ponadto systemy informatyczne pomagają kontrolować takie aspekty, jak: – śledzenie przebiegu procesu, – widoczność wszystkich uczestników procesu, – monitorowanie wydajności procesu w czasie rzeczywistym, – przepływ informacji między pracownikami, – koordynację wprowadzanych zmian w procesie. Przykładem systemów BPM wprowadzających takie rozwiązania jest oprogramowanie IBM Business Process Manager, SAP NetWeaver BPM, Oracle BPM Suite 11g. Są to przykłady zaprezentowane w rankingu systemów BPM w raporcie Gartnera (Garnter Research 2010), gdzie łącznie wymienionych jest około 27 rozwiązań. Świadczy to o dużym potencjale tych rozwiązań, które są wykorzystywane na równi z systemami ERP i BI. Dla porównania w rankingu systemów ERP (Computerwold Polska 2011a) wyróżnia się około 54 rozwiązań, natomiast w rankingu systemów BI (Computerwold Polska 2011b) wyróżnia się około 29 rozwiązań. 5. Podsumowanie Podejście procesowe staje się metodą zarządzania współczesną organizacją. Dzięki wsparciu koncepcji, metod, narzędzi i technologii informatycznych jest coraz bardziej dostępna i łatwiejsza do zastosowania. Dodatkowo systemy informatyczne tworzone są w sposób wymuszający realizację określonych procesów biznesowych. Wdrożenie systemu informatycznego skutkuje zdefiniowaniem procesów biznesowych i podążaniem zgodnie z cyklem życia BPM. Systemy informatyczne nie tylko wspierają cykl życia zarządzania procesami biznesowymi, ale również ukierunkowują działanie działów funkcyjnych organizacji, wprowadzając realizację zadań przez procesy. Łączą tym samym orientację funkcjonalną organizacji z orientacją procesową. Jest to o tyle korzystne, że organizacja nie wymaga diametralnej reorganizacji swojej struktury, aby mogła funkcjonować bardziej efektywnie. Wystarczy zastosowanie podejścia procesowego i wdrożenie systemu wspomagającego zarządzanie procesami, czyli systemu BPM. 20 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo Technologie informatyczne rozwijają się w kierunku złożonych rozwiązań, gdzie w jednym systemie informatycznym (Business Performance Management) zawarte są funkcje wchodzące w skład takich systemów jak: BI, BAM, BPM, BSM, EAI (Olszak i Ziemba 2010a; Eckerson 2004; Spangenberg 1994; Melchert i Winter 2004; Miranda 2004). Dlatego wkrótce wdrożenie jednego systemu informatycznego będzie obsługiwało większość procesów biznesowych organizacji. Internet również przyczynia się do rozwoju podejścia procesowego za pomocą technologii Web 2.0 pozwalającej wyjść poza ramy organizacji i wymianę doświadczeń z użytkownikami podobnych procesów (Kania 2010). Mimo że na polskim rynku systemy BPM nie są jeszcze tak znane jak ERP, to – w ślad doświadczeń organizacji amerykańskich – z pewnością staną się równie popularne i szeroko wykorzystywane. Podążając za tym trendem, artykuł stanowi wstęp do dalszych badań dotyczących systemów zarządzania procesami biznesowymi w organizacjach zorientowanych procesowo. Informacje o autorkach Dr hab. prof. UE Ewa Ziemba – Katedra Informatyki Ekonomicznej, Uniwersytet Ekonomiczny w Katowicach. E-mail: [email protected]. Mgr Iwona Obłąk – Bytomska Spółka Informatyczna COIG-4 Sp. z o.o. E-mail: [email protected]. Bibliografia APQC’s International Benchmarking Clearinghouse 1996. Process classification framework, Arthur Andersen & Co, http://www.numa.org.br/download/Desenv_Produto/framewrk.pdf, odczyt: 12.04.2012. Bitkowska, A. 2009. Zarządzanie procesami biznesowymi w przedsiębiorstwie, Warszawa: Wyższa Szkoła Finansów i Zarządzania. Brilman, J. 2002. Nowoczesne koncepcje i metody zarządzania, Warszawa: Wydawnictwo Naukowe PWN. Cieśliński, W.B. 2011. Doskonalenie procesowej orientacji przedsiębiorstw, Wrocław: Uniwersytet Ekonomiczny we Wrocławiu. Computerwold Polska 2011a. Aplikacje biznesowe, kompendium ERP. Computerworld Polska, czerwiec, s. 28–32. Computerwold Polska 2011b. Aplikacje biznesowe, kompendium analityki biznesowej. Computerworld Polska, październik, s. 16–19. Davenport, T. 1993. Process Innovation: Reengineering Work through Information Technology, Boston: Harvard Business School Press. Davenport, T.H. i J.E. Short 1990. The New Industrial Engineering, Information Technology and Business Process Redesign. Sloan Management Review, nr 4 (31), s. 11–27. Debevoise, T. 2005. Business Process Management with a Business Rules Approach, Virginia: Business Knowledge Architects. Dresner, H. 2003. Business Activity Monitoring: BAM Architecture, Gartner Symposium ITXpo, Cannes: Gartner Group, s. 4–7. Durlik, I. 1998. Restrukturyzacja procesów gospodarczych, reengineering teoria i praktyka, Warszawa: Placet. vol. 10, nr 3 (38), 2012 21 Ewa Ziemba, Iwona Obłąk Eckerson, W. 2004. Best Practices in Business Performance Management: Business and Technical Strategies. TDWI Report Series. A 101communications Publication, marzec, http://www.olap.it/Articoli/2004_Best_Practices_Business_Report.pdf, odczyt: 12.04.2012. Feng, S.C. 2000. Manufacturing Planning and Execution Software Interfaces. Journal of Manufacturing Systems, nr 19, s. 1–17. Gartner Research 2005. Selection Requirements for Business Activity Monitoring Tools, Gartner Research, ID Number: G00126563. Gartner Research 2010. Magic Quadrant for Business Process Management Suites, Garnter Research, ID Number: G00205212. Gartner Research 2011. Hype Cycle for Business Process Management, Gartner Research, ID Number: G00214214. Grajewski, P. 2007. Organizacja procesowa, Projektowanie i konfiguracja, Warszawa: Polskie Wydawnictwo Ekonomiczne. Hammer, M. i J. Champy 1994. Reengineering the Corporation: A Manifesto for Business Revolution, New York: Harper Business. Hammond, P.H. 1986. Developments in Computer-aided Control System Design. Computer-Aided Design, nr 10 (18), s. 552–557. Harrington, J. 1991. Business Process Improvement: The Breakthrough Strategy for Total Quality, Productivity and Competitiveness, New York: McGraw Hill. Hernaus, T. 2008. Process-based Organization Design Model: Theoretical Review and Model Conceptualization. Working Paper Series, nr 6. Hirz, M., Harrich, A. i P. Rossbacher 2011. Advanced Computer Aided Design Methods for Integrated Virtual Product Development Processes. Computer Aided Design and Applications, nr 6 (8), s. 901–913. InterSystems Corporation 2004. Ensemble Whitepapers: Enabling the Real-time Enterprise Business Activity Monitoring with Ensemble, http://www.intersystems.com/ensemble/ whitepapers/pdf/RealTime_BAM_WP.pdf, odczyt: 12.04.2012. Januszewski, A. 2008. Funkcjonalność informatycznych systemów zarządzania. Tom 2. Systemy Business Intelligence, Warszawa: Polskie Wydawnictwo Ekonomiczne. Jeston, J. i J. Nelis 2008. Business Process Management: Practical Guidelines to Successful Implementation, 2nd edition, Elsevier. Johansson, H.J., McHugh, P., Pendlebury, A.J. i W.A. Wheeler 1993. Business Process Reengineering: Breakpoint Strategies for Market Dominance, Chichester: John Wiley & Sons. Kania, K. (red.) 2010. Technologie informatyczne Firmy 2.0, Katowice: Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach. Kasprzak, T. (red.) 2000. Integracja i architektury systemów informacyjnych przedsiębiorstw, Warszawa: Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego. Keen, M., Ackerman, G., Azaz, I., Haas, M., Johnson, R., Kim, J. i P. Robertson 2006. Patterns: SOA Foundation – Business Process Management Scenario, IBM Red-Books 2006. Ketchen, Jr. D.J. i L.C. Giunipero 2004. The Intersection of Strategic Management and Supply Chain Management. Industrial Marketing Management, nr 33, s. 51–56, DOI: 10.1016/j.indmarman.2003.08.010. Kimball, R. i M. Ross 2002. The Data Warehouse Toolkit: The Complete Guide to Dimensional Modelling, New York: Wiley Computer Publishing. Kirchmer, M. 2009. High Performance through Process Excellence: From Strategy to Operations, Springer. Klonowski, Z.J. 2004. Systemy informatyczne zarządzania przedsiębiorstwem, modele rozwoju i własności funkcjonalne, Wrocław: Oficyna Wydawnicza Politechniki Wrocławskiej. 22 Problemy Zarządzania Systemy informatyczne w organizacjach zorientowanych procesowo Lindsay, A., Downs, D. i K. Lunn 2003. Business Processes – Attempts to Find a Definition. Information and Software Technology, nr 45, s. 1015–1019, DOI: 10.1016/ S0950-5849(03)00129-0. Mantzana, V. i M. Themistocleous 2006. Benefits and Barriers Related to EAI Adoption: The Case of a Healthcare Organization, European Conference on Information Systems, http://is2.lse.ac.uk/asp/aspecis/20060174.pdf, odczyt: 12.04.2012. McCormack, K.P. 1999. The Development of a Measure of Business Process Orientation, http://www.prosci.com/mccormack.htm, odczyt: 12.04.2012. Melchert, F. i R. Winter 2004. The Enabling Role of Information Technology for Business Performance Management. Decision Support in an Uncertain and Complex World, The IFIP TC8/WG8.3 International Conference, http://web.iwi.unisg.ch/org/iwi/iwi_pub. nsf/0/F3D68C655A0F3195C12570A30051E3F6/$file/DSS2004.pdf, odczyt: 12.04.2012. Miranda, S. 2004. Beyond BI: Benefiting from Corporate Performance Management Solutions. Financial Executive, nr 2 (20), s. 58–61. Muehlen, M.Z. i M. Rosemann 2004. Multi-paradigm Process Management. Workshops – 5th Workshop on Business Process Modelling, Development and Support, s. 169–175, http://pdf.aminer.org/000/074/466/multi_paradigm_process_management.pdf, odczyt: 12.04.2012. Olszak, C.M. i E. Ziemba 2007. Approach to Building and Implementing Business Intelligence Systems. Interdisciplinary Journal of Information, Knowledge, and Management, nr 2, http://www.ijikm.org/Volume2/IJIKMv2p135-148Olszak184.pdf, odczyt: 12.04.2012. Olszak, C.M. i E. Ziemba 2010a. Business Performance Management for Competitive Advantage in the Information Economy. Journal of Internet Banking and Commerce, nr 3 (15), s. 93–104. Olszak, C.M. i E. Ziemba (red.) 2010b. Kierunki rozwoju społeczeństwa informacyjnego i gospodarki opartej na wiedzy w świetle śląskich uwarunkowań regionalnych, Katowice: Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach. Perechuda, K. 2000. Zarządzanie przedsiębiorstwem przyszłości – koncepcje, modele, metody, Warszawa: Placet. Pourshahid, A., Amyot, D., Peyton, L., Ghanavati, S., Chen, P., Weiss, M. i A.J. Forster 2009. Business Process Management with the User Requirements Notation. Electronic Commerce Research, nr 4 (9), s. 269–316, DOI: 10.1007/s10660-009-9039-z. Repa, V. 2011. Business Process Modelling Notation from the Methodical Perspective, ServiceWave 2010 Workshops, Berlin–Heidelberg: Springer-Verlag, s. 160–171, DOI: 10.1007/978-3-642-22760-8_18. Richards, K.A. i E. Jones 2008. Customer Relationship Management: Finding Value Drivers. Industrial Marketing Management, nr 2 (37), s. 120–130, DOI: 10.1016/j. indmarman.2006.08.005. Rudden, J. 2007. Making the Case for BPM: A Benefits Checklist. BPTrends, http://www. bptrends.com/publicationfiles/01-07-ART-MakingtheCaseforBPM-BenefitsChecklistRudden.pdf, odczyt: 12.04.2012. Sattarova, F.Y. 2009. Model of Business Service Management with Security Approach. International Journal of Advanced Science and Technology, nr 9, s. 39–50, DOI: 10.1.1.178.2022. Schumm, D., Leymann, F. i A. Streule 2010. Process Views to Support Compliance Management in Business Processes, E-commerce and Web Technologies: 11th International Conference, Springer, DOI: 10.1007/978-3-642-15208-5_12. Silver, B. 2006. Associates: The 2006 BPMS Report: Understanding and Evaluating BPM Suite, Published in collaboration with BPMInstitute.org. Smith, H. i P. Finger 2003. Business Process Management: The Third Wave, Meghan-Kiffer Press. vol. 10, nr 3 (38), 2012 23 Ewa Ziemba, Iwona Obłąk Spangenberg, H. 1994. Understanding and Implementing Performance Management, Juta & Company. Umble, E.J., Haft, R.R. i M.M. Umble 2003. Enterprise Resource Planning: Implementation Procedures and Critical Success Factors. European Journal of Operational Research, nr 2 (146), s. 241–257. Ulrich, W. 2001. Enterprise Application Integration. Cutter IT Journal, nr 8, s. 2–36. Van Der Aalst, W.M.P., Hofstede, A.H.M.T. i M. Weske 2003. Business Process Management: A Survey, w: BPM’03 Proceedings of the 2003 international conference on Business process management, s. 1–12. Berlin: Springer-Verlag. Van der Wiele, T., Dale, B. i R. Williams 2000. Business Improvement through Quality Management Systems. Management Decision, nr 1 (38), s. 19–23. Van Looy, A., De Backer, M. i G. Poels 2010. Which Maturity Is Being Measured? A Classification of Business Process Maturity Models, Eindhoven: SIKS/BENAIS Conference on Enterprice Information Systems. Vonderheide-Liem, D.N. i B. Pate 2004. Applying Quality Methodologies to Improve Healthcare: Six Sigma, Lean Thinking, Balanced Scorecard, and More, HCPro Inc.. Weske, M. 2007. Business Process Management: Concepts, Languages, Architectures, Berlin: Springer. Winn, S. i M. Thwe Oo 2011. Multi-agent Model for Automation of Business Process Management System Based on Service Oriented Architecture. Engineering and Technology, nr 74, s. 670–675. Zairi, M. 1997. Business Process Management. Journal MCB University Press, nr 1, s. 64–80, DOI: 10.1108/14637159710161585. 24 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 25 – 40 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.2 Kryteria wyboru metod zarządzania projektami informatycznymi Witold Chmielarz Zasadniczym celem niniejszego artykułu jest identyfikacja metod zarządzania projektami informatycznymi wśród tradycyjnych i nowoczesnych. W ostatnich latach podejście do zarządzania projektami systemów informatycznych ulega szybkim i wielokierunkowym przemianom. Klasyczna teoria projektowania i obecna pragmatyka coraz bardziej się rozmijają. Wydaje się, że zastosowanie lekkich metod projektowania przynajmniej częściowo minimalizuje powstające różnice. Przeprowadzona analiza stara się wyjaśnić zaistniałe w tym zakresie wątpliwości oraz pokazuje, jak wybrać właściwą metodę dla określonego przypadku zarządzania projektem. 1. Wprowadzenie Zarządzanie projektami informatycznymi jest istotną, wiodącą częścią zarządzania projektami i najczęściej utożsamiane jest z analizą i projektowaniem systemów informatycznych oraz tzw. inżynierią oprogramowania. Kategorią najszerszą – z teoretycznego punktu widzenia – jest tu zarządzanie projektami utożsamiane z określoną dziedziną naukową, opartą na rozwiązaniach teoretycznych problemów praktycznych wynikających „z konieczności zaspokojenia zanalizowanych wymogów zleceniodawcy przy pomocy dostępnych umiejętności, wiedzy, metod, technik i narzędzi realizacyjnych” (Mingus 2009: 21). Jest to więc nauka o skutecznym osiąganiu zakładanych celów przy pomocy racjonalnego użycia zasobów (ludzkich, finansowych, materialnych itp. i relacji między nimi) w zakładanym czasie. Podmiotem zarządzania projektami jest niewątpliwie projekt, który może dotyczyć unikalnych przedsięwzięć realizowanych w różnych branżach, sektorach, w różnym czasie, zakresie, za pomocą różnych środków czy zespołów, w określonej strukturze organizacyjnej, instytucjonalnej itd. Na rozwój tej dziedziny naukowej największy jednak wpływ miały projekty informatyczne – ze względu na ich wielkość, złożoność, innowacyjność, ryzyko, wysokie koszty realizacji i związaną z tym konieczność zarządzania nie tylko wymienionymi elementami, ale również relacjami pomiędzy nimi. Zarządzanie projektami informatycznymi jest pojęciem najszerszym, obejmującym wszystkie aspekty vol. 10, nr 3 (38), 2012 25 Witold Chmielarz tworzenia, wdrożenia i wykorzystania systemów informacyjnych wspomagających zarządzanie, zarówno od strony praktycznej, jak i teoretycznej. Inżynieria systemów informatycznych koncentruje się na technologicznych aspektach tych procesów. Analiza i projektowanie systemów informatycznych – złożony proces organizacyjny – skupiony jest na pierwszych, głównie informacyjnych, ale kto wie, czy nie najważniejszych fazach cyklu życia systemu informatycznego. Cykl życia systemu informatycznego jest tu, jak się wydaje, kategorią kluczową, występującą we wszystkich rozpatrywanych obszarach metodycznych. Cykl życia systemu informatycznego jest w nich traktowany jako sekwencja etapów (faz) czynności wzorowanych na życiu organizmów, którego ostatecznym celem jest budowa, wdrożenie, modyfikacje i wycofanie (lub zastąpienie) systemu informatycznego, począwszy od pierwszego pomysłu na ten temat (narodziny) po jego likwidację (śmierć). Idea cyklu życia (projektu, systemu, procesów inżynierii) jest w tych wszystkich koncepcjach tożsama, różnice występują w liczbie i nazewnictwie etapów (faz), ich kolejności logicznej lub zrównolegleniu i następstwie oraz relacjach z otoczeniem, szczególnie z użytkownikiem finalnym. Różnice te nasiliły się w ostatnim dziesięcioleciu, wraz z momentem rozpoczęcia szerokiego stosowania tzw. metodyk lekkich (zwinnych – agile). Identyfikacja tych różnic wraz z wynikającymi z nich konsekwencjami jest głównym celem niniejszego artykułu. 2. Ogólna charakterystyka metod ciężkich (tradycyjnych) projektowania systemów informatycznych W cyklu życia systemu informatycznego wyróżnia się przeważnie poszczególne etapy (fazy), z których część może występować sekwencyjnie lub równolegle, jednokrotnie bądź wielokrotnie. W tworzeniu modeli cyklu życia projektu wyróżnia się metodyki: – ciężkie (klasyczne, tradycyjne), takie jak kaskadowa (liniowa), przyrostowa, ewolucyjna, baz danych, prototypowa, spiralna; – lekkie (nowoczesne, zwinne – agile), takie jak XP (eXtreme Programming), Scrum, Feature Driven Development (FDD), Dynamic System Development Method (DSDM) czy Adaptive Software Development (ASD)1. W kanonicznej (podstawowej, funkcjonującej jako punkt odniesienia) wersji projektowania systemów informatycznych cykl życia składa się z następujących etapów2: – inicjacji, wstępnego rozpoznania systemu (wykonalności, strategia rozwoju organizacji, identyfikacja systemu, analiza możliwości informatyzacji, postawienie problemu) – polegającego na: identyfikacji celu, problemów, stanu obecnego i perspektyw (w tym ryzyka wykonalności) rozwoju systemu informacyjnego lub jego zmian; 26 Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi – analizy informacyjnej systemu – na którą składa się identyfikacja otoczenia, łączności z otoczeniem, podsystemów, składowych systemu oraz obecnych i przyszłych warunków jego działania; – projektowania (technicznego) systemu – koncentrującego się na uszczegółowieniu założeń analitycznych, stworzeniu modelu logicznego i fizycznego przyszłego systemu lub ewentualnych zmian w funkcjonowaniu obecnego systemu; – oprogramowania systemu (kodowania, implementacji) – polegającego na oprogramowaniu modelu fizycznego, konstrukcji programu lub zestawu współpracujących ze sobą programów (systemu informatycznego); – testowania – czyli sprawdzenia pod względem semantycznym, technicznym i merytorycznym prawidłowości funkcjonowania systemu; – wdrożenia (zastosowania, aplikacji) – tj. uruchomienia (instalacji) i zainstalowania systemu u użytkownika końcowego, załadowania systemu parametrami niezbędnymi do jego funkcjonowania, podłączenia do aktualnych źródeł danych, ostatecznego szkolenia użytkownika końcowego; – eksploatacji (realizacji) – sprowadzającej się do uruchomienia użytkowego, monitoringu, oceny i modyfikacji systemu; – wycofania (zakończenia działalności) systemu – po badaniu opłacalności opracowania procedury przejścia na nowy system informatyczny zachowujący maksymalnie możliwą ilość pozytywnych cech starego systemu. Etapy i fazy modelu kanonicznego występują w różnych postaciach, wariantach i rozwinięciach zarówno w metodach tradycyjnych, jak i nowoczesnych. Podstawowa równica pomiędzy nimi polega – zgodnie z jednym podejściem (Chmielarz 2010: 359–402) – w zasadzie na tym, że: – w metodach tradycyjnych realizowane są kolejne etapy cyklu życia, w tym planowanie funkcjonalności (zakresu) wraz z niezbędnymi dla nich zasobami (materiałowymi, ludzkimi, informacyjnymi) oraz przypisanym im budżetem; – w metodach nowoczesnych następuje koncentracja na funkcjonalnościach, w trakcie realizacji których na bieżąco ustalane są (na ogół w porozumieniu z użytkownikiem) zasoby i budżet niezbędne do ich realizacji. Inni autorzy twierdzą (Mannaro 2008), że różnice te wyrażają się w podejściu przez metodyki tradycyjne i nowoczesne do problematyki zarządzania zmianą. W metodyce tradycyjnej wyraża się ono (na ogół) przyjęciem ukrytego założenia, że możliwe jest osiągnięcia założonego celu w trakcie jednego podejścia, którego parametry są ustalane a priori na początku cyklu. Dlatego metodyka ta jest najlepsza w tych projektach, które są stabilne, tzn. takie, w których nie są przewidywane zmiany wymagań czy technologii w trakcie realizacji projektu. Alternatywnie, nowoczesne metodyki są najbardziej odpowiednie dla projektów, w których przewiduje się wiele zmian podczas realizacji. Nie skupiają się one na rozpoznaniu wymagań i planowaniu działań, głownie na początku projektu dla całego jego przebiegu, ale na rozpoznaniu wymagań i potrzebnych zasobów w trakcie realizacji zadań szczegółowych. vol. 10, nr 3 (38), 2012 27 Witold Chmielarz Niemniej jednak kanon postaci cyklu życia projektowania systemów informatycznych wywodzi się z historycznego rozwoju metod zarządzania projektem informatycznym (szkół strukturalnych, operacyjnych, obiektowych i społecznych) z jednej strony i rozwoju technologii systemów z drugiej. Były to procesy długotrwałe, dynamiczne i radykalne – dlatego w teorii lepiej i bardziej szczegółowo są zaprezentowane i opisane tradycyjne metody projektowania. Najbardziej znanym, najczęściej używanym i najbardziej charakterystycznym z modeli postępowania w metodach tradycyjnych był model kaskadowy (rysunek 1). Przyjmowano w nim następujące założenia: – na początku każdego projektu istnieje stabilny zestaw potrzeb i wymagań informacyjnych użytkownika i celów, do których on dąży; – potrzeby nie zmieniają się w trakcie życia systemu; – proces budowy systemu odbywa się stopniowo, dopiero po skończeniu jednego etapu zaczynany jest następny; – każdy kolejny etap oznacza uszczegółowienie i przybliżenie do rzeczywistości; – powoduje to powrót do poprzednich etapów w momencie, gdy zostanie wykryty błąd i powstanie konieczność jego korekty. Niestety w rzeczywistości już założenie pierwsze na ogół się nie sprawdza (użytkownicy nie mają sprecyzowanych na wstępie potrzeb), może więc szybko nastąpić rozminięcie się z potrzebami użytkownika. Ponadto jest to bardzo droga kombinacja, ponieważ w przypadku realizacji przez firmę informatyczną tylko jednego projektu w danym czasie oznacza konieczność utrzymywania ekipy realizacyjnej częściowo bezrobotnej podczas realizacji następnych etapów. Ponadto w rzeczywistości często występuje nakładanie się poszczególnych etapów na siebie. W tej sytuacji istnieją liczne modyfikacje tego podejścia. Model kaskadowy nie jest jedynym, a tylko najprostszym modelem realizacji cyklu życia projektu. Nie uwzględnia wielu problemów, np. zarządzania ryzykiem. Jego zaletą, dzięki której jest lubiany i akceptowany przez użytkowników, jest prostota rozwiązań i fakt, że stał się podstawą innych metodyk, np. ewolucyjnej czy przyrostowej. Założenia modelu ewolucyjnego były następujące: – cały system jest dzielony na moduły; – każdy z nich odbywa przejście przez kolejne fazy cyklu budowy systemu; – na końcu działań projektowych przystępuje się do specjalnego etapu polegającego na integracji całego systemu i przeprowadzeniu testów; – w systemie podzielonym na części, których realizacja jest przesunięta w czasie, łatwiej nadążać za zmieniającym się celem działania; – ponieważ każdy moduł stanowi początkowo organicznie odrębną część, należy zwrócić uwagę na niebezpieczeństwo związane z koniecznością integracji modułów w całość (bardzo często staje się to główną przyczyną niepowodzeń realizacji projektu). 28 Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi Wycofanie Proces weryfikacji systemu Eksploatacja Postępy prac Wdrożenie Testy Oprogramowanie Projekt Analiza Rozpoznanie Czas Rys. 1. Schemat ideowy modelu kaskadowego. Źródło: opracowanie własne. Jest to rozwiązanie tańsze w realizacji od poprzedniego, ponieważ może – po przesunięciu realizacji poszczególnych modułów w czasie – być obsługiwane przez mniejszą liczbę personelu. Kiedy analitycy kończą pracę nad jednym modułem, przechodzą do następnego, a ich miejsce zajmują programiści. Model ewolucyjny niestety nie zawsze spełniał pokładane w nim nadzieje. Poszczególne podsystemy – dla dużych projektów budowane przez różne zespoły – nawet pomimo tworzenia specjalnych procedur integracyjnych, nie zawsze w pełni dawały się zintegrować ze względu np. na różną wizualizację mechanizmów funkcjonowania. Brakowało w nich wyraźnie spójnych założeń dla całego systemu informatycznego. Dlatego właśnie model kaskadowy ewoluował dalej – do stworzenia modelu przyrostowego. Model przyrostowy charakteryzował się następującymi założeniami. – przeprowadzane jest rozpoznanie i analiza dla całości systemu, dzięki której powstaje całościowa koncepcja wstępna systemu, poparta ogólną analizą całego systemu; – następnie system podzielony na moduły realizacyjne jest projektowany, programowany i testowany kolejno dla każdego z nich przez dziedzinowe zespoły robocze wykonujące projekty techniczne dla każdego modułu i je testujące; – spójność systemu zapewniają pierwotne założenia systemu oraz wspólne końcowe etapy instalacji i wdrożenia, w których przeprowadzana jest też pełna integracja systemu. Jest to procedura, podobnie jak poprzednia, najlepiej sprawdzająca się przy ograniczonych środkach, którymi dysponuje zespół realizujący system. Każdy z podsystemów może być realizowany oddzielnie, cały zespół pracuje jedynie na początku, podczas tworzenia całościowej koncepcji rozwiązania systemu, oraz na końcu, w trakcie integracji poszczególnych podsystemów vol. 10, nr 3 (38), 2012 29 Witold Chmielarz w jedną organiczną całość. Procedura przyrostowa jest lepsza od ewolucyjnej, ponieważ mechanizmy integracyjne działają zarówno na początku, jak i na końcu procesu tworzenia systemu. Na początku cyklu, oprócz rozpoznania i analizy, tworzone są także wspólne normatywy i zasady wykonania projektu każdego modułu. Ułatwia to późniejszą integrację na etapach końcowych. W cyklu ewolucyjnym oraz przyrostowym można też w ograniczony sposób reagować na zmiany wymagań użytkownika. Zupełnie odrębną systematykę zakłada model tworzenia struktury baz danych (Freya). W cyklu życia opartego na tworzeniu struktury bazy danych wyróżnia się na ogół następujące fazy: – rozpoznania i analizy – gdzie następuje rozpoznanie i zebranie potrzeb informacyjnych użytkowników; – projektu technicznego, składającego się z dwóch etapów, dotyczących tworzenia projektu logicznego, czyli opisu modelu danych i przyszłych procesów w systemie, oraz projektu fizycznego, czyli projektu struktury bazy danych (zbiorów i relacji pomiędzy nimi), wzorców dokumentów, technologii przetwarzania, specyfikacji wewnętrznych itp.; – oprogramowania i testowania – polegającego na stworzeniu bazy danych i oprogramowanie zastosowań (aplikacji) opartych na danych zawartych w bazie danych oraz testowaniu oprogramowania; – wdrożenia – zainstalowania oprogramowania w określonej platformie i konfiguracji sprzętowej i wprowadzenia parametrów określonych przez użytkownika w celu kastomizacji i przygotowania systemu do eksploatacji; – eksploatacji użytkowej i kontroli – polegającej na roboczym użytkowaniu systemu oraz zapewnieniu poprawności z ustalonymi normatywami i wymogami użytkownika; – potencjalnych modyfikacji i adaptacji – czyli udoskonalenia funkcjonowania w wyniku pojawienia się nowych potrzeb; w razie potrzeby powrót do etapów początkowych. Zasadnicza idea tego cyklu życia polega na stworzeniu na początku projektu struktury bazy danych systemu i oprogramowania bazy danych, co umożliwia rejestrację podstawowych faktów z życia organizacji, a następnie obudowanie bazy danych oprogramowaniem aplikacyjnym, które wykorzystuje dla różnych aplikacji te same dane zawarte w bazie danych do obsługi sprzedaży, dostaw, kontaktów z kontrahentami itp. W ten sposób powstawało i jest wykorzystywanych do dziś wiele złożonych systemów opartych na bazie danych. Jest to jednak metoda, gdzie użytkownik końcowy rezultaty działania projektanta i programisty ogląda dopiero po uruchomieniu bazy danych oraz pierwszych aplikacji. Dopiero wtedy może też sprawdzić ich zgodność z założeniami ustalanymi z zespołem projektowym. Znacznie szybciej uwidacznia się to podczas zastosowania modelu prototypowego. Istotą modelu prototypowego jest oprogramowanie na początku działań projektowych – schematu działania systemu, najlepiej razem z przyszłym użytkownikiem. Cel takiego postępowania jest następujący: 30 Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi – redukcja czasu oczekiwania na rezultaty programowe i wykazanie się wobec użytkownika końcowego uchwytnymi (dla niego) efektami realizacyjnymi; – szybkie „sprzężenie” użytkownika z zespołem projektowym; – ograniczenie liczby błędów oraz iteracyjnych (potencjalnych) rozmów z użytkownikiem, np. na temat wizualizacji systemu; – większe zaangażowanie użytkownika w analizę i projekt. Model ten składa się z następujących etapów: – rozpoznania i analizy potrzeb użytkownika; – projektu technicznego wraz z generacją oprogramowania – w trakcie tego etapu powstaje prototyp, który następnie jest sukcesywnie poprawiany w interakcji z użytkownikiem; – po testach kolejnych wersji prototypu i jego udoskonaleniach oraz instalacji system jest przekształcany w wersję ostateczną, która przekazywana jest do eksploatacji i – w miarę potrzeb – modyfikowana z użyciem narzędzia, za pomocą którego została stworzona. Sprawna realizacji systemu prototypowego wymaga zastosowania dobrego oprogramowania klasy CASE (Computer Aided System Engineering), co niestety powoduje, że jego bezpośrednie i pełne zastosowanie bywa ograniczone poprzez własności tego narzędzia. A dodatkowo zwiększa koszty projektu. Dlatego, pomimo niewątpliwych zalet tego podejścia, wielu projektantów i programistów woli stosować jedno z podejść klasycznych. Najbardziej rozwiniętą formą tradycyjnego modelu cyklu życia jest natomiast model spiralny. Fazy realizacji modelu spiralnego są następujące: – ustalenie celów działania – dotyczy definicji konkretnego celu systemu oraz uzasadniania koncepcji i ustalania planów jego realizacji; budowa modelu rozpoczyna się od inicjacji i definiowania projektu (ustalenia wstępnych wymagań), a następnie polega na analizie wstępnej ryzyka realizacji projektu; na tej podstawie buduje się pierwszy prototyp i tworzy konceptualny plan (harmonogram) całości projektu; – rozpoznanie i redukcja zagrożeń – po kolejnej fazie analizy ryzyka pierwszego prototypu (identyfikacja najważniejszych zagrożeń, źródeł i sposobów zapobiegania zagrożeniom) oraz zbadania ewentualnych alternatyw budowany jest następny prototyp projektu i tworzy się wymagania dotyczące ograniczeń i zasobów projektu; – tworzenie i zatwierdzanie – w tej fazie następuje proces rozwoju kolejnej części produktu, oparty na najbardziej odpowiednim modelu, wybranym na podstawie oceny zagrożeń; kolejno powstaje plan realizacji projektu i odbywa się kolejny etap zakończony planem całości projektu; – ocena i planowanie – to faza, w której recenzowany jest postęp prac oraz planowana jest kolejna bądź ostateczna faza projektu; ostatni obieg cyklu przynosi projekt szczegółowy, testy i realizację projektu oraz jego zamkniecie. Model ten różni się od pozostałych wielokrotnym powtarzaniem poszczególnych faz podstawowego modelu cyklu życia oraz – po każdym „podcyklu” vol. 10, nr 3 (38), 2012 31 Witold Chmielarz – następuje dalsze uszczegółowienie modelu oraz analiza ryzyka zakończonej sukcesem wykonalności całego systemu w danym momencie rozwoju. Jest to najbardziej skomplikowany i najdroższy w realizacji model cyklu życia systemu informatycznego, stosowany do rozwiązywania najbardziej skomplikowanych i trudnych problemów tworzenia systemów, np. militarnych. Tak jak inne modele klasyczne oparte na prototypowaniu i analizie ryzyka najbardziej zbliżony jest do podejścia nowoczesnego. Grupa metodyk tradycyjnych istnieje od dawna. Reżim, który nakładają na rozwój projektu, dyscyplinuje w pewnym sensie sposób postępowania w trakcie realizacji projektu. Nie daje to jednak gwarancji, że projekt zakończy się sukcesem. Metody te są tak bardzo „sztywne” i ustrukturyzowane, że przestrzeganie wszystkich kroków, formuł i procedur znacząco spowalnia cały proces rozwoju projektu. Charakteryzują się one następującymi cechami: – Przewidywalne i powtarzalne podeście do procesu rozwoju projektu. W klasycznych metodykach zakłada się zwiększającą się szczegółowość w miarę realizacji poszczególnych faz i etapów rozwoju projektu i obejmowanie całego okresu od początku do końca projektu. Do analiz przeprowadzanych na bardzo niskim stopniu abstrakcji stosuje się na ogół deterministyczne techniki szczegółowe. Wynik uzyskany za ich pomocą jest prawdziwy dopóki przynajmniej jedno z założeń początkowych nie zostanie zmienione. Zakłada się więc deterministyczny, niezmieniany, nieadaptowany i mało elastyczny harmonogram, budżet i zasoby oraz budowany na tej podstawie pełen podział zadań dla każdego zespołu tworzącego produkt lub usługę. – Obszerna dokumentacja. Tradycyjne podeście do realizacji projektu zakłada, że dokumentacja jest tworzona po każdej fazie, każdym etapie cyklu życia projektu. W najbardziej konwencjonalnej formie modelu kaskadowego przyjmuje się, że zakres oraz wymagania dotyczące użytkownika są zbierane i ustalane w pierwszej fazie cyklu, a następnie na ich podstawie tworzony jest produkt lub realizowana usługa. Nie zmienia się tych założeń do końca cyklu życia projektu; część zebranych i przekształconych w zalecenia wykonawcze informacji i dokumentów wymaga przez to zmian w trakcie realizacji projektu. – Zorientowanie na proces. Celem klasycznych metodyk jest w zasadzie określenie procesu czy procesów, które będą uniwersalne i powtarzalne, czyli będą funkcjonowały w prawidłowy sposób i będą przydatne dla każdego, kto będzie ich używał, w każdej sytuacji, w której wydadzą się przydatne. Każdy proces składający się z zadań/czynności powinien być wykonywany według określonych z góry procedur przez określoną, przypisaną do niego i odpowiedzialną za niego grupę pracowników/wykonawcę. – Zorientowanie na narzędzia i techniki wspomagające realizację. Do wykonania każdego określonego w projekcie zadania powinny być dostarczone odpowiednie narzędzia wspomagające zarządzania. 32 Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi 3. Przegląd lekkich (nowoczesnych) metod projektowania systemów informatycznych Na drugim biegunie znajdują się metody lekkie (zwinne – agile) projektowania. Ich zasadniczym celem jest maksymalne zwiększenie wartości produktu w porównaniu z jego aktualnym stanem, przy założonych kosztach i w określonym czasie. W Manifeście rozwoju zwinnego oprogramowania (Beck i in. 2010) zwraca się uwagę na konieczność cenienia sobie bardziej ludzi i interakcji pomiędzy nimi niż procesów i narzędzi, działający rezultat projektu ponad obszerną dokumentację, współpracę z klientem ponad formalne ustalenia oraz reagowanie na zmiany ponad podążanie za planem. Odpowiada to postulatom wymienionych dotychczas zmian, które wynikają z ewolucji poglądów na same projekty i zarządzanie nimi. Głównym czynnikiem różniącym metody zwinne od tradycyjnych jest uznanie ludzi jako podstawowego czynnika sukcesu projektu, który połączony jest z intensywnym naciskiem na skuteczność i uwzględnienie zmian (Kendall i Kendall 1999). Jest też to swoista odpowiedź na wyzwania biznesowe powstałe z wyniku ukształtowania się szybko zmieniających się globalnych rynków. Poniżej przestawione są założenia metodyk zwinnych, które traktować można również jako główne różnice pomiędzy tradycyjnymi metodykami zarządzania projektami (Awad 2005; Koszlajda 2010): – Zorientowanie na interesariuszy projektu. Jest to według tych metodyk najważniejszy czynnik związany z rozwojem projektu (co zgadza się z obserwacjami m.in. Standish Group) – najważniejszym zadaniem dla kierowników zespołów „zwinnych” projektów jest to, żeby kłaść większy nacisk na ludzi wraz z ich umiejętnościami, takimi jak: ambicje, zdolności, oraz na wzajemną komunikację (Highsmith i Cockburn 2004). Jeżeli ludzie zaangażowani w projekt nie są, wtedy żaden proces nie naprawi ich nieadekwatności. – Adaptacyjność (nieosiągalna idée fixe metod tradycyjnych). W tym podejściu kładzie się nacisk na zarządzanie zmianą. Sprzyja to przekazaniu użytkownikowi własnej wiedzy większej niż minimalna zakładana projektem (Sully 1993). Zarządzanie zmianą zakłada ciągłą reakcję na ciągłe zmiany zachodzące w projekcie. Najtrudniejsze do oceny i reakcji są zewnętrzne zmiany środowiskowe. Ponieważ nie jest możliwa ich eliminacja, należy dążyć do minimalizacji kosztów z nimi związanych. – Zgodność z rzeczywistością. Zwraca się bardziej uwagę na zgodność otrzymanych rezultatów z uzyskanymi wynikami projektu niż na zgodność z wynikami początkowo zakładanymi (zgodność nie z planem, ale z założeniami biznesowymi). – Elastyczność planowania. Podstawowym problemem planowania projektu jest brak możliwości przewidzenia implikacji rozwoju planów przedsięwzięć innowacyjnych (wszystkie projekty powinny należeć do tej kategorii), ponieważ środowisko, w którym powstają, jest wysoce vol. 10, nr 3 (38), 2012 33 Witold Chmielarz – – – – – 34 dynamiczne. W „zwinnych” projektach wykonawcy muszą zastanowić się, jak mogą uniknąć nieodwracalności swoich decyzji wymuszonych przyzwyczajeniem do praktyki szczegółowego projektowania tradycyjnego, które prowadzi do daleko posuniętej szczegółowości. Zamiast próbować podjąć właściwe decyzje na początku każdego cyklu (projektowanie tradycyjne), lepiej je podjąć w taki sposób, żeby w następnych etapach można było je odwrócić. Oparcie się na procesach empirycznych. W metodach tradycyjnych procesy występują jako deterministyczne i liniowe, w metodach „zwinnych” jako proces empiryczny (probabilistyczny, źle lub słabo ustrukturalizowany) bądź nieliniowy. Proces deterministyczny to taki, w którym od rozpoczęcia do zakończenia można za każdym razem spodziewać się takich samych wyników. Projektów, poprzez cechę wyjątkowości, jednorazowości itp., nie można zdefiniować jako procesów deterministycznych, ponieważ w czasie ich realizacji może się rozwijać i produkt, i zespół projektowy. Jest bardzo mało prawdopodobne, aby jakikolwiek zestaw predefiniowanych kroków doprowadził do pożądanego, przewidywalnego wyniku, ponieważ zmieniają się wymagania technologiczne oraz ludzie wewnątrz zespołu projektowego. Wykorzystanie podejścia zdecentralizowanego. Zdecentralizowany styl zarządzania może znacząco wpłynąć na projekt, ponieważ może on zaoszczędzić więcej czasu niż podeście autokratyczne. W metodykach lekkich deleguje się część zadań związanych z podejmowaniem decyzji do wszystkich członków zespołu. Prostota. W projektowaniu prowadzonym metodykami lekkimi zawsze wybierana jest najprostsza droga prowadząca do celu. Zakłada się łatwe zmiany modelowe, które dostosowywane są do bieżących potrzeb i mogą następować w różnych terminach. Nie wytwarza się większej funkcjonalności niż ta, która jest w danym momencie konieczna, ani dokumentacji próbującej przewidzieć przyszłość projektu. To zmniejsza koncentrację na znalezienie informacji potrzebnych do tych predykcji (Gibson i Hughes 1994). Oparcie się na współpracy z odbiorcą (użytkownikiem) i współpracy wewnętrznej. Klient projektu powinien ściśle współpracować z zespołem projektowym, zapewniając mu wszelkie potrzebne informacje, oraz zgłaszać bieżące uwagi i komentarze do projektu. Ze względu na decentralizację zespół wykonawczy w metodykach „zwinnych” powinien się w sposób ciągły komunikować ze sobą. Funkcjonowanie poprzez małe, samoorganizujące się zespoły. W zespołach takich obowiązki i zadania przekazywane są do zespołu jako całości, a zespół, rozdzielając je, zapewnia najlepszy sposób ich realizacji. W małych zespołach najlepiej sprawdza się idea ciągłej komunikacji. Struktura procesu i konkretne praktyki tworzą minimalne, elastyczne ramy strukturalne dla zespołów samoorganizujących. Odpowiednie Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi ich wykorzystanie znacznie zmniejsza ryzyko związane z czynnikiem ludzkim. Jako przykład metodyki projektowania lekkiego przedstawiono metodykę Scrum. Jest to iteracyjna metodyka oparta na zarządzaniu zmianą, koncentrująca się na ciągłych, twardych negocjacjach pomiędzy graczami: użytkownikiem maksymalnie możliwego elastycznego systemu informatycznego a zespołem projektowym. Nazwa nawiązuje do sytuacji występującej podczas gry w rugby. Termin scrum (młyn) oznacza w niej rzut wolny, w którym spleceni ze sobą gracze przeciwnych drużyn przepychają się (negocjują) nad piłką (celem) (Jaszkiewicz 1997). Scrum jest jednocześnie metodyką prototypowo-przyrostową – wartość dodana projektu powstaje w wyniku zastosowania w kolejnych iteracjach faz cyklu życia systemu określonych narzędzi (przeciwdziałających potencjalnemu ryzyku realizacyjnemu), wynikających z wypracowanych dobrych praktyk dla małych i średnich, ale za to złożonych projektów (Rising i Janoff 2000: 26–32). Podstawowe używane w metodzie Scrum praktyki projektowania można sprowadzić do następujących: – tworzenie rejestru zamówień (product backlog) – czyli listy wszystkich wymagań użytkownika: funkcji i ustalonych z realizatorem zmian wraz z priorytetami, czekających na realizację (odpowiedzialny użytkownik końcowy – właściciel produktu, product owner); – cykl pracy – przebieg (sprint) – etap pracy zespołu projektowego (od jednego do sześciu tygodni, z zaleceniem regularności i jednolitości długości trwania każdej iteracji, np. miesiąc); w każdym cyklu jest dostarczana użytkownikowi do przetestowania i oceny następna działająca wersja prototypu produktu; – planowanie cyklu pracy – przebiegu (sprint planning meeting) – składa się z dwóch części: analizy i projektu realizacji; w pierwszej wraz ze wszystkimi użytkownikami zespół projektowy ustala kompletny (w danym momencie) zbiór celów i funkcji systemu, w drugiej zaś kierownik projektu (scrum master) z zespołem uzgadnia najlepszy sposób realizacji produktu podczas danego przebiegu; – tworzenie rejestru zamówień dotyczącego konkretnego przebiegu (sprint backlog) – listy nowych lub zmienionych funkcjonalności przypisanej do kolejnego przebiegu; w momencie jej realizacji powstaje nowa wersja prototypu; – weryfikacja postępu prac (daily scrum meeting) – odbywa się w trakcie obowiązkowych codziennych spotkań zespołu projektowego; polega na identyfikacji niezbędnych zmian i określenia warunków ich realizacji przez zespół (na zasadach samorealizacji). Cykl życia w metodzie Scrum (rysunek 2) przebiega według następującego schematu: – rozpoznanie ogólnych wymagań i wstępna analiza informacyjna całości systemu; vol. 10, nr 3 (38), 2012 35 Witold Chmielarz – – – – rozpoznanie i analiza dla kolejnego, bieżącego przebiegu; planowanie przebiegu (analiza i projekt techniczny); bieżąca weryfikacja założeń w trakcie codziennych spotkań; realizacja systemu i generacja oprogramowania kolejnego prototypu – konstruowanie i zastosowanie; – testowanie systemu po kolejnym przebiegu; – eksploatacja i potencjalne przyszłe modyfikacje systemu. Rozpoznanie ogólnych wymagań użytkownika (Product Backlog) Rozpoznanie wymagań użytkownika dla kolejnego przebiegu (Sprint Backlog) Analiza informacyjna danego przebiegu Bieżąca weryfikacja kolejnego prototypu (Daily Scrum Meeting) Projekt techniczny i jego ewentualna modyfikacja – jeśli potrzebna po bieżącej weryfikacji Planowanie przebiegu (Sprint Planning Meeting) Realizacja systemu i generacja oprogramowania kolejnego prototypu – konstruowanie, zastosowanie (Sprint Product) Testowanie systemu po kolejnym przebiegu przez użytkownika, weryfikacja – jeśli potrzebna Eksploatacja i potencjalne przyszłe modyfikacje systemu Rys. 2. Cykl życia systemu informatycznego w metodyce Scrum. Źródło: opracowanie własne na podstawie K. Schwaber i M. Beedle 2001. Agile Software Development with Scrum, Prentice Hall; K. Schwaber 2005. Sprawne zarządzanie projektami metodą Scrum, Warszawa: Promise. Przed każdym przebiegiem odbywa się spotkanie zespołu realizacyjnego z użytkownikami, identyfikujące priorytetowe zadania (określenie zakresu, zawartości i intencji użytkownika) oraz konwertujące je w funkcjonalności przyszłego systemu. Na tej podstawie tworzony jest plan wykonania oprogramowania w bieżącej iteracji (priorytety, podział obowiązków, szczegółowe działania). Natomiast na początku każdego dnia przebiegu (w niektórych interpretacjach tej metodyki – na zakończenie dnia) w trakcie spotkania zamkniętego zespołu projektowego odbywa się bieżąca weryfikacja realizacji 36 Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi zadań (stan wykonania, problemy ogólne i szczegółowe realizacji oraz jednostkowe sposoby ich rozwiązania). Ma na celu koordynacje i synchronizację dziennej pracy członków zespołu. Po każdej iteracji odbywa się natomiast spotkanie z użytkownikiem w celu prezentacji produktu kolejnej iteracji i określenia, czy realizuje on kierunek zmian przez niego oczekiwany. Ma ono pomóc klientowi w określeniu, czy i co w następnej kolejności powinno być wykonywane. Na podstawie wniosków z tego spotkania produkt zostaje przekazany do testowania i użytkowania lub, w kolejnej iteracji, do dalszych modyfikacji. 4. Kryteria wyboru pomiędzy metodykami tradycyjnymi i nowoczesnymi Przeprowadzona powyżej analiza wykazała, że istnieje wiele metodyk zarządzania projektami i nie ma jednej właściwej dla wszystkich przypadków metodyki uniwersalnej. Metodyki są tylko pewnym zbiorem wzorców, zasad oraz formuł, które pomagają w uniknięciu błędów, lecz zupełnie ich nie usuwają. Pomimo to konsekwentnie wdrożona metodyka daje poczucie kontroli nad przedsięwzięciem, utrzymywania pełnego zaangażowania wszystkich zainteresowanych stron oraz uzasadnia poczucie bezpieczeństwa realizacji strategii biznesu sponsora. W związku z powyższym każdy projekt informatyczny wymaga zdefiniowania metodyki, według której będzie prowadzony. W najbardziej ogólnym sposób – opierając się na wcześniej zdefiniowanych cechach charakterystycznych metodyk tradycyjnych i nowoczesnych – możemy stwierdzić, że wybór ten określa szereg czynników związanych z konkretnym projektem (jego wielkością, branżą, w której jest realizowany, czynnikiem ludzkim w projekcie i dodatkowymi wymogami realizacyjnymi itd.). Niemniej jednak wstępną listę kryteriów pomocniczych wyboru można oszacować na podstawie takich zmiennych, jak: – Rodzaj i harmonogram finansowania prac zawarty w umowie z klientem. Jeżeli zakłada się wykładniczy, to powinny to być metodyki zwinne. W tych metodykach przyjmuje się, że czynnikami ważniejszymi niż negocjowanie kontraktów są zaufanie i współpraca partnerów biznesowych (przynajmniej deklaratywnie). W trakcie podpisywania umowy i wstępnego ustalania harmonogramu albo przyjmuje się realizację budżetu od początku korzystną dla klienta (powoli rosnącą na początku projektu, wykładniczo wraz z przekazywaniem uzgodnionych, przyjmowanych przez użytkownika produktów), albo na kontraktach o niewielkim stopniu ryzyka dla realizatora projektu (np. umowy z refundowanym kosztem według cen stałych). Jeżeli natomiast zakłada się logarytmiczną funkcję realizacji budżetu (wysoką w stadiach początkowych, stabilizującą się w późniejszych fazach projektu), to – zwłaszcza dla firm o ugruntowanej pozycji na rynku – opłaca się przyjąć jedną z metodyk klasycznych. vol. 10, nr 3 (38), 2012 37 Witold Chmielarz – Typ budżetu. Nierównomiernie rozłożony w czasie budżet projektu, wymuszający różną intensywność prac oraz wysoki stopień niepewności, wskazuje na efektywniejsze użycie metodyki zwinnej. Zaś budżet finansujący projekt w sposób równomierny i stały w czasie sugeruje wykorzystanie metodyki klasycznej. – Charakter ustaleń harmonogramu. Narzucone w harmonogramie sztywne założenia czasowe w stosunku do zaplanowanych zadań przemawiają na korzyść zastosowania metodyk klasycznych. Przybliżone lub relatywne terminy realizacji sugerują użycie metod zwinnych. – Ilość i poziom wymaganej dokumentacji oraz poziom jakości oprogramowania. Spełnienie złożonych wymagań związanych z formalnymi standardami dokumentacji, licencjami czy certyfikacji wskazuje na konieczność zastosowania klasycznej metodyki zarządzania projektem. Natomiast projekt, w którym nacisk kładziony jest na jakość oprogramowania i możliwości jego rozwoju, jest zgodny z filozofią metodyk zwinnych. – Podejście do ryzyka projektowego – niskie ryzyko projektowe obsługują lepiej metodyki zwinne. Wysokie ryzyko w projekcie wymusza stosowanie metodyk klasycznych, w których zakłada się tworzenie planów minimalizacji ryzyka lub sytuacji awaryjnych. – Komunikacja z klientem. Metodyki zwinne zakładają ciągłą oraz bezpośrednią komunikację z klientem. Zmniejszane są więc wszelkie czynniki związane z niezrozumieniem realizowanych zadań. W metodykach klasycznych preferuje się rzadszy kontakt z klientem, co prowadzi bardzo często do nieporozumień w momencie prezentacji i przekazania zrealizowanego systemu. – Struktura organizacyjna konieczna do realizacji projektu. Przedsiębiorstwa o strukturze hierarchicznej lub pokrewnych, zawierające w swoich strukturach ściśle wyspecjalizowane jednostki, będą preferować metodyki klasyczne. Przedsiębiorstwa o strukturze np. macierzowej, projektowej lub innej, w której mogą sobie pozwolić na delegowanie zadań projektowych do mniejszych zespołów, w których nie ma ściśle zdefiniowanej hierarchii organizacyjnej, powinny zdecydować się na wybór metodyki klasycznej. – Sektor/branża realizacji projektu związana często ze strukturami organizacyjnymi też znacząco wpływa na realizację projektu. Branże, które na wejściu mają niewielką liczbę surowców i materiałów, a na wyjściu gotowych produktów, lepiej nadają się do użycia w trakcie projektowania systemu metod klasycznych. – Wielkość projektu. Część środowisk programistycznych związanych z wdrożeniami wielkich systemów uważa, że metody klasyczne lepiej nadają się do realizacji tego typu projektów. W metodykach zwinnych (a zwłaszcza omawianej Scrum) trudno przy wielkich projektach, nawet powtarzalnych, skoordynować działania wielu małych grup realizujących projekt. – Rodzaj systemu, dla którego projekt jest realizowany. Systemy eksperckie lub oparte na bazie wiedzy wymagają bardzo często dużej wiedzy o reali38 Problemy Zarządzania Kryteria wyboru metod zarządzania projektami informatycznymi zowanym zagadnieniu. Jeśli są to systemy z założenia konstruowane jako samouczące, zaleca się stosowanie metodyk nowoczesnych, w przeciwnym przypadku – dla systemów opartych na ustalonych wzorcach postępowania – metodyk klasycznych. – Czynniki psychologiczne, np. doświadczenie zespołu realizacyjnego w stosowaniu metodyk zwinnych lub klasycznych, zaufanie organizacji, w której projekt jest realizowany do zespołu projektowego, wysoki stopień wykorzystania w zespołach mieszanych specjalistów ze strony przyszłego użytkownika itp. Powyższa lista czynników nie jest ani kompletna, ani wystarczająca. Bardzo trudno jest bowiem ex ante ocenić, która ze znanych metodyk w przedstawionym układzie jest najlepsza dla realizowanego projektu. Tak więc coraz więcej organizacji utrzymujących się z realizacji projektów jest zainteresowanych zarządzaniem przez projekt, polegającym w praktyce (upraszczając sytuację) głównie na równoległym prowadzeniu jak największej liczby projektów. Umożliwia to nie tylko porównanie ich cech charakterystycznych (harmonogramów, kosztów, zasobów) realizowanych dla różnej wielkości firm, w wielu branżach, w wielu lokalizacjach, ale również skuteczności metody prowadzenia projektów, aż do zaproponowania własnej. Pozwala to również przecież na wielowymiarową ocenę (w tym porównawczą, efektywności itd.) prowadzonych projektów i dostarcza kierownikom projektów wzorców dobrych praktyk zarządzania oraz ocenę efektywności poszczególnych jednostek organizacyjnych prowadzących projekty. Analizy wykonania projektów dostarczają też przesłanek do współdzielenia zasobów projektów (w tym technologii, know-how itp.), rozliczenia czasu i kompetencji wykonawców oraz wyceny generowanych w projekcie produktów lub usług. Zarządzanie przez projekty jest stylem zarządzania doskonalącym przedsiębiorczość i będącym swoistym „złotym środkiem” pomiędzy rzeczywistymi potrzebami firmy zleceniodawcy (określonej przez jej specyfikę) a wiedzą (teoretyczną i praktyczną) i metodami zarządzania projektami (Stabryła 2006). Ta pragmatyka podejścia umożliwia tworzenie wzorców postępowania podczas realizacji poszczególnych rodzajów projektów, co ułatwia tworzenie strategii nie tylko organizacji utrzymujących się z tworzenia i wdrażania projektów (i coraz częściej – nie tylko informatycznych) oraz niewątpliwie w ostatecznym rozrachunku wybór metodyk zarządzania projektem. Informacje o autorze Prof. dr hab. Witold Chmielarz – Katedra Systemów Informacyjnych Zarządzania, Wydział Zarządzania Uniwersytetu Warszawskiego. E-mail: [email protected]. Przypisy 1 Więcej na ten temat np. w: Chmielarz 2010: 359–402. 2 Patrz też: Chmielarz i Klincewicz 2010: 238–252. vol. 10, nr 3 (38), 2012 39 Witold Chmielarz Bibliografia Awad, M.A. 2005. A Comparison between Agile and Traditional Software Development Methodologies, The University of Western Australia, http://www.scribd.com/doc/55475190/A-ion-Between-Agile-and-Traditional-SW-Development-Methodologies, odczyt: marzec 2012. Beck, K. i in. 2010. Manifesto for Agile Software Development, Agile Alliance, 2001, Retrieved 14 June 2010, http://www.pmbriefcase.com/methodologies/50-softwaredevelopment/55-agile-software, odczyt: kwiecień 2012. Chmielarz, W. 2010. Projektowanie systemów informatycznych, w: J. Zawiła-Niedźwiecki, K. Rostek i A. Gąsiorkiewicz (red.) Informatyka gospodarcza, t. 1, s. 359–402. Warszawa: C.H. Beck. Chmielarz, W. i K. Klincewicz 2010. Zarządzanie w kontekście zmian, w: J. Bogdanienko (red.) Organizacja i zarządzanie w zarysie, s. 238–252. Warszawa: Wydawnictwo Naukowe WZ UW, Dom Wydawniczy Elipsa. Gibson, M. i G. Hughes 1994. Systems Analysis and Design. A Comprehensive Methodology with CASE, Boyd & Fraser. Highsmith, J. i A. Cockburn 2004. Agile Software Development: The Business of Innovation. IEEE Computer, nr 6 (36), http://www.jimhighsmith.com/articles/IEEEArticle1Final.pdf, odczyt: kwiecień 2012, DOI: 10.1109/2.947100. Jaszkiewicz, A. 1997. Inżynieria oprogramowania, Gliwice: Helion. Kendall, K. i J. Kendall 1999. Systems Analysis and Design, Upper Saddle River: Prentice Hall. Koszlajda, A. 2010. Zarządzanie projektami IT. Przewodnik po metodykach, Gliwice: Helion. Mannaro, K. 2008. Adopting Agile Methodologies in Distributed Software Development, Wydział Inżynierii Elektrycznej i Elektroniki Uniwersytetu Cagliari, http://www.diee. unica.it/DRIEI/tesi/19_mannaro.pdf. Mingus, N. 2009. Zarzadzanie projektami, Gliwice: Helion. Project Management Institute 2004. A Guide to the Project Management Body of Knowledge (PMBOK Guide), Third Edition. Rising, L. i N.S. Janoff 2000. The Scrum Software Development Process for Small Teams. IEEE Software, nr 17, s. 26–32, DOI: 10.1109/52.854065. Schwaber, K. 2005. Sprawne zarządzanie projektami metodą Scrum, Warszawa: Promise. Schwaber, K. i M. Beedle 2001. Agile Software Development with Scrum, New Jersey: Prentice Hall. Stabryła, A. 2006. Zarządzanie projektami ekonomicznymi i organizacyjnymi, Warszawa: Wydawnictwo Naukowe PWN. Sully, P. 1993. Modelling the World with Objects, New Jersey: Prentice Hall. 40 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 41 – 53 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.3 Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych – próba klasyfikacji pod kątem barier i działań nim obarczonych Tomasz Parys Zasadniczym celem niniejszego opracowania jest ukazanie miejsca, jakie zajmuje ryzyko w projekcie wdrożeniowym zintegrowanego systemu informatycznego. Przybliżono podstawowe zagadnienia związane ze specyfiką projektu wdrożeniowego, podano definicję ryzyka oraz omówiono jego podział i obszary występowania, a także kluczowe jego czynniki. Zasadniczą część artykułu stanowi prezentacja autorskiej koncepcji klasyfikacji ryzyka oraz opis poszczególnych kategorii w kontekście działań nim obarczonych. 1. Wprowadzenie Decyzja o informatyzacji jest wielkim wydarzeniem w działalności każdego przedsiębiorstwa. Związana jest zazwyczaj z wielkimi nadziejami, którym towarzyszą nie mniejsze obawy. Informatyzacja to z jednej strony ogromne koszty, z drugiej zaś konieczność przeprowadzenia wielu zmian zarówno w sferze organizacji działania, jak i metod działalności biznesowej. Każde wdrożenie, jako przedsięwzięcie informatyczne wywołujące zmiany w przedsiębiorstwie, jest obarczone ryzykiem niepowodzenia. W niniejszym opracowaniu po syntetycznym przedstawieniu zagadnień związanych w definicją ryzyka oraz jego cechami podjęto próbę klasyfikacji działań wdrożeniowych i związanego z nimi ryzyka wraz zakresem oddziaływania na projekt wdrożeniowy. 2. Specyfika projektu wdrożeniowego Projekt informatyczny można zdefiniować jako „przedsięwzięcie o charakterze tymczasowym, nastawione na stworzenie unikalnego produktu lub usług, (...) które wykorzystując narzędzia informatyczne bazujące na technologii komputerowej, przyczynią się do poprawy funkcjonowania organizacji w zakresie ich zastosowania” (Szyjewski 2001b). Rozwijając powyższą definicję, należy zauważyć, że projekt jest zdarzeniem jednorazowym, realizowanym w przedsiębiorstwie po raz pierwszy i jest nastawiony na określony cel. Cel vol. 10, nr 3 (38), 2012 41 Tomasz Parys ten bardzo często wynika z ogólnej koncepcji funkcjonowania organizacji. Jest zatem sformułowany albo w strategii, albo też stanowi część definicji celów przedsięwzięcia informatycznego. Każdy projekt ma wewnętrzną organizację, która jest dla niego specyficzna i nie jest ujęta w strukturach organizacyjnych firmy. Projekt jest złożony, co oznacza, iż składa się on z elementów, które można wyodrębnić, a które wzajemnie tworzą jedną całość. Działania w nim wykonywane są wyraźnie wyodrębnione spośród innych. Oznacza to, że projekt nie jest powiązany z żadnym (ani rutynowym, ani bieżącym, tj. operacyjnym) działaniem przedsiębiorstwa. Jest on także ograniczony, co głównie związane jest z ograniczeniami zasobów, jakie są niezbędne do jego przeprowadzenia (finanse, czas, specjaliści). Każdy projekt jest także przedsięwzięciem ryzykownym, ponieważ podczas całego czasu swojego trwania jest narażony na ryzyko niepowodzenia. Projekt wdrożeniowy realizowany jest na wielu płaszczyznach i swoim zakresem obejmuje zazwyczaj kilka obszarów jednocześnie. Działania wykonywane w ramach projektu poza kwestiami czysto technicznymi dotykają także sfery aktywności biznesowej, oddziałują na pracowników oraz na otoczenie socjologiczne przedsięwzięcia. Ze względu na fakt, iż wiele działań w projekcie wykonywanych jest po raz pierwszy lub w nowych, nieznanych warunkach, pojawia się niepewność. Dotyczy ona zarówno wykonywania działań, jak i ich skutków. W takiej sytuacji pojawia się ryzyko, że podejmowane działania mogą zakończyć się niepowodzeniem lub ich wykonanie zostanie zakłócone. W praktyce niepewność i ryzyko są ze sobą ściśle powiązane (Szyjewski 2004). Dzieje się tak dlatego, ponieważ działania obarczone ryzykiem dotyczą nieprzewidywalnej przyszłości (Pritchard 2002). Niestety, tylko nieliczne projekty wdrożeniowe kończą się sukcesem. Sukces projektu wdrożeniowego pozostaje w ścisłej zależności z wielkością systemu, który objęty jest danym przedsięwzięciem. Im większy projekt, tym mniejsze prawdopodobieństwo, że zakończy się sukcesem, natomiast znacznie większe, iż projekt taki zostanie przerwany (Stanik i Szewczuk 2001). Prawdopodobieństwo niepowodzenia projektu wdrożeniowego wzrasta wraz z rozmiarem systemu, co jest związane ze specyfiką przebiegu przedsięwzięć informatycznych. Szczególny wpływ ma tutaj stosunkowo duża trudność określenia sytuacji niekorzystnych, które mogą zakłócać przebieg prac. Nieodłącznym elementem każdego przedsięwzięcia informatycznego są niepewność, pojawiające się bariery i wynikające z nich zagrożenia, które określane są wspólnym mianem ryzyka przedsięwzięcia. Rysunek 1 przedstawia, jak rozkładał się odsetek projektów wdrożeniowych zakończonych sukcesem w odniesieniu do tych stwarzających problemy oraz zakończonych porażką na przestrzeni lat 1994–2009. Analizując zobrazowane na wykresie dane, można sformułować dwa następujące wnioski: – na przestrzeni wielu lat objętych zakresem analizy (1994–2009) zdecydowana większość projektów generowała problemy lub zakończyła się porażką; 42 Problemy Zarządzania Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych... Rok – odsetek projektów zakończonych sukcesem pozostawał na poziomie poniżej 35% (jedynie w 2006 r. osiągnął ten poziom); – zależności pomiędzy wymienionymi kategoriami projektów pozostawały w bardzo podobnych relacjach – zmiany zazwyczaj nie przekraczały 5%; – pomimo stosowania coraz doskonalszych metod i narzędzi zarządzania projektami, odsetek projektów generujących problemy w ich realizacji lub zakończonych porażką pozostaje bardzo duży (68% w 2009 r.). Wynika z tego, że ryzyko niepowodzenia projektu wdrożeniowego (lub zakłóceń w jego przebiegu) jest wysokie i należy podejmować próby zidentyfikowania go, określenia jego rozmiaru, sklasyfikowania i zarządzania nim. 2009 32 44 24 2006 35 46 19 2004 29 53 18 2002 34 51 15 2000 28 49 23 1998 26 46 28 1996 27 33 40 1994 16 53 31 0 10 20 sukces 30 40 50 60 trudności 70 80 90 100% porażka Rys. 1. Odsetek projektów zakończonych sukcesem, porażką oraz sprawiających trudności. Źródło: http://www.projectsmart.co.uk/the-curious-case-of-the-chaos-report-2009.html, odczyt: grudzień 2011. 3. Ryzyko – definicja, podział, obszary występowania Literatura przedmiotu dostarcza wiele definicji ryzyka, z których następujące wydają się najpełniejsze i najlepiej oddające specyfikę zjawiska (Stanik i Szewczuk 2001; Duncan 1996): 1. Ryzyko to „możliwość klęski (niepowodzenia) przedsięwzięcia, możliwość wystąpienia niechcianej sytuacji, której urzeczywistnienie wpłynie na obniżenie poziomu sukcesu przedsięwzięcia informatycznego (łącznie z całkowitym brakiem sukcesu czyli klęską)”. 2. Ryzyko jest „szansą jakiegoś wydarzenia, którego urzeczywistnienie będzie miało wpływ na realizację zamierzonego celu”. 3. Ryzyko jest „możliwością doświadczenia niepowodzenia”. vol. 10, nr 3 (38), 2012 43 Tomasz Parys 4. Ryzyko jest „zobiektywizowaną niepewnością wystąpienia niepożądanego zdarzenia” (Woodward, Hemel i Hedley 1979)1. Literatura przedmiotu podaje wiele klasyfikacji ryzyka oraz metod jego oceny. W zależności od przyjętego kryterium można wskazać wiele klasyfikacji. Jako ilustrację problemu przedstawiono w pracy syntetyczną klasyfikację ryzyka. Najogólniejszą klasyfikacją ryzyka jest jego podział na podstawie kryterium typu. Według niego podział ryzyka kształtuje się następująco: – ryzyko typowe – występuje przy realizacji każdego projektu informatycznego, niezależnie od dziedziny, jakiej dotyczy; jego wystąpienie wynika ze specyfiki i charakteru przedsięwzięcia informatycznego; – ryzyko specyficzne – ściśle związane ze specyfiką dziedziny, jakiej dotyczy wdrażany w ramach projektu system informatyczny; ryzyko tego typu występuje w przypadku każdego konkretnego przedsięwzięcia realizowanego np. na indywidualne zamówienie, na podstawie specjalnej lub niestandardowej metodyki czy też przy zastosowaniu specjalnych narzędzi; pojawia się ono zawsze wtedy, gdy działanie nacechowane jest indywidualnością. Stosując kryterium poziomu informacji, można dokonać następującego podziału ryzyka (Kaczmarek 2002; Stanik i Szewczuk 2001): – ryzyko znane (know risk) – ryzyko można zaklasyfikować do tej grupy, jeżeli na podstawie analizy projektu, potencjalnych źródeł wystąpienia ryzyka, przeprowadzenia symulacji możliwe jest jego zidentyfikowanie oraz określenie z pewną dokładnością konkretnych zdarzeń, jakie mogą zaistnieć; – ryzyko przewidywalne (predictable risk) – ryzyko należy do tej grupy wtedy, gdy na podstawie wiedzy osób zaangażowanych w projekt (kierownik projektu, konsultanci, informatycy) można wyznaczyć źródła wystąpienia potencjalnego ryzyka oraz oszacować poziom zagrożenia dla projektu spowodowanego wystąpieniem tego ryzyka; – ryzyko nieprzewidywalne (unpredictable risk) – występuje wtedy, kiedy nie można przewidzieć zarówno wystąpienia niepożądanych zdarzeń, jak i ich skutków; można o nim mówić zawsze wtedy, gdy wdrożenie dotyczy nowego systemu oraz kiedy brak jest doświadczeń wdrożeniowych w danym obszarze; ryzyko takie jest nieodłączną częścią każdego projektu wdrożeniowego. Skutki związane z występującym ryzykiem mają miejsce praktycznie we wszystkich obszarach związanych z realizowanym projektem. Do takich obszarów należą szczególnie: – przygotowany harmonogram przedsięwzięcia, czyli wszystkie rozłożone w czasie działania podejmowane przy realizacji projektu – skutki w tym obszarze objawiają się najczęściej opóźnieniami w terminach realizacji poszczególnych działań; – budżet projektu, czyli wymiar finansowy całego projektu – skutki w tym obszarze są powiązane z harmonogramem; wszelkie opóźnienia w realiza44 Problemy Zarządzania Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych... cji projektu znajdują swoje odzwierciedlenie w zwiększonych wydatkach, co jest jednoznaczne ze wzrostem kosztów realizacji całego projektu; – zasoby przedsiębiorstwa, tj. ludzie, materiały, środki techniczne – zakłócenia w realizacji projektu wpływają na zmianę tych zasobów, powodując zmiany w ich wykorzystaniu, czego efektem może być ich niepełne lub niezgodne z planem wykorzystanie; – jakość wykonywanych przez dostawcę prac oraz wartość końcową produktu (wdrożonego rozwiązania), która jest szczególnie ważna dla odbiorców – użytkowników końcowych. Skutki zaistnienia ryzyka można podzielić według kryterium ich wystąpienia na wewnętrzne oraz zewnętrzne. Skutki wewnętrzne pojawiają się w obszarze związanym bezpośrednio z realizowanym przedsięwzięciem i dotykają głównie firmy klienta (nabywcy). Natomiast skutki zewnętrzne są związane z całym otoczeniem projektu, tj. dotyczą nie tylko nabywcy, lecz także firmy dostawcy (producenta) zaangażowanego w całe przedsięwzięcie (Szyjewski 2004). Wiedza o samym ryzyku oraz o miejscach (obszarach) wystąpienia jego skutków znacznie ułatwia przeciwdziałanie im, jak również podjęcie kroków mających na celu zminimalizowanie ich rozmiarów. Aby jednak możliwa była pełna identyfikacja ryzyka, należy zwrócić uwagę na dodatkowe jego cechy, które obok niepewności i skutków pozwalają znacznie lepiej je określić. Do cech tych należą (Szyjewski 2004): – zakres – określenie obszaru, zakresu działań, opis czynności projektu, jak również określenie przedziału czasowego, którego dotyczyć będzie ryzyko; – zagrożenie – definicja sytuacji, która może mieć niekorzystny wpływ na wykonywane czynności, zadania i w efekcie na przebieg projektu jako całości; można je wszystkie rozpatrywać oddzielnie, łączyć w grupy w oparciu o różne klasyfikacje i kryteria; wszystkie one pozostają w ścisłym związku z czynnikami ryzyka; – czynniki ryzyka – określone stany wejściowe dla poszczególnych działań czy procesów, które są determinantą wystąpienia w ich trakcie określonych zagrożeń, które mogą być pomocne w ocenie ryzyka; – rozłożenie w czasie – ryzyko wystąpienia konkretnej bariery czy też związanego z nią zagrożenia jest zazwyczaj powiązane z określonym przedziałem czasowym, w którym projekt jest realizowany. Obecność ryzyka w każdym projekcie jest nieunikniona. Występuje ono w każdym projekcie informatycznym, niezależnie od jego wielkości i zakresu działalności przedsiębiorstwa, jaki obejmuje. Pojawia się ono na wszystkich płaszczyznach realizacji projektu. Projekt wprowadza zmiany w dotychczasowym funkcjonowaniu organizacji. W zależności od ich zmiany i charakteru ryzyko może być mniejsze lub większe, ale ono zawsze występuje (Szyjewski 2001b). Ryzyko dla powodzenia projektu zależy od płaszczyzny wystąpienia określonej bariery i wynikających z niej zagrożeń. vol. 10, nr 3 (38), 2012 45 Tomasz Parys W pewnych obszarach prawdopodobieństwo wystąpienia ryzyka jest tak niskie, że można przyjąć, że ryzyko w tym obszarze nie występuje, w innych zaś jest wysokie, co powoduje, że obszary te nazywane są obszarami ryzyka. Obszarami ryzyka nazywamy zatem te płaszczyzny związane z realizacją projektów informatycznych, na które ryzyko ma bezpośredni wpływ lub z którymi jest ono związane. W celu usystematyzowania wiedzy na temat barier i wynikających z nich zagrożeń skutkujących wstąpieniem ryzyka niepowodzenia projektu wdrożeniowego należy zawsze określić obszary ryzyka, w których ono występuje. Podobnie jak w przypadku samego ryzyka, także obszary związane z jego wystąpieniem można podzielić według wielu różnych klasyfikacji. Najogólniej obszary ryzyka można podzielić w następujący sposób: – środowisko wykonawcze – związane ze stroną techniczną prowadzonego przedsięwzięcia, dotyczy głownie samego projektu, używanych narzędzi, stosowanej metodyki itd.; – środowisko użytkownika – dotyczy przyszłych użytkowników systemu zarówno pracowników funkcyjnych, jak i informatyków firmy klienta odpowiedzialnych za konserwację i utrzymanie systemu w ruchu; zawiera w sobie poziom przygotowania merytorycznego użytkownika, nastawienia do przedsięwzięcia itp.; – środowisko przedsięwzięcia – zakres działań związany z samym projektem, jego wielkością, organizacją, jak również z zespołem wdrożeniowym zaangażowanym w realizację tego przedsięwzięcia. Literatura przedmiotu przytacza wiele różnych klasyfikacji obszarów ryzyka. Na przykład firma ORACLE® w swojej metodyce o nazwie CDM (Customer Development Method) wyróżnia następujące obszary ryzyka2: – zakres prac projektowych – wszelkie działania wykonywane w czasie realizacji projektu wdrożeniowego; – działania klienta – całość zachowań firmy klienta, zarówno użytkowników końcowych, jak i członków zespołu wdrożeniowego; – aspekty techniczne – wszystkie zdarzenia, które mają miejsce zarówno w systemie, jak i narzędziach wspomagających prace wdrożeniowe; – zasoby firmy wraz z logistyką – ryzyko związane z dostępnością zasobów, ich właściwym wykorzystaniem oraz możliwościami elastycznego przeplanowania ich użycia; – otoczenie rynkowe – wszystko to, co dzieje się poza stronami umowy, tj. dostawcą (producentem) rozwiązania a klientem – firmą wdrażającą dane rozwiązanie u siebie; – partnerzy umowy i przebieg projektu – ogół działań wykonywanych w ramach podpisanej umowy i wynikających z realizowanego w jej ramach projektu. 46 Problemy Zarządzania Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych... 4. Podstawowe czynniki ryzyka w projekcie wdrożeniowym Jak widać na podstawie przytoczonych powyżej klasyfikacji, określenie obszarów ryzyka może być bardzo różne. Poszczególne podziały różnią się od siebie w zasadzie tylko stopniem szczegółowości, przy czym wszystkie one obejmują opisane powyżej obszary realizacji projektu wdrożeniowego. Pojawienie się ryzyka niepowodzenia projektu wdrożeniowego, będące rezultatem wystąpienia określonego zdarzenia, którego genezą jest istnienie określonej bariery, jest uwarunkowane wieloma dodatkowymi elementami – zagrożeniami. Te wynikające z barier zagrożenia, charakteryzujące się określoną prawidłowością występowania, zachodzą w „określonej sytuacji odniesienia, która ma wpływ na wzrost (...) określonego zagrożenia związanego z ryzykiem” (Stanik i Szewczuk 2001). Tak właśnie definiowany jest czynnik ryzyka, którego określenie stanowi kolejny krok w definiowaniu ryzyka niepowodzenia projektu wdrożeniowego. Czynniki ryzyka można – podobnie jak jego obszary – podzielić według wielu różnych kryteriów ułatwiających ich klasyfikację. Przyjmując jako kryterium miejsce powstawania, czynniki ryzyka można podzielić na zewnętrzne, umiejscowione poza zespołem wdrożeniowym, oraz wewnętrzne, występujące w nim samym. Rozszerzając tę klasyfikację, można wyróżnić następujące, typowe grupy czynników ryzyka: – czynniki powiązane z istniejącą strukturą organizacyjną przedsiębiorstwa i obowiązującymi procedurami wewnętrznymi; – czynniki związane z użytkownikami systemu – wszystkimi ludźmi, którzy w dowolnym stopniu będą w swojej pracy wykorzystywać system; – czynniki powiązane z wiedzą i doświadczeniem osób zaangażowanych w projekt (menedżerów, konsultantów, informatyków itd.); – czynniki związane z systemem informatycznym, jego specyfiką oraz złożonością; – czynniki łączące z elementami biznesowymi oraz wewnętrznymi uwarunkowaniami o charakterze formalno-prawnym; – czynniki związane z przebiegiem samego projektu wdrożeniowego – zwłaszcza zaś z zaplanowanym i przyjętym harmonogramem zarówno w wymiarze czasu jego realizacji, jak i bezpośrednio z tym związanych kosztów jego prowadzenia. Czynniki ryzyka wpływają na przebieg całego przedsięwzięcia informatycznego. Widać je we wszystkich wymiarach prowadzonych działań – od harmonogramu przez koszt realizacji, aż po ewentualne kary związane z brakiem wypełnienia zapisów kontraktu. Wyznaczenie czynników ryzyka jest zagadnieniem bardzo istotnym głównie ze względu na fakt, iż wystąpienie niektórych z nich może powodować, że zagrożona będzie realizacja całego projektu, a tym samym funkcjonowanie systemu w organizacji z wszelkimi negatywnymi następstwami tego właśnie niepowodzenia. vol. 10, nr 3 (38), 2012 47 Tomasz Parys W przypadku wdrożeń systemów zintegrowanych projekty mają bardzo duży zakres, zaś czynniki ryzyka są następujące (Szyjewski 2001b): – błędna ocena sytuacji początkowej, prowadząca w późniejszym czasie do zagrożenia powodzenia projektu wdrożeniowego; – brak ekspertów, których wiedza jest niezbędna w rozwiązywaniu sytuacji kryzysowych – dodatkowo szybki rozwój technologii informatycznych powoduje pojawianie się nowych narzędzi programowych i nowego sprzętu, w których obsłudze i zastosowaniach brakuje doświadczenia; – napięty lub długi harmonogram, w przypadku którego ryzyko wynika z dynamicznej ewolucji technologii informatycznych i wymuszanych przez nią zmian otoczenia – długie harmonogramy, z natury rzeczy, realizację celu odsuwają w przyszłość, co powoduje niską dynamikę prac (szczególnie na początku); – niestabilny skład (duża fluktuacja) lub duża liczebność zespołu wdrożeniowego – taka sytuacja powoduje spadek wydajności spowodowany brakiem współpracy oraz opóźnieniami związanymi z koniecznością wprowadzenia nowych osób do pracy w zespole wdrożeniowym; – korzystanie z usług firm zewnętrznych (np. podwykonawcy) – wsparcie ze strony takich firm jest zjawiskiem jak najbardziej pozytywnym, jednak w przypadku korzystania z tego typu usług nie ma możliwości pełnego nadzoru nad poczynaniami takich firm; – bardzo wysokie wymagania dotyczące zarówno efektywności (mocy) obliczeniowej systemu, jak i jego niezawodności – jest to obarczone dużym ryzykiem, ponieważ wszelkie założenia odnośnie tych wielkości mają charakter szacunków i przybliżeń; nie można ich przewidzieć przed zakończeniem projektu; – zmienność wymagań w trakcie trwania projektu – nowe wymagania powstają na skutek zmiany otoczenia lub oczekiwań klienta; nie mogą być one jednak z różnych względów zrealizowane. 5. Klasyfikacja, opis ryzyka, bariery i działania nim obarczone Podsumowaniem rozważań o ryzyku, jakie występuje podczas każdego przedsięwzięcia informatycznego, i przejściem do jego klasyfikacji jest określenie jego rozmiarów, z którymi należy się liczyć. Ze względu na przytoczony wcześniej podział na ryzyko typowe i specyficzne, co jest odzwierciedleniem charakterystyki prowadzonych projektów, konieczne jest zwymiarowanie tego właśnie ryzyka oraz jego reprezentacja w określonej skali. Tylko wtedy, kiedy ryzyko zostanie zwymiarowane i przedstawione w wielkościach, które pozwolą na porównanie go w różnych obszarach, będzie można dobrze zanalizować ewentualne skutki jego wystąpienia i zaplanować środki zaradcze. Zwymiarowanie jego wielkości i przedstawienie go w postaci zrozumiałej dla szerokiego grona osób zainteresowanych ryzykiem 48 Problemy Zarządzania Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych... jest bardzo istotne, ponieważ ma duże znaczenie dla prawidłowego zrozumienia skali zagrożenia dla powodzenia projektu wdrożeniowego. Z prezentacją rozmiarów ryzyka ściśle związany jest sposób mierzenia ryzyka i określania wartości, która będzie informacją na temat rozmiaru zagrożenia. Identyfikacja ryzyka polega na określeniu, jakie zdarzenia mogą być niekorzystne dla realizowanego projektu. Rozpoznane ryzyko powinno zostać udokumentowane poprzez jego opisanie w rozbiciu na warunki jego zaistnienia, przejawy oraz przewidywane skutki dla realizacji projektu wdrożeniowego. Ryzyko można przedstawiać na wiele różnych sposobów, przy czym najczęściej stosowane są: – opis słowny – ryzyko opisywane jest przy użyciu powszechnie stosowanych określeń skali występowania w notacji „bardzo małe”, „małe”, „średnie” itd.; – wartość liczbowa – ryzyko opisywane jest przez nadanie mu określonej wartości liczbowej zawierającej się w danym przedziale; opisane w tej notacji ryzyko jest stosunkowo proste do identyfikacji, gdyż posiłkując się wartością liczbową, można je umieścić na osi liczbowej i w ten sposób porównać jego wielkość z ryzykiem np. z innego obszaru czy też projektu wdrożeniowego; dodatkowym atutem tej reprezentacji jest fakt, iż umożliwia ona rozpatrywanie ryzyka w określonej skali zagrożenia przedsięwzięcia, tj. od pełnego sukcesu po całkowitą katastrofę; zaletą tej metody jest przedstawienie ryzyka za pomocą jednej zrozumiałej liczby, przez co interpretacja skali zjawiska jest bardzo prosta, szczególnie w kontekście dokonywania zestawień i porównań; – punkt, obszar, odcinek umieszczony w układzie współrzędnych opisanych osiami niepewności, na których odłożone są wielkości prawdopodobieństwa wystąpienia zagrożenia i jego skutków – metoda taka daje dużo informacji o samym ryzyku i pozwala je stosunkowo dobrze zinterpretować, nie ułatwia jednak prostego porównywania z innymi wartościami. Ryzyko w projekcie wdrożeniowym materializuje się w postaci barier wdrożeniowych, które przejawiają się konkretnymi sytuacjami lub działaniami mającymi negatywny wpływ na przebieg wdrożenia. W praktyce zatem należy stworzyć kategorie opisujące rozmiar tego ryzyka oraz przypisać do nich poszczególne działania i grupy działań będące przejawem barier oraz określić prawdopodobieństwo ich wystąpienia. 5.1. Kategorie ryzyka W wyniku prowadzonych badań zdefiniowano kilka kategorii3 ryzyka, stosując notację słowną. Przyjęto 9 kategorii ryzyka, do których przyporządkowano szacunkowe wartości liczbowe wyrażone w procentach (tabela 1). Na takie rozwiązanie zdecydowano się, gdyż : – pozwoli ono syntetycznie pogrupować występujące działania oraz ryzyko z nimi związane; – w ramach jednej kategorii umożliwi ono wewnętrznie ustrukturyzowanie poszczególnych działań (tabela 2). vol. 10, nr 3 (38), 2012 49 Tomasz Parys Lp. Opis słowny rozmiaru ryzyka Rozmiar wyrażony w procentach 1. Brak 0 2. Znikome 10 3. Bardzo małe 20 4. Małe 30 5. Średnie 40 6. Znaczące 40–60 7. Duże 60–80 8. Bardzo duże 80–90 9. Pewne 90–100 Tab. 1. Klasyfikacja przyjętego ryzyka. Źródło: opracowanie własne. Lp. 1. 2. 3. 50 Kategoria ryzyka Działania zaklasyfikowane do kategorii ryzyka Brak Ryzyko nie występuje. Do tej kategorii należą działania najprostsze, o bardzo małym zakresie, nie wymagające zaangażowania dużych zasobów. Przykładem jest zakup oprogramowania lub inna czynność zaopatrzeniowa. Ewentualne opóźnienia wynikające z tych czynności nie mają wpływu na przebieg całego procesu wdrożeniowego. Znikome Ryzyko występuje w stopniu minimalnym. Do tej kategorii należą te działania, których poziom trudności jest niski, nie wymagają zaangażowania dużych zasobów, jednak są związane z szerszym zakresem działania (obejmują do 10 stanowisk roboczych). Ewentualne problemy związane z tymi działaniami mają typowy charakter oraz dają się łatwo usunąć. Przykładem może być instalacja prostej aplikacji na kilku stanowiskach. Na poziomie takich czynności nie występuje opór ludzi, ponieważ materia działania jest im dobrze znana, a przyczynami ich złej pracy są zazwyczaj zwykłe błędy i pomyłki. Bardzo małe Ryzyko związane z czynnościami zaliczanymi do tej grupy, podobnie jak poprzednio, jest nieduże, jednak wzrasta wraz z zakresem działania (zakres do 30 stanowisk). Przykładem takich działań może być instalacja systemu operacyjnego oraz niezbędnych usług w połączeniu w komunikacją między stanowiskami (np. opierając się na grupach roboczych). Problemy Zarządzania Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych... Cd. tab. 2 Lp. 4. 5. 6. 7. 8. Kategoria ryzyka Działania zaklasyfikowane do kategorii ryzyka Małe Ryzyko w tej Działania w z technologią działań mogą wymaganego o niewielkich Średnie Do tej grupy zaklasyfikowane zostały wszystkie czynności związane z funkcjonowaniem infrastruktury sieciowej, jeżeli łączy się to z koniecznością dokonywania zmian i związanego z nimi szkolenia użytkowników. Takim ryzykiem obarczone są także działania związane z koniecznymi aktualizacjami oprogramowania w systemach sieciowych do 100 użytkowników. Znaczące Ryzykiem tej wielkości obarczone są działania dotyczące zagadnień wychodzących poza jeden obszar funkcjonalny, związane z funkcjonowaniem infrastruktury sieciowej. Takim ryzykiem obarczone są także braki funkcjonalności systemu na poziomie kilku stanowisk roboczych. Do tej kategorii zaklasyfikować można także działania związane z wymianą i/lub rozbudową, względnie z wprowadzeniem nowego narzędzia. Dodatkowo połączone jest to z koniecznością szkoleń oraz zmianami w organizacji. Opór ludzi na poziomie tych działań jest także obarczony takim ryzykiem. Przykładem może być rozbudowa sieci oraz włączenie do systemu nowych działów funkcjonalnych przedsiębiorstwa. Działania te nabierają szczególnego znaczenia w przypadku przedsiębiorstwa wielooddziałowego rozproszonego geograficznie i związanej z tym koniczności integracji. Duże Do kategorii tej należą działania wykonywane na płaszczyźnie całego przedsiębiorstwa, tj. kiedy dotyczą (w różnym stopniu) wszystkich działów funkcjonalnych przedsiębiorstwa. Ta kategoria ryzyka dotyczy szczególnie działań związanych z oporem ludzi wobec zmian (np. restrukturyzacja), brakiem komunikacji lub wadliwą komunikacją. Dużym ryzykiem obarczone są także problemy wynikające z braku szkoleń lub niewystarczającej ich liczby oraz poziomu, tj. głównie działania będące wynikiem braku wiedzy oraz niekompetencji. Do tej kategorii należą także błędy działania systemu wynikające z braków funkcjonalności na poziomie firmy (np. w module finansowym czy też raportowania). Dużym ryzykiem obarczone są także działania osób nieposiadających wystarczającej wiedzy merytorycznej (brak ekspertów). Bardzo duże Działania podejmowane w ramach zespołu wdrożeniowego (zarówno konsultantów, użytkowników, informatyków, jak też kierujących projektem). Działania tych ludzi mają bezpośredni wpływ na przebieg procesu wdrożeniowego, tj. przestrzeganie harmonogramu, a tym samym przydzielonych zasobów. Wszelkie decyzje, sposób i atmosfera ich podejmowania mają bezpośrednie przełożenie na przebieg wdrożenia oraz jego efekt. vol. 10, nr 3 (38), 2012 grupie jest związane z wielkością przedsięwzięcia. tej grupie dotyczą przedsięwzięć związanych sieciową i zapewnieniem komunikacji. Przykładem być zarówno budowa infrastruktury, jak i instalacja oprogramowania. Dotyczy działań w sieciach rozmiarach (do 100 użytkowników). 51 Tomasz Parys Cd. tab. 2 Lp. 9. Kategoria ryzyka Pewne Działania zaklasyfikowane do kategorii ryzyka Działania zarządu, kierownictwa i innych decydentów najwyższego szczebla. Jeżeli na tym poziomie wystąpią zakłócenia i bariery, niepowodzenie projektu jest pewne. Od działań z tego zakresu nie ma bowiem odwrotu, a to dlatego, że mają one kluczowy charakter i determinują wszystkie inne. Na tym etapie ciężko jest barierom przeciwdziałać, jako że jest to najwyższy poziom decyzyjny. Przykładem jest brak zgody zarządu na dodatkowe zakupy, np. sprzętu lub licencji systemu. Do tej kategorii zaliczyć należy także zbyt napięty lub zbyt długi harmonogram. W tym drugim przypadku, w dobie dynamicznego rozwoju techniki i technologii, pojawia się ryzyko niedopasowania zastosowanych rozwiązań (zawartych w projekcie) do aktualnych wymogów. Dodatkowo przyjęty na początku cel może z upływem czasu ulec zupełnej zmianie. Tab. 2. Opis przyjętych kategorii ryzyka. Źródło: opracowanie własne. Przedstawione kategorie ryzyka oraz obszary działań do nich zaliczone traktować należy w kategorii modelowych wytycznych, które pozwolą opisać i pogrupować konkretne działania. Mogą być one rozbudowywane o konkretne rzeczywiste działania, tak aby dobrze poznać ryzyko i ułatwić zarządzanie nim. 6. Podsumowanie W czasie prowadzonych badań okazało się, że problemy, jakie występują w czasie wdrożenia pod kątem występowania ryzyka, wykazały pewną prawidłowość. Można je najogólniej zaklasyfikować do trzech grup: techniczne (sprzęt), systemowe (działanie systemu) oraz ludzkie (działania ludzi). Problemy techniczne charakteryzują się największym stopniem powtarzalności oraz stosunkowo wysoką przewidywalnością. Ich wystąpienie jest związane z najmniejszym ryzykiem dla przebiegu projektu wdrożeniowego. Problemy wynikające z funkcjonowania systemu zintegrowanego, jak np. braki funkcjonalności czy źle zdefiniowane interfejsy, także dają się w pewnym stopniu przewidzieć. I choć występują one mniej regularnie niż problemy techniczne, to ich usunięcie następuje zazwyczaj wskutek zastosowania typowych, znanych zabiegów. Ryzyko wystąpienia takich zdarzeń jest jednak wyższe. Problemy, z którymi związane jest największe ryzyko, są generowane przez ludzi (głównie przez użytkowników). Te problemy występują zazwyczaj nieoczekiwanie, natomiast te, które można przewidzieć, pojawiają się bez żadnej regularności i mają najróżniejsze przyczyny. Dodatkowo występują one z różnym natężeniem oraz nie wykazują żadnych, nawet najmniejszych prawidłowości. 52 Problemy Zarządzania Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych... Informacje o autorze Dr Tomasz Parys – Katedra Systemów Informacyjnych Zarządzania, Wydział Zarządzania Uniwersytetu Warszawskiego. E-mail: [email protected]. Przypisy 1 W literaturze przedmiotu ta definicja ryzyka jest najczęściej stosowana. Por. Szyjewski 2001a. 2 Opracowano na podstawie materiałów dostępnych na stronie http://www.postjobfree. com/resume/yyttq, odczyt: listopad 2011. 3 Kategorie zdefiniowane zostały na potrzeby dużych systemów zintegrowanych. Dla przedsięwzięć mniejszych kategorie należy przedefiniować, choć ich układ będzie podobny. Bibliografia Duncan, W.R. 1996. A Guide to the Project Management Body of Knowledge, Sylva: Project Management Institute. Kaczmarek, T. 2002. Zarządzanie ryzykiem, Gdańsk: ODDK. Kubiak, B.F. i A. Korowicki (red) 2001. Human Computer Interaction 2001, Gdańsk: Wydawnictwo Akwila – Roman Młodkowski. Pritchard, C.L. 2002. Zarządzanie ryzykiem w projektach. Teoria i praktyka, Warszawa: WIG-PRESS. Szyjewski, Z. 2001a. Projektowanie systemów informatycznych, Warszawa: Wydawnictwo Naukowe PWN. Szyjewski, Z. 2001b. Zarządzanie projektami informatycznymi, Warszawa: Placet. Szyjewski, Z. 2004. Metodyki zarządzania projektami informatycznymi, Warszawa: Placet. Stanik, J. i J. Szewczuk 2001. Szacowanie ryzyka przedsięwzięć informatycznych cz. I – wprowadzenie do oceny ryzyka przedsięwzięć informatycznych, w: B.F. Kubiak i A. Korowicki (red) Human Computer Interaction 2001, Gdańsk: Wydawnictwo Akwila – Roman Młodkowski. Woodward, M.R., Hemel, M.A. i D. Hedley 1979. A Measure to Control Flow Complexity in Program Text. IEEE Transactions on Software Engineering, nr 5. vol. 10, nr 3 (38), 2012 53 Problemy Zarządzania, vol. 10, nr 3 (38): 54 – 66 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.4 Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną przez współczesne organizacje gospodarcze Janusz Wielki Niniejszy artykuł dotyczy kwestii zarządzania przestrzenią elektroniczną w kontekście rosnącego wykorzystywania Internetu przez współczesne organizacje gospodarcze. Składa się on z czterech części. W pierwszej z nich przedstawiony został krótki zarys podstawowych aspektów związanych z przestrzenią elektroniczną i zarządzaniem nią. Dwie następne części są kluczowe z punktu widzenia niniejszego artykułu. W pierwszej z nich przeprowadzono analizę działań związanych z zabezpieczeniem i ochroną aktywności organizacji on-line, jako kluczowego elementu zarządzania przestrzenią elektroniczną. Następnie zaprezentowano możliwości aktywnego oddziaływania przedsiębiorstw na e-przestrzeń, jako elementu dopełniającego zarządzaniem nią. Końcowa, czwarta cześć artykułu zawiera najważniejsze wnioski, konkluzje i zalecenia. 1. Wprowadzenie Problem wpływu Internetu na funkcjonowanie organizacji gospodarczych jest zagadnieniem coraz bardziej istotnym zarówno z punktu widzenia każdej z nich, jak i z perspektywy całej współczesnej gospodarki. Niezwykle szybko rosnąca rola i oddziaływanie Internetu na praktycznie każdy sektor gospodarki powoduje konieczność jak najlepszego rozumienia przez podmioty w niej funkcjonujące istoty zagadnienia i całej jego złożoności. Aby skutecznie rywalizować w nowej, postindustrialnej rzeczywistości gospodarczej, w której coraz większą rolę odgrywa globalna infrastruktura sieciowa, jaką jest Internet, organizacje muszą umieć się w niej poruszać tak, aby z jednej strony wykorzystywać wyłaniające się szanse i często niedostępne wcześniej możliwości, a z drugiej minimalizować lub też całkowicie eliminować nowe i nieznane im wcześniej zagrożenia. W tej sytuacji coraz bardziej istotnym elementem aktywności każdego przedsiębiorstwa staje się umiejętność zarządzania przestrzenią elektroniczną, w której odbywa się funkcjonowanie wszelkich podmiotów korzystających z Internetu i do której przenosi się w szybkim tempie coraz większa cześć współczesnej działalności gospodarczej, oraz włączanie tego typu działań do zakresu rutynowych aktywności każdej firmy. Dlatego też każda organizacja powinna 54 Problemy Zarządzania Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną... podejmować odpowiednie całościowe działania związane z szeroko pojętym zarządzaniem nią, tj. planowaniem i organizowaniem działalności on-line, kierowaniem ludźmi w niej działającymi oraz kontrolowaniem zarówno poszczególnych elementów, jak i całości swej aktywności w środowisku elektronicznym. W tym kontekście wskazać można dwa zasadnicze aspekty, które powinny być brane pod uwagę: – zabezpieczenie i szeroko pojęta ochrona działalności on-line (działania prewencyjno-zabezpieczające), – wykorzystanie możliwości aktywnego oddziaływania na nią (działania proaktywne). 2. Działania związane z zabezpieczeniem i ochroną aktywności organizacji on-line Niewątpliwie pierwszym krokiem, jaki powinien być podjęty w kontekście działań związanych z obydwoma powyższymi obszarami, jest powołanie ciała sterującego-nadzorująco (np. komitetu sterującego), którego zadaniem będzie czuwanie nad całością zagadnień związanych z zarządzaniem przestrzenią elektroniczną w kontekście realizacji celów organizacyjnych. Ze względu na specyfikę jej ewolucji i oddziaływania na organizację jego skład powinien obejmować przedstawiciela kierownictwa przedsiębiorstwa oraz kierownictw działów IT i marketingu. Wynika to z faktu, iż aspekty te nie mogą być w dzisiejszych warunkach traktowane (jak to się wciąż często zdarza) jako zagadnienie czysto techniczne. Stąd wynika z jednej strony konieczność zaangażowania kierownictw działów, które kwestie te w największym stopniu dotykają. Z drugiej natomiast strony szeroko pojęte zagadnienia związane z zarządzaniem przestrzenią elektroniczną, w tym bezpieczeństwem on-line, są na tyle w dzisiejszych warunkach gospodarczych istotne, iż decyzje z nimi związane nie mogą być pozostawione wyłącznie w zakresie odpowiedzialności osób znajdujących się na średnich czy też niskich szczeblach hierarchii organizacyjnej. Toteż coraz częstsze są przypadki firm, w których aspekty związane z cyberbezpieczeństwem (cybersecurity) traktowane są jako element strategii biznesowej, w które bezpośrednio zaangażowana jest najwyższa kadra zarządzająca (Kaplan i in. 2011). Jeśli chodzi o pierwszy z wymienionych wcześniej aspektów związanych z zarządzaniem przestrzenią elektroniczną, tj. działania odnoszące się do zabezpieczenia i szeroko pojętej ochrony działalności on-line, to wyodrębnić należy dwa zasadnicze ich obszary, których aktywność ciała nadzorująco-sterującego powinna dotyczyć, tj. wewnątrzkorporacyjny oraz zewnętrzny (rysunek 1). W pierwszym przypadku niewątpliwie kluczowym aspektem jest zdefiniowanie polityki bezpieczeństwa on-line na poziomie zarówno ogólnokorporacyjnym, jak i indywidualnym. Wiąże się to z takimi działaniami jak precyzyjne określenie zasad korzystania przez pracowników z przestrzeni elektroniczvol. 10, nr 3 (38), 2012 55 Janusz Wielki nej, łącznie z wykorzystywanymi przez nich tam narzędziami, oraz zakresu monitorowania ich aktywności on-line. Ze względu na dużą dynamikę zmian zachodzących w środowisku pracy organizacji i w ich otoczeniu konieczne jest stałe dostosowywanie istniejących rozwiązań do zmieniającej się sytuacji. W tym kontekście należy zauważyć dwa narastające wyzwania, jakie stają przed organizacjami. Z jednej strony są to media społecznościowe (social media) i korzystanie z nich przez pracowników (Deloitte 2011). Z drugiej strony jest to natomiast zjawisko „konsumeryzmu IT” (consumerization-of-IT), którego przejawem jest nasilający się trend – określanym mianem bring-your-own-device (BYOD) (Faas 2012) – do wykorzystywania w środowisku pracy własnych narzędzi mobilnych takich jak smartfony czy tablety (Stackpole 2011; Marciniak 2011). Podjęcie decyzji o zarządzaniu przestrzenią elektroniczną Powołanie do życia ciała sterująco-nadzorującego Obszar zewnętrzny Wyznaczenie osób odpowiedzialnych za jej realizację oraz określenie zakresu ich odpowiedzialności Uszczegółowienie działań w wymiarze organizacyjnym i technicznym Określenie polityki monitorowania PE, zarządzania wiedzą o niej i reagowania na zdarzenia w niej zachodzące Wyznaczenie osób odpowiedzialnych za jej realizację oraz określenie zakresu ich odpowiedzialności Określenie polityki w zakresie aktywnego oddziaływania na PE Działania proaktywne Określenie polityki bezpieczeństwa on-line na poziomie ogólnokorporacyjnym i indywidualnym Działania prewencyjno-zabezpieczające Obszar wewnątrzorganizacyjny Wyznaczenie osób odpowiedzialnych za jej realizację oraz określenie zakresu ich odpowiedzialności Uszczegółowienie działań w wymiarze organizacyjnym i technicznym Uszczegółowienie działań w wymiarze organizacyjnym i technicznym Implementacja całości zaplanowanych działań Rys. 1. Całościowe spojrzenie na zarządzanie przestrzenią elektroniczną przez organizacje. Źródło: opracowanie własne. 56 Problemy Zarządzania Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną... Powyższe kwestie dotyczą pracowników funkcjonujących w obszarze „fizycznej” infrastruktury organizacji, ale również realizujących swe zadania w ramach telepracy czy też jako tzw. wolni strzelcy (freelancers). Zauważyć należy, iż ta druga grupa staje się coraz bardziej istotna ze względu na coraz powszechniejsze wykorzystanie tego typu pracowników przez przedsiębiorstwa (Raszkowska 2011). Jednocześnie istotnym elementem tych działań są kwestie związane z nadzorowaniem właściwego funkcjonowania i zabezpieczenia infrastruktury IT organizacji w kontekście bezpieczeństwa ogólnokorporacyjnego w przestrzeni elektronicznej. Jak istotne są to kwestie, przekonało się już wiele firm, łącznie z największymi, takimi jak Sony, w przypadku której z pozoru banalne zaniedbania w tym obszarze doprowadziły do znaczących strat finansowych (Urbanowicz 2011; Williams 2011). Stąd też kolejnym elementem działań powinno być wyznaczenie osób odpowiedzialnych za realizację zadań w wyżej wymienionych obszarach i określenie zakresów ich odpowiedzialności, jak również ustalenie sposobów oraz częstotliwości przekazywania informacji zwrotnych dotyczących podejmowanych przez nie działań i ewentualnie występujących problemów. Trzeci poziom aktywności w tym obszarze to ich uszczegółowienie w wymiarze organizacyjnym, jak również w odniesieniu do wykorzystywanych narzędzi i technologii (rysunek 1). Drugi, zewnętrzny obszar działań, jeśli chodzi o zabezpieczenie i ochronę działalności on-line, związany jest bezpośrednio z przestrzenią elektroniczną i jej oddziaływaniem. Podobnie jak w poprzednim przypadku, podstawowym zadaniem komitetu sterującego jest określenie polityki organizacji związanej z jej monitorowaniem, zarządzaniem wiedzą o niej oraz sposobami reagowania na określone wydarzenia w niej zachodzące. W tym kontekście kolejnym elementem działań jest również ustalenie osób odpowiedzialnych za realizację poszczególnych zadań i zakresu ich odpowiedzialności, ale też, jeśli to konieczne, powołanie do życia międzydziałowych zespołów eksperckich i ustalenie zakresu ich odpowiedzialności, jak również zdefiniowanie sposobów oraz częstotliwości przekazywania informacji zwrotnych w kontekście podejmowanych działań oraz występujących problemów. Podobnie jak w poprzednim przypadku, trzeci poziom działań w tym obszarze związany jest z ich uszczegółowieniem w wymiarze organizacyjnym i technicznym. W tym kontekście istotna jest odpowiedź na takie kluczowe pytania jak: 1. Które podmioty (i ich aktywność) powinny być monitorowane? 2. Jak mogą one oddziaływać na organizację i jej funkcjonowanie? 3. Jakie obszary przestrzeni elektronicznej powinny być monitorowane? 4. Jakie środki techniczne powinny być do tego celu wykorzystywane? 5. Kto powinien być odpowiedzialny za proces monitorowania przestrzeni elektronicznej, podejmowanie decyzji w kwestii reagowania na zachodzące tam zdarzenia oraz samą reakcję i wykorzystywane do tego celu środki techniczne? vol. 10, nr 3 (38), 2012 57 Janusz Wielki 6. Jakie działania w stosunku do podmiotów działających w przestrzeni elektronicznej będących interesariuszami organizacji, lub też uważającymi się za nich, mogą być podejmowane i są akceptowane przez organizację w ramach zarządzania nimi? Jeśli chodzi o pierwsze pytanie, to niewątpliwie kluczowym elementem działań jest z tej perspektywy przeprowadzenie przez organizację segmentacji podmiotów funkcjonujących w przestrzeni elektronicznej z punktu widzenia ich potencjalnego oddziaływania na nią. Pozwoli to na wyodrębnienie tych firm, grup, osób prywatnych czy też określonych miejsc on-line, których aktywność powinna być monitorowana z punktu widzenia zapobiegania występowaniu niekorzystnych dla niej zdarzeń lub też, jeśli jest to niemożliwe, odpowiednio szybkiego reagowania na nie. Dotyczy to tak kwestii różnego typu potencjalnego oddziaływania fizycznego na infrastrukturę organizacji, jak również wpływu na jej szeroko pojęte aspekty wizerunkowe (Garnajewa i Namiestnikow 2012). W tym kontekście wskazać można trzy podstawowe segmenty podmiotów operujących on-line (Wileki 2007: 324). Jeśli chodzi o pierwszy z nich, tj. znane i identyfikowalne podmioty funkcjonujące w przestrzeni elektronicznej i oddziaływujące na organizację, to kwestia ich wyodrębnienia powinna być relatywnie prosta, z uwagi na fakt, iż dotyczy ona generalnie rzecz biorąc „klasycznych” interesariuszy organizacji zarówno zewnętrznych, jak i wewnętrznych. Jednak w nowych warunkach dynamicznie rozwijającej się gospodarki postindustrialnej wraz z jej coraz istotniejszą częścią osadzoną i rozwijającą się on-line, nie jest to już tak oczywiste jak wcześniej, a wynika to z kilku istotnych kwestii. Po pierwsze podmioty typowo należące do tej grupy, takie jak dostawcy, partnerzy biznesowi czy też konkurenci, a nawet klienci, w rosnącym stopniu funkcjonują w coraz bardziej skomplikowanych i różnorodnych powiązaniach sieciowych, stąd też coraz trudniej jest jednoznacznie określić, do jakich konkretnych grup należy ich zaliczyć, aby następnie monitorować ich aktywność i gromadzić wiedzę o nich, a tym samym odpowiednio szybko i skutecznie ją wykorzystywać. Po drugie do omawianej tu grupy należy zaliczyć podmioty, które dopiero wraz z rozwojem gospodarki elektronicznej ujawniły się jako interesariusze organizacji. Dotyczy to z jednej strony np. wpływowych lokalnych i globalnych blogerów, ale przede wszystkim największych wyszukiwarek internetowych, których skala oddziaływania na gospodarkę i pojedynczą organizację jest coraz bardziej znacząca i wielowymiarowa (Wielki 2008). Jednocześnie z punktu widzenia coraz większej części przedsiębiorstw podmiotami, które w ich kontekście powinny być zaliczone do tej grupy, są takie globalane serwisy jak Wikipedia czy WikiLeaks. Jeśli chodzi o drugą grupę to jest ona najtrudniejsza z punktu widzenia jej identyfikacji przez organizacje oraz zarządzania wiedzą o nich w kontekście funkcjonowania w przestrzeni elektronicznej. Obejmuje ona wszelkie te pod58 Problemy Zarządzania Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną... mioty – zarówno nieznane, jak i trudno identyfikowalne – które wywierają na nią realny i odczuwalny wpływ. W jej ramach wyróżnić można dwa zbiory podmiotów, których aktywność powinna być monitorowana, a zgromadzona wiedza odpowiednio wykorzystywana. Pierwszy z nich jest związany z kwestiami fizycznego bezpieczeństwa infrastruktury IT organizacji, a co za tym idzie jej samej, ale również jej klientów oraz partnerów biznesowych. Zagadnienia te nabierają coraz większego znaczenia w kontekście dynamicznego rozwoju gospodarki elektronicznej, a jednocześnie stają się coraz bardziej skomplikowane i trudne z uwagi na fakt stosowania przez podmioty należące do tej grupy coraz bardziej wyrafinowanych technologii i metod działania (Ponemon Institute 2012). Drugi zbiór podmiotów należących do analizowanej grupy to osoby fizyczne lub firmy wykorzystujące narzędzia internetowe do oddziaływania na wiarygodność czy też reputację organizacji. Sięgając po wszelkie dostępne w danym momencie, a nieustannie rozwijające się narzędzia oparte na technologiach internetowych i mobilnych, potrafią one niezwykle skutecznie wpływać na samą organizację, jak również jej bezpośrednich interesariuszy. Ostatnia, trzecia grupa obejmuje podmioty co prawda funkcjonujące w przestrzeni elektronicznej i realizujące tam swoje cele, jednak uznawane za neutralne z punktu widzenia danej organizacji i podejmowanych przez nią działań. Mogą to być takie, których istnienia jest ona świadoma, jak również te całkowicie jej nieznane. Warto jednocześnie w tym kontekście zauważyć, iż ze względu na dużą dynamikę zmian zachodzących w przestrzeni elektronicznej, podmioty należące do tej grupy mogą praktycznie z dnia na dzień stać się interesariuszami organizacji. Dotyczy to tak firm działających wcześniej w zupełnie innym obszarze gospodarki, ale również osób fizycznych organizujących się ad hoc w określone grupy interesów (np. motywowanych politycznie różnego typu haktywistów – hacktivists) (Symantec 2012). W kontekście przeprowadzonej segmentacji podmiotów funkcjonujących w przestrzeni elektronicznej, ze względu na kwestie ich potencjalnego oddziaływania na organizację, kolejnym elementem działań powinna być ich analiza z punktu widzenia różnych typów możliwych ich wpływów na nią (fizyczny/niefizyczny, bezpośredni/pośredni, ukierunkowany na zasoby materialne/niematerialne) (Wielki 2007: 325–326). Wiąże się to z odpowiedzią na drugie z powyżej sformułowanych pytań. Kolejny element aktywności związanej z działaniami prewencyjno-zabezpieczającymi w obszarze zewnętrznym wiąże się z możliwościami zarządzania zidentyfikowanymi grupami interesariuszy organizacji funkcjonującymi w przestrzeni elektronicznej w kontekście realizacji przez nią swych celów. W odniesieniu do tego poziomu niezbędne jest uszczegółowienie kwestii organizacyjno-technicznych związanych z zagadnieniami zawartymi w trzech kolejnych pytaniach, tj. 3, 4 oraz 5. Z jednej strony jest to kwestia doprecyzowania, jakie obszary przestrzeni elektronicznej i aktywność jakich podmiotów w nich operujących powinny vol. 10, nr 3 (38), 2012 59 Janusz Wielki być szczególnie monitorowane. Chociaż z punktu widzenia organizacji wykorzystujących Internet w swej działalności potencjalnie wszystko, co się w niej dzieje, jest dla firmy istotne, jednak dla każdej z nich istnieją takie miejsca on-line, które są szczególnie drażliwe w kontekście realizacji jej celów biznesowych. Są to często różnorakiego typu fora dyskusyjne, blogi, profile na różnego rodzajach portalach społecznościowych czy też inne obszary, w których kształtowane są opinie o firmie oraz jej działalności. Ich monitorowanie dostarczać może informacji o bieżących, banalnych i całkiem typowych zdarzeniach, wymagających rutynowej reakcji (np. wyjaśnienia pewnych kwestii na forum dyskusyjnym, blogu firmowym czy na portalu społecznościowym), sytuacjach nietypowych i nieoczekiwanych z punktu widzenia organizacji (Gazeta.pl 2010), ale również takich, które potencjalnie dotyczyć mogą rodzących się bardziej zorganizowanych akcji skierowanych przeciw firmie (Grynkiewicz 2010) czy też wyłaniających się zagrożeń w określonym sektorze. Jeśli chodzi o tę ostatnią kwestię, to z punktu widzenia organizacji takich jak banki niezwykle istotne jest monitorowanie określonych miejsc w przestrzeni elektronicznej w kontekście odpowiednio szybkiego pozyskiwania informacji krytycznych z punktu widzenia bezpieczeństwa ich klientów i odpowiednio szybkiego ich ostrzegania, jak również przygotowania własnego do ujawniających się zagrożeń. Drugie zagadnienie to kwestia środków technicznych wspomagających zarządzanie przestrzenią elektroniczną i podmiotami w niej funkcjonującymi, jakie wykorzystywać będzie organizacja. Dotyczy to narzędzi i rozwiązań wspomagających monitorowanie określonych obszarów przestrzeni elektronicznej, zarządzanie wiedzą o niej oraz reagowania na zachodzące tam zdarzenia. Jeśli chodzi o pierwszy aspekt, to istnieje całe spektrum możliwości w tym względzie. Z jednej strony jest to kwestia ręcznej kontroli określonych miejsc w przestrzeni elektronicznej (serwisów internetowych, blogów, portali społecznościowych itd.) prowadzonej przez odpowiedzialne za to osoby (np. monitorowania i korygowania wpisów dotyczących własnej firmy pojawiających się w Wikipedii tak jak robi to IBM) (Friedman 2006: 134). Odnosi się to również do przeszukiwania zawartości tzw. Internetu głębokiego (invisible Web, deep Web), z wykorzystaniem do tego celu specjalistycznych wyszukiwarek (Unold 2011: 152–153). Jednocześnie dostępnych jest coraz więcej narzędzi wspomagających monitorowanie przestrzeni elektronicznej. Są to z jednej strony darmowe rozwiązania takie jak Google Alerts, umożliwiające automatyczne prowadzenie tych procesów pod kątem pojawiania się w niej wybranego przez użytkownika tematu czy też tematów. Z drugiej strony dostępne są płatne specjalistyczne serwisy wspomagające monitorowanie i raportowanie w odniesieniu do całej przestrzeni elektronicznej lub też określonych miejsc on-line, np. portali społecznościowych, pod kątem zdefiniowanych słów kluczowych. Przykładami tego typu produktów są takie serwisy jak NewsPoint i NewsPoint Social Media (NewsPoint 2011). 60 Problemy Zarządzania Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną... Jednocześnie same narzędzia monitorowania to zdecydowanie za mało, zważywszy na ilość danych i informacji, jakie są generowane w przestrzeni elektronicznej. Aby skutecznie zarządzać nią i operującymi tam interesariuszami organizacji, niezbędne jest posiadanie rozwiązań analitycznych przetwarzających dostarczone dane i łatwo integrowalnych z systemami dostarczającymi wygenerowanych informacji i wiedzy wszelkim odpowiedzialnym za kwestie zarządzania przestrzenią elektroniczną podmiotom w organizacji, tak aby mogły one podejmować szybko i sprawnie niezbędne decyzje oraz działania. Stąd też rozwój rozwiązań takich jak Buzzient Enterprise, dostarczających różnego typu możliwości analitycznych. Może być bezpośrednia integracja z różnego typu systemami CRM, zasilanie systemów klasy business intelligence lub też analiza i wizualizacja danych za pomocą aplikacji webowych (Buzzient 2011). Jeśli chodzi natomiast o platformę integrującą informacje i wiedzę dotyczące przestrzeni elektronicznej i podmiotach w niej funkcjonujących oraz aplikacje wspierające zarządzanie nią, to niewątpliwie przydatnym rozwiązaniem w tym kontekście są takie systemy jak portale korporacyjne. Generalnie rzecz biorąc, rozwiązania wspierające zarządzanie przestrzenią elektroniczną powinny łączyć w sobie elementy takie jak (Wielki i Ziemba 2008: 149–152): – systemy oparte na wykorzystaniu technologii internetowych i mobilnych, wspierające szeroko pojęte procesy komunikacji, umożliwiające dzielenie się informacją i wiedzą czy też wymianę opinii dotyczących przestrzeni elektronicznej i podmiotów tam funkcjonujących; – systemy pracy grupowej, zapewniające wymianę informacji i wiedzy wewnątrz organizacji, istotnych z punktu widzenia zarządzania przestrzenią elektroniczną, stymulujące i wspomagające organizowanie współpracy wewnątrzorganizacyjnej; – system zarządzania dokumentami, pozwalający na przechowywanie, klasyfikację i wyszukiwanie dokumentów dotyczących poszczególnych podmiotów funkcjonujących w przestrzeni elektronicznej; – systemy przepływu pracy, wspierające wszelkiego typu procesy przebiegające wewnątrz organizacji, jak również w ramach jej powiązań sieciowych, związane z zarządzaniem przestrzenią elektroniczną; – systemy business intelligence, umożliwiające analizę zgromadzonych danych związanych z przestrzenią elektroniczną i podmiotami tam operującymi; – rozwiązania klasy Web mining, umożliwiające automatyczne odkrywanie informacji i wiedzy na podstawie dokumentów umieszczonych na witrynach WWW oraz dające możliwość analizy zachowań użytkowników na stronach WWW; – systemy szkoleń elektronicznych, wspierające rozwój umiejętności i kwalifikacji, jak również pozyskiwanie i poszerzanie wiedzy pracowników niezbędnej w kontekście zarządzania przestrzenią elektroniczną; vol. 10, nr 3 (38), 2012 61 Janusz Wielki – technologie wyszukiwania informacji i wiedzy, takie jak narzędzia kategoryzacji i taksonomii, ontologie czy też wyszukiwarki; – intranet lub inna sieć wewnątrzorganizacyjna dająca pracownikom dostęp do informacji i wiedzy dotyczącej przestrzeni elektronicznej i podmiotów w niej funkcjonujących. Jednocześnie, oprócz omówionych powyżej narzędzi i rozwiązań technicznych, istotnym elementem z punktu widzenia zarządzania przestrzenią elektroniczną jest – podobnie jak w obszarze wewnętrznym – uszczegółowienie działań w wymiarze organizacyjnym. Ostatnie ze sformułowanych wcześniej pytań wiąże się z określeniem, jakie typy aktywności w przestrzeni elektronicznej w stosunku interesariuszy organizacji, w ramach działań prewencyjno-zabezpieczających, są dopuszczalne i akceptowalne, a jakie absolutnie nie. Jest to kwestia związana z wymiarem normatywnym zarządzania interesariuszami (Donaldson i Preston 1995: 71, 81–82), która powinna być zdefiniowana na poziomie komitetu sterującego. 3. Działania związane z aktywnym wpływem organizacji na przestrzeń elektroniczną Jednocześnie, poza podejmowaniem działań prewencyjno-zabezpieczających w odniesieniu do swojej obecności i funkcjonowania w przestrzeni elektronicznej, każda organizacja ma cały szereg możliwości aktywnego oddziaływania na nią i kształtowania jej na pięciu zasadniczych poziomach: własnym, sektorowym, krajowym, regionalnym i globalnym. Jeśli chodzi o pierwszy z nich, jest to kwestia wprowadzania własnych rozwiązań, systemów czy produktów, ale również tworzenia i implementacji własnych polityk czy regulaminów dotyczących różnych aspektów funkcjonowania on-line (np. privacy policies). Inne kluczowe możliwości oddziaływania na przestrzeń elektroniczną na poziomie własnym to podejmowanie działań prawnych skierowanych przeciwko innym podmiotom tam funkcjonującym, szczególnie takim, które w sposób istotny tworzą lub też oddziałują na jej kształt i ład w niej panujący (np. Google). Jeżeli chodzi o możliwości związane z poziomem sektorowym, to dotyczą one przede wszystkim takich aspektów, jak tworzenie rozwiązań sprzyjających i stymulujących rozwój danej branży (np. SET – system płatności on-line) czy też podejmowanie różnego typu działań prawnych (np. działania branży muzycznej przeciwko użytkownikom ściągających pliki mp3, działania branży wydawniczej przeciwko Google Books). Z kolei w kontekście oddziaływania na poziomie krajowym najważniejsze jego elementy obejmują: tworzenie własnych produktów i rozwiązań ukierunkowanych lokalnie, udział we wszelkiego rodzaju ciałach pracujących nad określonymi rozwiązaniami istotnymi dla jej kształtu i funkcjonowania czy też opiniującymi je, podejmowanie działań lub też organizowanie różnego 62 Problemy Zarządzania Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną... typu akcji skierowanych przeciw określonym rozwiązaniom mogącym, z ich punktu widzenia, w istotny sposób niekorzystnie wpływać na jej funkcjonowanie na poziomie lokalnym oraz podejmowanie działań prawnych skierowanych przeciwko innym podmiotom działającym na poziomie krajowym. Jeśli chodzi natomiast o poziom regionalny, najważniejsze możliwości oddziaływania organizacji to: bezpośredni udział w pracach różnych ciał (np. grup roboczych) lub też poprzez organizacje je reprezentujące w tworzeniu i opiniowaniu kluczowych aktów prawnych wpływających na funkcjonowanie przestrzeni elektronicznej (np. takich jak na terenie UE dyrektywy unijne), podejmowanie określonych działań prawnych czy też lobbowanie na rzecz określonych rozwiązań pożądanych z ich punktu widzenia (dotyczy to szczególnie większych firm). W przypadku poziomu globalnego możliwości oddziaływania na tym poziomie dotyczą dwóch zasadniczych aspektów. Pierwszy z nich związany jest z udziałem firm w pracach organizacji czuwających nad całościowym rozwojem Internetu (np. The Internet Society, W3C), a co za tym idzie przestrzeni elektronicznej, oraz wypracowywujących rozwiązania sprzyjające temu. Drugi natomiast odnosi się do udziału organizacji wraz z innymi podmiotami w tworzeniu produktów oddziaływujących na nią w wymiarze globalnym (Wielki 2011: 110–118). Podobnie jak w przypadku działań prewencyjno-zabezpieczających, podstawowym zadaniem komitetu sterującego w tym obszarze jest zdefiniowanie polityki przedsiębiorstwa w odniesieniu do tej kwestii. Dlatego też w tym kontekście niezbędna jest odpowiedź na dwa kluczowe pytania: – czy organizacja zamierza w ogóle podejmować aktywność w tym obszarze; – jeżeli tak, to na którym bądź też których z pięciu możliwych poziomów będzie ona prowadzona. W tym kontekście niezbędne jest przeprowadzenie analizy istniejących możliwości oraz kierunkowy wybór metod działań, jakie wykorzystywać będzie organizacja. Kolejnym elementem jest ustalenie osób odpowiedzialnych za realizację poszczególnych zadań oraz określenie zakresów odpowiedzialności w tej mierze. Tak jak w poprzednich przypadkach, istotnym aspektem jest zdefiniowanie sposobów oraz częstotliwości przekazywania informacji zwrotnych w odniesieniu do podejmowanych działań, a także wyłaniających się problemów. Trzeci poziom działań to ich uszczegółowienie zarówno w wymiarze organizacyjnym, jak i technicznym (rysunek 1). Jednocześnie całość działań związanych z aktywnym oddziaływaniem na przestrzeń elektroniczną i operujących tam interesariuszy wiąże się ściśle ze wspomnianym wcześniej wymiarem normatywnym zarządzania interesariuszami, czyli określenia norm, jakie będą leżeć u ich podstaw i jasno wskazywać, jakiego rodzaju typy działań są dopuszczalne w ramach polityki organizacji, a jakie nie. Odnosi się to w dużej mierze do podejmowanych przez firmę szeroko pojętych działań marketingowych, ale również innego typu, takich jak np. prawne czy nawet hakerskie. W pierwszym przypadku vol. 10, nr 3 (38), 2012 63 Janusz Wielki jest to kwestia akceptowalności działań takich jak wykorzystanie wynajętych osób w celu podszywania się na forach dyskusyjnych czy portalach społecznościowych pod zadowolonych klientów własnej firmy (Lemański 2011: 14–15), generowanie fałszywych opinii o konkurentach (Gaudin 2011), próby manipulowania wynikami wyszukiwania przy użyciu zabronionych technik optymalizacyjnych (Grynkiewicz 2012) czy też generowaniem tzw. fałszywych kliknięć (Elgin i in. 2006). Z drugiej strony są to kwestie przyzwolenia na aktywne działania, jakie miały miejsce w branży muzycznej na początku nowego millenium, jak pokazowe wytaczanie procesów sądowych skierowanych przeciwko własnym interesariuszom, sięganie po takie rozwiązania jak finansowanie firm softwarowych w celu tworzenia przez nie oprogramowania mogącego uszkodzić komputery oraz łącza internetowe osób ściągających pliki mp3 czy też wykorzystanie wyspecjalizowanych wirusów komputerowych w celu losowego usuwania tego typu plików z dysków twardych (Wielki 2004: 921). Odnosi się to również do kwestii dopuszczalności takich działań jak ataki DDoS (Distributed Denial of Service) na firmy konkurencyjne, które stają się coraz częściej faktem w różnych branżach (Garnajewa i Namiestnikow 2012). 4. Zakończenie Organizacje decydujące się na wykorzystanie Internetu w swej działalności biznesowej coraz powszechniej zaczynają mieć świadomość, iż środowisko elektroniczne, do którego wkraczają nie jest tylko źródłem różnorakich możliwości rozwoju, ale również generuje cały szereg nowych, a często nieznanych wcześniej, ale nieustannie ewoluujących wyzwań związanych zarówno z własnymi pracownikami, jak i wszelkiego typu interesariuszami zewnętrznymi. Stąd też, aby móc jak najskuteczniej wykorzystywać pojawiające się liczne, obecne i przyszłe szanse związane z aspektami marketingowymi, implementacją nowych modeli biznesowych i całym szeregiem innych kwestii związanych z praktycznie wszystkimi sferami funkcjonowania firmy, przedsiębiorstwa muszą nauczyć się całościowo spoglądać na swą obecność w przestrzeni elektronicznej. Oznacza to w praktyce konieczność uważnego projektowania własnej aktywności w niej i ciągłego oraz jak najbardziej efektywnego zarządzania nią w kontekście realizacji celów biznesowych. Odnosi się to zarówno do kwestii zabezpieczenia i ochrony działalności on-line w wymiarze wewnętrznym, jak i zewnętrznym, jak również wykorzystania możliwości związanych z aktywnym oddziaływaniem na przestrzeń elektroniczną w celu kształtowania jej rozwoju, aby był on jak najbardziej przyjazny i sprzyjający organizacji z punktu widzenia realizowanych przez nią celów. Obydwa wspomniane powyżej obszary wymagają dobrze przemyślanych i zorganizowanych działań związanych z zarządzaniem w szeroko rozumianym sensie, przestrzenią elektroniczną, biorąc przy tym pod uwagę wszelkie 64 Problemy Zarządzania Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną... kwestie zarówno organizacyjne, jak też techniczne, oraz konieczność szerokiego zaangażowania kadry zarządzającej oraz pozostałych pracowników. Koncentrując się wyłącznie na wykorzystaniu nowych możliwości pojawiających się wraz z rozwojem Internetu i przestrzeni elektronicznej bez odpowiedniego przygotowania własnej obecności on-line i zarządzania nią, organizacje ryzykują, iż podejście takie doprowadzić może do zupełnie innych rezultatów od tych oczekiwanych. Odnosi się to do wszelkiego typu przedsiębiorstw wykorzystujących w różnorodnym zakresie i skali tą globalną strukturę sieciową, w oczywisty sposób najbardziej tych, dla których środowisko elektroniczne staje się podstawowym obszarem prowadzenia działalności biznesowej. Informacje o autorze Dr inż. Janusz Wielki – Wydział Ekonomii i Zarządzania, Politechnika Opolska. E-mail: [email protected]. Bibliografia Buzzient 2011. Social Media Analytics, http://www.buzzient.com. Deloitte 2011. Raising the Bar 2011 TMT Global Security Study – Key Findings, http:// www.deloitte.com/assets/DcomCroatia/Local%20Assets/Documents/2011/TMT_2011_ Global_Security_Survey_hr.pdf. Donaldson, T. i L. Preston 1995. The Stakeholder Theory of the Corporation: Concepts, Evidence, and Implications. Academy of Management Review, nr 1 (20), DOI: 10.2307/258887. Elgin, B. i in. 2006. Click Fraud: The Dark Side of Online Advertising. BusinessWeek, http://www.businessweek.com/magazine/content/06_40/b4003001.htm. Faas, R. 2012. How Mobile, BYOD and Younger Workers are Reinventing IT. Computerworld, http://www.computerworld.com/s/article/print/9224568/How_mobile_BYOD_ and_younger_workers_are_reinventing_IT?taxonomyName=IT%20Ind. Friedman, T. 2006. Świat jest płaski, Poznań: Dom Wydawniczy Rebis. Garnajewa, M. i J. Namiestnikow 2012. Ataki DDoS w drugiej połowie 2011 roku, http:// www.viruslist.pl/ news.html?newsid=700. Gaudin, S. 2011. Caught! Facebook Admits Running Anti-Google Campaign. Computerworld, http://www.computerworld.com/s/article/9216656/Caught_Facebook_admits_ running_anti_Google_campaign. Gazeta.pl 2010. HTC pyta – fani odpowiadają, http://technologie.gazeta.pl/internet/ 2029022,104530,7793096,HTC_pyta ___fani_odpowiadaja.html?logo_druk=. Grynkiewicz, T. 2010. Antypampersowa kampania na Facebooku i nie tylko. Gazeta Wyborcza, http://wyborcza.biz/biznes/2029020,100896,7885824.html. Grynkiewicz, T. 2012. Nokaut znokautowany: dotkliwa kara Google’a dla polskich porównywarek. Gazeta Wyborcza, http://wyborcza.biz/biznes/2029020,100896,11530949.html/. Hamblen, M. 2012. Consumerization Trend Creates IT Worries, Worker Benefits. Computerworld, http://www.computerworld.com/s/article/print/9227238/Consumerization_ trend_creates_IT_worries_worker_ benefits?taxonomyName=Mobile+a/. Kaplan, J. i in. 2011. Meeting the Cybersecurity Challenge. McKinsey Quarterly, https:// www.mckinseyquarterly.com/ article_print.aspx?L2=13&L3=112&ar=2821. vol. 10, nr 3 (38), 2012 65 Janusz Wielki Lemański, A. 2011. Opinia światłowodem się niesie. Czyli rozważania o etycznych aspektach internetowego public relations. Computerworld Polska, 24 maja. Marciniak, M. 2011. Smartfony w firmach. Computerworld Polska, 23 sierpnia. NewsPoint 2011. Monitorowanie mediów, http://www.newspoint.pl/o-nas/newspoint-monitoring-mediow. Ponemon Institute 2012. The Impact of Cybercrime on Business, http://www.checkpoint. com/products/downloads/whitepapers/ponemon-cybercrime-2012.pdf. Raszkowska, G. 2011. Freelancera zatrudnię od zaraz. Rzeczpospolita, http://www.rp.pl/ artykul/661807.html?print=tak. Stackpole, B. 2011. iPads run amok: Does your company need a tablet policy? Computerworld, http://www.computerworld.com/s/article/9216208/iPads_run_amok_Does_ your_company_need_a_tablet_policy_. Symantec 2012. 2011 Internet Security Threat Report, http://www.symantec.com/content/ en/us/enterprise/other_resources/b-istr_main_report_2011_21239364.en-us.pdf. Unold, J. 2011. Cyberspace Information Retrieval and Processing with the Use of the Deep Web, w: A. Korowicki i B. Kubiak (red.). Information Management, Prace i Materiały Wydziału Zarządzania Uniwersytetu Gdańskiego, nr 3. Gdańsk: Wydział Zarządzania Uniwersytetu Gdańskiego, Fundacja Rozwoju Uniwersytetu Gdańskiego. Urbanowicz, J. 2011. Sony ujawnia szczegóły włamania, http://technologie.gazeta.pl/internet/1,104665,9543776,Sony_ujawnia_szczegoly_wlamania.html/. Wielki, J. 2004. Social and Ethical Implications of the Virtualization of the Business Environment in the Music Sector, w: T. Bynum i in. (red.) Proceedings of the Seventh International Conference on Challenges for Citizen of the Information Society ETHICOMP 2004, Volume 2, Syros: University of Aegean. Wielki, J. 2007. Social and Ethical Aspects Connected with e-Space Development. Journal of Information, Communication and Ethics in Society, nr 4 (5), DOI: 10.1108/14779960710846173. Wielki, J. 2008. Search Engines as a New Type of Stakeholder of Contemporary Organizations, w: H. Dudycz, M. Dyczkowski i J. Korczak (red.) Advanced Information Technologies for Management – AITM 2008, Wroclaw University of Economics – Research Papers, nr 35. Wrocław: Publishing House of the Wroclaw University of Economics. Wielki, J. 2011. Analiza możliwości oddziaływania organizacji na kształt i funkcjonowanie przestrzeni elektronicznej, w: W. Chmielarz, J. Kisielnicki i O. Szumski (red.) Informatyka 4 przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego, Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego. Wielki, J. i E. Ziemba 2008. The Use of Corporate Portals in Managing Knowledge on Entities Operating in the Electronic Space, w: S. Wrycza (red.) Proceedings of BIR’2008 – The Seventh International Conference On Perspectives In Business Informatics Research, Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego. Williams, M. 2011. PlayStation Network hack will cost Sony $170M, http://www.networkworld.com/news/2011/052311-playstation-network-hack-will-cost.html. 66 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 67 – 82 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.5 Innowacyjne modele e-biznesu – perspektywy rozwojowe Włodzimierz Szpringer W przypadku innowacyjnych modeli e-biznesu Internet jest czymś, co umożliwia takim firmom istnienie (np. wyszukiwarki). W innym sensie innowacyjne są te wszystkie modele, które wykorzystując postęp technologii ICT, odpowiadają na potrzeby klientów i dzięki temu zdobywają przewagę konkurencyjną. Innowacyjne modele e-biznesu kojarzą strategię biznesu, organizację oraz technologię. Istotna jest całościowa wizja modelu. Należy podkreślić ścisły związek innowacji w sferze usług oraz technologii. Innowacje w sferze usług były dotychczas często badane jakby w oderwaniu od technologii, co w obliczu dynamiki zmian rynku, biznesu i klientów może prowadzić do mylących wniosków. A zatem nowa usługa w środowisku nowych technologii może prowadzić do ukształtowania się nowych modeli e-biznesu. W dobie globalizacji i dynamicznych zmian na rynku kluczowe cechy modeli e-biznesu jest ich innowacyjność, elastyczność, otwartość i generowanie wartości dla interesariuszy. W polu widzenia jest również innowacyjne podejście do finansowania, znaczenia serwisów społecznościowych, wciągających użytkowników do współtworzenia dóbr i usług, usługi mobilne, cloud computing, dwu- lub wielostronne modele biznesowe. Istotne jest także uwzględnianie konwergencji urządzeń i cyfryzacji contentu, które prowadzą do wytworzenia się nowego sektora: telekomunikacji, usług IT, mediów i sektora rozrywki (TIME-Sector – Telecommunications, IT, Media, Entertainment). Łańcuch wartości jest kluczowym pojęciem, które określa architekturę modeli biznesowych. Należy podzielić pogląd, iż wyznacznikiem postępu cywilizacyjnego jest symbioza wartości oraz postępu (Zając 2003). Jeżeli spróbujemy rozdzielić etapy rozwoju człowieka pod kątem przemian cywilizacyjnych, można przyjąć, iż obecnie znajdujemy się na początku rodzącej się czwartej fali rozwoju. Symbolem współczesnych przemian nie jest już zwykły komputer podłączony do Internetu, lecz biocybernetyka, inżynieria genetyczna i nanotechnologia. Skrót NBIC (nano-bio-info-cogno) możemy określić jako połączenie nanotechnologii, biotechnologii, informatyki oraz nauk kognitywnych (NSF/DOC 2002). vol. 10, nr 3 (38), 2012 67 Włodzimierz Szpringer Pod koniec ubiegłego stulecia rozpoczęły się prace nad stworzeniem nowego protokołu internetowego, który sprostałby problemom związanym z szybko kurczącą się liczbą dostępnych adresów. Kiedy protokół IPv4 był tworzony, nikt nie przypuszczał, że 4-miliardowa przestrzeń adresowa 32-bitowych wersji czwartej protokółu może kiedykolwiek się wyczerpać. Powstały w 1996 r. protokół IP w wersji szóstej, operując 128-bitową przestrzenią adresową, oferuje nam 296 razy więcej dostępnych adresów w porównaniu ze swoim poprzednikiem1. Podziału modeli biznesu można dokonać, uwzględniając kilka kryteriów: – ze względu na rolę Internetu, – ze względu na rodzaj działalności (np. pośrednictwo), – ze względu na grupę docelową (B2B, B2C). Podstawowym kryterium podziału modeli e-biznesu jest sposób wykorzystania Internetu do prowadzenia działalności gospodarczej. W ramach tego podziału wyróżniamy następujące kategorie (por. Modele biznesu, www.cambridgepython.pl): – modele przeniesione – rodzaje biznesów przeniesione ze świata rzeczywistego, – modele innowacyjne – rodzaje biznesów, które nie mogłyby istnieć bez Internetu. W przypadku modeli przeniesionych Internet jest wykorzystywany przede wszystkim do ułatwienia i usprawnienia procesów biznesowych. Przykładem mogą być sklepy internetowe, które dzięki Internetowi są czynne 24 godziny na dobę, oferują często większy wybór towarów. W przypadku modeli innowacyjnych Internet jest czymś, co umożliwia takim firmom istnienie. Przykładem mogą być wyszukiwarki, które znajdują potrzebne informacje w Internecie. W innym sensie innowacyjne są te wszystkie modele, które wykorzystując postęp technologiczny, odpowiadają na potrzeby klientów i dzięki temu zdobywają przewagę konkurencyjną. Innowacyjne modele e-biznesu bazują najczęściej na technologii ICT. Kojarzą one strategię biznesu, organizację oraz technologię. Istotna jest całościowa wizja modelu, np. w świetle niektórych źródeł e-aukcja to nie model, a mechanizm cenowy (pricing mechanism), a serwis społecznościowy to nie model, lecz forma relacji z klientami (customer relationship). Podobnie podział zysków (revenue sharing) w kontekście partnerstwa na platformie sieciowej sam w sobie nie jest modelem e-biznesu. Należy dążyć do ich formalizacji i modularyzacji (building blocks), by mogły być testowane i poszerzane na inne obszary. Takie modele mogą być źródłem przewagi konkurencyjnej na rynku (Osterwalder, Pigneur i Tucci 2005). Należy podkreślić ścisły związek innowacji w sferze usług oraz technologii. Innowacje w sferze usług były dotychczas często badane jakby w oderwaniu od technologii, co w obliczu dynamiki zmian rynku, biznesu i klientów może prowadzić do mylących wniosków. Nowa usługa (new service concept) powinna być najpierw badana pod kątem dostępnych opcji w technologii 68 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe (new technology options), zmian potrzeb klienta (new client interface) oraz metod dostawy usługi (new service delivery systems). A zatem nowa usługa w środowisku nowych technologii może prowadzić do ukształtowania się nowych modeli e-biznesu (Bouwman, de Vos i Hacker 2008). W dobie globalizacji i dynamicznych zmian na rynku kluczowe cechy modeli e-biznesu to ich innowacyjność, elastyczność, otwartość i generowanie wartości dla interesariuszy. W polu widzenia jest również innowacyjne podejście do finansowania, znaczenia serwisów społecznościowych, wciągających użytkowników do współtworzenia dóbr i usług. Istotne jest także uwzględnianie konwergencji urządzeń i cyfryzacji contentu, które prowadzą do wytworzenia się nowego sektora: telekomunikacji, usług IT, mediów i sektora rozrywki – (TIME-Sector – Telecommunications, IT, Media, Entertainment). Łańcuch wartości jest kluczowym pojęciem, które określa architekturę modeli biznesowych. Można go przedstawić jako całość złożoną z następujących elementów (Bieger, Knyphausen-Aufsaß i Krys 2011): – koncepcja wartości (usługi) dla klienta (ang. Value Proposition, niem. Leistungskonzept), – koncepcja generowania wartości (ang. Value Creation, niem. Wertschöpfungskonzept), – koncepcja kanałów komunikacji i transferu wartości (ang. Value Communication + Value Transfer, niem. Kanäle), – koncepcja rozwoju wartości (ang. Value Development, niem. Entwicklungskonzept), – koncepcja podziału wartości (ang. Value Dissemination, niem. Wertverteilung), – koncepcja źródeł zysku (ang. Value Capture, niem. Ertragskonzept). Analiza sposobu prowadzenia działalności z wykorzystaniem serwisów internetowych oraz technologii komputerowych i sieciowych (ICT) pozwala na zdefiniowanie najważniejszych sposobów osiągania zysków, czyli określenie modeli biznesowych, w jakich funkcjonują firmy. Każda firma oferująca usługi e-commerce wykorzystuje w swoim działaniu jakiś model biznesowy. Model taki odpowiada na pytania: w jaki sposób firma zamierza generować przychód, dlaczego klienci płacą i zamierzają nadal płacić za wykorzystywanie serwisu komercyjnego. Brak jasno określonego modelu biznesowego jest jedną z najczęstszych barier, poza kosztami, w działalności e-biznesowej2. Model biznesowy – to układ czterech zazębiających się elementów: – źródło wartości dla klienta (customer value), – formuła generowania zysków (profit formula), – kluczowe zasoby (key resources), – kluczowe procesy (key processes). Pojęcie modelu biznesowego wiąże się zatem z odpowiedzią na kilka pytań3: – Kto jest klientem organizacji? – Co jest źródłem wartości dla klienta? vol. 10, nr 3 (38), 2012 69 Włodzimierz Szpringer – W jaki sposób są generowane zyski z działalności, którą prowadzi firma? – Co leży u podstaw logiki ekonomicznej, która wyjaśnia, w jaki sposób firma dostarcza wartość klientom po odpowiednim koszcie? Początkowo modele te sprowadzały się do przeniesienia procesów fizycznych do przestrzeni wirtualnej. Wraz z rozwojem Internetu coraz ważniejsze stają się zmiany jakościowe, wynikające z nowych narzędzi opartych na technologiach ICT (np. problem wykorzystania aktywności użytkowników w serwisach społecznościowych). Można przyjąć podział łańcucha wartości w Internecie na pięć kluczowych rynków: – prawa do treści, – usługi on-line, – technologie i usługi dostępowe, – łączność, – interfejsy użytkownika (obejmujące zarówno oprogramowanie, jak i sprzęt). Można zdefiniować cztery podstawowe typy modeli biznesowych (wytwórców, dystrybutorów, właścicieli i pośredników). Następnie, biorąc pod uwagę rodzaj aktywów zaangażowanych (finansowych, materialnych, niematerialnych lub ludzkich), definiuje się kolejno 16 modeli specjalistycznych. Wiele osób przypisuje sukces firm, takich jak: eBay, Dell i Amazon, nie tylko sposobom używania nowych technologii, ale też kreowaniu całkiem nowych modeli biznesowych w ogóle. Okazuje się, iż sprzedaż praw do użytkowania aktywów jest bardziej opłacalna i bardziej ceniona na rynku niż sprzedaż praw własności tych aktywów (Weill i in. 2005). Punktem wyjścia klasyfikacji modeli biznesowych w Internecie jest podział na 4 ośrodki ciążenia (Wirtz 2011: 681 i nast.; Bächle i Lehmann 2010: 12 i nast.): – zawartość lub treść (content), – handel (commerce), – kontekst (context), – wymiana informacji (connection). Segment zawartości obejmuje treści cyfrowe, np. wiadomości on-line, ściąganie muzyki czy filmów. W tym segmencie są obecne firmy tradycyjnych wydawców i mediów RTV oraz liczne nowe firmy typu Host-Service-Providers (YouTube) oraz serwisy Peer-to-Peer (Napster). W tym niezwykle rozbudowanym i zróżnicowanym segmencie mamy do czynienia z różnymi działami (e-information, e-entertainment, e-infotainment, e-education). Segment handlu dotyczy nawiązywania kontaktów i pomocy w negocjowaniu i zawieraniu umów (e-attraction, e-bargaining, e-transaction, e-retailing, e-payment, e-delivery). Działają tutaj platformy handlowe (Covinsit), e-sklepy i e-malle (Amazon), a także domy aukcyjne (e-Bay) oraz sami wytwórcy dóbr i usług. Segment kontekstu obejmuje oferty klasyfikacji i systematyzacji informacji pod kątem potrzeb danego klienta, np. w zależności od lokalizacji czy 70 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe napływu newsów (np. Google Finance, Yahoo! Finance). Ale kluczowi gracze na tym rynku to operatorzy wyszukiwarek i katalogów (Google, Microsoft Bing, Yahoo!), którzy oferują wyszukiwanie proste i zaawansowane (general search, special search, meta search, desktop rerach), a także indeksowanie zasobów Internetu pod kątem potrzeb użytkownika (e-bookmarking). Segment wymiany informacji to – oprócz dostępu do sieci – także serwisy społecznościowe i wiele usług dodanych (My Space, Facebook, Twitter). Mogą to być różne usługi wymiany informacji, np. opinii o produktach i usługach, hobbystycznych czy innych (customer networks, customer messages, customer exchange, customer opinions). Koncepcja Web 2.0 pozwala na dalsze, szczegółowe podziały zastosowań technologii w życiu zawodowym i społecznym, np. Blogs – RSS, File Exchange & Sharing, Wikis, Podcasts, Mash-ups, Tagging, Social Networking, Aggregation and Comparisons, C&C Commerce. Powstają więc nowe możliwości integracji wokół łańcucha wartości i tworzenia wielofunkcyjnych konglomeratów (Time Warner, News Corp.) lub skupienia się na wybranym modelu biznesowym (content, commerce, context, connection)4. Bardziej innowacyjne modele, takie jak elektroniczne rynki czy integratorzy łańcucha wartości, łączą ze sobą sprzedawców i klientów, umożliwiając obniżenie kosztów oraz udoskonalając przepływ informacji pomiędzy podmiotami na rynku. Prześledzenie aktualnych trendów rozwoju najnowocześniejszych serwisów pokazuje, że modele ewoluują w kierunku wirtualnych rynków czy sieci powiązań, w których producenci i konsumenci poszukują i łączą się dynamicznie, często w krótkotrwałych związkach, na czas realizacji transakcji bądź dla osiągnięcia innych zamierzonych celów. Dotyczy to także relacji pomiędzy pozostałymi podmiotami e-biznesu: producentami, dostawcami czy kooperantami. Zdecydowanie zwiększa się również różnorodność i skala podejmowanych działań gospodarczych w cyberprzestrzeni, co powoduje znaczne skomplikowanie modeli, według których funkcjonują przedsiębiorstwa. Te nowe modele e-biznesowe wymagają rozwoju szerokiej gamy wspomagających je technologii informatycznych i komunikacyjnych (sieciowych), takich jak: CRM, narzędzia do pracy grupowej, technologie bezprzewodowe, narzędzia do automatyzacji procesów biznesowych czy technologie zapewniające bezpieczeństwo transakcji w sieci5. W dobie globalizacji i dynamicznych zmian na rynku kluczowe cechy modeli e-biznesu to ich innowacyjność, elastyczność, otwartość i generowanie wartości dla interesariuszy. W polu widzenia jest również innowacyjne podejście do finansowania, znaczenia serwisów społecznościowych, wciągających użytkowników we współtworzenie dóbr i usług. Istotne jest także uwzględnianie konwergencji urządzeń i cyfryzacji contentu, które prowadzi do wytworzenia się nowego sektora – TIME-Sector: (telekomunikacji, usług IT, mediów i sektora rozrywki (Telecommunications, IT, Media, Entertainment). vol. 10, nr 3 (38), 2012 71 Włodzimierz Szpringer Poza najczęściej badanymi modelami dodatkowo wyróżnia się metamodele, które mogą być wykorzystane wraz z modelami podstawowymi, np. podział zysków (użytkownicy są materialnie motywowani do tworzenia własnych aplikacji w sieci generujących zyski, np. na bazie oceny ich indywidualnych kwalifikacji i predyspozycji czy popularności tworzonego przez nich contentu wśród internautów). Taki metamodel jest znany w wielu wariantach (revenue share, re-sale-re-use, affiliate, white label). Dodatkowe korzyści można uzyskiwać dzięki umiejętności pełnego korzystania z efektów sieciowych (Osterwalder, Pigneur i Tucci 2005). Internet rozwija się dynamicznie, stając się z każdą chwilą coraz bardziej zasobochłonny, wymagając zwiększania przepustowości i elastyczności infrastruktury. Stosunek wykorzystania infrastruktury do osiąganych przychodów pokazuje, że obecnie odpowiedzialni za jej rozwój nie zawsze mają motywację, by prowadzić dalsze inwestycje. Powstaje więc problem opracowania modelu zapewniającego stabilny rozwój Internetu. Można rozważyć trzy modele finansowania inwestycji w infrastrukturę Internetu: 1. Model klasyczny – funkcjonujący obecnie, w którym za dodatkową przepustowość płaci klient, czyli odbiorca usług. 2. Model oparty na dostawcach usług – model zakładający obciążenie kosztem modernizacji łącza dostawców usług internetowych. 3. Model hybrydowy – bazujący na podziale opłat pomiędzy klienta (odbiorcę usług) a dostawców usług internetowych6. W świetle badań serwisów społecznościowych można mówić o różnych stopniach aktywności (partycypacji) uczestników: od całkowitej bierności, polegającej tylko na czytaniu contentu, poprzez komentarze aż po aspiracje do przywództwa w kreacji contentu lub tworzeniu produktu finalnego. Można mówić o stopniowym przechodzeniu od kultury kreacji contentu (creation of content), poprzez krytyczne komentarze i rankingi (accreditation of relevance) aż po dzielenie się własną twórczością o wartości dodanej dla całej wirtualnej społeczności (value-added distribution). Powstało pojęcie „nanokonkurencji”, czyli wytwarzania artefaktów, które są nieistotne lub niezauważalne na poziomie indywidualnego użytkownika, lecz kreują wartość dla wirtualnej społeczności jako całości (Surowiecki 2004; Bauwens 2006; Reichwald i Piller 2006; Oreilly 2007). W różnych dziedzinach (także w Internecie) rozwijają się alternatywne wobec prawa systemy normatywne. Opierając się często na presji społecznej czy środowiskowej, spełniają one skutecznie trzy funkcje przypisywane legislacji: kreowania reguł gry, rozstrzygania sporów i egzekucji norm. Powstają zatem porządki normatywne będące quasi-prawem, które można określić mianem: Order without Law lub Order despite Law (Ellickson 1991). Można wskazać sześć rodzajów platform biznesowych, które rewolucjonizują małe i średnie firmy typu start-up, zwłaszcza w sferze usług (Mettler i Williams 2011). 72 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe 1. Dostawcy usług rozproszonego finansowania (crowd financing). Dawniej małe firmy musiały szukać źródeł finansowania w bankach, firmach typu venture capital, a także u rodziny i znajomych. Obecnie powstały nowe platformy kojarzące środki z wielu źródeł, a także szukające kooperantów mających podobne cele biznesowe. Wiąże się z tym także doradztwo i mentoring, jak również odkrywanie nowych rynków oraz klientów. Platformy tego rodzaju – to m.in: AngelList, Kickstarter, Kivaa, TechStars, Vencorps, Y Combinator. 2. Dostawcy cyfrowych programów użytkowych (digital utilities). Obecnie przedsiębiorcy mogą tanio kupić lub uzyskać bezpłatnie praktycznie dowolne narzędzie z dziedziny technologii ICT, które jest potrzebne do prowadzenia biznesu (komunikacja, przetwarzanie, archiwizowanie danych, prowadzenie call centers, dostęp do praktycznie nieograniczonej pojemności i szybkości operacji komputerowych w Internecie w ramach Grid Computing, Cloud Computing, wraz z zapewnieniem bezpieczeństwa, tajemnicy handlowej i ochrony prywatności (Trusted Computing). Do platform tego rodzaju można zaliczyć m.in. platformy: Skype, Linux, Google Apps, Amazon Cloud, FreshBooks. 3. Dostawcy profesjonalnych usług zorganizowanych elektronicznych rynków (marketplaces). Outsourcing nie jest już obecnie przywilejem wielkich korporacji chcących oszczędzać koszty. Także małe i średnie firmy mogą na dogodnych warunkach korzystać z elastycznych, skrojonych na miarę usług takich rynków, które oferują także wyszukiwanie talentów (kooperantów i pracowników). Oferują próbki działalności dotychczas nieznanych kooperantów i ich oceny (rating) z wszelkich możliwych sektorów: od rachunkowości do projektowania stron WWW. Dotyczy to np. monitorowania zadań w toku realizacji, billingów, płatności, podatków itp. Platformy te wspierają całość procesów kontraktowania w sieci, badań marketingowych, back-office, projektowania, rozwoju i dostarczania produktów w sieci. Do tego typu platform można zaliczyć m.in: Elance, Guru.com, oDesk, Brickwork India, DoMyStuff.com, RentACoder, Mechanical Turk. 4. Platformy pozwalające na mikroprodukcję w ramach małej lub średniej firmy (micro-manufacturing). Dotychczas tylko wielkie korporacje były zdolne projektować, produkować i dostarczać na masowy rynek dobra fizyczne. Obecnie urządzenia do produkcji wielu dóbr są dostępne na dogodnych warunkach i w niskich cenach. Stają się one zatem dostępne także dla małych firm, które kontraktują z dostawcami usług (3D-printing) w wielu krajach, np. Chinach czy Indiach, bez posiadania – w sensie fizycznym – fabryki czy laboratorium badań i rozwoju. Takie platformy to np. Alibaba.com, Ponoko, MakerBot Industries, Quirky.com. 5. Platformy, które można określić mianem kuźni innowacji (Innovation marketplaces). Rosnąca ranga własności intelektualnej i przemysłowej w skojarzeniu z możliwościami nowych technologii i Internetu napędza tworzenie nowych rynków on-line, ułatwiających licencjonowanie patenvol. 10, nr 3 (38), 2012 73 Włodzimierz Szpringer towe i transfer technologii między zainteresowanymi firmami, sektorami oraz regionami. Także małe firmy mogą uzyskać tą drogą przewagę konkurencyjną i korzyści ekonomiczne. Bez własnej placówki badawczo-rozwojowej firmy małe lub średnie mogą kupić na rynku przodujące technologie, co bywa nawet tańsze od ich samodzielnego rozwijania. Te firmy, o ile są dostatecznie innowacyjne, mogą w dalszym ciągu rozwijać zakupione technologie i udostępniać je innym. Do tego typu platform można zaliczyć m.in: InnoCentive, NineSigma, yet2.com. 6. Platformy handlu elektronicznego (e-commerce platforms). Dotychczas tylko duże firmy handlowe mogły się zdecydować na masową sprzedaż. Małe firmy były poddane licznym ograniczeniom, np. opłatom wymaganym za przyjęcie towaru na półkę przez dużego detalistę. Obecnie powstają globalne sieci małych firm handlowych, wraz z „długim ogonem” (the long tail) firm i usług niszowych. Mali wytwórcy oraz sprzedawcy wykorzystują także możliwości serwisów społecznościowych, dzięki którym docierają do klientów. Tego typu platformy, z których korzystają małe firmy, to np. Google Adwords, Facebook, Salesforce.com, eBay, Etsy, Amazon AppStore. Rozwijają się badania nad rolą modelu biznesowego w przechwytywaniu wartości z nowych technologii. Udany model biznesowy powinien wykazywać zdolność odblokowywania ukrytych (potencjalnych) wartości z technologii, ale to może również ograniczać późniejsze wyszukiwanie i projektowanie nowych modeli alternatywnych – powiązanych z innymi technologiami. Nowe technologie mogą znaleźć zastosowanie w istniejącym modelu biznesowym i kulturze organizacyjnej w firmie lub można upatrywać szansy raczej w skonstruowaniu całkiem nowego modelu biznesowego. Często proces badania adekwatności relacji: technologia–model biznesowy musi się odbywać w warunkach separacji od reszty firmy, czyli w drodze założenia spółki specjalnego przeznaczenia (spin-off). Wiele spośród pomysłów, które wchodzą w rachubę, musi obejmować zmianę paradygmatu w celu dostarczenia wartości. Często zmienia się bowiem percepcja „architektury przychodów” w łańcuchu wartości. Gospodarka oparta na usługach oraz rozwój Internetu powodują przekształcenia w modelach biznesowych producentów oprogramowania komputerowego. Dostawcy software’u ewoluują w istocie w kierunku dostawców usług (service-oriented architecture paradigm). Mamy do czynienia z rozwojem usług w sieci oferowanych przez znaczną liczbę niewielkich, wyspecjalizowanych dostawców, którzy skupiają się na pewnych modułach, dających znaczne możliwości integracji i kreacji wartości dla użytkowników dzięki kooperacji. Osiąganiu tego celu pomagają kompleksowe i łatwo dostępne platformy, które można traktować w kategoriach mechanizmu koordynacji (service value networks – SVNs)7. Liczne przedsiębiorstwa działają na zasadzie „dwustronnych platform”. Firmy te służą różnym grupom klientów, które są współzależne w jakiś 74 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe sposób. Celem platformy jest tworzenie wspólnego (rzeczywistego lub wirtualnego) miejsca kontaktów i ułatwienie interakcji między członkami różnych grup klientów. Platformy odgrywają ważną rolę w całej gospodarce poprzez minimalizację kosztów transakcyjnych pomiędzy podmiotami, które mogą równocześnie z nich korzystać8. Powstają nowe wyzwania dla praw własności intelektualnej. Systemy współtworzenia wartości przez klientów można podzielić na takie, w których klienci ze sobą współpracują lub między sobą konkurują. Systemy takie są w ramach prawa konkurencji określane jako rynki dwu- lub wielostronne (two-, multi-sided markets), których cechą jest współpraca między konkurentami9. W istocie wszystkie rynki mają dwie strony, czyli kupującego i sprzedającego. A zatem nie każdy rozumie, o co chodzi w przypadku rynków dwustronnych. Wyzwania rynków dwustronnych wynikają stąd, że istnieją (z definicji) powiązania dwóch lub więcej różnych grup odbiorców, których wymagania są ze sobą powiązane na zasadzie pozytywnych efektów zewnętrznych. Efekty te są zazwyczaj określane jako pośrednie efekty sieci, w odróżnieniu od bardziej standardowych efektów sieciowych realizujących się wśród tej samej grupy klientów (Evans i Schmalensee 2007; Ordover 2007). Jeżeli istnieją pośrednie skutki sieci, strategia biznesowa, która stymuluje popyt po stronie A platformy, gdy będzie właściwie wdrażana, stymuluje popyt po stronie B platformy, która z kolei tworzy pozytywne sprzężenia zwrotne, i tak dalej. Z powodu tej zależności przedsiębiorca musi rozwiązać dwa problemy: po pierwsze, jak sprawić, by obie strony zostały w systemie (keep both sides on board) oraz po drugie, jak powinna wyglądać struktura cen dla obu stron. Jednym z narzędzi realizacji strategii udostępniania aktywów niematerialnych mogą być transakcje wiązane, których ocena bywa ambiwalentna (z jednej strony kooperanci czy konsumenci dostają produkt pakietowy, który odpowiada ich życzeniom, z drugiej strony mogą tym samym zostać odcięci od innowacji, które jeszcze lepiej zaspokajałyby ich potrzeby, czyli zawężają swoje pole wyboru w przyszłości) (Rochet i Tirole 2002; Evans 2003). System operacyjny można traktować jako bramkę do klienta (gateway), która pozwala użytkownikom korzystać ze wszystkich dostępnych aplikacji i programów użytkowych. Istnieje wiele przesłanek wyboru systemu operacyjnego: od łatwości czy prostoty użytkowania do interoperacyjności czyli możliwości współpracy z innymi platformami. W niektórych sytuacjach system operacyjny może być powiązany z określonym rodzajem sprzętu (hardware’u) i ograniczony tylko do niego. Wówczas posiadany przez użytkownika sprzęt determinuje jednoznacznie wybór systemu operacyjnego. Taka zamknięta platforma daje wszelako ograniczone możliwości konfiguracji hardware’u. Właściciel platformy, który sprzedaje software chroniony prawem autorskim i powiązany z hardwarem, zamyka tym samym użytkownikom pole wyboru platformy technologicznej. Im bardziej właściciel platformy okopuje vol. 10, nr 3 (38), 2012 75 Włodzimierz Szpringer się na swoich pozycjach, tym bardziej zamyka klientom pole wyboru, podwyższa barierę wejścia, a także pozbawia się innowacji ze strony pełnych inicjatyw i pomysłów małych lub średnich innowatorów. Przykładem może być sprawa Apple, Inc. v. PsyStar Corp.10, której kluczowy problem polega na kombinacjach systemu operacyjnego Mac OS X z różnymi wariantami hardware’u, które są sprzedawane bezpośrednio końcowym użytkownikom. Skoro Apple samodzielnie dystrybuuje kopie systemu operacyjnego, argumentując celowością późniejszych aktualizacji (upgrade), to także w drodze kontraktowej wyklucza jego powielanie lub instalowanie na innym sprzęcie – nieautoryzowanym przez Apple (Herrel 2011). Szerokopasmowy Internet pozwala się zrealizować koncepcji, że komunikacja elektroniczna jest zbyt tania, by opłacalny był pomiar i egzekwowanie opłat innych niż zryczałtowane (bandwith too cheap to meter). Przykładem jest serwis YouTube, który rewolucjonizuje, a być może nawet zniszczy tradycyjną telewizję. Podobnie Skype wpływa na zmiany w telefonii głosowej, a oferujący ją operatorzy telekomunikacyjni poszukują nowych źródeł łańcucha wartości. Także gromadzenie ogromnych ilości danych staje się zbyt tanie, by je mierzyć, a początkiem tego procesu było wprowadzenie usług Gmail w 2004 r. W krótkim czasie standardowe możliwości archiwizacji wzrosły 1000-krotnie, co umożliwiło rozwój takich serwisów, jak Flickr czy MySpace (Anderson 2007, 2008; de Waal 2010; Duncan 2009). Przed erą iPoda użytkownicy nie przypuszczali, że będzie można nosić w kieszeni całe kolekcje muzyczne. Firma Apple wyprzedziła marzenia ludzi w tej mierze, by przenośna pamięć ułatwiała korzystanie z ogromnych baz danych11. W okresie poprzedzającym cloud computing rozwijał się intensywnie outsourcing sprzętu, oprogramowania i kadry IT. W tych ramach powstały takie pojęcia jak usługi sieciowe (Web Services), Application Software Providing (ASP), Simple Object Access Protocol (SOAP), Enterprise Ressources Planning (ERP). Outsourcing pozwalał firmom na zaniechanie konstruowania własnej infrastruktury IT. Operator IT dostarczał sprzęt, software i serwis, w tym szereg usług o wartości dodanej (updates, backups, help desk), które zapewniały ciągłość świadczenia usług i wymagany poziom bezpieczeństwa na podstawie umowy o outsourcing usług (Service Level Agreement – SLA) (Londhoff 2002). Cloud computing, czyli przetwarzanie „w chmurze”, jest następcą koncepcji Grid Computing oraz outsourcingu. Polega bowiem na wykorzystaniu mocy obliczeniowych wielu rozproszonych komputerów, a software jest ściągany z otoczenia. Software jest usługą, podobnie jak dostawy wody, gazu czy prądu. W ramach cloud computing można rozróżnić cztery rodzaje usług: Software-as-a-Service (SaaS), Storage-as-a-Service, Platform-as-a-Service (PaaS), Infrastructure-as-a-Service (IaaS)12, a także High-Performance-Computing-as-a-Service Przykładem usług platformy jest stawianie 76 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe do dyspozycji firmy całych, kompleksowych aplikacji, np. oprogramowania Customer Relationship Management (CRM) (Weichert 2010). Definicja cloud computing nawiązuje do infrastruktury zorientowanej na usługi – Application Service Providing (ASP). Klient płaci tylko za korzystanie z oprogramowania przez określony czas (np. Google App Engine). Koncepcja cloud computing idzie jeszcze dalej: oferuje nie tylko licencje na używanie software’u, ale też przestrzeń na archiwa i bazy danych13. W toku pracy w trybie cloud computing niezbędne są określone wymogi techniczne. Praca w sieci powinna być tylko tak długa, jak to konieczne, gdyż zbędne moce obliczeniowe powinny być dostępne dla innych. Musi być zapewniona integralność i ochrona informacji. W przeciwnym wypadku firmy bałyby się ujawnienia danych poufnych, np. tajemnic handlowych. Dlatego kwestie bezpieczeństwa, archiwizacji danych są przedmiotem odrębnych porozumień Security-Service-Level-Agreements (SSLA). Mają one najczęściej charakter prawny tzw. ogólnych warunków umów (wzorców umownych). W sumie umowa w zakresie cloud computing obejmuje problemy gwarancji, odpowiedzialności, praw autorskich, serwisu i szkoleń oraz stanowi miks umów najmu, dzierżawy, pożyczki, a także umów-zleceń i umów o dzieło14. Korzyści z cloud computing dla konsumentów są jasne: ryzyko operacyjne związane z oprogramowaniem podlega cesji na osobę trzecią. Aktualizacja programów na poszczególnych komputerach nie jest wymagana. Opłaty licencyjne są niższe niż w przypadku licencji na rzecz indywidualnych użytkowników. Zmniejsza się także wysiłek i maleją nakłady na utrzymanie sprzętu i oprogramowania. Problemem przestaje być skalowalność, czyli adaptacja własnej infrastruktury IT do nowych potrzeb. A zatem firma może obniżyć koszty15. Istotną część wszystkich zasobów informacji i wiedzy stanowią zasoby tworzone lub finansowane przez podmioty publiczne. Takie dobra należy uznać za dobra wspólne (otwartość ma zapewniać maksymalizację korzyści płynących z ich wykorzystania). Przez otwartość rozumie się dostępność zasobów oraz faktyczną i prawną możliwość ponownego ich wykorzystania (re-use). Internet ma zapewnić szeroką możliwość udostępniania tych zasobów. Otwarcie zasobów publicznych może zaowocować kreowaniem różnego rodzaju wartości dodanej przez podmioty trzecie. Efektem miałby więc być rozwój nauki i kultury oraz usług świadczonych w oparciu o te zasoby. Powstaje zatem pole dla nowych modeli e-biznesu, opartych na idei re-use (Chowney 2011; Digital Agenda… 2011; Gray 2011). Informacje o autorze Prof. dr hab. Włodzimierz Szpringer – Szkoła Główna Handlowa i Uniwersytet Warszawski. E-mail: [email protected]. vol. 10, nr 3 (38), 2012 77 Włodzimierz Szpringer Przypisy 1 W ramach Internetu Przyszłości warto wspomnieć o pojęciach z nim związanych: – Internet Osób (ang. Internet of People), – Internet Mediów (ang. Internet of Media), – Internet Energii (ang. Internet of Energy), – Internet Usług (ang. Internet of Services), – Internet Rzeczy (ang. Internet of Things). Por. J. Zawiła-Niedźwiecki, K. Rostek i A. Gąsiorkiewicz 2010. 2 Model e-biznesu określa sposób, w jaki każda firma, która posługuje się w swojej działalności Internetem, chce zapewnić sobie zyski z działalności w sieci. Na taki model składa się zespół działań związanych bezpośrednio z siecią i wykraczający poza ten obszar. Model biznesowy powinien określać: korzyści oferowane klientom, zakres oferty, politykę cenową, źródła przychodów, działania (funkcje) powiązane, sposoby realizacji modelu, podstawowe umiejętności firmy oraz sposoby ochrony trwałości przewagi konkurencyjnej na rynku. Przedsiębiorstwo może również osiągać przewagę konkurencyjną na rynku dzięki stworzeniu i wykorzystywaniu innowacyjnego modelu biznesowego. 3 O koncepcjach Christensena, Johnsona, Kagermana i Megretty por. w Wielki 2011: 204 i nast. 4 Rozwój Internetu kojarzy firmy i użytkowników w sieć wzajemnych powiązań (sieć wiedzy) tworzących nowego typu infrastrukturę dla modeli biznesowych. Aby właściwie wykorzystać te możliwości, należy uwzględnić charakter nowych zjawisk, takich jak: – blogosfera, (możliwość uzyskiwania niezależnych opinii oraz kontaktowania się z klientami), – zbiorowa inteligencja, (kumulacja wiedzy i możliwości wielu użytkowników, np. sprzętowych i programowych (Grid Computing, Cloud Computing), oraz dzielenia się wiedzą (crowdsourcing), – nowe publiczne platformy (istotne części infrastruktury można uzyskać, nie ponosząc kosztów, np. w efekcie dostępności wolnego oprogramowania), – innowacje emergencji (efektem współpracy w sieci jest emergencja, czyli powstawanie nowych cech, struktur i funkcji, których brakowało pojedynczym węzłom sieci). W Wikinomii wyróżnia się 7 modeli współpracy, które wywołują zmiany w modelach biznesowych: – pionierzy partnerstwa (zdobycie doświadczeń zawodowych i kontaktów społecznych, realizacja życiowych pasji), – ideagora (rynek myśli, idei, pomysłów, innowacji i osób o unikalnych kwalifikacjach), – prosumpcja (dopuszczenie klientów do wspólnego projektowania produktów, skojarzenie produkcji i konsumpcji), – nowi aleksandryjczycy (cyfrowa biblioteka budowana na wzór Biblioteki Aleksandryjskiej, digitalizacja i otwarty dostęp do wiedzy, nauki, kultury), – platformy uczestnictwa, (udostępnianie infrastruktury dla wspólnot złożonych z wielu uczestników, którzy prowadzą interesy oraz dodają wartość do zastanych rozwiązań), – globalne hale produkcyjne, (specjalizacja i kooperacja wirtualna, podział ryzyka w budowaniu innowacyjnych produktów, kreowaniu nowych rynków), – wikinomiczne miejsca pracy (odejście od zamkniętych, hierarchicznych, sztywnych organizacji, na rzecz samoorganizujących się, rozproszonych osób i grup opartych na współpracy w sieci). Por. Ziemba 2011: 214 i nast. 78 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe 5 Definicje e-biznesu najczęściej kładą nacisk na prowadzenie działalności gospodarczej w Iternecie. Przykładem może służyć definicja C. Combe: „Biznes elektroniczny (electronic business, e-business) może być definiowany jako wykorzystanie Internetu do powiązania oraz ułatwiania prowadzenia przedsięwzięć biznesowych, handlu elektronicznego, komunikacji i współpracy wewnątrz firmy oraz z jej klientami, dostawcami i innymi partnerami biznesowymi. Firmy e-biznesowe wykorzystują Internet, intranet, ekstranet i innego rodzaju sieci do wspierania swoich procesów gospodarczych (handlowych)”. Por. Nojszewski 2006. 6 Ciekawy wydaje się model 3., rozkładający obciążenie rozbudowy infrastruktury pomiędzy głównych beneficjentów zwiększonej przepustowości. Oferuje on najwyższą premię ARPU za łącze wśród badanych modeli (nawet dwa razy większą od pozostałych opcji), co pozwala przypuszczać, że umożliwi najszybszą modernizację infrastruktury, najbardziej efektywnie budując platformę pod dalszy rozwój rynku internetowego. Por. UKE 2010. 7 Prawidłowo zdefiniowane interfejsy oraz standaryzacja pozwalają na uzyskanie z poszczególnych usług całej kompozycji usług o skojarzonej wartości dodanej, optymalnie dostosowanej do potrzeb użytkownika. Przykładem tego procesu może być poszukiwanie optymalnych modeli biznesowych w serwisach oferujących utwory muzyczne, odnotowujących spadek dochodów w wyniku piractwa, czy w sektorze telekomunikacji, który doświadcza spadku dochodów z telefonii głosowej. 8 Strategie tych firm mają istotny wpływ na pośrednie efekty sieciowe między obiema stronami platformy. Na gruncie teorii maksymalizacji zysku dwustronna platforma może pociągać za sobą ceny poniżej kosztów wyceny rynkowej dla jednego zestawu klientów w długim okresie. Rodzi to aspekty antymonopolowe związane z definicją rynku, analizą karteli lub indywidualnych zachowań rynkowych. 9 Na przykład platforma e-aukcji łączy dwie grupy użytkowników o odmiennych potrzebach, które są zaspokajane w wyniku wymiany. W modelu tym wzrost liczebności członków jednej grupy prowadzi do zmniejszenia ich korzyści, gdyż zwiększa się konkurencyjność. Z kolei wzrost liczebności drugiej (komplementarnej) grupy prowadzi do wzrostu korzyści, gdyż zwiększa się liczba osób, z którymi potencjalnie można kontraktować. Por. Doligalski 2011: 77 i nast. 10 Sprawa Apple, Inc. v. PsyStar Corp. świadczy o napięciach między prawami autorskimi podlegającymi ochronie a potrzebą otwartego dostępu, które próbuje się rozwiązywać, stosując swoisty miks prawa autorskiego i prawa umów. Sądy powinny poszukiwać delikatnej równowagi, gdyż sprawy toczące się na tle praw autorskich dotykają zagadnienia otwartych lub zamkniętych platform technologicznych. Należy mieć na uwadze, że otwarte platformy bardziej sprzyjają innowacjom i wymagają pogodzenia celów ochrony i otwartego dostępu, a szczególnie optymalizowania rozstrzygnięć przy rozpatrywaniu nadużycia praw autorskich (copyright misuse). 11 Rozpoczął się proces przechodzenia od tradycyjnych mediów, udostępniających content za darmo dzięki wpływom z reklam, do modeli darmowego contentu dla przeważającej większości użytkowników (freemium) w zamian za sprzedaż pewnej grupie osób treści wysokiej jakości (premium), udostępniania contentu szybciej wraz z gwarancją dostępności w okresach szczytowego obciążenia sieci (priority pricing) czy świadczenia usług dodanych. Rozwinęła się także idea free-sample model, polegająca na powiązaniu muzyki z promocją koncertów czy płyt lub fragmentów tekstów jako zachęty do dokonania zakupów książek. Wszystko to staje się możliwe dzięki konwergencji mediów i cyfryzacji contentu. W świecie cyfrowym (world of bits), inaczej niż to było w świecie analogowym (world of atoms), produkcja, agregacja i dystrybucja contentu zbliża się bowiem do zera. vol. 10, nr 3 (38), 2012 79 Włodzimierz Szpringer 12 Należy wskazać na cechy modelu IaaS opracowanego przez Amazon jako kalkulatora czy „maszyny wirtualnej”, której istota polega na tym, że czas obliczeniowy przez pewien czas jest dostępny dla użytkownika (zazwyczaj przedsiębiorstwa) na całym świecie. Amazon stworzył ten instrument do zarządzania globalną mocą obliczeniową do własnych celów, aby na wypadek spiętrzenia, np. świątecznych zakupów, poradzić sobie na własnym serwerze. IaaS oferowany jest firmom w celu łagodzenia godzin szczytu, z korzyścią dla wydajności komputera. Por. Spies 2009. 13 Ponadto, inaczej niż przy ASP, usługi nie płyną z jednego serwera, lecz wielu serwerów i komputerów należących do różnych właścicieli. Centrum „chmury” dysponuje wszelako ich mocami obliczeniowymi, tak jak gdyby było ich właścicielem. Centrum to zapewnia użytkownikowi uzgodniony w umowie poziom usług (Service Level Agreement – SLA), a pochodzenie tych usług nie jest dla niego istotne. Umowa z centrum „chmury”, czyli dostawcą usług IT, jest podobna do umowy outsourcingowo-hostingowej. Por. Söbbing 2009; Gerlach 2011; Grünwald i Döpkens 2011. 14 Wiele firm oferuje użytkownikom outsourcing oprogramowania na swoich komputerach, dzięki czemu użytkownik może z nich korzystać praktycznie zawsze i wszędzie – Software as a Service (SaaS) Przykładem jest Google Docs dla Word i Excel Word lub SlideRocket dla programu PowerPoint. Rozwinięciem SaS jest platforma jako usługa (PaaS), np. Microsoft Azure. PaaS oferuje twórcom oprogramowania oraz użytkownikom tworzenie własnych aplikacji. Istnieje również pojęcie: infrastruktura jako usługa (IaaS). 15 Pozostają wszelako wątpliwości związane z wyborem prawa właściwego dla kontraktów oraz dla zdarzeń pozaumownych, np. dotyczących odpowiedzialności odszkodowawczej za utratę danych czy przerwy w dostępie do danych i oprogramowania. Inne uwagi dotyczą niejasności w ochronie prywatności oraz tajemnicy handlowej w kraju świadczenia usługi, skoro i dane osobowe i biznesowe mogą być archiwizowana na całym świecie. Bibliografia Anderson, Ch. 2007. Online, There Really Is Such a Thing as a Free Lunch, http://www. economist.com/node/10094757. Anderson, Ch. 2008. Free! Why $0.00 Is the Future of Business, http://www.wired.com/ techbiz/it/magazine/16-03/ff_free. Bächle, M. i F.R. Lehmann 2010. E-Business. Grundlagen elektronischer Geschäftsprozesse im Web 2.0, München: Oldenbourg Verlag. Bauwens, M. 2006. The Political Economy of Peer Production, http://www.informatik. uni-leipzig.de/~graebe/Texte/Bauwens-06.pdf. Bieger, T., zu Knyphausen-Aufsaß, D. i Ch. Krys 2011. Innovative Geschäftsmodelle. Konzeptionelle Grundlagen, Gestaltungsfelder und unternehmerische Praxis, Berlin– –Heidelberg: Springer Verlag. Bouwman, H., de Vos, H. i T. Hacker (Eds.) 2008. Mobile Service Innovation and Business Models, Berlin–Heidelberg: Springer Verlag. Chowney, V. 2011. EU Open Data Strategy Could Be Worth $40bn a Year, http://econsultancy.com/uk/blog/8492-eu-open-data-strategy-could-be-worth-40bn-a-year. Digital Agenda: Turning Government Data into Gold 2011. http://europa.eu/rapid/pressReleasesAction.do?reference=IP/11/1524. Doligalski, T. 2011. Współtworzenie wartości z klientami zorientowane na innych klientów. e-Mentor, nr 1. Duncan, E. 2009. Who Pays the Price of a Free-for-All? http://www.guardian.co.uk/ books/2009/jun/28/review-free-chris-anderson. 80 Problemy Zarządzania Innowacyjne modele e-biznesu – perspektywy rozwojowe Ellickson, R.C. 1991. Order Without Law: How Neighbors Settle Disputes, Cambridge: Harvard University Press, http://econfaculty.gmu.edu/bcaplan/ellick.htm. Evans, D. 2003. The Antitrust Economics of Multi-Sided Platform Markets. Yale Journal of Regulation, nr 20. Evans, D. i R. Schmalensee 2007. The Industrial Organization of Markets with Two-Sided Platforms, https://www.competitionpolicyinternational.com/the-industrial-organizationof-markets-with-two-sided-platforms. Gerlach, C. 2011. Vertraulichkeit und Geheimhaltung bei SaaS und Cloud Computing, http://itrecht.blogg.de/eintrag.php?id=50. Gray, J. 2011. European Commission launches Open Data Strategy for Europe, Open Knowledge Foundation; http://blog.okfn.org/2011/12/12/european-commissionlaunches-open-data-strategy-for-europe. Grünwald, A. i H.R. Döpkens 2011. Cloud Control? Regulierung von Cloud Computing Angeboten. Multimedia und Recht, nr 5. Herrel, J.P. 2011. The Copyright Misuse Doctrine’s Role in Open and Closed Technology Platforms. Berkeley Technology Law Journal, nr 1 (26). Londhoff, J. 2002. Identification innovativer Geschäftsmodelle für Web-Services unter besonderer Beachtung von ASP-Lösungen und B&B Brokerage, Norderstedt: GRIN-Verlag. Mettler, A. i A.D. Williams 2011. The Rise of the Micro-Multinational: How Freelancers and Technology-Savvy Start-Ups Are Driving Growth, Jobs and Innovation, Lisbon: Lisbon Council Policy Brief, http://www.lisboncouncil.net/publication/publication/67the-rise-of-the-micro-multinational-how-freelancers-and-technology-savvy-start-upsare-driving-growth-jobs-and-innovation.html. Nojszewski, D. 2006. Przegląd modeli e-biznesowych (cz. 1). e-Mentor, nr 5, http://www.e-mentor.edu.pl/artykul/index/numer/17/id/375. NSF/DOC 2002. Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science, National Science Foundation/Department of Commerce, sponsored report. Ordover, J. 2007. Comments on Evans & Schmalensee’s The Industrial Organization of Markets with Two-Sided Platforms. Competition Policy International, nr 1 (3), https:// www.competitionpolicyinternational.com/comments-on-evans--schmalensees-theindustrial-organization-of-markets-with-two-sided-platforms. Oreilly, T. 2007. What is Web 2.0. Design Patterns and Business Models for the Next Generation of Software, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1008839. Osterwalder, A., Pigneur, Y. i Ch.L. Tucci 2005. Clarifying Business Models: Origins, Present and Future of the Concept. Communications of the Association for Information Systems, nr 15 (May), http://www.softwarepublico.gov.br/5cqualibr/6-publicacoes-e-artigos/view/vetor-ecossistema/sobre-modelo-de-neg-cios/Claryfing-Busines-Model. pdf. Reichwald, R. i F. Piller 2006. Interaktive Wertschöpfung. Open Innovation, Individualisierung und neue Formen der Arbeitsteilung, Wiesbaden: Gabler. Rochet, J. i J. Tirole 2002. Cooperation among Competitors. The Economics of Payment Cards Associations. Rand Journal of Economics, nr 4 (33). Söbbing, T. 2009. Cloud Computing von der juristischen Seite, http://www.computerwoche. de/management/compliance-recht/1904060/index6.html. Spies, R. 2009. USA: Cloud Computing – Schwarze Löcher im Datenschutzrecht. Multimedia und Recht, nr 5, http://rsw.beck.de/cms/main?sessionid=9870BEFD2437430 38999508C13594662&docid=281111&docClass=NEWS&site=MMR&from=mmr.10. Surowiecki, J. 2004. The Wisdom of Crowds. Why the Many are Smarter Than the Few and how Collective Wisdom Shapes Business, Economies, Societies and Nations, Boston: Doubleday. vol. 10, nr 3 (38), 2012 81 Włodzimierz Szpringer UKE 2010. Łańcuch wartości w Internecie i potencjalne modele funkcjonowania rynku, Warszawa: Urząd Komunikacji Elektronicznej. Waal, M. de 2010. Freeconomics: The Art of Making Money by Giving Things Away for Free, http://memeburn.com/2010/04/freeconomics-the-art-of-making-money-by-givingthings-away-for-free. Weichert, T. 2010. Cloud Computing und Datenschutz, https://www.datenschutzzentrum. de/cloud-computing. Weill, P.T., Malone, W., D’Urso, V.T., Herman, G. i S. Woerner 2005. Do Some Business Models Perform Better than Others? A Study of the 1000 Largest US Firms, Sloan School of Management, Massachusetts Institute of Technology MIT Center for Coordination Science Working Paper No. 226, http://ccs.mit.edu/papers/pdf/wp226.pdf. Wielki, J. 2011. Analiza rozwoju modeli biznesowych opartych na wykorzystaniu internetu. Problemy Zarządzania Zeszyt Specjalny, 2011, s. 204 i nast. Wirtz, B.W. 2011. Medien- und Internetmanagement, Wiesbaden: Gabler. Zając, A. 2003. Wyzwania aksjologiczne wobec zarysowującej się fali przemian cywilizacyjnych – rewolucja biotechnologiczna NBIC, Edukacja Jutra, IX Tatrzańskie Seminarium Naukowe. Ziemba, E. 2011. Wikinomia nowym modus operandi współczesnej organizacji. Problemy Zarządzania Zeszyt Specjalny, 2011, s. 214 i nast. 82 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 83 – 103 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.6 Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania Dariusz T. Dziuba Przedmiotem rozważań tego artykułu jest crowdfunding, a zwłaszcza ekonomiczne i prawne uwarunkowania jego rozwoju. Crowdfunding traktowany jest jako perspektywiczna metoda gromadzenia środków finansowych od rzeszy internautów, w tym inwestorów, i zarządzania nimi, rozdysponowywania, według różnych modeli. Oszacowano segment rynkowy związany z crowdfundingiem – według jego rozmiarów, struktury (lokalizacji wdrożeń) i wartości. Dokonano analizy tej koncepcji i jej oddziaływań według poszczególnych modeli: donacyjnego, sponsorskiego, pożyczkowego i inwestycyjnego. Platformę ASSOB.com.au potraktowano jako studium przypadku inwestycyjnego modelu akcyjnego. Uwypuklono korzyści ekonomiczne (oczekiwania) wiążące się z analizowaną koncepcją, a także uwarunkowania ekonomiczne (głównie natury kosztowej) i bariery prawne, które utrudniają, a niekiedy uniemożliwiają realizację takich przedsięwzięć biznesowych i systemów informatycznych. 1. Wstęp Dynamiczny rozwój Internetu, koncepcji Web 2.0, systemów (mikro-) płatności i sieci społecznych spowodował materializację licznych koncepcji, wykorzystywanych w różnych typach platform elektronicznych. Są to m.in. crowdsourcing1, crowdfunding, crowdvoting itp. Przedmiotem rozważań tej pracy jest crowdfunding2, jako perspektywiczna metoda pozyskiwania środków finansowych od rzeszy internautów, w tym inwestorów, i zarządzania nimi, rozdysponowywania, według różnych modeli. Dokonano analizy tej koncepcji, jej oddziaływań i uwarunkowań, jak i oszacowania segmentu rynkowego związanego z crowdfundingiem – jego struktury, lokalizacji i wartości. Zaprezentowano: – sposoby definiowania crowdfundingu, jego istotę, w tym podobieństwa i różnice z koncepcją crowdsourcingu; – typologie modeli crowdfundingu i strategii nagradzania (proponowane typologie odnoszą się również do rozdzielania typów platform elektronicznych); – oszacowania rynku – jego rozmiarów, wartości i struktury (według poszczególnych modeli i lokalizacji platform); vol. 10, nr 3 (38), 2012 83 Dariusz T. Dziuba – analizę rynku wraz ze studiami przypadku modeli donacyjnego, pożyczkowego i inwestycyjnego, w tym platformy ASSOB.com.au jako przykładu inwestycyjnego modelu akcyjnego; – korzyści ekonomiczne (oczekiwania) wiążące się z analizowaną koncepcją; – uwypuklając też uwarunkowania ekonomiczne (głównie natury kosztowej) i bariery prawne, które utrudniają, a niekiedy uniemożliwiają realizację takich przedsięwzięć biznesowych i wdrażanie systemów informatycznych. Wykazano dynamiczny rozwój platform crowdfundingu, rozwój całego rynku i według poszczególnych segmentów (modeli). Korzyści z takich przedsięwzięć mogą uzyskiwać wszyscy uczestnicy danego rynku elektronicznego, choć z drugiej strony rozwój warunkowany jest barierami ekonomicznymi i prawnymi. 2. Istota crowdfundingu Termin „crowdfunding” jest neologizmem, złączeniem słów „crowd” i „funding”, czyli gromadzeniem środków finansowych z (internetowego) tłumu. Motywacją takiego działania może być, z punktu widzenia donatora filantropia, również pozyskiwanie nagród rzeczowych, finansowych, a nawet udziałów i akcji w przedsięwzięciach o charakterze inwestycyjnym. Sam termin zaproponował najprawdopodobniej (Burkett 2011: 70; Drummond 2011: 16) Michael Sullivan w 2006 r. na forum blogu fundavlog, pisząc m.in.: „gromadzenie środków finansowych z tłumu jest bazą, od której wszystko inne zależy i jest tworzone. Zatem crowdfunding jest właściwym określeniem, bym mógł wyjaśnić istotę fundavlog”3. W szerszym ujęciu crowdfunding (internetowy) można interpretować jako niemal dowolną formę gromadzenia środków finansowych poprzez sieć komputerową. Natomiast węższy sposób definiowania4 uwypukla proces, w którym np. przedsiębiorcy, artyści czy organizacje non profit zbierają środki finansowe na potrzeby ich projektów, przedsięwzięć, czy organizacji, bazując na wsparciu wielu osób (z internetowego „tłumu”), które wspólnie ofiarowują pieniądze na takie projekty, przedsięwzięcia itp. bądź inwestują w nie. Crowdfunding był realizowany już od wielu lat, jeszcze przed zaistnieniem samego terminu. Jednym z pionierów był brytyjski zespół rockowy Marillion (Frey 2012), który w roku 1997 wyruszył w tournée po USA, pozyskując wcześniej od fanów, z kampanii internetowej kwotę 60 tysięcy USD. Również inne zespoły muzyczne czy producenci filmowi gromadzili tak środki finansowe. Właściwy rozwój analizowanej koncepcji datuje się dopiero od lat 2005–2008, gdy zaczęły być implementowane takie platformy internetowe jak: Kickstarter.com, Zopa.com, IndieGoGo.com, Kiva.org i inne, wdrażane w kilku ostatnich latach. Rozpatrując koncepcję crowdfundingu, stwierdzamy, że wywodzi się ona z crowdsourcingu, jest silnie z nią powiązana. Obie idee zaistniały niemal równocześnie – w roku 2006, termin crowdfunding wprowadził Michael 84 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania Sullivan, a crowdsourcing – Jeff Howe (2006b). Według Howe (2006a) crowdsourcing to czynność podejmowania pracy, tradycyjnie realizowanej przez określonego pracownika (agenta), i zlecania jej na zewnątrz do niezdefiniowanej, najczęściej dużej grupy osób w formie otwartego zgłoszenia. Lp. Crowdfunding Crowdsourcing 1 Oferta przedsięwzięcia na platformie; otwarte zgłoszenie kierowane do internetowego „tłumu” Oferta przedsięwzięcia na platformie; otwarte zgłoszenie kierowane do internetowego „tłumu” 2 Przesyłanie środków finansowych do organizatora Przesyłanie efektów pracy do organizatora; przekaz informacji/ /wiedzy/projektów 3 Filantropia bądź nagradzanie; nagrody rzeczowe lub finansowe; w systemach inwestycyjnych udziały, akcje Gratyfikacje finansowe lub inne motywacje (np. w systemach opartych na wolontariacie) Tab. 1. Crowdfunding a crowdsourcing – podobieństwa i różnice. Źródło: opracowanie własne. Obie koncepcje, jak wskazano w tabeli 1, rozpoczynane są od otwartego zgłoszenia, kierowanego do tysięcy, milionów uczestników poprzez sieć internetową. W przypadku crowdfundingu uczestnicy platform animowani są do przesyłania środków finansowych, a w przypadku crowdsourcingu – realizacji pracy; przy czym praca może być realizowana też poprzez transfer informacji, wiedzy, idei, pomysłów itp. Zwrotnie transferowane są – w przypadku crowdsourcingu – gratyfikacje finansowe, niekiedy nagrody rzeczowe, bądź użytkownicy (jako wolontariat) oferują swą pracę z innych pobudek. Większość systemów crowdfundingu zwykle nie nagradza uczestników; drobne nagrody rzeczowe spotykamy w przedsięwzięciach sponsorskich, a udziały finansowe – w systemach o charakterze inwestycyjnym. Z kolei w systemach pożyczek społecznych uczestnicy wpłacają określone kwoty pieniężne, aby móc je w późniejszym terminie zagospodarować. Reasumując, zbieżność obu koncepcji wynika z metod komunikacji, dostępu do rozproszonych, zwykle niezidentyfikowanych masowych grup uczestników (internetowego „tłumu”). Odmienność tych idei płynie z celu działalności uczestników i koncentrowania się na określonych metodach nagradzania i motywowania. Uogólniając, można zatem sformułować następującą definicję crowdfundingu: – to proces realizowany w środowisku internetowym, aktywizowany poprzez otwarte zgłoszenie oferty (celu przedsięwzięcia, projektu), polegający na gromadzeniu wolnych środków finansowych spośród potencjalnie ogromnej liczby rozproszonych uczestników (ich „tłumu”); vol. 10, nr 3 (38), 2012 85 Dariusz T. Dziuba – gromadzenie zasobów finansowych może być dokonywane w formie bezzwrotnej donacji wynikającej z celów charytatywnych, motywów filantropijnych albo płatności w oczekiwaniu na nagrodę rzeczową bądź na potrzeby możliwości pożyczania zasobów w przyszłości, albo – jak w przypadku systemów inwestycyjnych – inwestycji w określone przedsięwzięcia (firmy, zwłaszcza we wstępnej fazie rozwoju) w oczekiwaniu na gratyfikacje finansowe i udziały w zyskach czy akcje; – zakres korzyści wynika z zastosowanego modelu crowdfundingu i stosowanej strategii nagradzania uczestników. Koncepcja ta realizowana jest poprzez elektroniczne platformy, których funkcją jest m.in. prezentowanie ofert przedsięwzięć, kontrola ich realizacji, tworzenie interakcji pomiędzy uczestnikami rynku, dostarczanie systemów płatności i nagradzanie uczestników. 3. Modele crowdfundingu – typologia i charakterystyka W praktyce gospodarczej crowdfunding może być realizowany w różnych formach (modelach). Do dalszych rozważań można zaproponować następującą typologię, wydzielając cztery podstawowe modele (wraz z siedmioma modyfikacjami) crowdfundingu i równocześnie platform elektronicznych realizujących takie podejścia5: 1. Model donacyjny (donations model), zwany charytatywnym, w tym: 1a. Model bez nagradzania uczestników (non-rewards model); 1b. Model z nagradzaniem uczestników (reward-based model), zwany sponsorskim. 2. Model pożyczkowy (lending model), w tym: 2a. Model mikropożyczek (microfinance, P2P microfinance); 2b. Model pożyczek społecznych (social lending, P2P lending). 3. Model inwestycyjny, w tym: 3a. Model kolektywnego współfinansowania firm (collective investment); 3b. Model inwestycyjny – funduszu inwestycyjnego (investment fund); 3c. Model inwestycyjny – akcyjny (securities model). 4. Rozwiązania mieszane (mixed solutions). Ad. 1. Model donacyjny jest najbardziej rozpowszechniony. Jego istotą jest tworzenie platformy (strony internetowej) do komunikacji z tłumem uczestników i zgłaszania oferty przedsięwzięcia, np. zbiórki środków finansowych na określony, filantropijny cel. W tradycyjnym ujęciu (model 1a), uczestnicy nie są nagradzani. Takimi platformami są m.in. JustGiving.com, FirstGiving. com czy Philanthroper.org6. Modyfikacją jest model z gratyfikowaniem niefinansowym uczestników, nazywany niekiedy sponsorskim (1b). Darczyńcom za okazaną hojność oferowane są nagrody rzeczowe, np. płyty DVD, T-shirty, książki, bilety na imprezy kulturalne, premiery filmów (gdy zostaną zrealizo86 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania wane) itp. Systemy sponsorskie koncentrują się zwykle na wspieraniu kreatywnych projektów lub jednostek. Tak funkcjonują m.in. platformy Kickstarter. com, Rockethub.com czy Indiegogo.com. Uczestnicy z sieciowego „tłumu” lokują swoje środki finansowe w danym projekcie (np. działalności muzycznej, produkcji filmu, organizacji koncertu, pomyśle książki), chcąc je wesprzeć. Gromadzenie funduszy na dane przedsięwzięcie jest ściśle określone czasowo, zwykle trwa kilka tygodni do kilku miesięcy. Istnieją przy tym różne strategie wynagradzania darczyńców-sponsorów (por. dalsze rozważania). Ad. 2. Popularny jest również model pożyczkowy, umożliwiający bezpośrednie pożyczanie środków finansowych, z pominięciem tradycyjnych instytucji finansowych, np. banków. Mogą to być systemy zarówno mikropożyczek (model 2a), jak i pożyczek społecznych (2b). Mikropożyczki to pomoc finansowa, zwykle dla najuboższych, oferowana w niewielkich kwotach, gromadzonych i rozdysponowywanych np. poprzez platformy non profit: Kiva.org (kwoty po 25 USD) czy Zidisha.org. Pożyczki społeczne dotyczą zaś wyższych kwot7. W takich systemach uczestnicy gromadzą wolne środki finansowe, a później są one pożyczane na określonych regulaminami warunkach. Ilustracją są m.in. platformy: Zopa.com, Kokos.pl, Finansowo.pl. Pożyczki mogą być udzielane na cele konsumpcyjne, ale też biznesowe. Ad. 3. Coraz częściej są wykorzystywane platformy o charakterze inwestycyjnym, w których uczestnicy (drobni inwestorzy z internetowego „tłumu”) lokują swoje wolne środki finansowe w danych przedsięwzięciach w oczekiwaniu na korzyści finansowe. Szereg rozwiązań przewidziano do wspomagania start-upów bądź firm we wczesnej fazie rozwoju. W wersji modelu kolektywnego współfinansowania przedsięwzięć (3a) biorą udział różne grupy uczestników, w tym aniołowie biznesu (business angels), tj. osoby fizyczne, które inwestują w rozwój danej firmy, w dane przedsięwzięcie; są to jednak relatywnie niewielkie środki finansowe. Przykładowo InvestFashion.com umożliwia inwestowanie na rynku mody kwotami od 25 USD. W zamian inwestorzy oczekują np. tantiem, udziałów w przyszłych zyskach, sprzedaży itp. Inwestycje aniołów biznesu (i według kolejnych modeli) wymagają wysokich stóp zwrotu, gdyż narażone są na duże ryzyko. Fundusz inwestycyjny (3b) można zdefiniować jako formę wspólnego inwestowania, której istotą jest zbiorowe lokowanie środków finansowych – crowdfunding z założenia jest działaniem „tłumu” uczestników internetowych. Dlatego też wydzielono odrębny model. W niektórych przypadkach podmiot tworzący platformę elektroniczną może być zorganizowany jako fundusz inwestycyjny. Mogą to być np. fundusze venture capital, czyli podmioty prawne, najczęściej spółki z o.o., dysponujące zgromadzonym majątkiem. Funduszem inwestycyjnym bazującym na idei crowdfundingu jest np. EquitySplash.com – z siedzibą główną na Florydzie (USA). Innym przykładem jest Thrillcapital.com. Istnienie takich podmiotów jest silnie uzależnione od uwarunkowań prawnych na danym rynku. vol. 10, nr 3 (38), 2012 87 Dariusz T. Dziuba Internetowi fundatorzy, wspomagając daną firmę, w zamian za okazaną pomoc finansową uczestniczą w jej zyskach, mogą otrzymywać udziały w podziale dochodów (modele 3a i 3b), jak również papiery wartościowe (Fundinglaunchpad 2012: 5) – są to świadectwa udziałowe, dłużne papiery wartościowe. Gratyfikacje w formie akcji pozwalają wydzielić odrębny model – akcyjny (3c), nazywany equity-based. Model ten implikuje sprzedaż akcji i przekazywanie praw własności do internetowych inwestorów. Przykładem jest platforma ASSOB.com umożliwiająca inwestowanie w akcje danego podmiotu. Modele inwestycyjne wyodrębniane są zatem według kilku, wzajemnie nakładających się na siebie kryteriów podziału, w tym: – zakresu korzyści możliwych do uzyskania przez inwestorów, – wartości inwestowanych środków finansowych, – formy organizacyjnej przedsięwzięcia (tu: wydzielamy fundusze inwestycyjne), – stosowanych technologii. Zakres korzyści dla inwestorów jest dość szeroki, od nagród finansowych, stałych bądź proporcjonalnych (w kolektywnym współfinansowaniu firmy), do uzyskiwania produktów danej firmy, upustów w jej zakupie, także udziałów w przyszłej sprzedaży, zyskach i emitowanych akcjach (fundusz inwestycyjny, model akcyjny8). Według wartości inwestowanych środków można mówić o środkach relatywnie niewielkich, jak w przypadku działań aniołów biznesu, wyższych, np. w funduszach venture capital, i najwyższych – w modelu akcyjnym. Najbardziej złożone technologicznie platformy zwykle obsługują model akcyjny. Ad. 4. W praktyce spotykamy również rozwiązania mieszane. Na przykład francuska platforma FinanceUtile.com łączy funkcje udzielania pożyczek z modelem inwestycyjnym (kupno udziałów w przedsięwzięciu), podobnie kanadyjski system P2Pfinancial.ca. Ewenementem jest platforma Rockthepost.com (USA), na której realizowane są zarówno model donacyjny, również sponsorski, tj. z nagradzaniem uczestników, jak i odrębne formy inwestowania (w zamian za zyski z przyszłej sprzedaży, także udziały w przedsięwzięciu). 4. Strategie nagradzania w modelu sponsorskim Platformy crowdfundingu można dodatkowo wydzielać na podstawie kryterium stosowanych metod i strategii nagradzania uczestników rynku. Realizowane są trzy modele: – „wszystko albo nic” (All-or-Nothing), – „wszystko” (Keep it All) – i rozwiązania pośrednie, np. „wszystko i więcej” (All & MoreTM). Model „wszystko albo nic” polega na tym, że gdy projekt nie zostanie zrealizowany, zainwestowane środki finansowe wracają do fundatora (choć 88 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania pomniejszone o prowizje uprzednich transferów w systemach mikropłatności). Oferent przedsięwzięcia nie otrzymuje żadnych, tj. dotąd zgromadzonych środków. Tak funkcjonuje m.in. system Kickstarter.com czy rodzimy PolakPotrafi.pl. Przeciwne rozwiązanie zastosowano na platformie IndieGoGo.com. W tym podejściu oferent-przedsiębiorca zabiera środki, tj. „wszystko”, nawet jeśli zgromadzono ich zbyt mało, ale z drugiej strony ponosi koszt wyższych prowizji, gdy nie zrealizował celów. Inną strategią, realizowaną np. w systemie RocketHub.com, jest „wszystko i więcej”. Oferenci projektów mogą zatrzymać dotąd uzyskane środki finansowe, nawet jeśli nie zgromadzono ich w 100%. Oznacza to, że wszystko tracą fundatorzy, sponsorzy, a kwota ta jest profitem oferentów i platformy. RocketHub dodatkowo wynagradza przedsiębiorców, jeśli zrealizowali swoje cele, tzn. zgromadzili zakładaną kwotę na projekt i w wyznaczonym czasie – wówczas platforma premiuje ich m.in. upustami w prowizjach. Oceniając rynek wdrożeń systemów sponsorskich, można powiedzieć, że większość takich platform funkcjonuje według modelu „wszystko albo nic”. Z innymi modelami nagradzania wiąże się dla „sponsora” większe ryzyko. Największą platformą funkcjonującą według modelu sponsorskiego (i „wszystko albo nic”) jest Kickstarter.com. Według szczegółowych danych za rok 2011 (pochodzących z witryny: http://www.kickstarter.com) oferowano 27 086 projektów; sfinalizowano w tym 11 836 (tj. ze współczynnikiem sukcesu 46%); pozyskano kwotę około 99,344 mln USD, a liczba uczestników wyniosła około 30,59 mln; wartość zgromadzonych środków finansowych wzrosła z 27,6 mln w roku 2010 do ponad 99 mln w roku 2011, czyli ponad trzykrotnie. Jak wskazano, nie wszystkie projekty są finalizowane, tj. zrealizowane w wyznaczonym terminie i pozyskują zakładaną kwotę. Stwierdzane jest to również na innych platformach. Przykładowo w roku 2010 w Rockethub. com jedynie około 20% projektów dla małych przedsięwzięć biznesowych było sfinalizowanych, zaś w IndieGoGo.com – tylko 10% (dane za rok 2010 na podstawie Lensonsky 2011). Według późniejszych danych za I kwartał 2011 r. w IndieGoGo zrealizowano jedynie 400 projektów na łączną liczbę 22 tysięcy (Gough 2011), czyli wskaźnik sukcesu wyniósł niecałe 2%. 5. Szacowanie rozmiarów rynku, jego struktury i wartości Można szacować wielkość rynku crowdfundingu, jego strukturę i wybrane na nim tendencje, biorąc pod uwagę reprezentatywną grupę systemów. Cennym źródłem informacji o takich przedsięwzięciach jest witryna crowdcourcing.org, udostępniająca katalog platform elektronicznych segregowanych według różnych rodzajów, relatywnie często aktualizowany. Przede wszystkim gromadzone są tu informacje o typowych systemach crowdsourcingu, ale vol. 10, nr 3 (38), 2012 89 Dariusz T. Dziuba również crowdfundingu. Badanie zrealizowano dnia 4 maja 2012 r. – wówczas strona crowdsourcing.org zawierała łączne zestawienie 1864 witryn. Badanie polegało na identyfikacji systemów crowdfundingu i sklasyfikowaniu ich do odrębnych modeli. Zliczano liczby poszczególnych systemów i udziały procentowe. Na podstawie uzyskanego zbioru danych rozdzielano platformy na grupy względem ich lokalizacji (wdrożeń), według krajów i kontynentów. Odrębne grupowania w bazie crowdsourcing.org prezentują niekiedy różniące się od siebie dane, zatem wydzielenia systemów dokonano, bazując na pierwotnym zbiorze danych i szczegółowej ocenie informacji z witryn. Zidentyfikowano 443 systemy crowdfundingu, w tym następujące ich rodzaje (modele): – 302 platformy o funkcjach donacyjnych (filantropijnych i sponsorskich), w tym 228 donacyjnych i 74 sponsorskie; – 61 systemów pożyczkowych, w tym 43 pożyczek społecznych i 18 mikropożyczek; – 80 platform o charakterze inwestycyjnym, w tym 8 według modelu akcyjnego. W łącznej liczbie platform crowdfundingu systemy donacyjne stanowią grupę dominującą, o udziale 68% (traktowane łącznie ze sponsorskimi) i ponad 51% (bez modelu sponsorskiego). Systemy z nagradzaniem niefinansowym uczestników (74) stanowią udział około 17% w łącznej liczbie badanych platform. Drugą według liczebności są systemy inwestycyjne, tworzące grupę około 18%. W ramach tego modelu zidentyfikowano jedynie 8 platform akcyjnych, stanowiących 10% w łącznej liczbie platform inwestycyjnych i niecałe 2% w ogólnej liczbie platform crowdfundingu. Najmniej liczna jest grupa platform pożyczkowych (61), z udziałem ponad 13% w łącznej liczbie analizowanych systemów. Systemy mikropożyczek to około 30% liczby platform pożyczkowych9. Dodatkowo przeprowadzono badanie struktury rynkowej według lokalizacji platform. Witryna crowdsourcing.org nie zawsze udostępniała kompletne informacje pozwalające na jednoznaczną lokalizację; brano tu pod uwagę miejsce wdrożenia, siedzibę główną firmy, jak też oddziaływania rynkowe. Wyselekcjonowano grupę 21 platform międzynarodowych lub funkcjonujących poprzez sieci social networks typu Facebook i Twitter, w których nie można było jednoznacznie ustalić lokalizacji. Analizowano zatem dalej grupę 422 systemów. Wdrożeń dokonano w 43 krajach na różnych kontynentach, tj. w skali globalnej. Najwięcej platform crowdfundingu jest zlokalizowanych w USA – 180, czyli około 43% globalnej liczby. Drugą grupę stanowią systemy z Wielkiej Brytanii (40 wdrożeń), tj. z udziałem 9,5%, trzecią – z Francji (25 implementacji), czwartą – z Holandii (24), z kolei równoliczne (po 19) z Niemiec i Brazylii, następnie z Hiszpanii (17), Kanady (14) i Australii (11). Pozostałe wdrożenia mają charakter jednostkowy, np. Szwajcaria i Chiny (po 5), Nowa Zelandia, Indie i Włochy (po 4), Dania, Czechy, Szwecja, 90 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania Portugalia, Japonia, Argentyna (po 3), Finlandia, Belgia, Izrael, Węgry, Rosja i Meksyk (po 2), Łotwa, Estonia, Irlandia, Norwegia, Austria, Grecja, Cypr, Luksemburg, Rumunia, Hongkong, Filipiny, Turcja, Indonezja, RPA, Uganda, Kenia, Chile i Kolumbia (po 1 platformie). Spośród badanych zidentyfikowano 3 takie platformy w Polsce: PolakPotrafi.pl, Pozycz. pl, Kokos.pl10. Ponadto przeprowadzono badanie liczby i udziałów wdrożeń według kontynentów oraz grup krajów. Najwięcej implementacji miało miejsce w Ameryce Północnej (USA, Kanada), łącznie 194, czyli około 46%. Niewiele mniej dokonano w Europie – 166 (udział około 40%). Kolejne wyliczenia są następujące: Ameryka Południowa i Łacińska (26; około 6%), Azja (18; około 4%), Australia i Oceania (13; około 3%), Afryka (3; około 1%). W USA i Europie wdrożono łącznie 346 platform, tj. około 82% globalnej liczby. W pierwszych miesiącach roku 2012 (nie podano dokładnej daty) platforma Pleasefund.us przeprowadziła analizę lokalizacji systemów crowdfundingu. W katalogu crowdsourcing.org wyodrębniono 344 platformy jako crowdfundingowe. Do dalszych badań zakwalifikowano 336 systemów11. Systemy crowdfundingu były wówczas realizowane w 34 krajach świata. Stwierdzono (Pleasefund 2012), że większość platform miała swoje lokalizacje w USA – 138 wdrożeń, czyli około 41% analizowanej grupy. Wdrożenia w innych krajach były rozproszone, np. w Wielkiej Brytanii – 32 systemy (tj. 9,5%), Holandii – 24 (7,1%), Francji – 22 (6,5%), Brazylii – 21 (6,3%), Niemczech – 16 (4,8%), Hiszpanii – 13 (3,9%), Kanadzie – 12 (3,6%), Australii – 7 (2,1%), Szwajcarii – 4 (1,2%). W siedmiu lokalizacjach wskazano po 3 wdrożenia, tj. we Włoszech, w Polsce, Portugalii, Szwecji, Indiach, Japonii, Nowej Zelandii (udziały po 0,9%). Po dwa wdrożenia miały miejsce w: Belgii, Czechach, Danii, Irlandii, Chinach i RPA (udziały po około 0,6%). Po jednym wdrożeniu (tj. po około 0,3%) stwierdzono w: Argentynie, Chile, Zambii, Izraelu, Filipinach, Hongkongu, Rosji, Austrii, Estonii, Finlandii, Rumunii i na Łotwie12. Czyli niemal 85% wdrożeń miało miejsce w USA i Europie (traktowanych łącznie), a 15% w „reszcie świata”. Dane te, jak sądzę można uogólnić. Mianowicie w ciągu kilku miesięcy 2012 r. (pomiędzy początkiem roku a badaniami z dnia 4 maja) wzrosła liczba lokalizacji rynków systemów z 34 do 43. Coraz więcej krajów wdraża platformy crowdsourcingu, zatem o kilka punktów procentowych zmniejszył się łączny udział USA i Europy w globalnej liczbie implementacji. Istotnie wzrastają jednak liczby wdrożeń i ich udziały procentowe, np. w USA, Wielkiej Brytanii, Francji, Hiszpanii, Niemczech i innych krajach europejskich. Ponadto większości wdrożeń w innych krajach w skali świata dokonano w kilku ostatnich latach, zwłaszcza w roku ubiegłym, co świadczy o bardzo dynamicznym rozwoju analizowanej koncepcji. Można również oceniać wartość analizowanego rynku. Raport The Daily Crowdsource (2012) szacował wielkość rynku crowdfundigu na podstawie vol. 10, nr 3 (38), 2012 91 Dariusz T. Dziuba ewaluacji 14 największych platform elektronicznych. Rozpatrywano dwie grupy systemów: – donacyjne z wynagradzaniem uczestników; łącznie osiem, w tym np. Kickstarter.com, RocketHub.com, WeFund.com; – o charakterze inwestycyjnym, w których inwestorzy uzyskują aukcje lub udziały w przedsięwzięciu (łącznie 6 platform); wszystkie analizowane platformy inwestycyjne wdrożono w Europie. Zgodnie z tymi badaniami (King 2012) w roku 2011 z przedsięwzięć donacyjnych wynagradzających uczestników uzyskano kwotę około 102 mln USD, w tym 85,5 mln USD na sfinalizowane projekty, tzn. projekty zrealizowane w wyznaczonym czasie i na zakładaną kwotę. Środki finansowe zgromadzono dla ponad 31 tys. projektów, co stanowiło istotny wzrost wobec roku 2010 (12 tys. projektów). Na drugą grupę projektów, o charakterze inwestycyjnym, w roku 2011 zgromadzono kwotę 20,5 mln USD, tj. niemal pięciokrotnie więcej niż w roku poprzednim. Łącznie na obie grupy projektów uzyskano w roku 2011 wpłaty około 123 mln USD, w relacji do 32 mln USD za rok 2010, co świadczy o dynamicznym rozwoju w tym segmencie rynkowym. W ciągu badanego roku wartość rynku wzrosła niemal czterokrotnie, co stanowi o dynamicznych zmianach. Według autorów raportu (Daily Crowdsource 2012) stwierdzono 266% wzrost zaoferowanych kwot, także 263% wzrost kwot na projekty sfinalizowane, wobec danych z roku 2010. Z kolei w raporcie Mymicroinvest (2011) z 19 października 2011 r. oceniano m.in. wielkość tego rynku w Europie. Wykazano, iż 10 największych platform crowdfundingu pozyskało środki finansowe rzędu 100 mln EUR w ciągu dziewięciu miesięcy 2011 r. Przedstawione dane mają charakter cząstkowy – oceniano jedynie wybrane systemy. Kolejne rozważania wskażą, że wartość środków finansowych zgromadzonych poprzez wszystkie typy platform crowdfundingu jest znacząca, liczona w skali świata nawet na co najmniej kilkadziesiąt miliardów USD, z największym udziałem platform donacyjnych. 6. Studia przypadku – crowdfunding donacyjny i pożyczkowy Dominującą grupą platform są systemy donacyjne, w tym sponsorskie. Są to m.in.: Kickstarter.com (USA), IndieGoGo.com (USA), Artisteconnect. com (Filipiny), Mycause.com.au (Australia), Fondomat.com (Czechy), NewJelly.com (Norwegia). Typowe systemy donacyjne mają charakter uniwersalny, ale powstaje coraz więcej platform, które specjalizują się w wybranych dziedzinach. Na przykład Myfootballclub.co.uk wspiera drużynę piłkarską, JustinWilsonplc.com – wyścigi Formuły 1, RacingShares.co.uk – wyścigi konne, ActBlue.com – Partię Demokratów w USA, Cinecrowd.nl – produkcję filmową, liczne systemy sponsorują projekty muzyczne itp. 92 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania W tabeli 2 zestawiono statystyki wybranych dziewiętnastu platform (12 donacyjnych i 7 sponsorskich), dla których uzyskano statystyki; wierszy nie numerowano z uwagi na selektywny dostęp do danych. Platforma Rok utworzenia Zgromadzone środki (w mln USD) Model donacyjny, bez nagradzania uczestników JustGiving.com 2000 (*) około 1245,000 FirstGiving.com 2003 ponad 1000,000 NetworkforGood.org 2001 około 661,000 ActBlue.com 2006 241,472 Fundly.com 2011 około 204,000 uk.Virginmoneygiving.com 2008 (*) ponad 161,700 Everydayhero.co.uk 2005 (*) 116,746 Razoo.com 2010 około 92,000 Givezooks.com 2008 61,582 Missionfish.org.uk 2000 (*) 55,924 Akvo.org 2007 (**) 51,150 … … Givology.org 2008 … około 0,099 Model sponsorski, z nagradzaniem uczestników Kickstarter.com … 2008 … ponad 200,000 … Indiegogo.com 2008 ponad 1,500 Voordekunst.nl 2010 (**) 1,081 Startnext.de 2010 (**) 0,860 TheCosmonaut.org 2010 (**) 0,611 Wefund.com 2011 (*) 0,563 … PolakPotrafi.pl … 2011 … (***) min. 0,010 (*) GBP/USD; (**) EUR/USD; (***) PLN/USD; GBP = 1,6170 USD; EUR = 1,3217 USD; PLN = 0,315199 USD; kursy NBP z dn. 30.04.2012r.; Kickstarter.com – dane za rok 2011; PolakPotrafi.pl – dane z sierpnia 2011. Tab. 2. Statystyki platform modelu donacyjnego i sponsorskiego (z dn. 30.04.2012). Źródło: opracowanie własne na podstawie danych z witryn analizowanych platform; Indiegogo. com na podstawie D. Tulchin i S. Yi-Han Lin 2012. Capital Sources for Social Enterprises. Emerging Topics Paper Series. Working Paper, nr 16, Social Enterprise Associates (www. socialenterprise.net), s. 6; Kickstarter.com na podstawie http://mashable.com/2012/05/01; PolakPotrafi.pl na podstawie crowdfunding.pl 2011; przeliczenia kursów własne. vol. 10, nr 3 (38), 2012 93 Dariusz T. Dziuba Łącznie zestawione platformy donacyjne zgromadziły niemalże 4 mld USD. Największe kwoty uzyskano na JustGiving.com i FirstGiving.com, w każdym przypadku ponad 1 mld USD, następnie w NetworkforGood.org, ActBlue.com i Fundly.com; najdłużej funkcjonujące na rynku elektronicznym platformy donacyjne pozyskiwały zwykle kwoty największe. Spośród analizowanych najmniej środków finansowych zebrała platforma Givology. org (99 tys. USD), organizująca kwesty wśród studentów. Biorąc pod uwagę zestawione platformy modelu sponsorskiego, to zgromadziły one „tylko” ponad 200 tys. USD. Gros funduszy zebrano w Kickstarter.com, a kolejny system, Indiegogo.com pozyskał dotąd wielokrotnie mniej środków – powodem jest bazowanie na odmiennej strategii nagradzania. Dla celów ilustracyjnych umieszczono na wykazie też rodzimą platformę PolakPotrafi.pl, na której do sierpnia 2011 r. (dane Crowdfunding.pl 2011) sfinalizowano 6 projektów, o łącznej wartości 31 368 PLN. Nie jest możliwe precyzyjne określenie wartości środków finansowych zgromadzonych w skali globalnej poprzez platformy donacyjne. Bazując na selektywnych danych z tabeli 2 oraz uprzednich badaniach i rozważaniach, można oszacować wartość tych środków nawet na kilkadziesiąt miliardów USD. Znacząco mniej zgromadziły platformy sponsorskie – co można oszacować na 2–3 mld USD w skali światowej. Raptowny rozwój badanych systemów nastąpił zwłaszcza w latach 2011–2012. Inną grupą systemów są serwisy pożyczkowe, zarówno według modelu mikrokredytów, jak i pożyczek społecznych. Są to m.in.: Zopa.com (Wielka Brytania), Kiva.org (USA), LendingClub.com (USA), Prosper.com (USA), SomoLend.com (USA), Qufang.cn (Chiny), Ortagiz.com (Turcja), Lainaaja. fi (Finlandia), Igrin.com (Australia), Cashare.ch (Szwajcaria), Fynanz.com, Maneo.jp (Japonia), Rangde.org (Indie), a w Polsce np. Kokos.pl, Finansowo.pl, Sekrata.pl, Pozycz.pl czy, będące w zaniku, Monetto.pl. Tabela 3 zestawia podstawowe statystyki dla piętnastu wybranych platform pożyczkowych (9 społecznych i 6 mikropożyczek), które udostępniały takie informacje. Spośród badanych według modelu pożyczek społecznych najwięcej środków finansowych użyczono w systemach LendingClub.com (ponad 620 mln USD), Prosper.com czy brytyjskim Zopa.com – uznawanym za pioniera tej technologii. Dla celów porównawczych umieszczono też dane o największej rodzimej tego typu platformie – Kokos.pl. W jej przypadku udzielone pożyczki są niemal 30-krotnie niższe niż w LendingClub.com, 15-krotnie niż w Prosper.com; niemiecki system Smava.de, który niedawno otworzył również filię w Polsce, udzielił pożyczek na kwotę niemal trzykrotnie większą niż Kokos.pl. W grupie systemów mikropożyczek dominują najbardziej znane: Kiva.org (ponad 300 mln USD) i Zidisha.org (ponad 200 mln USD). Na indyjskiej platformie Rangde.org udzielono jedynie ponad 1 mln USD pożyczek, czyli niemal 225 razy mniej niż w Kiva.org. 94 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania Według zestawionych w tabeli 3 danych łączna wartość udzielonych pożyczek wynosi ponad 2 mld USD (ponad 1,5 mld w pożyczkach społecznych i ponad 0,5 mld w mikrokredytach). Wielkość globalnego analizowanego segmentu można szacować na kwotę co najmniej dwu-trzykrotnie większą. Dynamika obserwowanych zmian wskazuje, że niesprawdzalna zapewne okaże się prognoza rynku pożyczek crowdfundingowych według Gartnera (Mymicroinvest 2011) – 3,3 mld USD w roku 2013. Wyszczególnienie Rok utworzenia platformy Liczba uczestników (w tys.) Udzielone pożyczki/ mikro-kredyty (w mln USD) Model pożyczek społecznych LendingClub.com 2007 b.d. Prosper.com 2006 1310,0 około 334,000 Zopa.com 2005 500,0 (*) 266,800 LendingKarma.com 2009 b.d. 111,645 Smava.de 2007 21,0 (**) 62,100 Maneo.jp 2009 22,5 (***) 37,138 Ratesetter.com 2010 21,2 (*) 35,605 Kokos.pl 2008 189,4 (****) 21,299 … … … 2009 b.d. (**) 1,453 … Comunitae.com 622,023 Model mikropożyczek Kiva.org 2005 755,0 około 306,000 Zidisha.org 2009 b.d. 206,080 Myc4.com 2011 19,1 (**) 20,395 Vittana.org 2009 2,7 13,116 Babyloan.org.fr 2008 16,9 (**) 4,474 Rangde.org 2008 13,3 (*****) 1,370 b.d. – brak danych; (*) GBP/USD; (**) EUR/USD; (***) JPY/USD; (****) PLN/USD; (*****) INR/USD; GBP = 1,6170 USD, EUR = 1,3217 USD; JPY = 0,012472 USD; PLN = 0,315199 USD; rupia indyjska INR = 0,0189 USD; kursy NBP z dn. 30.04.2012 r. Tab. 3. Statystyki serwisów pożyczkowych (30.04.2012). Źródło: opracowanie własne na podstawie analizowanych witryn internetowych; serwisy Smava i Ratesetter na podstawie Mymicroinvest, CrowdFunding Market Analysis, Mymicroinvest.com, z: crowdsourcing.org, 11.01.2012; przeliczenia kursów własne. vol. 10, nr 3 (38), 2012 95 Dariusz T. Dziuba 7. Crowdfunding inwestycyjny. ASSOB jako studium przypadku Trzecia grupa analizowanych systemów, to serwisy inwestycyjne. Dominują modele 3a i 3b, czyli kolektywnego współfinansowania przedsięwzięć i (rzadziej) fundusze venture capital. Są to m.in. następujące platformy: SociosInversores.es (Hiszpania), Micro-Ventures.com (Luksemburg), Launch-capital.com (USA), Devexo.com, Helpedia.de i Mashup-finance. de (Niemcy), TheCrowdAngel.com (Hiszpania), Crowdinvest.co.za (RPA), Share2start.com (Holandia), EarlyShares.com (USA), Respekt.net (Austria), Anaxago.com (Francja) i StartersFund.com, jako pierwsza pan-europejska sieć equity-based. Przykładowo Kopernik.info (USA) umożliwia wspieranie innowacyjnych projektów na potrzeby krajów rozwijających; według oferty z dnia 27 kwietnia 2012 r. zgłoszonej na witrynie platformy (www.kopernik.info) na realizację projektu „Barefoot Power” inwestor może przekazać dowolną kwotę bądź wykupić następujące udziały13: 1 jednostkę za kwotę 14,85 USD; 2 jednostki – 29,70 USD; 3 jednostki – 59,40 USD; 40 jednostek – 594,00 USD. Z kolei wdrożenia inwestycyjnych platform akcyjnych są, jak dotąd, nieliczne. To m.in.: ASSOB.com.au (Australia), Crowdcube.com i Herofunding. eu (Wielka Brytania), Symbid.com (Holandia), Seedrs.com (Wielka Brytania). Grecki system Startersfund.com łączy dodatkowo funkcje inkubatora przedsiębiorczości. Po zmianach legislacyjnych, na etapach wdrażania i testowania są liczne systemy amerykańskie, np. American-Stock-Portal. com, the California Stock Exchange (calstockexchange.com). Platformy inwestycyjne rzadko udostępniają zagregowane statystyki, np. o liczbie inwestorów, zakresie inwestowanych kwot czy zgromadzonym kapitale. Udało się pozyskać wybrane dane o 12 systemach, w tym 5 z modelu aukcyjnego (ASSOB, Crowdcube, Herofunding, Symbid, Seedrs), co zestawiono tabelarycznie (tabela 4). Spośród badanych największe wartości zgromadzonego kapitału uzyskano w systemach: australijskim ASSOB.com.au, francuskim Wiseed.com i SeedUps. com (na rynku Wielkiej Brytanii i Irlandii), w każdym przypadku ponad 50 mln USD. Inwestorzy mogą lokować w start-upy różne zakresy środków, najmniejsze w przypadku Seedrs.com, Investfashion.com, a najwyższe (miliony USD) np. w ASSOB.com.au, Crowdcube.com, Symbid.com i Herofunding.eu. Ciekawym przykładem jest szwajcarska platforma C-crowd.com, spełniająca różne funkcje – donacyjne, a także inwestowania w firmy i wspomagania przedsięwzięć studenckich. Minimalne kwoty udziałów zależą więc od celu działalności. Na chwilę obecną wartość zgromadzonego kapitału w całym segmencie crowdfundingu inwestycyjnego można szacować na 2–3 mld USD. Australijska platforma ASSOB.com.au, osiągająca ponad 120 mln USD zgromadzonego kapitału, udostępnia również inne szczegółowe informacje (z dn. 12.04.2012 r.): 96 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania – – – – – – łączna liczba przedsięwzięć na platformie – 2329, łączna liczba inwestorów indywidualnych – 2005, przeciętna inwestycja na 1 inwestora – 38023 AUD, liczba firm, które pozyskały kapitał – 176, przeciętnie uzyskiwany kapitał – 503 305 AUD, największe uzyskane środki – 3 540 000 AUD. Rok utworzenia Zgromadzony kapitał (w mln USD) ASSOB.com.au 2007 (*) 123,384 250 tys.–5 mln AUD Wiseed.com 2010 (**) 67,407 min. 100 EUR SeedUps.com 2011 (**) 56,965 max. 250 tys. USD Crowdcube.com 2010 (***) 4,528 200 tys.–10 mln USD C-crowd.com 2010 (****) 0,805 min. 1000 CHF (inwestycje) min. 50 CHF (donacje) Innovestment.de 2011 (**) 0,629 Investfashion. com 2010 b.d. udziały po 25 USD max. 75 tys. USD Symbid.com 2010 b.d. 20 tys.–2,5 mln EUR Herofunding.eu 2012 b.d. 20 tys.–2,5 mln EUR Seedrs.com 2012 b.d. 10 GBP–100 tys. GBP Seedmatch.de 2011 b.d. 250 EUR–100 tys. EUR Investiere.ch 2007 b.d. min. 6 (10) tys. CHF Wyszczególnienie Zakres inwestowanych kwot na 1 projekt max. do 100 tys. EUR b.d. – brak danych, (*) AUD/USD; (**) EUR/USD; (***) GBP/USD; (****) CHF/USD; AUD=1,0282 USD; GBP=1,6170 USD; EUR=1,3217 USD; CHF=1,10412 USD; kursy NBP z dn. 25.04.2012 r. Tab. 4. Statystyki platform crowdfundingu inwestycyjnego. Źródło: opracowanie i wyliczenia własne na podstawie informacji z witryn analizowanych platform. Mimo imponujących wskaźników rozwoju, zauważalny jest niewielki odsetek udanych przedsięwzięć – jedynie 7,5% podmiotów14 uzyskało zakładaną wielkość kapitału. To istotnie mniej niż w przypadku platform donacyjnych czy sponsorskich (por. wcześniejsze dane). Proces uzyskiwania kapitału na platformie ASSOB jest skomplikowany i uwarunkowany licznymi obostrzeniami prawnymi. Jest dość kosztowny i długotrwały, choć zdecydowanie mniej niż w przypadku firm tradycyjnie wchodzących na giełdę15. Cała procedura jest kilkuetapowa16. Potencjalny przedsiębiorca ubiegający się o kapitał powinien spełniać określone wymogi prawne – musi być to m.in. spółka handlowa i firma australijska, zatem nie podmiot zagraniczny17 vol. 10, nr 3 (38), 2012 97 Dariusz T. Dziuba (chodzi tu o zgodność z literą ustawy Australian Corporations Act 2001). Zobowiązany jest do przekazania szczegółowych informacji w formie dokumentów o danej firmie, jej sytuacji finansowej. Przekazywanie dokumentów jest wymagane w całej procedurze, również po (ewentualnym) uzyskaniu kapitału, np. o rozdysponowaniu środków. Koszty ponoszone przez przedsiębiorcę wynikają ze złożenia w ASSOB tzw. aplikacji, co wiąże się opłatą (application fee) w kwocie 990 AUD. Po uzyskaniu zgody na aplikację pobierana jest kolejna opłata – tzw. wstępna (admission fee), w wysokości 3960 AUD. Wstępna opłata obejmuje promocję firmy za pierwszy miesiąc. Z kolei za każdy miesiąc trwającej kampanii pobierane są kwoty 458 AUD. W przypadku uzyskania zakładanych środków finansowych dochodzi również prowizja około 8% od całej kwoty zgromadzonego kapitału (przed finalizacją transakcji). Dokładna wielkość tej prowizji zależy od wkładu pracy sponsora, który również jest zatrudniany w przedsięwzięciu (stąd wyrażenie „około”)18. Przedsiębiorca ponosi więc stałe opłaty około 5 tys. dolarów australijskich (4950) i comiesięcznie 458 AUD wraz z 8% prowizją; łączne opłaty wynoszą przeciętnie około 8 tys. AUD (w zależności od działań podejmowanych przez sponsorów)19. Opłaty aplikacyjne i wstępne umożliwiają ASSOB m.in.: przeprowadzenie due dilligence, czyli szczegółowej analizy i ewaluacji firmy, tworzenie niezbędnej (wymaganej prawem) dokumentacji. Na platformie stworzono interaktywną przestrzeń do pozyskiwania indywidualnych inwestorów20. Do uzyskania jest kapitał rzędu 250 tys.–5 mln AUD. ASSOB umożliwia inwestowanie w akcje spółek (http://www.assob.com. au). Nie jest to jednak ustabilizowany rynek kupna–sprzedaży papierów wartościowych, jak giełda. Platforma koncentruje się na pozyskiwaniu kapitału. Dostarcza mechanizm, który przyspiesza sprzedaż lub transfer papierów wartościowych. Firmy gromadzące kapitał listowane są na rynku pierwotnym – na platformie ASSOB Primary Board. Wspomagana jest również, choć w ograniczonym zakresie, sprzedaż akcji na rynku wtórnym – na platformie ASSOB Secondary Sale. 8. Crowdfunding – uwarunkowania ekonomiczne i prawne Korzyści ekonomiczne z wykorzystywania crowdfundingu (i platform elektronicznych) mogą uzyskać wszystkie grupy uczestników takich przedsięwzięć: donatorzy, inwestorzy, obdarowani, jak i same platformy, a także pośrednicy, w tym np. reklamodawcy, dostawcy technologii, systemów zabezpieczeń czy systemów mikropłatności. Zakres tych korzyści zależy jednak od stosowanego modelu i specyfiki danej platformy. Najmniejsza wiązka korzyści wiąże się z prostymi systemami donacyjnymi, nieco większa z modelem sponsorskim, a (potencjalnie) największa z modelem inwestycyjnym. Choć, z drugiej strony, im bardziej złożony model, tym bardziej ryzykowne przedsięwzięcie. 98 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania W systemach donacyjnych obdarowani mogą uzyskać niezbędne środki na określony cel, donatorzy zaś mają satysfakcję za działania „płynące z odruchu serca”. Platformy uzyskują np. niewielkie kwoty za pośrednictwo w transferze płatności, także opłaty abonamentowe (rejestracyjne). W innych modelach przedsiębiorcy mogą uzyskać kapitał i szansę na dynamiczny rozwój firmy. Donatorzy-inwestorzy mogą otrzymać nagrody rzeczowe, a w modelu inwestycyjnym gratyfikacje finansowe, udziały w zyskach ze sprzedaży czy nawet akcje. Korzyści pozyskują same platformy jako organizatorzy przedsięwzięć. Od uczestników rynku (sponsorów, inwestorów, firm poszukujących kapitału) pobierają zwykle opłaty rejestracyjne lub (miesięczne) abonamentowe. Prowizje są ustalane od transferów finansowych, przetwarzania transakcji kart kredytowych. Najniższe kwoty i prowizje pobierane są w modelach donacyjnym i sponsorskim21. Dużo wyższe opłaty i prowizje uzyskiwane są z modelu inwestycyjnego, zwłaszcza akcyjnego, co wykazano na przykładzie ASSOB.com.au – łącznie wskazano na kwotę 8 tys. USD, co jest kwotą relatywnie wysoką, jednak znacząco niższą w porównaniu z płatnościami związanymi z tradycyjnym wejściem spółek na giełdę. Uczestnicząc w rynku finansowym (kapitałowym), przedsiębiorcy opłacają też podatki. Uzyskiwanie korzyści (przez sponsorów-inwestorów i przedsiębiorców) natrafia na liczne ograniczenia. Co najważniejsze, nie wszystkie realizowane projekty gwarantują korzyści, nie wszystkie będą zrealizowane. W przypadku ASSOB wskaźnik sukcesu wyniósł jedynie około 7% łącznej liczby przedsięwzięć. Znacząca ich liczba jest ryzykowna. Ponadto przedsiębiorcy mogą być limitowani wielkością kapitału, który mogą pozyskać. Na przykład w systemach kolektywnego inwestowania graniczną wartością jest zwykle 10 tys. USD, co może być niewystarczające do rozruchu średnich i większych przedsięwzięć. Upowszechnianie przedsięwzięć w Internecie, otwarcie ich na „tłum” stwarza ryzyko kopiowania tych projektów. Uzyskiwanie korzyści natrafia też na szereg ograniczeń natury psychologicznej – przekonania darczyńców (inwestorów) do korzystania z tej metody. Co najistotniejsze, rozwój analizowanych systemów uwarunkowany jest licznymi restrykcjami prawnymi. Szczególne uwarunkowania legislacyjne dotyczą systemów inwestycyjnych, funkcjonujących zwłaszcza według modelu akcyjnego. Regulatorzy określają, czy możliwe są takie rozwiązania, ilu inwestorów może być udziałowcami firmy, jakie kwoty mogą inwestować itp. Na rynku elektronicznym funkcjonuje jak dotąd niewielka grupa takich platform, m.in. Crowdcube.com (Wielka Brytania), Symbid.com (Holandia), ASSOB. com (Australia). W USA do niedawna taka działalność była nielegalna. Sytuacja raptownie zmieniła się w marcu 2012r, po uchwaleniu nowych ustaw (JOBS Act 2012) w obu izbach Kongresu. Nawet systemy donacyjne muszą spełniać określone wymogi prawne. W Polsce jest to Ustawa o zbiórkach publicznych (aktualizowana od roku 1933), według której zakazane są wszelkie zbiórki „w interesie osobistym”, vol. 10, nr 3 (38), 2012 99 Dariusz T. Dziuba a na działalność wymagane są stosowne pozwolenia. Bariera legislacyjna spowodowała szereg trudności w uruchamianiu niektórych systemów, a nawet upadek kilku platform donacyjnych w Polsce. 9. Wnioski końcowe Wykazano dynamiczny rozwój platform crowdfundingu i rozwój całego segmentu rynkowego. Crowdfunding jest perspektywiczną metodą finansowania projektów lub przedsięwzięć biznesowych. Stał się źródłem pozyskiwania kapitału, alternatywnym wobec dotychczasowych (banków, giełd, inkubatorów przedsiębiorczości itp.). Stwarza możliwość uzyskiwania różnorodnych korzyści ekonomicznych dla różnych, wszystkich podmiotów tego rynku, choć z drugiej strony – jak wykazano – natrafia na liczne bariery rozwojowe, głównie natury ekonomicznej i prawnej. Tworzenie takich platform elektronicznych jest korzystne z ekonomicznego punktu widzenia – zapełniają one określone nisze rynkowe, zwiększają szybkości transferów finansowych, ich wolumeny i wartości, redukując koszty transakcyjne. Implementacja platform nie zawsze jest jednak możliwa i wskazana; wdrożenia to proces kosztowny, często długotrwały, a koszty i ryzyko informatyczne zwykle wzrastają wraz z kolejnymi, bardziej złożonymi modelami crowdfundingu. Wdrażanie platform w środowisku Web 2.0 wymaga dostępu do określonych technologii, szczególnie przetwarzania w chmurze i SaaS. Informacje o autorze Dr hab. prof. UW Dariusz T. Dziuba – Wydział Nauk Ekonomicznych, Uniwersytet Warszawski. E-mail: [email protected]. Przypisy 1 Szerzej na temat crowdsourcingu m.in. w pracach autora: Dziuba 2011, 2012. 2 Określenie „crowdfunding” (podobnie jak „crowdsourcing” czy „outsourcing”) nie ma odpowiednika w języku polskim. W niniejszych rozważaniach będzie stosowany oryginalny termin. 3 Przekład własny na podstawie: Gotrendme 2012. 4 Opracowanie własne na podstawie: Burkett 2011: 66. 5 W dostępnej literaturze przedmiotu spotyka się węższe i niepełne typologie. Przykładowo raport UKIE wydzielał: model donacyjny (bez jego podziału), pożyczkowy (bez jego rozdzielania) i dwa modele inwestycyjne (współfinansowania przedsięwzięć i akcyjny). Zob. UKIE 2012: 2 i nast. Węższy sposób podziału systemów zastosowano też w raporcie Fundinglaunchpad 2012: 5. 6 Niektóre nazwy domen wprost sugerują działalność filantropijną; oprócz wymienionych to m.in. Givealittle.co.nz, DreamBank.org, Fundraise.com, SaveTogether.org. Na platformie DetroitSoup.com co miesiąc grupa około 100 donatorów płaci po 5 USD na kupno obiadów dla bezdomnych w Detroit. 100 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania 7 Model pożyczkowy w przypadku niektórych systemów kłóci się z ideą crowdfundingu. Mianowicie, crowdfunding z definicji wymaga internetowego „tłumu” uczestników. Niektóre platformy pożyczkowe (typu P2P lending) niekoniecznie bazują na dostępie do mas użytkowników, mogą to być małe, nawet zamknięte grupy fundatorów. 8 Do modelu akcyjnego można włączyć systemy bezpośredniej emisji akcji za pośrednictwem Internetu (Internet Direct Public Offering). Takie systemy wychodzą z nieco innej perspektywy badawczej – procesu emisji akcji poprzez Internet na rynku pierwotnym, jak i systemów informatycznych to umożliwiających. Odwołują się jednak do „tłumu” uczestników, tj. idei crowdfundingu. Przykładem podmiotu, który skutecznie dokonał internetowej emisji akcji, jest m.in. Google (2004). Pomysłodawcą pierwszej emisji akcji w Internecie w roku 1995 był Andrew Klein – właściciel małego browaru Spring Street Brewing Company, Inc. z Nowego Jorku. Szerzej ta problematyka została rozwinięta w pracy: Dziuba 2005. 9 Analiza zasobów sieci Internet wskazuje jednak, że nie wszystkie systemy – jako crowdfundingowe – są zarejestrowane w katalogu crowdsourcing.org. Na przykład można wyszukać informacje o licznych innych platformach donacyjnych, także (mniej licznych) pożyczkowych. Zatem rzeczywiste udziały tych modeli mogą być o kilka punktów procentowych wyższe, zwłaszcza dla systemów donacyjnych. W przypadku serwisów pożyczkowych listę krajowych systemów można poszerzyć m.in. o następujące: Finansowo.pl, Sekrata.pl czy Dukato.pl. 10 Według informacji z sieci są również wdrożenia platform crowdfundingu w innych krajach, m.in. w Monako (Fabriquedartistes.com), Korei Południowej (Fundu.co.kr, MoneyAuction.co.kr, Popfunding.com), Islandii (Uppspretta.is), Haiti czy Singapurze (Milaap.org). 11 Brak informacji o rezygnacji z 8 systemów; zapewne były to przedsięwzięcia międzynarodowe. 12 Wyliczenia udziałów procentowych od autora. 13 Ten model crowdfundingu inwestycyjnego nazywany jest udziałowym. 14 Ten wskaźnik może być wyższy, gdyż pewna grupa przedsięwzięć jest jeszcze w fazie operacyjnej. 15 Tradycyjny proces wchodzenia na giełdę, emisji akcji na rynku pierwotnym (IPO – Initial Public Offering) został porównany przez autora z koncepcją Internetowej IPO. Zob. Dziuba 2005. 16 Przedstawiana na podstawie informacji z witryny http://www.assob.com.au. 17 Również inne platformy crowdfundingu funkcjonujące według modelu aukcyjnego zezwalają na inwestycje wyłącznie podmiotom z danego kraju (np. Crowdcube.com – rynek Wielkiej Brytanii, Symbid.com – Holandii). 18 Sponsorzy odpowiedzialni są m.in. za porady prawne, współtworzenie dokumentacji, organizowanie spotkań z inwestorami i niezależne od platformy pozyskiwanie kapitału na dane przedsięwzięcie. 19 Możliwe jest uzyskiwanie grantów, np. 50% redukcji opłaty aplikacyjnej, też dotacji w wysokości 5000 USD. Brak jednak informacji, ile firm z takich ulg korzystało. 20 Inwestorzy ponoszą niewielkie opłaty od przetwarzanych transakcji (podobnie jak w systemie Symbid.com). 21 Przykładem jest system donacyjny JustGiving.com, który wymaga 15 GBP miesięcznej opłaty rejestracyjnej, także 5% prowizji od transakcji. Brytyjski system sponsorski WeSayWePay.com pobiera opłaty administracyjne w wysokości 3,4% + 20 p. od transakcji, również 5% prowizji od każdego sfinalizowanego projektu. vol. 10, nr 3 (38), 2012 101 Dariusz T. Dziuba Bibliografia ASSOB Raises $120 mil for Australian Businesses from 2000 Investors 2012. Alchemy Equities, http://www.alchemyinnovation.com.au/, 11.04.2012. Burkett, E. 2011. A Crowdfunding Exemption? Online Investment Crowdfunding and U.S. Securities Regulation. Transactions: The Tennessee Journal of Business Law, nr 1 (13), s. 63–106, http://trace.tennessee.edu/transactions. Crowdfunding.pl 2011. Polak.Potrafi.pl – crowdfunding w Polsce, http://crowdfunding.pl, 21.08.2011. Daily Crowdsource 2012. Crowd Census II: The Rise of Crowdfunding, The Daily Crowdsource Report, dailycrowdsource.com. Drummond, M. 2011. Make it Rain. Inventor`s Digest, nr 8 (28), s. 16–19. Dziuba, D.T. 2005. Some Thoughts about Internet Direct Public Offering, w: B.F. Kubiak, A. Korowicki (red.) Information Management, Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego. Dziuba, D.T. 2011. Crowdsourcing w strategii przedsiębiorstw usieciowionej gospodarki informacyjnej, w: J. Kisielnicki, W. Chmielarz, O. Szumski (red.) Informatyka przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego, Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego. Dziuba, D.T. 2012. Rozwój systemów crowdsourcingu w gospodarce polskiej, w: N. Siemieniuk (red.) Technologie informacyjne w zarządzaniu organizacjami, Białystok: Wydawnictwa Uniwersytetu w Białymstoku, w druku. Frey, T. 2012. The Power of Crowds, A Study of Future Trends and Predictions, FuturistSpeaker.com, 27.01.2012. Fundinglaunchpad 2012. White Paper, Consumer Interest in Investment Crowdfunding, FundingLaunchpad.com, 29.03.2012. Gotrendme 2012. What is Crowd Funding? http://gotrendme.blogspot.com/, January. Gough, R.H. 2011. The Crowdfunding Revolution: Making Your Choice, http://www.gamasutra.com/, 5.05.2011. Howe, J. 2006a. Crowdsourcing: A Definition, http://crowdsourcing.typepad.com. Howe, J. 2006b. The Rise of Crowdsourcing. Wired, nr 6 (14), http://www.wired.com. King, S. 2012. The Crowdfunding Market Nearly Quadrupled in a Year, http://isellerfinance. worldpress.com/, 31.03.2012. Lensonsky, R. 2011. Is Crowdfunding the Next Big Financing Think?, http://smallbusinesstrends.com, 5.01.2011. Mymicroinvest 2011. Crowdfunding Market Analysis, Mymicroinvest.com, z: http://www. slideshare.net. Mymicroinvest 2012. Crowdfunding Market Analysis, Mymicroinvest.com, z: http://www. crowdsourcing.org. Pleasefund 2012. A very short introduction to crowdfunding with PleaseFund.us, http:// pleasefund.us. Tulchin, D. i S. Yi-Han Lin 2012. Capital Sources for Social Enterprises. Emerging Topics Paper Series, Working Paper nr 16, http://www.socialenterprise.net, March. UKIE 2012. UKIE Crowd Funding Report: A Proposal to Facilitate Crowd Funding in the UK, UKIE, The Association for UK Interactive Entertainment, February. Strony internetowe http://www.actblue.com/ http://www.akvo.org/ http://www.assob.com.au/ http://www.babyloan.org.fr/ http://www.c-crowd.com/ http://www.comunitae.com/ 102 Problemy Zarządzania Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania http://www.crowdcube.com/ http://www.crowdsourcing.org. http://www.everydayhero.co.uk/ http://www.firstgiving.com/ http://www.fundly.com/ http://www.givezooks.com/ http://www.givology.org/ http://www.herofunding.eu/ http://www.indiegogo.com/ http://www.innovestment.de/ http://www.investfashion.com/ http://www.investiere.ch/ http://www.justgiving.com/ http://www.kickstarter.com/ http://www.kiva.org/ http://www.kokos.pl/ http://www.kopernik.info/ http://www.lendingclub.com/ http://www.lendingkarma.com/ http://www.maneo.jp/ http://www.mashable.com/2012/05/01/ http://www.micro-ventures.com/ http://www.missionfish.org.uk/ http://www.myc4.com/ http://www.prosper.com/ http://www.rangde.org/ http://www.ratesetter.com/ http://www.razoo.com/ http://www.rockethube.com/ http://www.seedmatch.de/ http://www.seedrs.com/ http://www.seedups.com/ http://www.smava.de/ http://www.startnext.de/ http://www.symbid.com/ http://www.thecosmonaut.org/ http://www.uk.virginmoneygiving.com/ http://www.vittana.org/ http://www.voordekunst.nl/ http://www.wefund.com/ http://www.wesaywepay.com/ http://www.wiseed.com/ http://www.zidisha.org/ http://www.zopa.com/ vol. 10, nr 3 (38), 2012 103 Problemy Zarządzania, vol. 10, nr 3 (38): 104 – 123 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.7 Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów na potrzeby wieloagentowego modelu symulacyjnego Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji W artykule przedstawiono możliwość zastosowania teorii zbiorów przybliżonych w procedurze tworzenia wieloagentowego modelu zachowania konsumentów. Omówiono symulację wieloagentową, metody gromadzenia i przetwarzania danych na potrzeby modelowania wieloagentowego oraz teorię zbiorów przybliżonych w kontekście wykrywania reguł zachowań konsumentów. Ponadto zaprezentowano przykładowy model symulacyjny zachowania konsumentów na rynku urządzeń elektrycznych, zbudowany z zastosowaniem proponowanej procedury. 1. Wprowadzenie Sukces firmy oraz satysfakcja jej klientów są bezpośrednio powiązane ze zrozumieniem postępowania konsumenta. Skuteczność działania na rynku zależy bowiem od umiejętności dostosowania się do oczekiwań i zachowań konsumentów, a także antycypowania zmian w tym zakresie, gdyż zmiany te wyznaczają przewidywane kierunki działań marketingowych firmy i wpływają na wybór strategii1. Jedną z metod pozwalających na prowadzenie badań dotyczących przewidywania zachowania konsumentów jest symulacja wieloagentowa. Ważnym etapem w zastosowaniu tej metody jest budowa modelu symulacyjnego. Wiarygodność modelu w dużym stopniu zależy od wierności odzwierciedlenia reguł zachowania się konsumentów określonych na podstawie zgromadzonych danych. Do wykrycia owych reguł możliwe jest zastosowanie teorii zbiorów przybliżonych. Celem artykułu jest zaprezentowanie procedury wieloagentowego modelowania symulacyjnego, w której do wykrywania reguł zachowania konsumentów proponuje się wykorzystanie teorii zbiorów przybliżonych. W artykule przedstawiono – na tle dotychczasowych kierunków zastosowań w badaniach zachowań konsumentów – symulację wieloagentową, metody gromadzenia i przetwarzania danych na potrzeby modelowania wieloagentowego oraz 104 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... teorię zbiorów przybliżonych. Ponadto zaprezentowano przykładowy model symulacyjny zachowania konsumentów na rynku urządzeń elektrycznych zbudowany z zastosowaniem proponowanej procedury. 2. Wieloagentowa symulacja w badaniu zachowania konsumentów Początki symulacji wieloagentowej (Multi Agent Based Simulation – MABS) można wywieść od takich dyscyplin jak: systemy adaptacyjne (complex adaptive systems), teoria złożoności (complexity science) i teoria systemów (system science). W symulacji wieloagentowej badany układ jest modelowany jako zbiór autonomicznych jednostek, zwanych agentami. W modelu wieloagentowym opisuje się procesy decyzyjne w mikroskali, dla każdego agenta z osobna. Z połączenia działań wielu agentów i ich interakcji ze sobą nawzajem oraz ze środowiskiem, w którym funkcjonują, powstaje obraz badanego zjawiska w makroskali (Siebers i Aickelin 2008). Różne dyscypliny wypracowały własne sposoby pojmowania terminu „agent”. Powszechnie akceptuje się, że agent jest umiejscowiony w pewnym środowisku i jest zdolny do podejmowania autonomicznych akcji (Bieniasz 2006; Wooldridge 1999, 2002; Frank, Bittner i Raubal 2001). Niektórzy autorzy uważają, że agentem jest każdy typ niezależnych komponentów (program komputerowy, model, jednostka, konsument itd.) (Bonabeau 2002), przy czym zachowanie niezależnego komponentu może być opisywane w różny sposób – od prymitywnych reguł decyzyjnych po bardzo skomplikowane adaptacyjne reguły sztucznej inteligencji. Inni utrzymują, że zachowanie niezależnego komponentu musi być adaptacyjne, aby mógł być nazwany agentem. Miano agenta jest zarezerwowane dla komponentów, które w pewnym sensie uczą się swojego środowiska i na skutek tego uczenia zmieniają swoje zachowanie. J. Casti (1997) argumentuje, że agent powinien zawierać zarówno reguły niższego rzędu, opisujące zachowanie, jak i zbiór reguł wyższego rzędu, determinujących zasady zmiany reguł. Reguły niższego rzędu opisują reakcję na środowisko, natomiast reguły wyższego rzędu opisują zasady adaptacji. Z praktycznego punktu widzenia można założyć, że agent posiada następujące cechy (Macal i North 2006): (1) jest identyfikowalną jednostką posiadającą pewien zbiór cech i reguł zarządzających jej zachowaniem się i możliwościami decyzyjnymi; (2) jest umiejscowiony w środowisku, w którym współdziała z innymi agentami; (3) jego działanie może być skierowane na osiągnięcie określonego celu; (4) jest autonomiczny, może funkcjonować niezależnie w swoim środowisku i w kontaktach z innymi agentami, przynajmniej w zakresie pewnych zdefiniowanych sytuacji; (5) jest elastyczny, posiada zdolność do uczenia się i adaptacji. Założenia te w sposób szczególny predestynują symulację wieloagentową do zastosowań w badaniu zachovol. 10, nr 3 (38), 2012 105 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji wania konsumentów, gdyż może ukazywać jak z działań wielu agentów, identyfikujących konsumentów indywidualnych lub organizacyjnych, powstają zagregowane zjawiska marketingowe. W ostatnich kilkunastu latach opublikowano sporo opracowań naukowych przedstawiających przypadki wykorzystania symulacji wieloagentowej w omawianym obszarze. Dotyczą one bardzo często zachowań konsumentów w kontekście dyfuzji innowacji, np. Watts (2002), Shaikh i in. (2005), Watts i Dodds (2007), Rahmandad i Sterman (2008), Toubia i in. (2008), Goldenberg i in. (2009) czy Delre i in. (2010). Inny kierunek zastosowań odnosi się do badań związanych z przyjęciem produktu przez rynek (Goldenberg i in. 2007, 2010). Wiele publikacji przedstawia użycie podejścia wieloagentowego w analizie wpływu pozycjonowania firm na zachowania konsumentów (np. Buchta i Mazanec 2001; Wilkinson i Young 2002; Lusch i Tay 2002, 2004, 2005), niektóre zaś skupiają się na problemie moralnego zachowania w marketingu relacyjnym (np. Midgley, Marks i Cooper 1997, 2006; Hill i Watkins 2007, 2009a, 2009b). Kolejna ważna płaszczyzna zastosowań podejścia wieloagentowego dotyczy badania trendów zakupowych na określonych rynkach poprzez symulację wyborów wielu indywidualnych konsumentów w celu określenia, jak i dlaczego konsumenci wybierają dany produkt czy usługę. Zastosowania tego typu omawiają: Collings i in. (1999), Brannon i in. (2001), Twomey i Cadman (2002), Wohltorf i Albayrak (2003), Robertson (2003), Kyrylov i Bonanni (2004), Schenk, Löffler i Rauh (2007), Ulbinaitė i Moullec (2010) oraz Kuhn i in. (2010). Niektóre opracowania ukazują bardziej ogólne rozważania na temat podejścia wieloagentowego w badaniu zachowania konsumentów – np. Jager, Janssen i Vlek (1999), Collings i in. (2000), Ben Said i in. (2002), Janssen i in. (2003), Adjali, Dias i Hurling (2005), Jager (2006), Challet i Krauze (2006), Rigopoulos i in. (2006) oraz Roozmanda i in. (2011). Opisują oni wieloagentowe modele zachowania konsumentów wyprowadzone z teorii marketingu i nauk behawioralnych, a następnie pokazują wyniki kilku eksperymentów symulacyjnych przeprowadzonych na podstawie danych rzeczywistych pochodzących z konkretnego rynku. Z kolei North i in. (2010) przedstawiają makromodel pozwalający na symulację zachowań zakupowych na poziomie gospodarstw domowych oraz zachowań biznesowych producentów i sprzedawców na rynku ogólnonarodowym. Wśród innych opisywanych w literaturze, wartych przytoczenia zastosowań symulacji wieloagentowej do badania zachowania konsumentów można wymienić modele: rzeczywistych supermarketów (Schwaiger i Stahmer 2003; Venables i Bilge 1998), procesu podejmowania decyzji konsumenta o zakupie w kontekście efektu dominacji (decoy effect) (Zhang i Zhang 2007) czy efektywności reklam (Cao 1999). Mimo dość bogatego piśmiennictwa dotyczącego podejścia wieloagentowego w zastosowaniach marketingowych oraz stałego wzrostu jego popular106 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... ności (o którym może chociażby świadczyć fakt, iż tej tematyce poświęcono cały numer renomowanego czasopisma „Journal of Product Innovation Management” w 2011 r.2), niektórzy badacze twierdzą (np. Rand i Rast 2011), że rozwój zastosowań w omawianym obszarze jest ciągle zbyt powolny. Przyczynę tego stanu rzeczy upatrują głównie w braku ogólnie akceptowanych standardów stosowania symulacji wieloagentowej w badaniach marketingowych. 3. Metody stosowane do pozyskiwania danych o zachowaniach konsumentów na potrzeby modelowania wieloagentowego Posługiwanie się symulacją wieloagentową oznacza przestrzeganie pewnej określonej procedury modelowania (rysunek 1), zaczynającej się od sformułowania problemu i określenia celu. Następny krok to zdefiniowanie środowiska symulacyjnego w badanym obszarze (w tym przede wszystkim agentów, przestrzeni i środowiska) oraz określenie granic systemu. Następny krok procedury jest związany z zagadnieniem pozyskiwania danych wejściowych do modelu. Dla osoby przeprowadzającej badanie ta część procedury badawczej, która dotyczy określenia metod i technik gromadzenia informacji, jest najważniejsza, ponieważ błędny wybór metody może uniemożliwić osiągnięcie postawionych celów badania. Metody pomiaru wyodrębnia się zgodnie z kryterium drogi przepływu danych od ich źródła do odbiorcy i w związku z tym, biorąc pod uwagę rodzaj źródeł informacji wykorzystywanych w badaniach, można rozróżnić badania (Pfaff 2010; Kaczmarczyk 2003): – pośrednie, inaczej nazywane wtórnymi, „zza biurka” (desk research), – bezpośrednie, inaczej nazywane pierwotnymi, w terenie (field research). Badania pośrednie polegają na gromadzeniu, analizie i interpretacji informacji pochodzących ze źródeł wtórnych. Mogą to być zarówno źródła informacji wtórnych wewnętrzne (powstające i znajdujące się w komórkach organizacyjnych podmiotu prowadzącego lub zlecającego badania), jak i zewnętrzne (powstające i znajdujące się w różnego typu organizacjach, są to opublikowane informacje pochodzące ze statystyki masowej organizacji rządowych, resortowych, branżowych, banków, stowarzyszeń, instytutów badawczych). Badania „zza biurka” są stosunkowo tanie, nie są czasochłonne, wyniki analiz można zaś szybko zastosować w praktyce. Badania te mają jednak pewne ograniczenia. Ich prowadzenie wiąże się z wyszukiwaniem właściwych źródeł (występuje tu problem dostępności i wiarygodności) oraz oceną aktualności i precyzyjności dostępnych informacji. Badania bezpośrednie (badania w terenie) polegają na gromadzeniu informacji w terenie, czyli z pierwotnych źródeł informacji. W ich ramach badacz sam określa rodzaj informacji, które są mu potrzebne do rozwiązania postawionego problemu, oraz sposób ich pozyskania. Informacje pozyskane w ten sposób odpowiadają dokładnie specyficznemu problemowi badawczemu. vol. 10, nr 3 (38), 2012 107 Analiza wyników Przeprowadzenie symulacji Sformułowanie założeń i konfiguracja modelu analizowanego systemu Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji 1. Sformułowanie problemu i określenie celu modelowania 2. Zdefiniowanie środowiska symulacyjnego w wbadanym obszarze (przestrzeń, środowisko, agenci) 3. Określenie metod i technik gromadzenia informacji 4. Zebranie danych empirycznych 5. Budowa modelu wieloagentowego analizowanego systemu 5.1. Inicjalizacja populacji agentów 5.2. Stworzenie projektu graficznego (diagramy stanów) i matematycznego (układy równań) 6. Uruchomienie modelu symulacyjnego 7. Testowanie i weryfikacja modelu 7.1. Kalibracja modelu wieloagentowego 7.2. Empiryczna weryfikacja danych wejściowych, opisowa weryfikacja i predykcja danych wyjściowych 7.3. Ocena parametrów początkowych symulacji 8. Planowanie i przeprowadzenie eksperymentów symulacyjnych (zmiany zachowania agentów) 9. Analiza i ocena wyników symulacji 10. Sformułowanie wniosków Rys. 1. Procedura modelowania wieloagentowego. Źródło: opracowanie własne. W literaturze i praktyce rozróżnia się trzy podstawowe rodzaje pomiarów: pomiar wtórny oparty na źródłach wtórnych, a także pomiar pierwotny sondażowy (survey research) oraz pomiar w formie eksperymentu – oba oparte na źródłach pierwotnych (obszerny przegląd metod gromadzenia danych ze źródeł wtórnych i pierwotnych zawarty jest w pracach (Kaczmarczyk 2003; Kędzior i in. 2005; Pfaff 2010). Należy w tym miejscu podkreślić, że istnieją problemy, których rozwiązanie za pomocą danych pochodzących jedynie ze źródeł wtórnych jest niemożliwe. Zazwyczaj dane te (o ile w ogóle są dostępne) mają bardzo ogólną postać i rzadko mogą być wprost wykorzystane do rozwiązania konkretnych problemów badawczych. Powstaje w takiej sytuacji potrzeba przeprowadzenia dwóch pozostałych rodzajów pomiaru pierwotnego: sondażowego i eksperymentalnego. Pomiary sondażowe dzieli się na pośrednie (bezosobowe) i bezpośrednie (kryterium podziału jest tu sposób komunikowania się badacza z respon108 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... dentem). Metody pośrednich pomiarów sondażowych to wszelkiego rodzaju ankiety wypełniane samodzielnie przez respondenta, bez pomocy ankietera (ankieter może w nich brać udział w sposób pośredni). Metody bezpośrednich pomiarów sondażowych wymagają udziału ankietera i są to różnego rodzaju wywiady, w tym także wywiady telefoniczne. Pomiary bezpośrednie realizowane są w różnych miejscach: w mieszkaniach respondentów, w firmach, w centrach handlowych, w sklepach, na wystawach, na targach, na konferencjach, na placach budów, w urzędach itp. Metody pomiaru sondażowego różnią się między sobą stopniem anonimowości i kontroli pomiaru. Z przeglądu literatury dokonanego przez autorki artykułu wynika, że najczęściej stosowanymi metodami gromadzenia danych w badaniach zachowania konsumentów są metody ankietowe, wywiady, obserwacje oraz metody projekcyjne (Burns 2000; Lancaster 2005; Kaczmarczyk 2003). Ankieta jest najbardziej powszechną i najczęściej stosowaną metodą gromadzenia danych w badaniach marketingowych i stanowi zbiór standaryzowanych technik badawczych, za pomocą których badacz otrzymuje informacje w procesie wzajemnego komunikowania się z innymi osobami odpowiadającymi pisemnie na jego pytania. Narzędziem pomiarowym stosowanym w metodzie jest zawsze kwestionariusz wypełniany przez respondenta. Metoda ankietowa wykształciła wiele szczegółowych technik badawczych, które biorą swoje nazwy od sposobu rozprowadzenia narzędzia pomiarowego wśród badanych (por. tabela 1). Do zasadniczych cech technik ankietowych zalicza się: pisemną formę komunikacji, brak pośrednictwa ankietera (ankieter występuje czasem w roli osoby rozprowadzającej kwestionariusze wśród badanych) oraz samodzielne wypełnianie kwestionariusza ankietowego przez respondenta (Kędzior i in. 2005). Ankiety, podobnie jak inne techniki badawcze, mają swoje zalety i wady (tabela 1), a możliwości ich wykorzystania zależą od wielu czynników. Wybór najlepszej metody dotarcia do respondentów zależy w znacznym stopniu od rodzaju informacji, które chce zgromadzić badacz, od liczby i rodzajów respondentów, którzy powinni wziąć udział w badaniu. Na podstawie zebranych danych można przystąpić do konstruowania modelu wieloagentowego analizowanego systemu. W badaniach zachowań konsumentów, w których stosowane jest podejście wieloagentowe, dane empiryczne dotyczące charakterystyk poszczególnych konsumentów i ich wzajemnych interakcji są wykorzystywane do formułowania reguł zachowań agentów działających w symulowanym środowisku. Punktem wyjścia w przeprowadzaniu symulacji wieloagentowych jest inicjalizacja pewnej populacji agentów. Mogą oni reprezentować podmioty ekonomiczne oraz inne społeczne zjawiska. Inicjalizacja polega na określeniu wartości atrybutów agentów (ich wewnętrznych stanów), reguł zachowań (również reguł ewentualnych modyfikacji tych zachowań w trakcie symulacji, tzn. uczenia) oraz zasad komunikacji miedzy nimi. Niestety dane pochodzące z sondaży nie mogą dostarczyć bezpośrednich informacji możliwych do zastosowania w procesie tworzenia agentów. vol. 10, nr 3 (38), 2012 109 110 Metody, zastosowania, Warszawa: Polskie Wydawnictwo Ekonomiczne, s. 87. Tab. 1. Zalety i ograniczenia wybranych technik ankietowych. Źródło: opracowanie własne na podstawie Z. Kędzior i in. 2005. Badania rynku. – – – – – – – – – – – – – – – – – – – – Ograniczenia Ankieta pocztowa – wysoki koszt możliwość pomiaru dużej liczby respondentów – niski odsetek zwrotów (30% – dobry, 15–20% – typowy, bywa prosta organizacja pomiaru poniżej 10%) eliminacja wpływu ankietera na przebieg badania możliwość stosowania, na które niechętnie respondent wypowiada – długi czas pomiaru – niski stopień kontroli próby się ustnie – konieczność przygotowania list adresowych unikanie zbyt pośpiesznego wypełniania kwestionariusza – brak wpływu na kolejność udzielanych odpowiedzi i pomijanie pytań Ankieta audytoryjna – konieczność dysponowania zespołem ankieterskim duża zwrotność – konieczność stosowania krótkich kwestionariuszy krótki czas pomiaru – konieczność zebrania wielu respondentów w jednym miejscu niskie koszty – małe poczucie anonimowości u respondenta prosta organizacja pomiaru wysoki stopień kontroli próby możliwość prezentacji dodatkowych materiałów (np. wizualnych) zestandaryzowane warunki prowadzenia pomiaru (np. sala lekcyjna, konferencyjna) Ankieta rozdawana – wysokie koszty duża zwrotność – konieczność dysponowania zespołem ankieterskim krótki czas pomiaru – małe poczucie anonimowości u respondenta wysoki stopień kontroli próby Ankieta internetowa – jawność kwestionariusza dla konkurencji możliwość pomiaru dużej liczby respondentów – niski stopień kontroli próby niskie koszty – brak możliwości przeprowadzenia badań szybkość pomiaru w niektórych grupach społeczeństwa (np. ludzie starsi) duże poczucie anonimowości u respondenta prosta organizacja pomiaru Zalety Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... W takiej sytuacji zazwyczaj przeprowadzana jest analiza statystyczna surowych danych empirycznych i na tej podstawie możliwe jest stwierdzenie, czy między zmiennymi zachodzi jakiś związek i czy jest on bardziej lub mniej ścisły. Analiza regresji i korelacji to jedna z najważniejszych i najszerzej stosowanych metod statystycznych. Stanowi ona narzędzie dokładnego określania stopnia powiązania zmiennych ze sobą. Przy czym należy zwrócić uwagę, że liczbowe stwierdzenie występowania zależności nie zawsze oznacza występowanie związku przyczynowo-skutkowego między badanymi zmiennymi (np. przywoływane wielokrotnie w literaturze przedmiotu badania pozornej korelacji między liczbą zajętych gniazd bocianich a liczbą urodzeń na danym obszarze). Współwystępowanie dwóch zjawisk może również wynikać z bezpośredniego oddziaływania na nie jeszcze innego, trzeciego zjawiska. Jak z tego wynika, zwykle stosowana analiza statystyczna nie pozwala na pełne zbadanie zależności przyczynowo-skutkowych, które są niezbędne w wykrywaniu reguł zachowań. Dlatego też w ostatnich latach poszukiwane są inne metody, które uzupełniłyby tę lukę. Jedną z nich jest metoda zbiorów przybliżonych. Teoria zbiorów przybliżonych może być odpowiednim narzędziem do przetwarzania danych sondażowych w reguły decyzyjne w odniesieniu do różnych typów zachowań konsumentów (Vindigni i in. 2002; Cui 2009). Kolejny etap procedury modelowania wieloagentowego stanowi przeprowadzenie symulacji komputerowej, czyli uruchomienie modelu symulacyjnego. Wyniki symulacji (tzw. przebieg bazowy) ukazującej zachowanie się badanego systemu w czasie są porównywane z dostępną wiedzą o systemie i następuje ewentualna weryfikacja modelu. Model jest weryfikowany tak długo, aż będzie w sposób zadawalający odzwierciedlał realne zachowanie się systemu. Następnym etapem omawianej procedury jest symulacja efektów potencjalnych zmian zachowania agentów (w tym kroku przeprowadzane są eksperymenty symulacyjne). Następnie porównuje się wyniki przebiegu bazowego z wynikami przebiegów eksperymentalnych oraz dokonuje się analizy i oceny wyników symulacji (najczęściej stosowane są w tym celu metody statystyczne). Ostatnim krokiem procedury jest sformułowanie wniosków wynikających z przeprowadzonego badania. 4. Zbiory przybliżone w badaniach zachowań konsumentów Teoria zbiorów przybliżonych – zapoczątkowana przez Zdzisława Pawlaka w latach osiemdziesiątych ubiegłego wieku i rozwijana przez szereg lat przez jej twórcę i wielu innych badaczy – stanowi teoretyczną podstawę różnych metod i narzędzi informatycznych, które umożliwiają m.in. indukcję reguł decyzyjnych czy też redukcję zbiorów danych. Teoria ta zyskała dużą popularność i jest obecnie skutecznie wykorzystywana, m.in. w eksploracji danych i odkrywaniu wiedzy, złożonych zadaniach klasyfikacji oraz w komputerowych systemach vol. 10, nr 3 (38), 2012 111 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji wspomagania decyzji. Dziedziny, w których teoria ta została dotychczas zastosowana, to m.in. medycyna, farmakologia, biznes (bankowość, badania rynku), rozpoznawanie mowy, obrazów, lingwistyka, sztuczna inteligencja. Na popularność tej metody złożyło się wiele czynników. Przede wszystkim teoria zbiorów przybliżonych, wraz z algorytmami ją wykorzystującymi, pozwala analizować duże zbiory danych, umożliwiając przy tym na redukcję zbioru cech opisujących obiekty do niezbędnego minimum (tzw. redukt zbioru atrybutów warunkowych), usuwając niespójność w danych, jeśli taka ma miejsce, oraz generując z danych tzw. reguły minimalne, a więc symulując postępowanie eksperta z danej dziedziny, który zazwyczaj swą wiedzę potrafiłby najszybciej przedstawiać jako takie właśnie reguły (zapisy: „Jeżeli... i ..., to...”). Za zalety teorii zbiorów przybliżonych należy uznać to, że (Pawlak 2004): – nie wymaga ona założeń odnośnie danych (np. prawdopodobieństwa czy rozmytości), – zawiera szybkie algorytmy analizy danych, – ułatwia interpretację wyników, – charakteryzuje się znaczną prostotą matematyczną. Ze względu na powyższe cechy teoria ta może być również z powodzeniem wykorzystywana do badań marketingowych. W ostatnich kilkunastu latach opublikowano sporo opracowań naukowych przedstawiających przypadki wykorzystania teorii zbiorów przybliżonych do analizy zachowań konsumentów, np. Cui (2009), Huang (2010), Liou i Tzeng (2010), Ogino i in. (2010), Shibata (2010), Furaiji i Wąsikowska (2012). Badania preferencji stanowią obecnie główny obszar zainteresowań badaczy z zakresu ekonomii i zarządzania. Są one podstawową kategorią badawczą w modelowaniu zachowań konsumentów na rynku, uwzględniającą racjonalność podejmowania decyzji. W celu przeanalizowania danych metodą zbiorów przybliżonych dane zebrane przez badacza, np. podczas badania ankietowego, należy zapisać w postaci tzw. pierwotnej tablicy informacyjnej. Tablicą informacyjną nazywamy uporządkowaną piątkę T = (U, Q, D, V, f), gdzie D jest to zbiór cech (atrybutów) decyzyjnych, U jest zbiorem obiektów (przykładów) i jest zwany uniwersum, Q jest zbiorem cech (atrybutów warunkowych), V = Uq ∈ Q i Vq jest zbiorem wszystkich możliwych wartości cech, natomiast f: U × Q → V jest funkcją informacyjną (Rutkowski 2005). Tablicowy sposób reprezentacji danych ma dwie zasadnicze cechy: uniwersalność, co oznacza, że pozwala na gromadzenie i przechowywanie różnorodnych danych, oraz efektywność, co oznacza, że umożliwia w łatwy sposób komputerową analizę tak zapisanych danych. Zebrane w tablicy pierwotnej dane poddawane są następnie analizie według następujących kroków: – dyskretyzacja (kodowanie) danych, – badanie istotności poszczególnych atrybutów warunkowych, 112 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... – redukcja przestrzeni atrybutów warunkowych (wykrycie atrybutów redundantnych), – budowa bazy reguł, – odrzucenie reguł sprzecznych, – uproszczenie pozostałych reguł (czyli łączenie reguł podobnych), – ocena jakości i dokładności otrzymanych reguł, – zapis reguł w formie lingwistycznej (odkodowanej). Zapis otrzymanych reguł w formie odkodowanej sprawia, że stają się one zrozumiałe dla decydenta mającego podjąć na ich podstawie decyzje dotyczące np. strategii marketingowej firmy. Metoda zbiorów przybliżonych może być więc z powodzeniem stosowana w praktyce jako skuteczne narzędzie analiz tego typu danych. Stworzona baza reguł preferencji i zachowań konsumentów może stanowić bazę reguł poszczególnych agentów w symulacji wieloagentowej. 5. Przykład wieloagentowego modelu symulacyjnego zbudowanego z wykorzystaniem teorii zbiorów przybliżonych Na potrzeby artykułu zbudowano model zachowania konsumentów na rynku urządzeń elektrycznych i przeprowadzono na nim eksperymenty symulacyjne, realizując procedurę składająca się z następujących kroków: 1. Analiza danych historycznych dotyczących zachowania konsumentów dokonujących zakupów urządzeń elektrycznych (metoda ankietowa i analiza statystyczna). 2. Budowa bazy reguł zachowań konsumentów (teoria zbiorów przybliżonych). 3. Opracowanie modelu wieloagentowego i przeprowadzenie symulacji na podstawie zgromadzonych danych i reguł zachowań. Dane empiryczne, niezbędne do przeprowadzenia badań, zostały zebrane metodą ankietową. Badanie ankietowe przeprowadzone w grudniu 2011 r. w Basrze (jest to duże miasto położone w południowym Iraku) pozwoliło zgromadzić 174 poprawnie wypełnionych kwestionariuszy ankietowych. Na potrzeby badania z kwestionariusza wybrano 4 pytania dotyczące każdego z respondentów. Trzy z nich odnoszą się do charakterystyki osób biorących udział w badaniu i pozwalają na zdefiniowanie atrybutów warunkowych (płeć, wiek, wykształcenie), natomiast czwarte pytanie dotuczy kwestii, czy bezpieczeństwo urządzenia elektrycznego jest czynnikiem istotnym dla respondenta podczas dokonywania zakupu (skala Likerta: 1 – ważne lub bardzo ważne, 2 – obojętne, 3 – nieważne) i stanowi atrybut decyzyjny. Uzyskane dane zostały ułożone w postaci tzw. pierwotnej tablicy informacyjnej (tabela 2). W kolejnym kroku, zgodnie z teorią zbiorów przybliżonych, dane zebrane w pierwotnej tablicy informacyjnej poddano dyskretyzacji oraz kodowaniu, vol. 10, nr 3 (38), 2012 113 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji Lp. Płeć Wiek Wykształcenie Czy zapewnienie wysokich standardów bezpieczeństwa kupowanego przez mnie sprzętu AGD jest dla mnie ważne? p1 kobieta 18–24 brak wykształcenia nieważne p2 mężczyzna powyżej 54 brak wykształcenia obojętne p3 mężczyzna powyżej 54 średnie bardzo ważne p4 mężczyzna 35–44 wyższe bardzo ważne p5 kobieta 45–54 średnie bardzo ważne p6 kobieta 18–24 wyższe bardzo ważne p7 kobieta 18–24 wyższe bardzo ważne p8 kobieta 18–24 średnie bardzo ważne p9 kobieta 25–34 wyższe bardzo ważne p10 kobieta 25–34 wyższe bardzo ważne p11 mężczyzna 25–34 wyższe ważne p12 mężczyzna powyżej 54 średnie bardzo ważne p13 kobieta 25–34 wyższe bardzo ważne . . . . . . . . . . . . . . . p174 kobieta 35–44 średnie bardzo ważne Tab. 2. Fragment pierwotnej tablicy informacyjnej. Źródło: opracowanie własne. w wyniku czego otrzymano wtórną tablicę informacyjną. Tak przygotowane wstępnie dane poddano analizie metodą zbiorów przybliżonych, używając do tego programu DAT (Data Analysis Toolbox) działającego w środowisku MATLAB R2010a. W wyniku przeprowadzonych analiz otrzymano tablicę decyzyjną zawierającą 42 reguły. W następnym kroku odrzucono reguły sprzeczne i dokonano uproszczenia reguł podobnych. Ostatecznie w wyniku przeprowadzonych analiz otrzymano 6 reguł, które zostały użyte w kolejnych krokach modelowania (tabela 3). W trzecim kroku przyjętej procedury badawczej zbudowano model wieloagentowy w pakiecie symulacyjnym Anylogic 6 i przeprowadzono eksperymenty, opierając się na zgromadzonych danych i regułach zachowań. Symulacja bazowała na danych pochodzących z ankiet oraz regułach uzyskanych w poprzednim kroku. W modelu każdy konsument był agentem 114 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... Atrybuty warunkowe: Płeć: M – mężczyzna, K – kobieta Wiek: v1 = [18–24], v2 = [25–34], v3 = [35–44], v4 = [45–54], v5 = [55 i więcej] Wykształcenie: v1 = bez wykształcenia, v2 = podstawowe, v3 = gimnazjalne, v4 = średnie, v5 = wyższe Atrybut decyzyjny: A1 = nieważne, A2 = obojętne, A3 = ważne lub bardzo ważne Reguły dla decyzji A1: 1. Jeżeli płeć = K i wiek = v1 i wykształcenie = v1 to d = A1 Opis słowny reguły: Dla kobiety w wieku poniżej 25 lat i bez wykształcenia zapewnienie wysokich standardów bezpieczeństwa sprzętu elektrycznego nie jest ważne. 2. Jeżeli płeć = M i wiek = v1 i wykształcenie = v1 to d = A1 Opis słowny reguły: Dla mężczyzny w wieku poniżej 25 lat i bez wykształcenia zapewnienie wysokich standardów bezpieczeństwa sprzętu elektrycznego nie jest ważne. Reguły dla decyzji A2: 3. Jeżeli płeć = K i wiek = v4 i wykształcenie = v1 to d = A2 Opis słowny reguły: Dla kobiety w wieku pomiędzy 45 a 54 lat i bez wykształcenia zapewnienie wysokich standardów bezpieczeństwa sprzętu elektrycznego jest obojętne. 4. Jeżeli płeć = M i wiek = v5 i wykształcenie = v1 to d = A2 Opis słowny reguły: Dla mężczyzny w wieku powyżej 55 lat, nieposiadającego wykształcenia zapewnienie wysokich standardów bezpieczeństwa sprzętu elektrycznego jest obojętne. Reguły dla decyzji A3: 5. Jeżeli płeć = K i wykształcenie ≠ v1 to d = A3 Opis słowny reguły: Dla kobiety posiadającej wykształcenie co najmniej podstawowe zapewnienie wysokich standardów bezpieczeństwa sprzętu elektrycznego jest ważne lub bardzo ważne. 6. Jeżeli płeć = M i wiek ≠ v1 i wykształcenie ≠ v1 to d = A3 Opis słowny reguły: Dla mężczyzny w wieku powyżej 24 lat, posiadającego wykształcenie co najmniej podstawowe zapewnienie wysokich standardów bezpieczeństwa sprzętu elektrycznego jest ważne lub bardzo ważne. Tab. 3. Atrybuty oraz wybrane reguły algorytmu decyzyjnego. Źródło: opracowanie własne. (w symulacji przyjęto wielkość populacji na poziomie 1000 agentów). Założono, że każdy agent dokona zakupu sprzętu AGD, który ma zapewniony wysoki standard bezpieczeństwa. W związku z tym każdy z agentów ma określone następujące wartości atrybutów: 1. Płeć – kobieta, mężczyzna. 2. Wiek – 18–80 lat. vol. 10, nr 3 (38), 2012 115 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji 3. Wykształcenie – brak wykształcenia, podstawowe, gimnazjalne, średnie, wyższe. 4. Czynnik bezpieczeństwa – zapewniony wysoki standard bezpieczeństwa. Na etapie inicjalizacji agentów założono, że agenci nie korzystają z danego produktu (są potencjalnymi konsumentami). Dzięki zastosowaniu reguł uzyskanych w poprzednim kroku agentów podzielono na trzy grupy: 1. Potencjalni konsumenci zainteresowani zakupem (Phigh), którzy stanowili 86% wszystkich badanych konsumentów. 2. Potencjalni konsumenci o nieokreślonym stopniu zainteresowania zakupem (Pfair), którzy stanowili 20% wszystkich badanych konsumentów. 3. Potencjalni konsumenci słabo zainteresowani zakupem (Plow), którzy stanowili 12% wszystkich badanych konsumentów. Na rysunku 2. przedstawiono diagram stanów ilustrujący ten podział agentów. Opierając się na regułach, przyjęto, że każdy potencjalny konsument na początku symulacji przyjmuje jeden z wymienionych stanów. statechart PotentialHigh POTENTIAL PotentialLow gender PotentialFair Phigh Pfair age Plow education safetyFactor CONSUMER Rys. 2. Diagram stanów konsumentów. Źródło: opracowanie własne. Dodatkowo w przeprowadzonym eksperymencie założono, że czas potrzebny konsumentowi na dokonanie zakupu od momentu podjęcia decyzji do dokonania transakcji wynosi tydzień. Rysunek 3 przedstawia cztery krzywe, które reprezentują wyniki symulacji dla 4 tygodni. Kropkowana krzywa reprezentuje potencjalnych konsumentów, którzy są bardzo zainteresowani zakupem sprzętu elektrycznego spełniającego wysokie standardy bezpieczeństwa (Phigh); krzywa oznaczona trójkątami reprezentuje liczbę potencjalnych konsumentów o nieokreślonym stopniu zainteresowania zakupem takiego sprzętu (Pfair); krzywa oznaczona kwadratami to potencjalni konsumenci słabo zainteresowani zakupem sprzętu elektrycznego o wysokich standardach bezpieczeństwa; krzywa 116 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... 1000 800 600 400 200 0 May 31.2012 Jun 5.2012 potential_high Jun 10.2012 potential_fair Jun 15.2012 Jun 20.2012 potential_low Jun 25.2012 consumers Rys. 3. Symulacja zachowania konsumentów. Źródło: opracowanie własne. 1000 800 748 600 400 226 200 26 0 potential_low consumers 0 potential_high potential_fair 4a) Początek pierwszego tygodnia 1000 830 800 600 400 200 130 28 12 0 potential_high potential_fair potential_low consumers 4b) Koniec czwartego tygodnia Rys. 4. Liczba konsumentów w czasie symulacji modelu (czas symulacji 4 tygodnie). Źródło: opracowanie własne. pogrubiona reprezentuje liczbę konsumentów, którzy dokonali zakupów (Consumers). Analiza tych krzywych pozwala na wyciągnięcie wniosku, że największy odsetek konsumentów dokonujących zakupów stanowią potencjalni konsumenci zainteresowanych zakupem (Phigh). Wynika to z tego, że reguły vol. 10, nr 3 (38), 2012 117 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji wykryte za pomocą zbiorów przybliżonych wskazywały, że takiego rodzaju decyzje podejmowała największa liczba respondentów (tzn. wszystkie kobiety posiadające wykształcenie co najmniej podstawowe oraz wszyscy mężczyźni w wieku powyżej 24 lat posiadający wykształcenie co najmniej podstawowe). Rysunek 4. przedstawia wyniki przebiegu symulacyjnego dla 4 tygodni. Również z tego wykresu można odczytać, że spośród trzech kategorii konsumentów konsumenci należący do kategorii zainteresowanych zakupem przekształcają się w największym stopniu w konsumentów zdecydowanych na zakup. Jest to wynikiem wysokiej wartości wskaźnika podejmowania decyzji zakupowych na tydzień (0,86). 6. Wnioski Przedstawione w artykule rozważania pozwalają na sformułowanie wniosku, że symulacja wieloagentowa jest metodą, która może być i jest stosowania z powodzeniem do badania zachowania konsumentów. Przemawiają za tym m.in. następujące przesłanki (Rand i Rust 2011; Twomey i Cadman 2002): (1) pozwala na prowadzenie eksperymentów z uwzględnieniem niejednorodnej złożoności zarówno na poziomie indywidualnego konsumenta, jak i złożonego środowiska marketingowego; (2) daje możliwość modelowania interakcji między konsumentami-agentami, co zwiększa wiarygodność wyników badań, bo modelowany rzeczywisty świat składa się jednostek wchodzących ze sobą w interakcje. Podstawową trudność w jej implementacji stanowi problem identyfikacji reguł zachowania konsumentów na potrzeby tworzenia modelu symulacyjnego. Problem ten, jak wykazano w artykule, można jednak rozwiązać poprzez przeprowadzenie odpowiednio zorganizowanych badań ankietowych, na podstawie których, posługując się teorią zbiorów przybliżonych, istnieje możliwość wykrycia reguł zachowania się badanych grup konsumentów. Na modelu symulacyjnym zbudowanym zgodnie z proponowana procedurą można, za pomocą komputera, przeprowadzać praktycznie nieograniczoną liczbę eksperymentów w krótkim czasie (bez szkody dla ludzi i środowiska), co umożliwia badanie wpływu wielu kombinacji reguł będących bazą decyzji zakupowych konsumentów. Informacje o autorkach Dr hab. prof. US Małgorzata Łatuszyńska – Uniwersytet Szczeciński. E-mail: [email protected]. Dr Agata Wawrzyniak – Uniwersytet Szczeciński. E-mail: [email protected]. Dr Barbara Wąsikowska – Uniwersytet Szczeciński. E-mail: [email protected]. Mgr Fatimah Furaji – University of Basrah, Irak. E-mail: [email protected]. 118 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... Przypisy 1 Szerzej na ten temat w: Witek i Nermend 2008; Zeelenberg i Pieters 2004; Shah, Roy i Tiwari 2006; Chaochang 2002. 2 Journal of Product Innovation Management 2011, Special Issue on Agent-based Modeling of Innovation Diffusion, nr 2 s. 152–168. Bibliografia Adjali, I., Dias, B. i R. Hurling 2005. Agent Based Modeling of Consumer Behavior, Proceedings of the 2005 North American Association for Computational Social and Organizational Science Annual Conference, Notre Dame: University of Notre Dame, http://www.casos.cs.cmu.edu/events/conferences/2005/conference_papers.php, dostęp: 14.03.2012. Ben Said, L., Bouron, T. i A. Drogoul 2002. Agent-based Interaction Analysis of Consumer Behavior, Proceedings of the First International Joint Conference on Autonomous Agents and Multiagent Systems: part 1, New York: ACM, s. 184–190. Bieniasz, S. 2006. Techniki symulacji agentowej w zastosowaniu do badania procesów cieplnych, Kraków: Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki AGH, s. 13–14, http://winntbg.bg.agh.edu.pl/rozprawy/9711/full9711.pdf, dostęp: 10.03.2012. Bonabeau, E. 2002. Agent-based Modeling, Methods and Techniques for Simulating Human Systems. Proceedings of the National Academy of Sciences of the United States of America, nr 3 (99), s. 7280–7287, http://www.pnas.org/content/99/suppl.3/7280. full2002, DOI: 10.1073/pnas.082080899. Brannon, E.L., Ulrich, P.V., Anderson, L.J. i A.B. Presley 2001. Agent-based Simulation of the Consumer’s Apparel Purchase Decision. National Textile Center Annual Report, http://www.ntcresearch.org/pdf-rpts/AnRp01/I98-A09-A1.pdf, dostęp: 14.03.2012. Buchta, C. i J. Mazanec 2001. SIMSEG/ACM – A Simulation Environment for Artificial Consumer Markets. Working Paper, nr 79, Vienna: Vienna University of Economics and Business Administration, http://epub.wu.ac.at/254/1/document.pdf, dostęp: 14.03.2012. Burns, R. 2000. Introduction to Research Methods, London: Sage, DOI: 10.1332/030557393782453916. Cao, J. 1999. Evaluation of Advertising Effectiveness Using Agent-based Modelling and Simulation, Proceedings of 2nd UK Workshop of SIG on Multi-Agent Systems (UKMAS), Bristol, http://stuff.mit.edu/~caoj/pub/doc/jcao_c_adver.pdf, dostęp: 14.03.2012. Casti, J. 1997. Would-be Worlds, How Simulation Is Changing The World of Science, New York: Wiley. Challet, D. i A. Krause 2006. What Questions to Ask in Order to Validate an Agent-based Model. Report of the 56th European Study Group with Industry, s. J1–J9, http://www. maths-in-industry.org/miis/107/1/Unilever-ABM-Report.pdf, dostęp: 14.03.2012. Chaochang, C. 2002. A Case-based Customer Classification Approach for Direct Marketing. Expert Systems with Applications, nr 2 (22), s. 163–168. Collings, D., Reeder, A.A., Adjali, I., Crocker, P. i M.H. Lyons 1999. Agent Based Customer Modeling. Computing in Economics and Finance, nr 1352, http://econpapers. repec.org/paper/scescecf9/1352.htm, dostęp: 14.03.2012. Collings, D., Reeder, A.A., Adjali, I., Crocker, P. i M.H. Lyons 2000. Agent Based Customer Modeling: Individuals Who Learn from Their Environment, Proceedings of the 2000 Congress on Evolutionary Computation, La Jolla, s. 1492–1497, DOI: 10.1109/ CEC.2000.870830. vol. 10, nr 3 (38), 2012 119 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji Cui, N. 2009. A Rough-set Based Approach to Predict Consumers’ Brand Preference. International Workshop on Intelligent Systems and Applications, Wuhan, DOI: 10.1109/ IWISA.2009.5072671. Delre, S.A., Jager, W., Bijmolt, T.H.A. i M.A. Janssen 2010. Will It Spread or Not? The Effects of Social Influences and Network Topology on Innovation Diffusion. Journal of Product Innovation Management, nr 2 (27), s. 267–282, DOI: 10.1111/j.1540 -5885.2010.00714.x. Frank, A.U., Bittner, S. i M. Raubal 2001. Spatial and Cognitive Simulation with Multi-agent Systems, w: D.R. Montello (red.) Spatial Information Theory – Foundations of Geographic Information Science, s. 124–139. Berlin–Heidelberg: Springer Verlag, DOI: 10.1007/3-540-45424-1_9. Furaiji, F. i B. Wąsikowska 2012. Badanie preferencji zakupowych kobiet i mężczyzn metodą zbiorów przybliżonych. Handel Wewnętrzny, w druku. Goldenberg, J., Han, S., Lehmann, D.R. i J.W. Hong 2009. The Role of Hubs in the Adoption Process. Journal of Marketing, nr 2 (73), s. 1–13, DOI: 10.1509/jmkg.73.2.1. Goldenberg, J., Libai, B., Moldovan, S. i E. Muller 2007. The NPV of Bad News. International Journal of Research in Marketing, nr 24, s. 186–200, DOI: 10.1016/j.ijresmar.2007.02.003. Goldenberg, J., Libai, B. i E. Muller 2010. The Chilling Effect of Network Externalities. International Journal of Research in Marketing, nr 1 (27), s. 4–15, DOI: 10.1016/j. ijresmar.2009.06.006. Hill, R. i A. Watkins 2007. A Simulation of Moral Behavior within Marketing Exchange Relationships. Journal of the Academy of Marketing Science, nr 35, s. 417–429, DOI: 10.1007/s11747-007-0025-5. Hill, R. i A. Watkins 2009a. A Simulation of Business-to-Business Decision Making in a Relationship Marketing Context. Industrial Marketing Management, nr 8 (28), s. 994–1005. Hill, R. i A. Watkins 2009b. The Profit Implications of Altruistic Versus Egoistic Orientations for Business-to-Business Exchanges. International Journal of Research in Marketing, nr 1 (26), s. 52–59, DOI: 10.1016/j.ijresmar.2008.07.007. Hyuang, C. 2010. 4G Mobile Phone Consumer Preference Predictions by Using the Rough Set Theory and Flow Graphs, Phuket: Technology Management for Global Economic Growth (PICMET). Jager, W. 2006. Simulating Consumer Behaviour: A Perspectiv, w: A. Faber, K. Frenken i A.M. Idenburg (red.) Groningen Environmental Policy and Modeling in Evolutionary Economics, s. 111–136. Netherlands: Environmental Assessment Agency, http://www. rivm.nl/bibliotheek/rapporten/550033001.pdf, dostęp: 15.03.2012. Jager, W., Janssen, M.A. i C.A.J. Vlek 1999. Consumats in a Commons Dilemma: Testing the Behavioural Rules of Simulated Consumers, COV Report No. 99-01, University of Groningen: Centre for Environment and Traffic Psychology, http://clivespash.org/ speer/simpaper.pdf, dostęp: 15.03.2012. Janssen, M.A. i W. Jager 2003. Simulating Market Dynamics: The Interactions of Consumer Psychology and Structure of Social Networks. Artificial Life, nr 9, s. 343–356. Journal of Product Innovation Management 2011, Special Issue on Agent-based Modeling of Innovation Diffusion, nr 2 (28). Kaczmarczyk, S. 2003. Badania marketingowe. Metody i techniki, Warszawa: Polskie Wydawnictwo Ekonomiczne. Kędzior, Z. i in. 2005. Badania rynku. Metody, zastosowania, Warszawa: Polskie Wydawnictwo Ekonomiczne. Kuhn, J.R., Courtney, J.F., Morris, B. i E.R. Tatara 2010. Agent-based Analysis and Simulation of the Consumer Airline Market Share for Frontier Airlines. Knowledge-Based Systems, nr 8 (23), s. 875–882, DOI: 10.1016/j.knosys.2010.06.002. 120 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... Kyrylov, V. i C. Bonanni 2004. Modeling Decision Making by Telecommunications Ser-vices Providers in a Strategy Market Game, Proceedings of the Applied Telecommunication Symposium (ATS’04), Arlington, http://www.dss.dpem.tuc.gr/pdf/A132-Vadim_modeling_telecommunication_final.pdf, dostęp: 14.03.2012. Lancaster, G. 2005. Research Methods in Management. A Concise Introduction to Research in Management and Business Consultancy, Jordan Hill, Oxford: Elsevier Butterworth-Heinemann Linacre House. Liou, J. i G. Tzeng 2010. A Dominance-based Rough Set Approach to Customer Behavior in the Airline Market. Information Sciences, nr 11 (180), s. 2230–2238, DOI: 10.1016/j.ins.2010.01.025. Lusch, R.F. i N. Tay 2002. Agent-based Modeling of Ambidextrous Organizations: Virtualizing Competitive Strategy. IEEE Transactions on Intelligent Systems, nr 5 (22), s. 50–57. Lusch, R.F. i N. Tay 2004. Agent-based Modeling: Gaining Insight into Firm and Industry Performance, w: Ch. Moorman i D.R. Lehman (red.) Assessing marketing strategy performance, s. 213–227. Cambridge: Marketing Science Institute. Lusch, R.F. i N. Tay 2005. A Preliminary Test of Hunt’s General Theory of Competition: Using Artificial Adaptive Agents to Study Complex and Ill-defined Environments. Journal of Business Research, nr 9 (58), s. 1155–1168, DOI: 10.1016/j.jbusres.2004.04.005. Macal, Ch.M. i M.J. North 2006. Tutorial on Agent-based Modeling and Simulation, Part 2. How to Model with Agent, Proceedings of the 2006 Winter Simulation Conference, Monterey, s. 73–83, http://www.informs-sim.org/wsc06papers/008.pdf, dostęp: 25.05.2012, DOI: 10.1109/WSC.2006.323040. Marks, R.E., Midgley, D.F. i L.G. Cooper 1997. Breeding Competitive Strategies. Management Science, nr 3 (43), s. 257–275, DOI: 10.1287/mnsc.43.3.257. Marks, R.E., Midgley, D.F. i L.G. Cooper 2006. Co-evolving Better Strategies in Oligopolistic Price Wars, w: J.P. Rennard (red.) Handbook of Research on Nature-Inspired Computing for Economy and Management, s. 806–821. Hershey: Idea Group, DOI: 10.4018/978-1-59140-984-7.ch052. North, M.J. i in. 2010. Multiscale Agent-based Consumer Market Modeling, http://www. dis.anl.gov/pubs/Multiscale_Agent-Based_Consumer_Market_Modeling.pdf, dostęp: 23.04.2012, DOI: 10.1002/cplx.20304. Ogino, A., Imamura, N. i T. Kato 2010. Modeling of Human Interest in Products by Observing Behaviors of Customer in a Store, International Conference on Kansei Engineering and Emotion Research, Paris. Pawlak, Z. 2004. Zbiory przybliżone – nowa matematyczna metoda analizy danych. Miesięcznik Politechniki Warszawskiej, nr 5. Pfaff, D. 2010. Badania rynku. Jak pozyskiwać najistotniejsze dla firmy informacje marketingowe, Warszawa: Wyd. BC.edu. Rahmandad, H. i J. Sterman 2008. Heterogeneity and Network Structure in the Dynamics of Diffusion: Comparing Agent-based and Differential Equation Models, Management Science, nr 5 (54), s. 998–1014, DOI: 10.1287/mnsc.1070.0787. Rand, W. i R.T. Rust 2011. Agent-based Modelling in Marketing: Guidelines for Rigor. International Journal of Research in Marketing, nr 3 (28), s. 181–193, DOI: 10.1016/j. ijresmar.2011.04.002. Rigopoulos, G., Patlitzianas, K.D. i N.V. Karadimas 2006. Modeling Consumer Behaviour Towards Payment System Selection Using Multiagent Based Simulation, IADIS Virtual Multi Conference on Computer Science and Information Systems, http://www.iadis. net/dl/final_uploads/200603C039.pdf, dostęp: 14.03.2012. Robertson, D.A. 2003. Agent-based Models of a Banking Network as an Example of a Turbulent Environment: the Deliberate vs. Emergent Strategy Debate Revisited. Journal of Complexity in Organizations and Management, nr 2 (5), s. 56–71, DOI: 10.1207/S15327000EM050207. vol. 10, nr 3 (38), 2012 121 Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji Roozmanda, O., Ghasem-Aghaeea, N., Hofstedeb, G.J., Nematbakhsha, M.A., Baraania, A. i T. Verwaart 2011. Agent-based Modeling of Consumer Decision Making Process Based on Power Distance and Personality. Knowledge-Based Systems, nr 7 (24), s. 1075–1095, DOI: 10.1016/j.knosys.2011.05.001. Rutkowski, L. 2005. Metody i techniki sztucznej inteligencji, Warszawa: Wyd. Naukowe PWN. Schenk, T.A., Löffler, G. i J. Rauh 2007. Agent-based Simulation of Consumer Behavior in Grocery Shopping on a Regional Level. Journal of Business Research, nr 60, s. 894–903, DOI: 10.1016/j.jbusres.2007.02.005. Schwaiger, A. i B. Stahmer 2003. SimMarket: Multiagent-based Customer Simulation and Decision Support for Category Management. Lecture Notes in Artificial Intelligence, nr 2831, s. 74–84, DOI: 10.1007/978-3-540-39869-1_7. Shah, S., Roy, R. i A. Tiwari 2006. Technology Selection for Human Behaviour Modelling in Contact Centres, Cranfield: Cranfield University, s. 2–13. Shaikh, N.I., Ragaswamy, A. i A. Balakrishnan 2005. Modelling the Diffusion of Innovations Using Small World Networks, Philadelphia: Penn State University. Shibata, J. 2010. Analysis of Unplanned Purchase Rule Based on Rough Set, Los Angeles: Computers and Industrial Engineering (CIE), DOI:10.1109/ICCIE.2010.5668266. Siebers, P.O. i U. Aickelin 2008. Introduction to Multi-agent Ssimulation, w: F. Adam i P. Humphreys (red.) Encyclopedia of Decision Making and Decision Support Technologies, s. 554–564. Pennsylvania: Idea Group Publishing, DOI: 10.4018/978-1-59904843-7.ch062. Toubia, O., Goldenberg, J. i R. Garcia 2008. A New Approach to Modeling the Adoption of New Products: Aggregated Diffusion Models. MSI Reports: Working Papers Series, nr 08-001, s. 65–76. Twomey, P. i R. Cadman 2002. Agent-based Modelling of Customer Behaviour in the Telecoms and Media Markets. Information, nr 1 (4), s. 56–63, http://www2.econ. iastate.edu/tesfatsi/ACERetailCustomerModeling.pdf, dostęp: 14.03.2012, DOI: 10.1108/14636690210426640. Ulbinaitė, A. i Y. Le Moullec 2010. Towards an ABM-based Framework for Investigating Consumer Behaviour in the Insurance Industry. Ekonomika, nr 2 (89), s. 97–101. Venables, M. i U. Bilge 1998. Complex Adaptive Modelling at J Sainsbury: The SimStore Supermarket Supply Chain Experiment, Warwick: Business Process Resource Centre, Warwick University, http://www.psych.lse.ac.uk/complexity/Seminars/1998/report98mar.htm, dostęp: 14.03.2012. Vindigni, G., Janssen, M.A. i W. Jager 2002. Organic Food Consumption. A Multitheoretical Framework of Consumer Decision Making. British Food Journal, nr 8 (104), s. 624–642, DOI: 10.1108/00070700210425949. Watts, D.J. 2002. A Simple Model of Global Cascades on Random Networks. Proceeding of the National Academy of Sciences, nr 99, s. 5766–5771, DOI: 10.1073/ pnas.082090499. Watts, D.J. i P.S. Dodds 2007. Influentials, Networks and Public Opinion Formation. Journal of Consumer Research, nr 4 (34), s. 441–458, DOI: 10.1086/518527. Wilkinson, I. i L. Young 2002. On Cooperating: Firms, Relations, Networks. Journal of Business Research, nr 55, s. 123–132, DOI: 10.1016/S0148-2963(00)00147-8. Witek, J. i K. Nermend (red.) 2008. Zachowania konsumenta w świetle badań ankietowych i symulacyjnych, Szczecin: Uniwersytet Szczeciński, s. 5–7. Wohltorf, J. i S. Albayrak 2003. An Agent-based Decision Support System for the Introduction of Next Generation Mobile Services, Berlin: DAI-Labor, http://citeseerx.ist.psu. edu/viewdoc/summary?doi=10.1.1.202.9099, dostęp: 14.03.2012. Wooldridge, M. 1999. Intelligent Agents, w: G. Weiss (red.) Multiagent Systems – A Modern Approach to Distributed Artificial Intelligence, s. 27–77. Cambridge: MIT Press. Wooldridge, M. 2002. An Introduction to Multi-agent Systems, New York: Wiley. 122 Problemy Zarządzania Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów... Zeelenberg, M. i R. Pieters 2004. Beyond Valence in Customer Dissatisfaction: A Review and New Findings on Behavioural Responses to Regret and Disappointment in Failed Services. Journal of Business Research, nr 4 (57), s. 445–455, DOI: 10.1016/ S0148-2963(02)00278-3. Zhang, T. i D. Zhang 2007. Agent-based Simulation of Consumer Purchase Decisionmaking and the Decoy Effect. Journal of Business Research, nr 60, s. 912–922, DOI: 10.1016/j.jbusres.2007.02.006. vol. 10, nr 3 (38), 2012 123 Problemy Zarządzania, vol. 10, nr 3 (38): 124 – 147 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.8 Sieci neuronowe Kohonena w przeprowadzaniu analiz danych. Próba wykorzystania w eksploracji danych dotyczących jednostek terytorialnych Mirosława Lasek, Ada Myzik W artykule przedstawiono wyniki analiz mających na celu wykrywanie zależności zawartych w nagromadzonych danych, ich graficznej reprezentacji i interpretacji za pomocą sieci neuronowych Kohonena. W celu ilustracji analiz danych za pomocą sieci Kohonena posłużono się przykładami analizy danych dotyczących jednostek terytorialnych: punktów gastronomicznych w województwach, podmiotów gospodarczych z różnych sekcji Polskiej Klasyfikacji Działalności w podregionach oraz obiektów sportowych w powiatach. Analiza została przeprowadzona od zbioru najprostszego do najbardziej złożonego, czyli zawierającego najwięcej obserwacji i zmiennych. Na potrzeby analiz danych i ich interpretacji wykorzystywano oprogramowanie firmy SAS Institute Inc. 1. Wstęp Potrzeba analizy coraz bardziej złożonych zbiorów danych, o coraz większej liczbie obserwacji i zmiennych skłania do poszukiwania metod ich eksploracji wykraczających poza możliwości tradycyjnych metod statystycznych czy ekonometrycznych. Jedną z takich metod jest analiza danych za pomocą sztucznych sieci neuronowych Kohonena. Działanie sztucznych sieci neuronowych, także sieci Kohonena, ma w uproszczeniu odpowiadać działaniu biologicznych struktur nerwowych złożonych z neuronów. Dają one możliwość tworzenia odwzorowań nieliniowych i wykorzystywania wielowymiarowych danych. Są metodą analizy danych stosunkowo łatwą do zrozumienia i stosowania, chociaż jeszcze niezbyt szeroko znaną i używaną. Na potrzeby analiz danych rozważono możliwość zastosowania klasycznej sieci Kohonena i dwóch metod będących jej modyfikacją: kwantowania wektorowego i uczenia wsadowego. W artykule przedstawiono podstawy działania sieci Kohonena oraz próbę analizy za ich pomocą trzech zbiorów danych, dotyczących jednostek terytorialnych: różnych punktów gastronomicznych w poszczególnych województwach, podmiotów gospodarczych w podziale na sekcje Polskiej Klasyfikacji Działalności w podregionach, różnego rodzaju obiektów sportowych 124 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... w powiatach. Wszystkie zbiory dla przeprowadzenia analizy zaczerpnięto ze strony internetowej Głównego Urzędu Statystycznego. Przedstawiono możliwość geograficznej reprezentacji oraz zestawiania wyników uzyskanych na tzw. mapie topologicznej Kohonena z mapą geograficzną. Dla każdego zbioru danych została wybrana odpowiednia struktura sieci Kohonena i jej parametry, które pozwalają uzyskać najbardziej satysfakcjonujące wyniki. Wykorzystywano oprogramowanie SAS Enterprise Miner 6.2, metodę SOM/Kohonen. Przedstawiono także mapy tworzone w programie SAS Base 9.2, które przedstawiają mapy Polski odpowiadające wynikom uzyskanym za pomocą sieci Kohonena i przedstawianym za pomocą mapy topologicznej Kohonena. 2. Sieci neuronowe Kohonena W roku 1982 w artykule zatytułowanym „Self-Organized Formation of Topologically Correct Feature Maps” T. Kohonen zaproponował nowy algorytm sztucznych sieci neuronowych, który został nazwany sieciami Kohonena (Kohonen 1982: 59–69). Najkrócej można je scharakteryzować jako sieci samouczące się z wbudowaną konkurencją i mechanizmem sąsiedztwa (Lasek 2004: 17–37). Są to sieci złożone z dwóch warstw neuronów: warstwy wejściowej i warstwy wyjściowej (rysunek 1). Wagi połączeń Neurony Wektor wejściowy X1 X2 Rys. 1. Struktura sieci neuronowej Kohonena. Źródło: S. Osowski 2006. Sieci neuronowe do przetwarzania informacji, Warszawa: Oficyna Wydawnicza Politechniki Warszawskiej, s. 283. Samouczenie polega na tym, że uczenie, zwane też trenowaniem sieci, odbywa się w trybie „bez nauczyciela” (unsupervised learning; self-organizing), vol. 10, nr 3 (38), 2012 125 Mirosława Lasek, Ada Myzik co oznacza, że dla podawanych danych wejściowych do treningu nie jest przedstawiana prawidłowa odpowiedź. Sieć nie jest zapoznawana z tym, jakie sygnały wyjściowe powinny odpowiadać wprowadzanym sygnałom wejściowym. Konkurencja jest mechanizmem powodującym, że neurony uczą się rozpoznawania sygnałów wejściowych i reagowania na sygnały wejściowe, konkurując ze sobą. Neuron, który najsilniej zareaguje na dany sygnał wejściowy – im bardziej wagi neuronu są podobne do sygnałów wejściowych (wartości wejściowych), tym silniejsza reakcja – „zwycięża” w konkurencji rozpoznawania określonych sygnałów wejściowych. Inne neurony zostają zwycięzcami w rozpoznawaniu innych sygnałów (wartości) wejściowych. Sąsiedztwo jest tu rozumiane jako takie nauczanie sieci, że neurony sąsiadujące z neuronem zwycięzcą w rozpoznawaniu określonych sygnałów uczą się wraz z nim, chociaż mniej intensywnie. Takie trenowanie sieci powoduje, że sąsiadujące neurony będą reagowały na podobne sygnały (wartości) wejściowe. Wynik trenowania sieci (neurony warstwy wyjściowej) jest przedstawiany na wykresie nazywanym mapą Kohonena lub mapą topologiczną. Poszczególne obserwacje nazywane są przypadkami wejściowymi lub uczącymi. Struktura sieci Kohonena nie jest skomplikowana w porównaniu z innymi rodzajami sieci neuronowych (Myzik 2012). Sieć Kohonena składa się bowiem z warstwy wejściowej i wyjściowej, natomiast nie posiada żadnych warstw ukrytych, tak jak inne rodzaje sieci. Wymagane jest, aby dane przedstawione na wejściu sieci zostały uprzednio znormalizowane lub wystandaryzowane. S. Osowski wskazuje na konieczność nadmiaru danych wejściowych, aby metoda uczenia poprzez samoorganizację mogła wykryć istotne wzorce zawarte w danych (Osowski 2006: 282). Warstwa wyjściowa złożona jest z neuronów, które nazywane są też wektorami wagowymi lub kodowymi. Na ogół neurony przedstawiane są w sposób, który ułatwia interpretację wyników uczenia sieci (Myzik 2012: 8–12). Popularną metodą odwzorowania na płaszczyźnie warstwy wyjściowej jest nadanie jej formy dwuwymiarowej siatki składającej się z elementów (prostokątów, kółek – w zależności od oprogramowania), które odpowiadają poszczególnym neuronom. Sieć Kohonena jest zaliczana do tzw. sieci pełnych, gdyż każdy przypadek uczący z warstwy wejściowej jest połączony z każdym neuronem z warstwy wyjściowej i nie ma powiązań między elementami tej samej warstwy. Połączeniom są przyporządkowane wagi o wartościach z przedziału [0, 1] (Larose 2006: 168–169). Wagom są nadawane wartości początkowe za pomocą różnych algorytmów. Wartości te mogą być ustalone jako losowe lub wyznaczone na podstawie algorytmu dwóch pierwszych głównych składowych. Uczenie czy też trenowanie sieci Kohonena przebiega w sposób iteracyjny. Tzw. epoka uczenia (trenowania) sieci kończy się po zapoznaniu sieci ze wszystkimi przypadkami uczącymi i składa się z wielu pojedynczych kroków. Krok obejmuje analizę jednego przypadku uczącego, rywalizację poszczególnych neuronów o tytuł neuronu wygrywającego, a następnie modyfikację wektora wagowego zwycięskiego neuronu oraz neuronów z nim 126 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... sąsiadujących. Neuronem zwycięskim lub wygrywającym nazywany jest neuron, dla którego wartość funkcji decyzyjnej, a jest nią zazwyczaj odległość euklidesowa pomiędzy wektorem wagowym a przypadkiem wejściowym, przyjmuje najlepszą (w przypadku odległości euklidesowej – najmniejszą) wartość. Następnie wagi neuronu wygrywającego i jego sąsiadów są modyfikowane, tak aby były jeszcze bardziej podobne do przypadku uczącego. W procedurze modyfikacji stosowany jest tzw. współczynnik uczenia, który maleje wraz ze wzrostem liczby kroków, aby zmiany na początku były duże (gwałtowne), a w kolejnych krokach uczenia neuronów coraz mniejsze (Larose 2006: 169–170). Drugim współczynnikiem, którego wartość jest zmniejszana wraz z kolejnymi krokami algorytmu, jest promień sąsiedztwa, tak aby początkowo wartości wag neuronów sąsiadujących z neuronem zwycięzcą szybko (gwałtownie) się dostosowywały do zwycięzcy, a następnie stopniowo zmiany stawały się coraz mniejsze. Jednakże uwzględnienie podczas modyfikacji wag neuronów zachodzenia sąsiedztwa powoduje, że neurony położone obok siebie na mapie topologicznej są często do siebie podobne. Cały algorytm trenowania sieci Kohonena można uporządkować w proces złożony z następujących kroków (Larose 2006: 170; Myzik 2012: 10–11): 1) inicjalizacja początkowych wektorów wagowych, np. w sposób losowy lub opierając się na dwóch pierwszych składowych głównych; 2) wybranie przypadku uczącego (obserwacji); 3) obliczenie wartości funkcji decyzyjnej dla wszystkich neuronów i wybranie neuronu wygrywającego; 4) określenie neuronów sąsiadujących z neuronem zwycięskim na podstawie wartości funkcji sąsiedztwa; 5) dostosowanie wag neuronów sąsiadujących przy wykorzystaniu współczynnika uczenia (tzw. adaptacja); 6) modyfikacja współczynnika uczenia i rozmiaru sąsiedztwa; 7) powrót do realizacji punktu 2, jeżeli nie zostały spełnione warunki zakończenia uczenia sieci. Największą zaletą sieci neuronowych, także Kohonena, jest umożliwienie przedstawiania zależności nieliniowych oraz rozwiązywanie problemów, dla których nie umiemy dokładnie zdefiniować zależności przyczynowo-skutkowych. R. Tadeusiewicz (2001: 48–49) zwraca uwagę, że sieć Kohonena potrafi wykrywać powiązania, które zostałyby pominięte, gdyby zastosowano tradycyjną sieć i sposób uczenia (tj. uczenie z „nauczycielem”, gdy w danych wejściowych do uczenia sieci zawarte są poprawne odpowiedzi). R.S. Collica (2007: 212) w odniesieniu do praktycznej strony zastosowania sieci Kohonena wśród zalet wymienia łatwość zrozumienia algorytmu, jego logiczną strukturę, natomiast za główne zagrożenia stosowania algorytmu uważa jego problemy w radzeniu sobie z brakującymi obserwacjami, duże zapotrzebowanie na moc obliczeniową oraz zmienne rezultaty w zależności od wielkości próby, która zostanie wykorzystana w badaniu. vol. 10, nr 3 (38), 2012 127 Mirosława Lasek, Ada Myzik W artykule M. Lasek jako podstawowe wady sieci Kohonena wymienia się (Lasek 2004: 26–27): – brak reguł budowy architektury sieci, takich jak określenie liczby neuronów czy wymiaru sieci, oraz trudności wyznaczania parametrów trenowania, takich jak wartości początkowe wag, współczynnik uczenia, promień sąsiedztwa, porządek prezentowania danych w procesie uczenia, które są znajdywane metodą prób i błędów; nieodpowiedni dobór parametrów może być przyczyną braku sukcesu w trenowaniu sieci; – wynik trenowania sieci zależy od porządku, w jaki pobierane są przykłady do trenowania, ponieważ wagi neuronów są modyfikowane w sposób wskazany przez algorytm po zaprezentowaniu każdego kolejnego przykładu; – zbieżność procesu uczenia nie opiera się na kryterium optymalizacji, lecz jest wymuszana zmniejszającym się współczynnikiem uczenia i zasięgiem uczenia; dlatego też nie ma gwarancji, że sieć może nauczyć się prawidłowo rozpoznawać sygnały wejściowe oraz że będzie przedstawiać w pełni złożoność problemu. Aby przezwyciężyć wymienione powyżej wady, podjęto próby polepszenia metody trenowania sieci Kohonena, m.in. poprzez włączenie algorytmu rozmytych k-średnich, gdzie „rozmytość” jest rozumiana zgodnie z teorią zbiorów rozmytych L.A. Zadeha (Lasek 22–24, 27). Dzięki włączeniu algorytmu rozmytych k-średnich uzyskano szereg korzyści, jak np. większą odporność wyników na początkowe wartości wprowadzanych parametrów, uniezależnienie od kolejności wprowadzania przykładów do trenowania sieci, zmniejszenie koniecznej liczby cykli trenowania (Lasek 2007: 113–134). Jednakże opisywana wcześniej dla przypadku nierozmytej sieci Kohonena adaptacja sąsiedztwa na mapie Kohonena nie ma już miejsca. Neurony reprezentujące podobne obserwacje (dane wejściowe) nie muszą sąsiadować ze sobą na mapie topologicznej Kohonena. Zalety wizualne mapy zwykłych sieci Kohonena zostają utracone przy wykorzystywaniu rozmytego algorytmu trenowania. Uproszczoną wersją algorytmu Kohonena jest tzw. kwantowanie wektorowe (Vector Quantization – VQ). W przypadku tego algorytmu zbiór danych zostaje podzielony na zdefiniowaną liczbę skupień, tak że każde z nich jest reprezentowane przez jeden wektor wagowy. Kwantowanie wektorowe nie wykorzystuje koncepcji sąsiedztwa. Modyfikowane są jedynie wagi neuronów zwycięzców. Przy zastosowaniu takiego algorytmu końcowe rezultaty są w znacznej mierze uzależnione od początkowych wartości wektorów wagowych, a algorytm cechuje się skłonnością do wybierania minimów lokalnych zamiast globalnych (Kohonen 2008: 310–311). Inną modyfikacją algorytmu Kohonena jest tzw. uczenie wsadowe sieci. W przeciwieństwie do oryginalnego algorytmu Kohonena, wektory wagowe w przypadku uczenia wsadowego są dostosowywane po wczytaniu nie kolejno rozpatrywanych obserwacji, ale całego zbioru danych. Po każdym przypadku uczącym zapamiętywane są informacje o wektorze zwycięskim i parametrze 128 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... sąsiedztwa, a na koniec całej epoki uczenia na podstawie tych danych są obliczane nowe wektory wagowe (Kohonen 1998: 3–4). Następnie przy zastosowaniu nowych wektorów wagowych ponownie analizowane są wszystkie przypadki wejściowe, aż do spełnienia warunków zaprzestania uczenia sieci. Obliczanie wektorów wagowych może się odbywać na podstawie wartości nieparametrycznej funkcji regresji (SAS 2010). Metoda ta jest szybsza w działaniu, bardziej stabilna i nie wymaga stosowania współczynnika uczenia. Utrudnieniem stosowania algorytmu Kohonena może być pojawianie się, i to już w trakcie uczenia, tzw. martwych neuronów, tj. takich, które nie reprezentują żadnych danych wejściowych. Przyczyną ich pojawiania się może być losowość wag początkowych lub zbyt mały rozmiar sąsiedztwa. Pojawianie się martwych neuronów na mapie topologicznej Kohonena zwiększa tzw. błąd kwantyzacji, mierzony jako średnia wartość odległości wyliczanych dla każdego przypadku wejściowego do najbardziej podobnego do niego reprezentanta na mapie (można zastąpić średnią inną miarą, np. medianą) i niekorzystnie wpływa na możliwości interpretowania wyników, gdyż dane będą odzwierciedlone przez mniejszą liczbę neuronów (Osowski 2006: 286). Nauczona sieć Kohonena może zostać zastosowana nie tylko do analizy zależności występujących w zbiorze danych wejściowych, które są wykorzystywane do jej trenowania, czego próbę przedstawiamy w tym artykule, lecz także przeznaczona do klasyfikowania nowych obiektów, tzn. takich, z którymi sieć nie była jeszcze zapoznawana. Jeżeli przedstawiona wyuczonej sieci nowa obserwacja nie zostaje przydzielona do żadnej z grup, wskazuje to, że jest odmienna od obserwacji, na których przeprowadzono jej trenowanie. 3. Budowa i wykorzystywane sieci Kohonena przy zastosowaniu programu SAS Enterprise Miner (procedura SOM/Kohonen) SAS Enterprise Miner 6.2 jest komponentem pakietu SAS, opracowanym specjalnie na potrzeby przeprowadzania eksploracji danych (Data Mining). Jest wyposażony w intuicyjny, graficzny interfejs, ułatwiający i znacznie przyspieszający budowę modeli eksploracji danych. Prostokąty odpowiednio oznaczone (tekst i grafika), reprezentujące działania (tzw. węzły) dla przeprowadzania kolejnych kroków analizy danych, użytkownicy SAS Enterprise Miner wprowadzają na diagram i łączą strzałkami wskazującymi kolejność przetwarzania. Przetwarzanie odbywa się zgodnie z założeniami metodyki SEMMA w toku realizacji pięciu kolejnych etapów: próbkowanie, eksploracja, modyfikacja, modelowanie i ocena (Sampling, Exploration, Modification, Modeling, Assessment) (Lasek i Pęczkowski 2010: 117–133). Dla zbudowania i wykorzystywania sieci neuronowych Kohonena trzeba wykorzystać węzeł (narzędzie) SOM/Kohonen. Możliwe jest zastosowanie różnych algorytmów tworzenia modelu sieci Kohonena: kwantowania wektorowego (Kohonen VQ), samoorganizującej vol. 10, nr 3 (38), 2012 129 Mirosława Lasek, Ada Myzik się mapy Kohonena (Kohonen SOM) oraz uczenia wsadowego SOM (Batch SOM) z możliwością wyboru wygładzania Nadaraya-Watsona (Nadaraya-Watson smoothing) i wygładzania lokalnego liniowego (local-linear smoothing). Ponadto węzeł SOM/Kohonen umożliwia określenie wielu szczegółowych parametrów (opcji programu), które umożliwiają dostosowanie modelu do potrzeb analizowanych danych. Parametry te w programie SAS Enterprise Miner 6.2 zostały podzielone na cztery podstawowe sekcje: Ogólne, Uczenie, Ocena punktowa, Status. Szczegółowo są opisane w dokumentacji programu, a także w pracy A. Myzik (2012: 18–24). Podstawowe opcje określające sposób budowy modelu i jego wykorzystywania zawiera sekcja Uczenie. W tej sekcji można wyselekcjonować zmienne do badania, określić metodę budowy sieci oraz wskazać sposób standaryzacji lub zadecydować, że nie będzie przeprowadzana. Sekcja Uczenie zawiera aż dziesięć podsekcji: Segment, Opcje ziarna, Uczenie wsadowe SOM, Opcje lokalne liniowe, Opcje Nadaraya-Watsona, Kohonen VQ, Kohonen, Opcje sąsiedztwa, Kodowanie zmiennych klasyfikujących i Braki danych. Szkolenie sieci można przeprowadzić, przyjmując domyślne, proponowane w programie wartości parametrów, jednakże w takim przypadku możemy otrzymać rezultaty w znacznym stopniu odbiegające od oczekiwanych. Trzeba też pamiętać, że wiele opcji jest dostępnych tylko dla konkretnych metod (Kohonen VQ, Kohonen SOM lub Batch SOM), dlatego podstawową rolę odgrywa wybór metody. W programie SAS Enterprise Miner stosowane są pojęcia krok oraz iteracja. Termin „krok” oznacza działanie polegające na zapoznaniu sieci z jednym przypadkiem wejściowym (obserwacją) i zaktualizowaniu na tej podstawie wektorów wagowych. „Iteracja”, podobnie jak epoka, jest odnoszona do zapoznania sieci z całym dostępnym zbiorem danych. Metodą domyślną wskazywaną w programie jest wsadowe SOM (Batch SOM). W przypadku uczenia wsadowego dla właściwego zbudowania modelu istotne jest wskazanie właściwej liczby kolumn i wierszy (podsekcja Segment), które definiują rozmiar mapy topologicznej Kohonena oraz określenie rozmiaru sąsiedztwa (podsekcja Opcje sąsiedztwa). Rozmiar mapy topologicznej i rozmiar sąsiedztwa powinny zostać utrzymane w odpowiedniej proporcji, tak że np. dwukrotne zwiększenie liczby kolumn i wierszy powinno narzucać dwukrotne zwiększenie rozmiaru sąsiedztwa. Zachowanie tej proporcji jest istotne, ponieważ od tych wartości zależy poziom wygładzania. Dla przyjęcia odpowiednich wartości najczęściej niezbędne jest przeprowadzenie wielu prób. R. Matignon wskazuje, że jeżeli przyjmiemy zbyt małą mapę topologiczną, to nie uzyskamy dobrego odwzorowania nieliniowości zawartych w danych, natomiast zbyt duży rozmiar spowoduje wydłużenie czasu uczenia sieci, wymaga większej mocy obliczeniowej komputera oraz może powodować występowanie pustych segmentów na mapie. Stwierdza, że lepiej sprawdzają się większe mapy, o ile każdemu skupieniu odpowiada wystarczająco 130 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... duża liczba przypadków wejściowych (Matignon 2007: 230). W dokumentacji programu SAS Enterprise Miner 6.2 wskazuje się, że powinno ich być pięć lub dziesięć. Tylko dla przypadku uczenia wsadowego jest możliwe wskazanie opcji wygładzania i wyznaczanie ich parametrów. Program SAS Enterprise Miner 6.2 umożliwia zastosowanie opcji wygładzania lokalnego liniowego i wygładzania Nadaraya-Watsona, które regulują formę funkcji sąsiedztwa. Ich wykorzystanie daje możliwość odpowiedniego dostosowania parametru sąsiedztwa i obszaru wokół neuronu wygrywającego (Matignon 2007: 235). Wygładzanie Nadaraya-Watsona zmniejsza prawdopodobieństwo, że algorytm zatrzyma się w minimum lokalnym. Wygładzanie lokalne liniowe natomiast umożliwia wyeliminowanie tzw. efektu granicznego (border effect) (Matignon 2007: 230), powodującego, że wektory wagowe z obrzeży mapy topologicznej są ściągane do jej centrum. Wybór metody Kohonen SOM wymaga spełnienia tych samych zasad dotyczących liczby wierszy oraz kolumn mapy i rozmiaru sąsiedztwa, jak w przypadku metody wsadowej Batch SOM. W przypadku Kohonen SOM trzeba dodatkowo ustalić właściwy poziom współczynnika uczenia (poziom domyślny wskazywany w programie wynosi 0,9). R. Matignon proponuje wybranie wysokiej początkowej wartości, zwłaszcza w przypadku gdy początkowe wektory wagowe zostały wyznaczone w sposób losowy. Natomiast, jeżeli wektory wagowe zostały ustalone w oparciu o wcześniejsze analizy przed przystąpieniem do uczenia sieci, stwierdza, że zasadne może być przyjęcie niższej wstępnej wartości współczynnika uczenia. Niezbędne jest też przyjęcie odpowiednich kryteriów zakończenia uczenia lub pozostawienie wartości domyślnych. Program daje możliwość wskazania końcowego poziomu współczynnika uczenia, maksymalnej liczby kroków, maksymalnej liczby iteracji i kryterium zbieżności. Jeżeli zostanie wybrana metoda VQ, wymagane jest określenie maksymalnej liczby skupień oraz współczynnika uczenia. Zasada wyboru parametru uczenia jest taka sama jak w przypadku SOM Kohonen. Jednak dla kwantowania wektorowego już wartość 0,5 może być uznana za wystarczająco wysoki poziom początkowy. Liczba skupień może przyjmować dowolne wartości dodatnie, a jedyną wskazówkę doboru właściwej ich liczby może dać metoda prób i błędów. Należy podkreślić, że bardzo istotny wpływ na działanie algorytmu ma właściwy dobór parametrów sąsiedztwa. Nie dotyczy to metody Kohonen VQ, ponieważ nie stosuje się tu koncepcji sąsiedztwa. Podstawowym atrybutem sąsiedztwa jest jego docelowy rozmiar, który w programie jest jako domyślny, przyjęty według wzoru: max(5, max(liczba wierszy, liczba kolumn)/2. Parametr ten może przyjmować dowolną wartość ze zbioru liczb całkowitych dodatnich. Jednakowoż istotnym ograniczeniem możliwej do przyjęcia wartości jest zależność pomiędzy docelowym rozmiarem sąsiedztwa a liczbą wierszy i kolumn mapy topologicznej. W dokumentacji programu SAS podaje się, że wybór końcowej wielkości vol. 10, nr 3 (38), 2012 131 Mirosława Lasek, Ada Myzik sąsiedztwa odgrywa decydującą rolę w trenowaniu mapy samoorganizującej. Drugim istotnym parametrem jest parametr, który określa postać sąsiedztwa, w programie nazywany kształtem jądra. Może ono przyjmować następujące formy: jednostajne, Epanechnikov, dwuwagowe (biweight), trójkątne (triweight). Kolejny istotny parametr nosi nazwę metryki jądra i przedstawia miarę odległości neuronów. Na podstawie metryki jądra dostosowywane są poszczególne wektory wagowe do neuronu zwycięskiego oraz określana jest odległość poszczególnych ziaren. Stosowanymi metrykami są m.in. odległość maksymalna, miejska, euklidesowa. Dodatkowe parametry sąsiedztwa stanowią wartości, które pozwalają regulować przebieg budowy mapy, np. regulować tempo zmniejszania parametru sąsiedztwa do końcowej wartości. 4. Zastosowanie sieci Kohonena na potrzeby analizy danych o punktach gastronomicznych w województwach Dane o punktach gastronomicznych w województwach pobrano ze strony internetowej Głównego Urzędu Statystycznego (dane z 2009 r.). Zbiór danych składa się z szesnastu obserwacji i czterech zmiennych, które zostaną wykorzystane do podziału obserwacji na skupienia. Każda obserwacja (przypadek wejściowy) przedstawia informacje dotyczące jednego województwa na temat liczebności punktów gastronomicznych czterech typów: restauracji, barów, stołówek, pozostałych. Ten zbiór danych wybrano ze względu na jego prostotę, co powoduje, że stanowi dobrą ilustrację sposobu działania metody SOM/Kohonen oraz dobrą podstawę dla przeprowadzenia analizy wpływu zmiany parametrów modelu na wyniki. Ponadto analiza przeprowadzona dla mało złożonego zbioru może być pomocna przy budowie modelu, gdy będą wykorzystywane bardziej złożone dane. Już wstępna analiza danych wskazuje wyróżniającą się obserwację dla województwa mazowieckiego. Niezależnie od tego, jaką wybierzemy metodę badania (jaki model sieci Kohonena), poszczególne parametry, architekturę sieci, algorytm (Kohonen VQ, czy też samoorganizująca się mapę Kohonena), obserwacja dla województwa mazowieckiego tworzy odrębne skupienie. Ponadto ten jednoelementowy segment jest zawsze znacząco oddalony od pozostałych skupień. W Mazowieckiem jest ponad dwukrotnie więcej punktów gastronomicznych niż w jakimkolwiek innym województwie. Odmienność tego przypadku wejściowego od pozostałych powoduje w budowanej mapie topologicznej powstawanie pustych skupień i wybór wektorów wzorcowych o ujemnych wartościach. Na podobne zjawisko wskazuje G. Tarczyński w pracy, w której analizował jednostki terytorialne (powiaty) pod względem rozwoju gospodarczego (Tarczyński 2011: 90–94). W dalszej analizie tymczasowo usunięto, zgodnie z sugestią G. Tarczyńskiego, obserwację dla województwa mazowieckiego, aby sprawdzić, czy sieć stanie się wówczas bardziej wrażliwa na subtelniejsze zależności. 132 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... W przypadku analizowanego zbioru danych potwierdziła się zależność wskazywana przez S. Osowskiego, orzekająca, że sieć Kohonena wymaga nadmiaru danych do wykrywania wzorców w nich zawartych (Osowski 2010: 282). Dla analizowanego przez nas niewielkiego zbioru danych, niezależnie od dobieranej konfiguracji, mapa samoorganizująca się nie sprawdza się najlepiej. Wiele skupień zawiera po jednej obserwacji. Ograniczanie liczby grup przekłada się na gorsze odwzorowanie zróżnicowania segmentów mapy, a ponadto pojawia się problem martwych neuronów. Lepsze efekty pozwala uzyskać kwantowanie wektorowe – zgodnie z terminologią przyjętą w oprogramowaniu SAS Enterprise Miner: metoda Kohonen VQ. Założono utworzenie sześciu skupień. Mniejsza liczba sprawia, że skupienia nie różnią się co do rodzaju punktów gastronomicznych, a jedynie co do ich liczby. Przyjęcie większej liczby powoduje z kolei nadmierne rozdrobnienie zbioru danych i powstawanie licznych pustych segmentów. Jako metodę standaryzacji danych przyjęto przeprowadzenie normalizacji. Początkowe wartości neuronów wybrano, opierając się na metodzie składowych głównych. Podstawowa analiza wykazała, że dwie pierwsze składowe główne wyjaśniają niemal 97% zmienności, wykres osypiska także sugeruje wybór dwóch składowych. Pozostałe parametry zostały przyjęte jako domyślne, zgodnie z sugestią wykorzystywanego zaprogramowanego algorytmu. Metoda Kohonen VQ dzieli zbiór danych na siedem skupień, jeżeli uwzględnimy wyodrębnione wcześniej województwo mazowieckie. Rysunek 2 przedstawia zbiór piętnastu województw w rozbiciu na sześć zbiorów. Tabela 1 zawiera statystyki dla utworzonych skupień. Rysunek 3 przedstawia wizualizację na mapie Polski uzyskanego podziału na grupy za pomocą kwantowania wektorowego. SOM – ID segmentu = 2 Liczebność skupienia = 3 2 1 3 6 4 5 Rys. 2. Podział województw na skupienia według liczebności punktów gastronomicznych. Źródło: opracowanie własne. vol. 10, nr 3 (38), 2012 133 Mirosława Lasek, Ada Myzik Dane zamieszczone w tabeli 1 wskazują, że najbardziej jednorodne jest skupienie pierwsze, w przypadku którego odchylenie standardowe wynosi 0,04, a największa odległość od ziarna skupienia jest równa 0,08. Najmniej homogeniczne jest skupienie czwarte. Istotne jest, że w żadnym przypadku odległość od najbliższego skupienia nie jest mniejsza niż największa odległość od ziarna skupienia, co potwierdza rozdzielność utworzonych grup. Lp. Segment Liczebność Odchylenie standardowe Największa odległość od ziarna skupienia Najbliższe skupienie Odległość od najbliższego skupienia 1. 1 4 0,04 0,08 2 0,26 2. 2 3 0,09 0,17 1 0,26 3. 3 2 0,10 0,14 2 0,29 4. 4 2 0,15 0,21 2 0,66 5. 5 2 0,14 0,20 3 0,50 6. 6 2 0,09 0,14 5 0,74 Tab. 1. Statystyki dla skupień utworzonych na podstawie danych dotyczących punktów gastronomicznych w województwach. Źródło: opracowanie własne. Działalność gastronomiczna w Polsce w 2009 SOM – ID segmentu 1 2 3 4 5 6 7 Rys. 3. Mapa Polski podzielona na województwa z naniesionymi skupieniami utworzonymi na podstawie danych dotyczących punktów gastronomicznych. Źródło: opracowanie własne. 134 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... Lp. Segment Restauracje Bary Stołówki Pozostałe 1. 1 92,3 94,5 47,3 45,8 2. 2 156,7 137,7 75,0 71,7 3. 3 230,0 201,5 83,5 117,5 4. 4 150,5 118,0 186,0 113,5 5. 5 381,5 277,0 136,5 151,5 6. 6 531,5 404,0 158,0 312,5 Tab. 2. Wektory wagowe dla skupień utworzonych na podstawie danych dotyczących punktów gastronomicznych w województwach. Źródło: opracowanie własne. Dane z tabeli 2 wskazują, że poszczególne skupienia różnią się między sobą wyraźnie liczbą punktów gastronomicznych rozmaitych typów. Rozpatrując segmenty 1, 2, 3, 5, 6, można zauważyć stopniowy wzrost liczby restauracji, barów, stołówek i pozostałych. Na podstawie tej zależności w jedno skupienie zostały połączone województwo śląskie z małopolskim, wielkopolskie z dolnośląskim, łódzkie z pomorskim, a świętokrzyskie, podlaskie, lubelskie i opolskie w jedną, najliczniejszą grupę. Województwo lubelskie i zachodniopomorskie zostały zaliczone do odrębnego skupienia (czwartego) ze względu na wykryty przez algorytm rozkład punktów gastronomicznych poszczególnych typów różniący się od charakteryzującego pozostałe województwa: są to dwa województwa o najniższym udziale barów i najwyższym udziale stołówek. Wyjaśnienie przyczyny tego faktu wymagałoby przeprowadzenia dalszej, szczegółowej analizy i zapewne odwołania się do wiedzy osób zajmujących się specyfiką tych regionów. 5. Zastosowanie sieci Kohonena na potrzeby analizy danych o podmiotach gospodarczych z różnych sekcji Polskiej Klasyfikacji Działalności w podregionach Analizowany zbiór danych pochodzi z Krajowego Rejestru Urzędowego Podmiotów Gospodarki Narodowej (REGON) i zawiera informacje o liczbie podmiotów gospodarki narodowej w 2010 r. według poszczególnych sekcji PKD 2007 w podziale na podregiony. Podregiony są tu rozumiane jako jednostki terytorialne utworzone do celów statystycznych poprzez połączenie powiatów w większe grupy (Centrum Informatyki Statystycznej 2011). W przypadku teraz rozpatrywanego zbioru danych najmniej satysfakcjonujące wyniki, odznaczające się bardzo małą jednorodnością skupień, uzyskiwano, posługując się metodą kwantowania wektorowego (metoda Kohonen VQ). Powodem jest zapewne nieuwzględnianie w tej metodzie vol. 10, nr 3 (38), 2012 135 Mirosława Lasek, Ada Myzik sąsiedztwa, które w przypadku większych zbiorów danych odgrywa znacząca rolę. Lepsze wyniki dawała samoorganizująca się mapa Kohonena (metoda SOM Kohonen), jak też uczenie wsadowe. Aby znaleźć najodpowiedniejszą metodę i parametry, wygenerowano szereg map. Ostatecznie wybrano metodę SOM Kohonen, ponieważ pozwalała ona na znaczące zmniejszenie błędu kwantyzacji, przypomnijmy, liczonego jako średnia odległość przypadków wejściowych od ich reprezentantów na mapie oraz umożliwiała uzyskiwanie skupień odznaczających się jednorodnością. Pewnym problemem okazał się wybór rozmiaru mapy topologicznej, wynikły z ograniczonych możliwości, stwarzanych przez wykorzystywany program komputerowy: konieczność wybrania liczby wierszy i kolumn spośród wartości dostępnych na rozwijanej liście (wielokrotności dwójki poniżej dziesięciu wierszy/kolumn, a powyżej – wielokrotności dziesięciu). Tak więc, gdy osiem skupień (mapa 2 na 4) okazywało się zbyt małą liczbą, następna możliwa do utworzenia była mapa topologiczna o rozmiarach 4 na 4 i szesnastu skupieniach. Po próbach wygenerowania i przeanalizowania map o różnych rozmiarach, zdecydowano, że najwygodniejsza dla prowadzenie analizy danych będzie mapa z ośmioma skupieniami. Na takiej mapie nie ma pustych skupień, a wielkość mapy okazuje się mieć wystarczające rozmiary, by nie ograniczać odwzorowania różnorodności. Przykładowo w sytuacji szesnastu skupień na mapie, aż trzy czwarte z nich liczy mniej niż pięć obiektów, co zgodnie z zaleceniami programu SAS Enterprise Miner, przedstawionymi w dokumentacji, nie powinno być akceptowane, utrudnia bowiem poprawność wnioskowania. Porównanie map topologicznych otrzymywanych za pomocą różnych metod wyboru początkowych wektorów wagowych prowadzi do wniosku, że w rozpatrywanej tu analizie danych metoda głównych składowych nie zapewnia dobrych wyników ze względu na wyższą wartość błędu kwantyzacji niż w przypadku innych metod wyboru startowych wag. Dwie pierwsze składowe główne wyjaśniają co prawda aż 85% zmienności, jednak dogodniejsze do analiz okazują się mapy, w których początkowe wektory wagowe są wybierane za pomocą opcji programu Wartość odstająca. Znaczną poprawę wyników trenowania sieci, ujawniającą się zmniejszeniem błędu kwantyzacji i eliminacją pustych skupień, można otrzymać poprzez modyfikację promienia, określającego minimalną odległość pomiędzy wyjściowymi wektorami wagowymi. Po przeprowadzeniu wielu prób przyjęto wartość 0,1. Podregion miasta Warszawa, również jak w przypadku poprzednio analizowanego zbioru danych, tworzy odrębne skupienie. Jednakże w obecnym badaniu przeprowadzanie uczenia sieci na zbiorze po usunięciu tego podregionu nie daje poprawy wyników, więc nie jest uzasadnione i nie zostało przeprowadzone. Ostatecznie wybrano mapę topologiczną złożoną z ośmiu neuronów, do których zostały przypisane wszystkie przypadki wejściowe – podregiony. Na rysunku 4 przedstawiono liczebności obserwacji przypisane poszczególnym 136 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... SOM – wymiar 1 segmentom mapy. Najliczniejszy segment obejmuje 17 obserwacji, następny według liczebności – 14, a kolejne odpowiednio 10 i 8. Dwa najmniej liczne segmenty mają po mniej niż 5 przypadków wejściowych. 2 1 1 0 2 SOM – wymiar 2 3 4 17 Rys. 4. Liczba podregionów przyporządkowanych do segmentów mapy topologicznej utworzonej na podstawie danych dotyczących liczebności podmiotów gospodarczych z różnych sekcji PKD. Źródło: opracowanie własne. W tabeli 3 przedstawiono statystyki uzyskane dla mapy topologicznej przedstawionej na rysunku 4, tj. dla każdego jej segmentu: liczebność, odchylenie standardowe obiektów od ziarna skupienia, największą odległość obiektów od ziarna skupienia, najbliższe skupienie i odległość od najbliższego skupienia. Średnie odchylenia standardowe są zbliżone do siebie we wszystkich segmentach, co wskazuje że segmenty są jednorodne. Jedynie segment 1:3 jest mniej jednolity. Jeżeli pominiemy segment 1:4 złożony z jednej obserwacji (jest nią różniąca się znacząco od innych zgrupowań Warszawa), najniższe wartości odchylenia standardowego mają segmenty 2:2 (0,04), 2:3 (0,05) i 1:1 (0,05). Pewien niepokój może budzić fakt, że w kilku segmentach znajdują się podregiony znacznie oddalone od wektorów wagowych, do których zostały przypisane. Ponadto odległość od najbliższego skupienia dla wielu zgrupowań nie jest zbyt wysoka, a w przypadku niektórych segmentów mniejsza od najbardziej oddalonego od ziarna przypadku wejściowego. Rozwiązaniem tego mankamentu mogłoby być zwiększenie rozmiarów mapy topologicznej, lecz wówczas zwiększa się liczba segmentów reprezentujących małą liczbę podregionów, np. 2 lub 3. Odchylenia standardowe, a także odległości każdego ze skupień od najbliższego do niego można, tak jak ich liczebności, również przedstawić na mapie topologicznej (Myzik 2012: 35). Na rysunku 5 ukazano mapę Polski przedstawiającą powiaty odpowiadające poszczególnym segmentom mapy topologicznej. Program SAS Base 9.2 nie umożliwia w sposób bezpośredni przedstawienia mapy z podregionami, toteż przedstawiono mapę z mniejszymi jednostkami terytorialnymi. W tej sytuacji pewną niedogodnością jest brak oznaczeń granic podregionów. vol. 10, nr 3 (38), 2012 137 Mirosława Lasek, Ada Myzik Wiersz: Lp. Liczebność Kolumna Odchylenie standardowe Największa odległość od ziarna skupienia Najbliższe skupienie Odległość od najbliższego skupienia 1. 1:1 7 0,05 0,28 6 0,31 2. 1:2 4 0,07 0,39 1 0,52 3. 1:3 5 0,12 0,57 5 0,48 4. 1:4 1 – 0,00 8 3,44 5. 2:1 17 0,07 0,50 1 0,42 6. 2:2 10 0,04 0,28 7 0,29 7. 2:3 14 0,05 0,34 6 0,29 8. 2:4 8 0,07 0,48 5 0,59 Tab. 3. Statystyki dla mapy topologicznej utworzonej na podstawie danych dotyczących liczebności podmiotów gospodarczych z różnych sekcji PKD. Źródło: opracowanie własne. podregion 1 2 3 4 5 6 7 8 Rys. 5. Mapa Polski podzielona na powiaty z naniesionymi segmentami mapy topologicznej utworzonej na podstawie danych dotyczących liczebności podmiotów gospodarczych z różnych sekcji PKD. Źródło: opracowanie własne. Analiza liczebności podmiotów gospodarczych z poszczególnych sekcji PKD w poszczególnych segmentach umożliwia dostrzeżenie wielu interesujących zależności, czasem zgodnych z naszą wiedzą, co potwierdza poprawność działania sieci Kohonena. Na przykład zdecydowanie od pozostałych 138 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... odbiega rozkład w segmentach podmiotów gospodarczych z sekcji PKD: administracja publiczna i rolnictwo. Przeprowadzając szczegółową analizę, można zauważyć, że liczebność podmiotów gospodarczych z sekcji administracji publicznej przyjmuje w zdecydowanej większości skupień zbliżone wartości. Natomiast rozkład liczby podmiotów rolniczych między segmentami, jak można się było spodziewać, jest odmienny od rozkładu podmiotów przemysłowych czy usługowych. Dokładna interpretacja otrzymanych wyników wymaga pogłębionej analizy, do której należałoby zaangażować specjalistów zajmujących się analizami regionalnymi oraz zaznajomienia się z fachową literaturą z zakresu analiz regionalnych, co jednak zmusiłoby do przekroczenia zamierzonych badań i dopuszczalnej zawartości tego artykułu. Mapa Polski sporządzona na podstawie mapy topologicznej przedstawiającej liczbę podmiotów gospodarczych różnych sekcji PKD podzielonych na możliwie jednorodne, ale różniące się między sobą segmenty, chociaż nie opiera się na tradycyjnych wskaźnikach rozwoju gospodarczego, pozwala na wizualizację stopnia rozwoju poszczególnych regionów. Analiza obu map, topologicznej i geograficznej stwarza możliwość rozważania różnic w rodzajach działalności gospodarczej podregionów i wydobycia o nich wielu szczegółowych informacji. 6. Zastosowanie sieci Kohonena na potrzeby analizy danych o obiektach sportowych w powiatach Analiza dotyczy obiektów sportowych w powiatach w roku 2010. Liczba obserwacji – powiatów – wynosi 379. Ze zbioru dostępnego na stronie internetowej Głównego Urzędu Statystycznego (Centrum Informacji Statystycznej 2011) wybrano obiekty sportowe do analizy. Uwzględniono do przeanalizowania rozmieszczenia w powiatach następujące obiekty sportowe: stadiony, boiska do gier wielkich, boiska do gier małych, boiska uniwersalne – wielozadaniowe, duże wielofunkcyjne hale sportowe o wymiarach 44 m × 22 m i większych, średnie hale sportowe o wymiarach od 36 m × 19 m do 44 m × 22 m, sale gimnastyczne o wymiarach od 24 m × 12 m do 36 m × 19 m, małe sale pomocnicze o wymiarach poniżej 24 m × 12 m, korty tenisowe otwarte, korty tenisowe kryte, pływalnie kryte, pływalnie otwarte, tory, strzelnice, lodowiska sztuczne mrożone. Zbiór danych, podobnie jak poprzednie, zawiera także tylko dane numeryczne. Ma bardziej złożoną strukturę przede wszystkim ze względu na większą liczbę obserwacji: 379, w tym 65 miast na prawach powiatu i 314 pozostałych powiatów. W rozpatrywanym przypadku zrezygnowano z zastosowania metody Kohonen VQ, ponieważ jest ona zalecana do niezbyt dużych i nie nadto złożonych zbiorów danych. Przeprowadzono próby zastosowania do utworzenia mapy topologicznej pozostałych dwóch metod: SOM Kohonena i Uczenia wsadowego SOM, w obu przypadkach przyjmując różne parametry algorytmów. Z uwagi na uzyskiwanie lepszych efektów w przypadku stosowania vol. 10, nr 3 (38), 2012 139 Mirosława Lasek, Ada Myzik SOM – wymiar 1 metody SOM Kohonen, tę metodę postanowiono wykorzystywać w dalszych badaniach. Z uwagi na fakt analizy zbioru złożonego ze znacznej liczby obserwacji zakłada się tym razem utworzenie dużej mapy topologicznej o rozmiarach 6 wierszy na 6 kolumn, tak aby wypadło średnio 10–11 przypadków wejściowych na jeden wektor wzorcowy. Pomimo mapy złożonej aż z 36 segmentów, nie pojawiają się puste segmenty, a jedynie 9 segmentów liczy poniżej 5 przypadków wejściowych. Przeprowadzając próby budowy mapy, przy założeniach różnej wielkości parametrów, nie dostrzeżono, aby ich modyfikacje wywoływały znaczące zmiany wyników. Wyniki skupiania są podobne, niezależnie od metody wyboru początkowych ziaren: Wartości odstającej lub Głównych składowych. Jedynie dopuszczenie zbyt dużego promienia rozmieszczenia neuronów pogarsza rezultaty i powoduje powstawanie pustych segmentów. Pewnym zaskoczeniem jest fakt, że nawet dość znaczne zmiany opcji sąsiedztwa nie mają wpływu w analizowanym przypadku na otrzymywane wyniki. Modyfikacje jego początkowej wartości, a także liczby iteracji nie zmieniają zasadniczo wyglądu mapy topologicznej. Istotne okazują się natomiast zmiany opcji dotyczących współczynnika uczenia. Te opcje przyjęto po wielu próbnych modyfikacjach i analizie generowanych kolejno map. Na rysunku 6 przedstawiono mapę topologiczną złożoną z 36 segmentów i wybraną do dalszej analizy rozmieszczenia obiektów sportowych w powiatach. 6 5 4 3 2 1 1 2 3 4 5 6 SOM – wymiar 2 0 56 Rys. 6. Liczba powiatów przyporządkowanych do segmentów mapy topologicznej utworzonej na podstawie danych o obiektach sportowych w powiatach. Źródło: opracowanie własne. Mapa topologiczna przedstawiona na rysunku 6 ilustruje, że spośród wszystkich segmentów zdecydowanie wyróżnia się co do liczebności obserwacji, którymi są tym razem powiaty, segment 3:2 (obejmuje 56 powiatów). Następne w kolejności co do liczby obserwacji są segmenty 5:3 (23 powiaty) oraz 5:1 (21 powiatów). Najmniej liczny jest segment 1:4 z jednym przypadkiem wejściowym. Na przedstawianej mapie wyraźnie uwidocznione jest sąsiedztwo neuronów, reprezentowanych w postaci segmentów (prostoką140 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... tów). Segmenty liczniejsze usytuowane są po lewej stronie i nieco przesunięte w górę. W prawym dolnym rogu mapy usytuowane są segmenty z niewielką liczbą powiatów. Średnie odchylenie standardowe dla wszystkich segmentów wynosi 0,056. Najbardziej jednorodny, charakteryzujący się najmniejszym średnim odchyleniem standardowym okazuje się segment, który jest jednocześnie najliczniejszy – segment 3:2. Najmniej spośród wszystkich jednorodne skupisko to 1:6, które jest jednocześnie najbardziej oddalone od pozostałych (znajduje się w prawym dolnym rogu mapy topologicznej). Na rysunku 7 przedstawiono mapę Polski z naniesionymi wynikami podziału na segmenty mapy topologicznej z rysunku 6. segment 1:1 2:3 3:5 5:1 6:3 1:2 2:4 3:6 5:2 6:4 1:2 2:5 4:1 5:3 6:5 1:4 2:6 4:2 5:4 6:6 1:5 3:1 4:3 5:5 1:6 3:2 4:4 5:6 2:1 3:3 4:5 6:1 2:2 3:4 4:6 6:2 Rys. 7. Mapa Polski podzielona na powiaty z naniesionymi segmentami mapy topologicznej utworzonej na podstawie danych o obiektach sportowych. Źródło: opracowanie własne. Na rysunku przedstawiającym mapę Polski można zauważyć, że powiaty z segmentu 3:2 są umiejscowione po wschodniej stronie Polski. Szczególnie licznie jest on reprezentowany przy północno-wschodniej granicy. Podobnie sytuacja wygląda w przypadku segmentu 3:3, do którego należy wiele powiatów przygranicznych. Wiele miast zawartych jest w segmentach 1:2, 1:3, 1:4, 1:5, 1:6, czyli generalnie w pierwszym wierszu mapy topologicznej. Wiersz ten wyróżnia się od pozostałych większym odchyleniem standardowym i mało licznymi zgrupowaniami. Rozmiar miast stopniowo wzrasta w miarę przevol. 10, nr 3 (38), 2012 141 Mirosława Lasek, Ada Myzik suwania się bliżej prawej strony i rośnie również zróżnicowanie od innych segmentów. Powiaty miejskie są także skupione w segmentach 2:1, 2:2 i 3:1. Należą do nich głównie mniejsze miasta ze wschodniej części Polski. Powiaty ziemskie ze wschodniej Polski są w większości umieszczone na mapie topologicznej w kolumnach z lewej strony, głównie w środkowych wierszach. Powiaty ziemskie z zachodniej części Polski znajdują się w górnej części mapy topologicznej, umiejscowione ku prawej stronie. Jeżeli przeanalizujemy jakiego typu obiekty sportowe występują w jakiej liczbie w poszczególnych segmentach, to najwięcej różnych typów obiektów sportowych znajdziemy w segmencie 1:6, który odpowiada tylko dwóm obserwacjom, którymi są Warszawa i Kraków. Segment 1:6 nie ma jedynie (w porównaniu z pozostałymi segmentami) największej liczby boisk do gier wielkich, których liczy najwięcej segment 6:6, oraz boisk uniwersalnych, których więcej mają segmenty 2:6 i 3:6. Segment (neuron zgodnie z nomenklaturą sieci neuronowych) czy też skupienie 6:6 odpowiada przede wszystkim regionom położonym w zachodniej części Polski (wraz ze Szczecinem), blisko granicy z Niemcami. Jeżeli przeanalizujemy segmenty mapy topologicznej pod względem liczebności stadionów, to możemy stwierdzić, że występuje mniej więcej równomierne ich rozłożenie w różnych segmentach, z jedynie kilkoma wyróżniającymi się skupieniami. Analiza występowania boisk do gier wielkich wskazuje, że segmenty o większej ich liczbie są skoncentrowane w górnej części mapy topologicznej. Interesujące jest rozmieszczenie na mapie topologicznej boisk uniwersalnych, ukazujący wyraźną koncentrację segmentów z ich dużą liczbą po prawej stronie mapy i stopniowe „promieniste” rozmieszczenie segmentów z coraz mniejszą ich liczbą w miarę oddalania się od tego punktu. Zauważalny jest fakt, że w decydującej mierze segmenty z największą liczbą różnego typu obiektów sportowych znajdują się po prawej stronie mapy topologicznej. Generalnie najczęściej usytuowane są one w ostatniej kolumnie mapy, do której zaklasyfikowane są duże miasta: Warszawa, Kraków, Poznań, Szczecin. Jeżeli rozważymy liczbę pływalni odkrytych, to wyróżniający się pod tym względem okazuje się segment 1:3, który odpowiada trzem powiatom: Katowice, Lublin i Tarnów. W tych miastach znajduje się ponadprzeciętna liczba pływalni odkrytych w porównaniu z innymi miastami. Segment 1:3 charakteryzuje się również wysoką liczbą lodowisk sztucznych mrożonych. Próba wyjaśnienia tej zależności, która zapewne nie jest przypadkowa, wymagałaby szczegółowej, pogłębionej analizy podobieństw pomiędzy tymi miastami. Najwięcej strzelnic mają powiaty z segmentu 1:5. Skupienie to wyróżnia się także pod względem znacznej liczby innych obiektów sportowych, na przykład sal gimnastycznych, a w przypadku liczby wielu obiektów zajmuje pośrednie miejsca wśród innych wyodrębnionych segmentów. Do skupienia 1:5 należą duże miasta: Łódź, Wrocław, Bydgoszcz. Zauważalny, interesujący i warty podkreślenia wydaje się fakt, że w przypadku analizy rozmieszczenia obiektów sportowych wiele powiatów ziem142 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... skich, które znajdują się obok siebie na mapie Polski, sąsiaduje na mapie topologicznej. W przypadku miast można zauważyć inną zależność. Wydaje się, że decydującymi czynnikami determinującymi liczbę obiektów sportowych w przypadku miast są: wielkość miasta oraz stopień jego rozwoju, a prawdopodobnie także inne czynniki, jak na przykład świadomość społeczna na danym terenie. Miasta o podobnej wielkości często znajdują się we wspólnych grupach – segmentach mapy topologicznej, jednakże segmentów z powiatami miejskimi jest utworzonych kilka, co pozwala zaryzykować wniosek o ich zróżnicowaniu pod względem obiektów sportowych w różnych segmentach, ale podobieństwie posiadanych obiektów sportowych – takich, które należą do tych samych segmentów. Sieć Kohonena i mapa topologiczna, dając możliwość wizualizacji różnych cech dotyczących obiektów sportowych wspólnych dla powiatów, jak i je odróżniających, pozwalają na dostrzeżenie wielu różnych zależności, z których niektóre są trudne do zauważenia na podstawie samego zbioru danych. 7. Zakończenie Przedstawiona w artykule analiza za pomocą sieci Kohonena dotyczyła jednostek terytorialnych opisywanych za pomocą różnych charakterystyk. Algorytm Kohonena może być stosowany w celu lepszego zrozumienia struktury danych, wydobycia z nich nieoczywistych informacji. Badacz nie musi posiadać rozległej wiedzy na temat analizowanego zjawiska przed przystąpieniem do analizy, aby stworzyć kryteria podziału zbioru na skupienia lub wybrać odpowiednią formę modelu. Klasyfikacja danych na grupy, przeprowadzona przez sieć Kohonena jedynie na podstawie ich wewnętrznej struktury, przedstawiona na mapie topologicznej, może pomóc lepiej zrozumieć zależności zawarte w danych wejściowych, zwrócić uwagę na nietypowe lub niespodziewane zależności. Dopiero wówczas wskazane jest odwołanie się do wiedzy merytorycznej (specjalistów), aby zadecydować, czy powstałym skupieniom można przypisać sensowną interpretację i nadać stosowne etykietki, tj. nazwy czy oznaczenia (Tadeusiewicz 2001: 49–51). W literaturze można znaleźć analizy danych dotyczących jednostek terytorialnych. Dogodna dla uzyskania wartościowych wniosków z badania jednostek terytorialnych za pomocą sieci Kohonena, co potwierdziły także nasze analizy, jest możliwość tworzenia graficznych odwzorowań wyników zarówno na mapie topologicznej, jak i geograficznej, a następnie ich zestawienie ze sobą, co znacznie zwiększa możliwości interpretacji. W artykule „Exploratory Data Analysis by the Self-Organizing Map: Structures of Welfare and Poverty in the World”, jego autorzy – S. Kaski i T. Kohonen (1996: 498–507) – wykorzystują zestaw wskaźników opisujących różne aspekty standardu życia, np. oczekiwana dalsza długość trwania życia w momencie narodzin, analfabetyzm wśród dorosłych wyrażony w procentach, udział opieki medycznej w wydatkach gospodarstw domowych, aby uzyskać wyniki odwzorowujące vol. 10, nr 3 (38), 2012 143 Mirosława Lasek, Ada Myzik rozkład dobrobytu dla ludności na świecie. Mapa zbudowana na podstawie wskaźników ukazuje zależności pomiędzy różnymi państwami, np. kraje należące do Organizacji Współpracy Gospodarczej i Rozwoju (OECD) znalazły się w jednej grupie, a kraje Europy Wschodniej w drugiej. Zastosowanie sieci Kohonena do analizy danych dotyczących jednostek terytorialnych przedstawiają także autorzy artykułu: „Living Standards of Vietnamese Provinces: a Kohonen Map” (Nguyen, Haughton i Hudson 2009: 109–113). W artykule zbudowano mapę topologiczną Kohonena w celu ukazania rankingu prowincji wietnamskich na podstawie wskaźników, takich jak PKB, dochód gospodarstwa domowego na jednego członka rodziny, miara ubóstwa, miernik rozwoju społecznego. G. Tarczyński, stosując sieć Kohonena, przeprowadza analizę polskich powiatów, zmierzającą do oceny i porównania standardu życia ludności różnych powiatów na podstawie różnorodnych wskaźników. Wyniki wskazują na wyraźną odrębność powiatu warszawskiego od pozostałych. Uzyskane mapy nie ukazują wyraźnego podziału powiatów na zgrupowania. Zdaniem autora, aby uzyskać bardziej jednoznaczne wyniki, należy wyodrębnić zupełnie odmienną obserwację, jaką jest powiat warszawski, oraz przeprowadzić analizę oddzielnie dla powiatów ziemskich i miast na prawach powiatu (Tarczyński 2011: 90–94). Powróćmy do analizy danych krótko przedstawianych w tym artykule, a szczegółowo opisanych w pracy A. Myzik (2012) na podstawie badań z wykorzystaniem sieci Kohonena i dotyczących jednostek terytorialnych. Zastosowanie sieci Kohonena i utworzonej dzięki niej mapie topologicznej w znacznym stopniu ułatwia zrozumienie zależności zawartych w zbiorze z dużą liczbą zmiennych dotyczących jednostek terytorialnych, takich jak liczba różnych obiektów sportowych w powiatach czy liczba podmiotów gospodarczych z różnych sekcji PKD. Analiza bez zapewnionej dzięki algorytmom Kohonena redukcji wymiaru i klarownej formy wizualizacji nie może być tak wyrazista i czytelna. Niewątpliwą zaletą jest to, że stosowanie sieci Kohonena nie wymaga żadnej specjalistycznej wiedzy na temat dziedziny, z jakiej analizowane są dane, ani związków między zmiennymi. Możliwe jest, opierając się na rezultatach zastosowania sieci, postawienie rozmaitych, często budzących zaskoczenie hipotez, które mogą być dopiero dalej weryfikowane na podstawie wiedzy fachowej. W pierwszym z przedstawionych w artykule badaniu, dotyczącym punktów gastronomicznych w województwach, wykorzystano kwantowanie wektorowe, a w dwóch następnych, dotyczących podmiotów gospodarczych z różnych sekcji Polskiej Klasyfikacji Działalności oraz obiektów sportowych w powiatach, podstawową wersję metody Kohonena. Niespodziewanym ograniczeniem wykorzystywania metod Kohonena, choć niewielkim i w niedużym stopniu uciążliwym, okazuje się fakt, że program SAS Enterprise Miner pozwala na wybór liczby wierszy i liczby kolumn budowanej mapy topologicznej z proponowanej narzuconej listy wartości. Nie stwarza to większego problemu 144 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... w przypadku dużych zbiorów danych, ale gdy dysponujemy nieco mniejszym zbiorem, utrudnia to przyjęcie najbardziej dogodnych rozmiarów mapy. We wszystkich przedstawianych w tym artykule analizach danych obserwacja dla województwa mazowieckiego, powiatu lub podregionu miasta Warszawa bardzo wyraźnie odróżnia się od pozostałych największą liczbą punktów gastronomicznych, podmiotów gospodarczych z większości sekcji Polskiej Klasyfikacji Działalności i różnego typu obiektów sportowych. Jedynie w przypadku analizy liczby obiektów sportowych w powiatach Warszawa nie tworzy całkiem odrębnego, oddalonego od innych segmentu na mapie topologicznej, ale oddzielny segment, do którego zaliczony jest także Kraków. Analiza dotycząca punktów gastronomicznych w województwach, ze względu na niewielką liczbę obserwacji, nie wymaga redukcji wymiaru, jednak w takim przypadku zastosowanie kwantowania wektorowego pozwala na usystematyzowanie informacji. Liczba punktów gastronomicznych jest główną cechą różnicującą skupienia. Z pewnością bardziej interesującą wykrytą zależnością jest mała liczba barów, a duża stołówek w województwach lubelskim i zachodniopomorskim, zapewne możliwa do wyjaśnienia po rozważeniu specyfiki tych województw i być może, jeżeli nie jest łatwa do wyjaśnienia, stwarzająca inspirację dla bardziej szczegółowej analizy. Analiza podmiotów gospodarczych z poszczególnych sekcji PKD (2007 r.) w podziale na podregiony bardzo wyraźnie uwidacznia powiązania między sekcjami PKD, jak i podobieństwa (lub nie) podregionów. W omawianym przypadku wybrano jako najodpowiedniejszą do analizy mapę topologiczną o dwóch wierszach i czterech kolumnach. Utworzona mapa topologiczna budzi skojarzenia z geograficzną mapą rozwoju gospodarczego. Na mapie topologicznej wyodrębniają się segmenty reprezentujące duże miasta, segmenty reprezentujące słabiej rozwinięte tereny po wschodniej stronie Polski, segmenty regionów turystycznych. Podmioty gospodarcze z większości sekcji mają podobny, odpowiadający sekcjom rozkład na segmentach mapy topologicznej. Bliższa analiza prowadzi do ciekawych wniosków co do powiązań podmiotów gospodarczych z sekcji wprawdzie różnych, ale które znalazły się w tych samych lub sąsiadujących segmentach mapy topologicznej. Do przeprowadzenia analizy obiektów sportowych w powiatach utworzono mapę topologiczną złożoną z sześciu wierszy i sześciu kolumn (36 segmentów mapy). Segmenty o największej liczbie obiektów sportowych skupiają się w pierwszym i szóstym wierszu oraz ostatniej kolumnie mapy. Natomiast skupienia odpowiadające większej liczbie przypadków wejściowych (powiatów) gromadzą się po lewej stronie mapy, podczas gdy dolny prawy róg zajmują segmenty reprezentujące większe miasta, grupując je po kilka. Znaczna część powiatów ze wschodniej części kraju zgrupowana jest w jeden najbardziej jednorodny segment o stosunkowo dużej liczebności. Mapa topologiczna i utworzona na jej podstawie mapa geograficzna Polski rozmieszczenia obiektów sportowych wyraźnie ilustrują różnice w rozmieszvol. 10, nr 3 (38), 2012 145 Mirosława Lasek, Ada Myzik czeniu obiektów sportowych między wschodnią a zachodnią częścią Polski, pomiędzy powiatami miejskimi i ziemskimi, między mniejszymi i większymi miastami. Potwierdzają znany fakt, że kultura sportowa jest lepiej rozwinięta w większych miastach oraz w zachodniej części Polski. Jak zwraca się uwagę w pracy A. Myzik (2012), w celu dokładnego przeanalizowania wszystkich zależności i wyprowadzenia bardziej wartościowych wniosków dotyczących rozmieszczenia obiektów sportowych w powiatach (tworzących duży i złożony zbiór danych) i uchwyconych przez sieć Kohonena należałoby podjąć obszerne oddzielne badania, wymagające zapewne zaangażowania specjalistów z różnych dziedzin. Pomocne mogłoby się także okazać podzielenie zbioru na odrębne części, np. miasta na prawach powiatu i powiaty ziemskie, jak proponował w swoich badaniach G. Tarczyński (2011) lub region wschodni i zachodni Polski. Informacje o autorkach Prof. dr hab. Mirosława Lasek – Katedra Informatyki Gospodarczej i Analiz Ekonomicznych, Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego. E-mail: [email protected]. Mgr Ada Myzik – Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego. E-mail: [email protected]. Bibliografia Centrum Informacji Statystycznej 2011. Bank Danych Lokalnych, http://www.stat.gov.pl/ bdl/app/strona.html?p_name=indeks, dostęp: 28.11.2011. Centrum Informatyki Statystycznej 2011. Przewodnik po Banku Danych Lokalnych, http:// www.stat.gov.pl/bdl/docs/opisy_bdl.pdf, dostęp: 28.11.2011. Collica, R.S. 2007. CRM Segmentation and Clustering Using SAS Enterprise Miner, Cary: SAS Publishing, http://books.google.com/books?id=6IHA2amBGxwC&printsec=fro ntcover&hl=pl&source=gbs_atb#v=onepage&q&f=false, dostęp: 27.10.2011. Kaski, S. i T. Kohonen 1996. Exploratory Data Analysis by the Self-Organizing Map: Structures of Welfare and Poverty in the World, w: A.-P. N. Refenes, Y. Abu-Mostafa, J. Moody i A. Weigend (red.) Neural Networks in Financial Engineering, Proceedings of the Third International Conference on Neural Networks in the Capital Markets, Singapure, http://citeseer.ist.psu.edu/viewdoc/download?doi=10.1.1.53.3954&rep=re p1&type=pdf, dostęp: 19.09.2011. Kohonen, T. 1982. Self-Organized Formation of Topologically Correct Feature Maps. Biological Cybernetics, nr 43. Kohonen, T. 1998. The Self-organizing Map. Neurocomputing, nr 21, https://han.buw. uw.edu.pl/han/atoz/v1s1.icm.edu.pl/pdflinks/11092521434903141.pdf, dostęp: 22.08.2011. Kohonen, T. 2008. Data Management by Self-Organizing Maps, w: J.M. Zurada, G.G. Yen i J. Wang (red.) Computational Intelligence: Research Frontiers, Lecture Notes in Computer Science 5050, Hongkong: Springer, https://han.buw.uw.edu.pl/han/atoz/www. springerlink.com/content/8147v650748n2740/fulltext.pdf, dostęp: 9.11.2011. Larose, D.T. 2006. Odkrywanie wiedzy z danych. Wprowadzenie do eksploracji danych, Warszawa: Wydawnictwo Naukowe PWN. 146 Problemy Zarządzania Sieci neuronowe Kohonena w przeprowadzaniu analiz danych... Lasek, M. 2004. Od danych do wiedzy. Metody i techniki „Data Mining”. Optimum. Studia ekonomiczne, nr 2 (22). Lasek, M. 2007. Metody Data Mining w analizowaniu i prognozowaniu kondycji ekonomicznej przedsiębiorstw. Zastosowania SAS Enterprise Miner, Warszawa: Difin, rozdział 4.2. Lasek, M. i M. Pęczkowski 2010. Metodyka procesu eksploracji danych SEMMA. Prace i Materiały Wydziału Zarządzania Uniwersytetu Gdańskiego, nr 3. Matignon, R. 2007. Data Mining Using SAS Enterprise Miner, New Jersey: John Wiley & Sons. Myzik, A. 2012. Analiza przydatności sieci neuronowych Kohonena do eksploracji zbiorów danych dotyczących jednostek terytorialnych, praca magisterska pod kierunkiem M. Lasek, Warszawa: Wydział Nauk Ekonomicznych, Uniwersytet Warszawski. Nguyen, P., Haughton, D. i I. Hudson 2009. Living Standards of Vietnamese Provinces: a Kohonen Map. Case Studies in Business, Industry and Government Statistics (CS-BIGS), nr 2 (2), http://legacy.bentley.edu/csbigs/documents/nguyen.pdf, dostęp: 26.10.2011. Osowski, S. 2006. Sieci neuronowe do przetwarzania informacji, Warszawa: Oficyna Wydawnicza Politechniki Warszawskiej. SAS 2010. Dokumentacja programu SAS Enterprise Miner 6.2, Cary: SOM/Kohonen Node, SAS Institute Inc. Tadeusiewicz, R. 2001. Wprowadzenie do sieci neuronowych, Kraków: StatSoft Polska. Tarczyński, G. 2011. Algorytm Kohonena w analizie danych ekonomicznych, Wrocław: Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu. vol. 10, nr 3 (38), 2012 147 Problemy Zarządzania, vol. 10, nr 3 (38): 148 – 166 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.9 Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne Krzysztof Redlarski, Marcin Sikorski Artykuł przedstawia wyniki badania obserwacyjnego, mającego na celu zidentyfikowanie czynników kształtujących u użytkowników chęć skorzystania z usług on-line za pomocą urządzeń mobilnych takich jak smartfon, tablet lub laptop1. Przeprowadzono badanie obserwacyjne, w którym użytkownicy (7 osób) przez 14 dni notowali swoją aktywność w zakresie korzystania z usług on-line z dostępnych urządzeń w powiązaniu z czynnikami uznawanymi za motywujące lub demotywujące do korzystania z danego typu urządzenia w danej sytuacji (kontekście). W wyniku badań zidentyfikowano cztery główne rodzaje kontekstów mobilnych (dom, podróż, biurko, teren) oraz główne rodzaje użytkowanych usług on-line (poczta/ /kontakty, planowanie podróży, wiadomości, poszukiwanie informacji, zakupy i rozrywka). Określono również uniwersalne charakterystyki typowych zadań związanych z korzystaniem z usług on-line, w których w większości przypadków jedno z dostępnych urządzeń było preferowane jako najdogodniejszy punkt dostępowy. 1. Wprowadzenie W przeciwieństwie do zwykłych telefonów, smartfony pozwalają użytkownikom pozostawać w sieci przez cały czas, zapewniając mobilny dostęp do usług on-line. W porównaniu ze zwykłymi telefonami komórkowymi smartfony mają przede wszystkim większy ekran, o wyższej rozdzielczości, oraz czujnik GPS pozwalający na korzystanie z usług lokalizacyjnych i nawigacyjnych. Liczne badania (np. Goto 2006; Morgan Stanley 2011) wskazują, że usługami powszechnie użytkowanymi w trybie mobilnym są przede wszystkim: – usługi komunikacyjne (SMS, MMS, e-mail, komunikatory); – usługi rozrywkowe (gry, muzyka, filmy itp.); – usługi informacyjne (wiadomości prasowe, wyszukiwanie informacji, kalendarze, itp.); – planowanie podroży (rezerwacje, nawigacje, trasy, rozliczenia); – zakupy przez Internet, realizowane z urządzeń mobilnych. Badania przeprowadzone przez Adobe (2011) na próbie 1200 konsumentów w USA wskazują, że: – media i rozrywka są usługami o najwyższym stopniu penetracji, jeśli chodzi o popularność dostępu do nich z urządzeń mobilnych; 148 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne – użytkownicy ogólnie wyżej oceniają doświadczenia (w tym zwłaszcza wygodę obsługi) dostępu do usług poprzez przeglądarkę w wersji mobilnej niż poprzez dedykowane aplikacje mobilne; wyjątkiem są tu jedynie gry, media społecznościowe, mapy i muzyka; – najczęściej wykorzystywanymi usługami mobilnymi są mapy i nawigacja (korzysta z nich 81% respondentów), następnie sieci społecznościowe (76%), informacje lokalne (73%) oraz wiadomości prasowe (68%); osobną kategorię stanowi śledzenie i uruchamianie operacji bankowych na swoim koncie (67%); – zakupami najczęściej dokonywanymi za pomocą urządzeń mobilnych były media: filmy, muzyka, gry (łącznie 43% respondentów), następnie odzież, buty oraz biżuteria (łącznie 30%). Przedstawione wyniki przykładowych badań wskazują, że usługi on-line dostępne z urządzeń mobilnych stają się coraz bardziej popularne oraz że stanowią ważny element stylu życia dla coraz większej części konsumentów, nie tylko w krajach bardzo zamożnych. Mobilny kontekst użytkowania wyznacza nowe perspektywy dla kształtowania doświadczeń użytkownika (User Experience – UX). Mobilne UX składa się z trzech warstw (Roto 2005): – UX urządzenia – wynika z charakterystyk konkretnego urządzenia mobilnego użytkowanego przez użytkownika, takich jak np. rozmiar ekranu, jego czułość, ułożenie przycisków, rozmiar, kształt i ciężar urządzenia oraz czas korzystania z baterii. Pozostałe czynniki związane z urządzeniem obejmują np. szybkość transferu danych w sieci, łatwość nawiązania połączenia, wierność kolorów na ekranie, płynność animacji itp. – UX systemu operacyjnego – wynika z charakterystyk systemu operacyjnego urządzenia mobilnego, takich jak np. możliwość obsługi wielozadaniowości, kontrola procesów realizowanych w tle, dostępna przeglądarka, obsługa multimediów, sposób realizacji funkcji „copy-and-paste”, „naprzód-wstecz”. – UX aplikacji i mobilnych serwisów WWW – wynika z charakterystyk ergonomicznych i użytkowych aplikacji lub mobilnych serwisów WWW. Takimi charakterystykami są np. ergonomia interfejsu użytkownika, wygoda dostępu do funkcji i danych, dopasowanie architektury informacji do oczekiwań użytkownika czy uwzględnienie specyficznych potrzeb i ograniczeń użytkownika mobilnego. Wszystkie trzy aspekty w odpowiednim stopniu kształtują wypadkowe UX użytkownika korzystającego z usług on-line w kontekście mobilnym. Satysfakcjonujące UX oznacza, że w każdym z powyższych trzech aspektów zapewniony jest taki poziom jakości, aby obiekt interakcji (tu: usługa on-line) w odpowiednim stopniu spełniał trzy główne wymagania: – przydatność – oznacza że funkcjonalność urządzenia pozwala użytkownikowi osiągać założone cele w kontekście mobilnym; – użyteczność – oznacza ze cele te osiąga się z niewielkimi nakładami ze strony użytkownika; vol. 10, nr 3 (38), 2012 149 Krzysztof Redlarski, Marcin Sikorski – atrakcyjność – oznacza, że użytkownicy odczuwają chęć ponownego skorzystania z danej usługi. Mobilny kontekst użytkowania jest opisany pięcioma głównymi wymiarami – czynnikami wpływu (Gualtieri 2011): – lokalizacja – tryb obsługi wynikający z miejsca, w którym użytkownik przebywa (dom, biuro, teatr itp.); – przemieszczanie się – ograniczenia wynikające z tego, że użytkownik się przemieszcza podczas obsługi urządzenia (np. odczuwa zakłócenia wynikające z określonego sposobu podróżowania); – bezpośredniość – wymagania dotyczące natychmiastowego uzyskania wyniku i dopasowania jego formatu nie tylko do oczekiwań zadaniowych użytkownika, ale także do ograniczeń prezentacji wynikających z cech urządzenia mobilnego; – prywatność – rozumiana jako emocjonalny związek użytkownika z określonym urządzeniem, jak też obawy związane z transmisją osobistych informacji poprzez niekiedy przypadkowe sieci bezprzewodowe; – urządzenia – poczucie kontroli oraz odczuwana wygoda pracy z danym urządzeniem. Badania efektów łącznego oddziaływania tych czynników są nazywane analizą mobilnego kontekstu użytkowania (mobile context of use). Dla projektowania użytecznych, łatwych w obsłudze i atrakcyjnych usług on-line ważna jest wiedza na temat przyczyn określonych zachowań użytkownika, źródeł jego postaw czy opinii. Tego typu badania bazują głównie na obserwacji rzeczywistych zachowań użytkowników w rzeczywistych sytuacjach i są nazywane badaniami etnograficznymi, wchodząc w zakres badań kontekstu użytkowania. 2. Mobilne UX – badania etnograficzne 2.1. Badania etnograficzne w projektach IT Badania etnograficzne stanowią gałąź antropologii ukierunkowaną na zrozumienie zwyczajów i zachowań ludzkich występujących w określonych społecznościach/organizacjach. W odróżnieniu od badań marketingowych stawiających respondentowi/klientowi określone pytania, badania etnograficzne są prowadzone w miejscu zamieszkania/pracy respondenta i opierają się głównie na obserwacji zachowań, zwykle starając się, aby nie ingerować w przebieg tych zachowań. Celem badań etnograficznych kontekstu mobilnego jest lepsze zrozumienie użytkowników i ich zachowań w mobilnym kontekście użytkowania związanym z korzystaniem z usług on-line. W wyniku tych badań zwykle tworzy się wzbogacony portret użytkownika/klienta/konsumenta oraz jego zadań, jak również mobilnego kontekstu sytuacyjnego, w jakim są realizowane. 150 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne Badanie etnograficzne ma charakter głównie jakościowy, zatem jest przede wszystkim nastawione na opis i zrozumienie określonych zachowań, postaw oraz, przynajmniej częściowe, objaśnienie mechanizmu, który je kształtuje. Zwykle wykorzystuje się jednocześnie kilka narzędzi badawczych służących do zbierania danych, z których najpopularniejsze zostały wymienione w poniższej sekcji. Badania etnograficzne dotyczące zachowań użytkowników podczas korzystania z usług on-line nabierają znaczenia w miarę wzrostu penetracji tych usług i ich rosnącej obecności w stylu życia konsumentów. Potrzeby rozwoju biznesu elektronicznego wymuszają także konieczność systematycznego badania okoliczności wpływających na chęć korzystania z usług on-line, a także barier i utrudnień odczuwanych w tym zakresie. Z tego powodu badania etnograficzne, a zwłaszcza techniki obserwacyjne i analityczne pozwalające na zrozumienie motywów zachowań użytkownika, znajdują coraz szersze zastosowanie w projektach IT, szczególnie tych dotyczących rozwiązań mobilnych. Techniki badawcze wykorzystywane w odniesieniu do usług on-line są także ogólnie nazywane contextual inquiry (badania kontekstowe), ponieważ skupiają się przede wszystkim na badaniu kontekstu użytkowania określonych usług/urządzeń. 2.2. Techniki i narzędzia zbierania danych W badaniach etnograficznych prowadzonych pod kątem analizy zachowań użytkowników, motywacji do tych zachowań oraz czynników wpływających na chęć ich podjęcia w odniesieniu do mobilnego kontekstu użytkowania mogą być wykorzystywane narzędzia zbierania danych wymienione poniżej (Tullis i Albert 2008; Glasnapp 2010; Sparandara, Chu i Engel 2011). Techniki obserwacyjne Obserwacja bezpośrednia to obserwacja zachowań użytkownika realizowana w sposób klasyczny: użytkownik wykonuje swoje zadania (narzucone lub tworzone ad hoc), obserwator ani nie ingeruje w ich przebieg, ani nie pomaga w ich realizacji, skupiając się jedynie na obserwowaniu i rejestracji zachowań użytkownika. Z uwagi na „zewnętrzne” usytuowanie badacza ta technika jest zwana również obserwacją nieuczestniczącą. Technika ta jest często stosowana w formie tzw. obserwacji migawkowej, polegającej na obserwowaniu zachowań użytkownika przez krótki wycinek czasu, uznany za reprezentatywny dla aktywności trwającej dłużej. Obserwacja uczestnicząca polega na wejściu badacza w określone środowisko społeczne i obserwowaniu danej zbiorowości od wewnątrz, tj. jako jeden z jej członków, uczestniczący wraz z nią w rutynowych aktywnościach. Prowadzący badanie aktywnie uczestniczy w realizacji zadań przez użytkowników, jednocześnie robiąc notatki lub w inny sposób zapisując swoje obserwacje (fotografia, film, nagrania audio). vol. 10, nr 3 (38), 2012 151 Krzysztof Redlarski, Marcin Sikorski Techniki ankietowe Wywiady pogłębione są prowadzone w formie swobodnego dialogu, w którym układ pytań zadawanych respondentowi zmierza do ujawnienia przyczyn określonych zachowań i czynników, które je kształtują. Wywiady częściowo ustrukturyzowane – jw., lecz treść i układ pytań wynikają z ramowego scenariusza przyjętego przed badaniem. Takie podejście zapewnia kompromis między standaryzacją przebiegu wywiadu a elastycznością potrzebną do rozwinięcia niektórych kwestii, które wynikły podczas badania. Show-and-tell to podejście stosowane w badaniach jakościowych prowadzonych jako wywiady, polegające na tym, aby prosić respondentowi o podawanie symptomów (faktów, przykładów, obserwacji, danych) potwierdzających zasadność wyrażanych opinii i ich ugruntowanie w faktach i obserwacjach. Takie gromadzenie „dowodów” ma na celu zmniejszenie subiektywizmu pozyskiwanych danych i zrównoważenie punktów widzenia tych samych zjawisk przez różnych respondentów. Myślenie na głos. Podczas wykonywania zadań uczestnicy są proszeni, aby na glos wyjaśniali, co robią, co zamierzają zrobić za chwilę, co aktualnie myślą i czują podczas korzystania z usługi/systemu. Pozwala to badaczowi na uchwycenie odczuć oraz na lepsze zrozumienie ich celów, intencji, procesów poznawczych i wyborów, jakich dokonują. Wywiady in-situ często stosowane są równolegle z obserwacją bezpośrednią, polegają na zadawaniu użytkownikowi uzupełniających pytań w trakcie wykonywania zadań. Pytania te mają na celu zebranie dodatkowych, bardziej szczegółowych informacji pozwalających lepiej zrozumieć zachowanie użytkownika w określonym kontekście. Powinny być stosowane oszczędnie, aby nie zakłócać naturalnego zachowania użytkownika podczas wykonywania czynności. Grupy fokusowe to technika stosowana głównie w badaniach marketingowych, polegająca na prowadzeniu moderowanego wywiadu z grupą 6–12 osób, który ma na celu ujawnienie motywów określonych zachowań (np. zakupowych) i powiązanie ich ze stylem życia osób uczestniczących w wywiadzie. Metoda jest przydatna również dla ujawnienia odczuwanych deficytów dostępnych rozwiązań, szczególnie w zestawieniu z ofertami konkurencyjnymi, oraz wskazania ulepszeń projektowych oczekiwanych przez uczestników badania. Kwestionariusze ankietowe, stosowane w formie papierowej lub elektronicznej, służą do zebrania opinii na temat określonego obiektu lub zjawiska. Technika ta może być stosowana dopiero po zakończeniu korzystania z określonego rozwiązania (np. usługi, systemu) i pozwala raczej na dokonanie oceny podsumowującej obiektu (np. serwisu WWW) niż na zrozumienie motywów określonych zachowań użytkownika (np. dlaczego wybrał ten akurat serwis spośród wielu dostępnych). 152 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne Tracking – techniki śledzenia zachowań Shadowing to technika obserwacji ciągłej stosowana w sytuacji, gdy zachodzi potrzeba rejestracji bez jakichkolwiek przerw dłuższych okresów zachowania użytkownika (np. 1–8 godzin w ciągu jednego dnia). W tym celu albo obserwator nieustannie podąża za użytkownikiem „jak cień” lub stosuje się kamerę HD (szerokokątną lub z automatycznym śledzeniem ruchu). Technika pozwala na szczegółową rejestrację zachowań, ale ich interpretacja i wyjaśnienie motywów musi odbywać się np. metodą analizy retrospektywnej, polegającą na odtwarzaniu nagrania w obecności osoby zarejestrowanej, która komentuje treść nagrania i sceny zarejestrowane podczas obserwacji. Dzienniczki to papierowe lub elektroniczne notatniki (diaries), w których uczestnicy notują swoje aktywności związane z celem badania oraz okoliczności, w jakich zadania były wykonywane. Dzienniczek zwykle ma formę tabeli pozwalającej na utrzymanie chronologii zapisów oraz wstępne przydzielenie zanotowanych obserwacji do zdefiniowanych wcześniej kategorii. Rejestracja elektroniczna polega na rejestrowaniu logów aktywności użytkownika w systemie (np. kliknięć, uderzeń klawiszy) w celu ich późniejszej analizy. Technika ta – podobnie jak rejestracja zachowań użytkownika za pomocą kamery video – pozwala na dokładny zapis zachowań użytkownika, lecz ich późniejsze objaśnienie i interpretacja muszą być wykonane w sposób tradycyjny. Experience sampling to automatyczna rejestracja zachowań użytkownika, inicjowana pod wpływem określonego impulsu (np. uruchomienia wcześniej zdefiniowanej usługi). Rejestracja odbywa się za pomocą oprogramowania wcześniej zainstalowanego, np. w telefonie czy tablecie, które aktywuje i wyłącza proces rejestracji zgodnie z wcześniej zdefiniowanymi warunkami. Techniki opisowo-analityczne Persona polega na przygotowaniu krótkiego tekstu opisującego typowe oczekiwania użytkownika pod kątem danej usługi/systemu oraz czynników kontekstu, które mogą wpływać na sposób z nich korzystania. Opis „persony” powinien być uzupełniony danymi osobowymi (fikcyjnymi): imieniem, nazwiskiem, wiekiem, stanowiskiem, hobby itp. Opis ten jest często także nazywany „profilem użytkownika”. „Dzień z życia użytkownika” to prezentacja lub warsztat z udziałem użytkowników, poświęcony szczegółowemu omówieniu określonych zachowań użytkownika w przekroju typowego dnia (np. roboczego) i wyjaśnieniu okoliczności i motywów korzystania z określonych rozwiązań (usług, systemów). Technika wykazuje pewne podobieństwo do grupy fokusowej, ale polega na prezentacji swoich zwyczajów przez samych uczestników badania, dyskutowaniu okoliczności kontekstu oraz zauważonych podobieństw/prawidłowości, a także wykorzystaniu technik graficznych do rysowania diagramów indywidualnych aktywności. vol. 10, nr 3 (38), 2012 153 Krzysztof Redlarski, Marcin Sikorski Scenariusze użycia to technika oparta na zapisie interakcji użytkownik– system, przedstawionym w formie tekstu, tabeli lub diagramu określonej notacji. Technika ta jest często stosowana do przedstawienia rezultatów analizy zadaniowej lub analizy kontekstu użytkowania. Mapa doświadczeń klienta to technika polega na opracowaniu diagramu (schematu blokowego lub diagramu innego rodzaju) przedstawiającego kolejne czynności i relacje między nimi, często jako mapy procesów z „momentami prawdy”, w których klient weryfikuje „obietnice jakości” składane przez oferenta-usługodawcę. Schematy blokowe opisujące interakcje między klientem a usługodawcą są często nazywane service blueprints, a dla usług on-line obejmują także wykorzystanie kanałów komunikacji elektronicznej. Mapa wartości polega na opracowaniu diagramu graficznego przedstawiającego korzyści (wartości) oczekiwane przez klienta na poszczególnych etapach procesu usługowego oraz stan faktycznego spełnienia tych oczekiwań podczas korzystania z usługi. Wyniki obserwacyjnego badania etnograficznego przedstawiane są zwykle w formie raportu tekstowego, prezentacji PowerPoint lub prezentacji multimedialnej, obejmującej także fragmenty wykonanych nagrań video, wypowiedzi użytkowników czy zdjęcia stanowiące postawę do formułowania przedstawionych wniosków. 2.3. Model Technology Acceptance Model (TAM) Alternatywnym podejściem mającym na celu zrozumienie kontekstu użytkowania wybranego rozwiązania IT oraz osadzonych w tym kontekście czynników wpływających na motywacje i zachowania użytkownika są modele przyczynowo-skutkowe behawioralne, których klasycznym przykładem może być model TAM (Technology Acceptance Model). Model TAM (Davis 1989) opisuje sposób, w jaki użytkownicy-konsumenci odnoszą się do nowych rozwiązań (szczególnie informatycznych, w tym usług on-line) i jakie czynniki kształtują ich postawę co do użytkowania nowej technologii (rozwiązania IT, urządzenia, usługi), z którą konsument wcześniej się nie zetknął. Model TAM pozwala także na opisanie czynników kontekstu sytuacyjnego, które kształtują nastawienie użytkownika w stosunku do nieznanego wcześniej rozwiązania IT. Rysunek 1 przedstawia model TAM w oryginalnej jego wersji (Davis 1989). Model zakłada, że kiedy użytkownicy/konsumenci spotykają się z nową technologią, na akceptację nowego rozwiązania wpływają czynniki takie jak: – postrzegana przydatność (U) – stopień, w jakim osoba jest przekonana, że użytkowanie danego systemu/rozwiązania poprawi oczekiwane wyniki; – postrzegana łatwość obsługi (E) – stopień, w jakim osoba jest przekonana, że użytkowanie danego systemu/rozwiązania będzie pozbawione wysiłku. 154 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne Perceived Usefulness (U) Attitude Toward Using (A) Externel Variables Behavioral Intention to Use (BI) Actual System Use Perceived Ease of Use (E) Rys. 1. Model TAM. F.D. Davis 1989. Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, nr 3 (13), s. 319–340. Następnie ukształtowana postawa wobec nowego rozwiązania (A) znajduje przełożenie na intencję behawioralną (BI), aby systemu potencjalnie używać do określonego celu. Realizacja tej intencji i czynniki wpływające na przebieg użytkownika kształtują rzeczywiste efekty interakcji użytkownika z systemem (Actual System Use). Model TAM jest często stosowany jako punkt wyjścia do budowy bardziej szczegółowych modeli opisujących postawę użytkownika nowych rozwiązań interaktywnych opartych na IT i mechanizm ich akceptacji. Główne ograniczenia modelu TAM (Chuttur 2009) polegają na tym, że koncentruje się on na pojedynczym użytkowniku określonej technologii i nie uwzględnia społecznych aspektów interakcji, ponadto dotyczy raczej systemów, w których użytkowanie daje korzyści o charakterze bardziej ekonomicznym niż emocjonalnym. Mimo to model TAM służy za punkt wyjścia licznych badań związanych z poznawaniem mechanizmu akceptacji oraz kształtowania postaw wpływających na ryzyko odrzucenia określonych rozwiązań przez użytkowników/konsumentów. Stale podejmowane są próby rozwinięcia modelu TAM oraz rozbudowy go o nowe czynniki wpływu, charakterystyczne dla ciągle powstających nowych usług świadczonych w środowisku elektronicznym (e-gov, e-banking, e-travel itp.). Model TAM można wykorzystywać do analiz czynników kształtujących motywację do użytkowania rozmaitych rozwiązań IT, jednakże za każdym razem wymaga to budowy dedykowanego narzędzia pomiarowego (kwestionariusz ankietowy) oraz przeprowadzenia badania na odpowiednio dużej próbce respondentów, aby umożliwić obróbkę statystyczną uzyskanych danych. 2.4. Ograniczenia Oba przedstawione powyżej podejścia (badania etnograficzne oraz opis kontekstu oparty na modelu TAM) wykazują określone ograniczenia. Ograniczenia podejścia etnograficznego to: – badanie wyłącznie jakościowe, – uznaniowa kombinacja technik obserwacyjnych, ankietowych i analityczno-opisowych, vol. 10, nr 3 (38), 2012 155 Krzysztof Redlarski, Marcin Sikorski – konieczność „manualnej” interpretacji powoduje nieuchronny subiektywizm uzyskanych wyników, – uogólnienie uzyskanych wyników bazuje na założeniu, że ten sam mechanizm zachowań występuje u większości osób w danej sytuacji (kontekście). Do ograniczeń modelu TAM należą: – wykorzystanie modelu wymaga odpowiednio dużej próbki respondentów, aby można było przeprowadzić analizę statystyczną, – uzyskane wyniki zwykle opisują określony kontekst sytuacyjny, zatem ich uogólnienie i transfer do innych sytuacji mogą być problematyczne, – model pozwala na zidentyfikowanie zależności występujących między zmiennymi, ale niekoniecznie wyjaśnia bezpośrednio motywy określonych zachowań użytkownika. Biorąc pod uwagę powyższe ograniczenia, badania przedstawione w dalszej części pracy zostały oparte na podejściu etnograficznym, zorientowanym na pozyskanie danych jakościowych, opisujących okoliczności kształtujące zachowania użytkowników korzystających z określonych usług on-line za pomocą urządzeń mobilnych takich jak laptop, smartfon i tablet. 3. Metodyka badania 3.1. Opis przebiegu badania Celem badania przedstawionego poniżej było zidentyfikowanie czynników motywujących do chęci korzystania z usługi on-line za pomocą konkretnego typu urządzenia (laptop, smartfon, tablet) w naturalnych sytuacjach życia codziennego. Z taką intencją przeprowadzono badania z udziałem 7 użytkowników, a obserwacja ich aktywności w korzystaniu z usług on-line była samodzielnie rejestrowania przez 14 dni. Badania obserwacyjne – mimo że przeprowadzone w bardzo ograniczonej skali – miały w znacznym stopniu charakter etnograficzny, ponieważ w naturalnym otoczeniu rejestrowały zachowania użytkowników, nie ingerując w ich przebieg. Metoda badania polegała na udostępnieniu wybranym osobom różnorodnych urządzeń mobilnych2 do korzystania z usług on-line w życiu codziennym. Użytkownicy mogli w sposób nieskrępowany posługiwać się urządzeniami mobilnymi, samodzielnie decydując, z którego z nich, w jakiej sytuacji chcą skorzystać, będąc jednocześnie zobowiązanymi do prowadzenia pisemnych zapisów z obserwacji swoich aktywności w specjalnie skonstruowanych dzienniczkach. Wzór zastosowanego dzienniczka obserwacyjnego podano w załączniku 1. Obserwacje dotyczące użytkowania usług on-line z urządzeń mobilnych były notowane w tabeli, z uwzględnieniem następujących elementów: – nazwa usługi, – data, godzina skorzystania z usługi, 156 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne – nazwa wykorzystanego urządzenia dostępowego, – czynniki wzmacniające chęć skorzystania z urządzenia (techniczne, sytuacyjne, funkcjonalne), związane z bieżącym kontekstem użycia, – czynniki osłabiające chęć skorzystania z urządzenia (techniczne, sytuacyjne, funkcjonalne), związane z bieżącym kontekstem użycia. Otrzymane w ten sposób zapisy pozwoliły na zebranie spostrzeżeń i uwag od użytkowników na temat ich indywidualnych preferencji dotyczących korzystania z usług on-line za pomocą poszczególnych typów urządzeń mobilnych. Po zakończeniu okresu obserwacji dane z dzienniczków zostały przeanalizowane, pogrupowane i poddane agregacji, co zostanie opisane w kolejnych sekcjach. 3.2. Analiza i agregacja danych Dane uzyskane z obserwacji z wykorzystaniem dzienniczków zostały najpierw poddane wstępnej analizie przez samych użytkowników, w wyniku czego powstało siedem indywidualnych raportów tekstowych, które zawierały najważniejsze spostrzeżenia z przeprowadzonych badań. Uzyskane w ten sposób wyniki stanowiły jednocześnie podstawę do dalszej analizy, która miała za zadanie zagregowanie poszczególnych raportów indywidualnych w jeden raport zbiorczy. Zastosowane podejście miało na celu stworzenie wspólnego profilu użytkowania dla urządzeń mobilnych, który pozwoliłby zrozumieć i opisać sposób zachowania się użytkownika pod kątem korzystania z określonych usług on-line. Proces agregacji wyników w raport zbiorczy polegał na przekształceniu zadeklarowanych czynników motywujących i demotywujących na zbiór postrzeganych zalet i wad poszczególnych urządzeń pod kątem użytkowania mobilnego. W następnym kroku, uwzględniając częstotliwość pojawiających się pozytywnych i negatywnych ocen zebranych od użytkowników, zbudowano tabele porównujące poszczególne urządzenia mobilne w kontekście ich właściwości użytkowych (tabele 1–3). Uzyskane w ten sposób wyniki pozwoliły na określenie dla każdego z urządzeń profilu użytkowania (sekcja 3.6) zawierającego zidentyfikowane czynniki wpływu związane z kontekstem użytkowania określonych usług on-line. vol. 10, nr 3 (38), 2012 157 158 Wady – długi czas uruchamiania urządzenia – mała odporność urządzeń na warunki zewnętrzne (słońce, deszcz) – częsta konieczność podłączania okablowania do zasilania, klawiatury, myszki, drukarki, sieci itp. – krótki czas pracy baterii – znaczny ciężar, duże wymiary w porównaniu z tabletami/smartfonami – delikatny mechanicznie – większa wrażliwość na upadek, wstrząsy itp. niż w przypadku tabletów i smartfonów – wyższy poziom hałasu – konieczność posiadania dogodnych warunków pracy Zalety – duża wydajność pracy – możliwość wykonania w krótkim czasie wielu precyzyjnych zadań – dostępność dużej liczby różnorodnych funkcjonalności/ oprogramowania – możliwość dostosowania do użytkownika – możliwość odczytywania załączników w formacie PDF – możliwość wykonywania operacji w trakcie użytkowania tego urządzenia – lepsze parametry urządzenia, aby komfortowo realizować potrzebę (duża wydajności, wielkości klawiatury, wielkości ekranu oraz duża pojemności dysku twardego, wydajniejszy procesor niż w tabletach i smartfonach, większa przepustowość danych) – duży ekran i wysoka rozdzielczość umożliwiająca oglądanie na raz większej liczby obiektów – fizyczna klawiatura, naturalnej wielkości, umożliwiająca pisanie np. bez konieczności patrzenia na nią – wygodniejsze manipulowanie poprzez możliwość równoczesnego korzystania z różnych kontrolerów: klawiatura, myszka, touchpad itd. – większa wymienność danych, również z użytkownikami komputerów i innych systemów (Linux, MacOS) – szybsza praca – czasami potrzebne lepsze parametry urządzenia przy źle skonstruowanych portalach – można użyć obu rąk do pisania – pewien rodzaj uporządkowania przy pracy (ergonomiczne warunki pracy z urządzeniem) Tab. 1. Zestawienie zalet i wad urządzeń mobilnych – agregacja wyników dla laptopa. Źródło: opracowanie własne. Laptop Urządzenie Krzysztof Redlarski, Marcin Sikorski Problemy Zarządzania vol. 10, nr 3 (38), 2012 Wady – niemożność odczytaniazałączników w formacie PDF z uwagi na brak wykupienia tej usługi – wymagający dedykowanych stron WWW, brak m-stron – aplikacje na urządzenia mobilne, będące odpowiednikami serwisów WWW, lub wersje stron WWW na urządzenia mobilne mają często ograniczone funkcjonalności w stosunku do pełnej wersji WWW (np. YouTube, Google Mail, mBank) – trudności w nawigowaniu po serwisie lub otworzeniu niektórych plików (np. pliki z harmonogramami ANR, które nie są w PDF-ie) – mała odporność urządzeń na warunki zewnętrzne (słońce, deszcz) – mały rozmiar ekranu, wymaga częstej zmiany powiększenia na stronach internetowych – problemy manipulacyjne, niewygodna (mała, dotykowa) klawiatura ekranowa, wymaga zwiększonej precyzji – niewygodny sposób wprowadzania polskich znaków – słaby głośnik – niska prędkość łącza – niemożność odczytywania załączników w formacie PDF – mała wydajność procesora – odbijające się światło na ekranie – niewygodny i dziwaczny sposób zamykania aplikacji (Android, Windows 8) przez cofanie – w przypadku wyjścia ze strony szyfrowanej (HTPPS) po wylogowaniu, cofnięcie do poprzedniej strony sygnalizuje błąd zamiast zamknięcia aplikacji – niewygodny sposób edycji dokumentów (arkusze kalkulacyjne, edytory tekstu, programy graficzne) – dłuższy czas wykonania pracy, w stosunku do pracy na komputerze – trudność w drukowaniu bezpośrednio z urządzenia Zalety – dostępność i szybkość (szybki/natychmiastowy dostęp/gotowość do pracy, brak dostępu innych urządzeń podczas podróży) – wielofunkcyjność (dodatkowe funkcje świadczone w ramach pakietu dostępnego u operatora sieci komórkowej lub dostępne po ściągnięciu dodatkowych aplikacji, np. telefon + aparat fotograficzny + GPS + minikomputer + inne – małe rozmiary i waga (poręczny) – długa żywotność baterii – brak konieczności podłączania okablowania – bardzo efektywny i dobrze dopasowany do pozyskiwania dostępu do zasobów sieciowych poprzez system tokenów generowanych i przesyłanych z użyciem urządzeń mobilnych – dobre dopasowanie smartfonów do zdalnego zarządzania urządzeniami zlokalizowanymi w serwerowni – pozwala na zajęcie wygodnej pozycji w siedzącej lub leżącej – wysoka jakość obrazu, aktualna mapa – mobilność urządzenia (możliwość skorzystania w niemalże w każdych warunkach) – cicho pracuje (niski poziom hałasu) – obsługa nie wymaga dodatkowego oświetlenia – dobre urządzenie jako telefon komórkowy – dobra jakość zdjęć i prosta obsługa Tab. 2. Zestawienie zalet i wad urządzeń mobilnych – agregacja wyników dla smartfona. Źródło: opracowanie własne. Smartfon Urządzenie Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne 159 160 – daje możliwość wykonywania wielu zadań – dedykowany przede wszystkim do czytania, przeglądania stron WWW (e-booki, rozrywka) – możliwość skorzystania z urządzenia o stosunkowo dużym ekranie w trudnych warunkach (np. podczas niekomfortowej podróży) – natychmiastowy dostęp do urządzenia (błyskawiczne bootowanie) – mobilność; – niski poziom hałasu – stosunkowo długi czas trzymania baterii – niska waga urządzenia Zalety – urządzenie najmniej uniwersalne – stosunkowo długi czas wykonywania zadań – bardzo trudna praca (niska precyzja manipulacyjna urządzenia) – wykorzystywany jest sporadycznie do dedykowanych zadań Wady Tab. 3. Zestawienie zalet i wad urządzeń mobilnych – agregacja wyników dla tabletu. Źródło: opracowanie własne. Tablet Urządzenie Krzysztof Redlarski, Marcin Sikorski Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne 3.3. Dyskusja i interpretacja wyników obserwacji Zebrane obserwacje pozwoliły na wyciągnięcie wniosków dotyczących ogólnych preferencji skorzystania przez użytkownika z usług on-line za pomocą poszczególnych urządzeń. Laptop był urządzeniem najchętniej wykorzystywanym do typowej pracy zadaniowej, która wymagała np. intensywnego pisania, redagowania tekstu, która była po prostu pracochłonna. Niewątpliwymi zaletami (wpływającymi na chęć skorzystania) z wspomnianego urządzenia były: – duża wydajność pracy (zarówno techniczna, jak i funkcjonalna względem innych produktów dostępnych na rynku), – możliwość wykonania w krótkim czasie wielu precyzyjnych zadań, – dostępności dużej liczby różnorodnych funkcjonalności/oprogramowania, – ergonomiczne warunki pracy z urządzeniem, – możliwość dostosowania do potrzeb użytkownika. Do podstawowych wad/niedogodności urządzenia można zaliczyć: – stosunkowo krótki czas trzymania baterii (w porównaniu do pozostałych urządzeń), – wyższy poziom hałasu, – stosunkowo długi czas dostępu do urządzenia, – znaczącą wagę urządzenia, – konieczność posiadania dogodnych warunków pracy, – w pewnych sytuacjach (np. podróży) kłopotliwa może być wielkość urządzenia. Charakterystyka zadań (usług) preferowanych do wykonywania z pomocą laptopa: – usługi podróżnicze (planowanie podróży), – usługi finansowe (wymagające dużego nakładu pracy), – usługi wymagające dużego nakładu i wysokiej wydajności pracy. Smartfon w stosunku do laptopa okazał się urządzeniem, które oferuje zdecydowanie większą mobilność oraz dostępność, m.in. dzięki niewielkim wymiarom i małemu ciężarowi. Jednocześnie zapewniał dostęp do wielu dodatkowych funkcji (poza podstawową usługą dzwonienia) – w połączeniu z dostępem do Internetu możliwe było wykonanie wielu zadań, których w typowych sytuacjach życiowych nie można byłoby zrealizować. Głównymi zaletami (czynnikami motywującymi do skorzystania) ze wspomnianego urządzenia był: – natychmiastowy dostęp (błyskawiczne bootowanie), – mobilność urządzenia, (możliwość skorzystania niemalże w każdych warunkach), – niski poziom hałasu, – stosunkowo długi czas trzymania baterii, – niska waga. vol. 10, nr 3 (38), 2012 161 Krzysztof Redlarski, Marcin Sikorski Do podstawowych wad/niedogodności urządzenia można zaliczyć: utrudnione pisanie wymagające zwiększonej precyzji, dłuższy czas wykonania pracy w stosunku do pracy na komputerze, wymaganie dedykowanych stron WWW, mały ekran (w niektórych sytuacjach jest jego zaletą). Charakterystyka zadań (usług) preferowanych do wykonywania z pomocą smartfona: – usługi informacyjne (czytanie poczty, wiadomości itp.), – usługi podróżnicze (nawigacja), – rozrywka (gry, widgety), – usługi umożliwiające natychmiastowy dostępu do informacji o niezbyt skomplikowanym charakterze. Tablet – ostatnie urządzenie poddane badaniu – okazał się najmniej uniwersalny, dając możliwość wykonania zadań w relatywnie długim czasie. Dlatego wykorzystywany był przez użytkowników przede wszystkim do czytania, przeglądania stron WWW (e-booki, rozrywka). Niewątpliwymi zaletami (czynnikami wpływającymi na chęć skorzystania) z wspomnianego urządzenia była: – możliwość skorzystania z urządzenia o stosunkowo dużym ekranie w trudnych warunkach (np. podczas niekomfortowej podróży), – natychmiastowy dostęp do urządzenia (błyskawiczne bootowanie), – mobilność, – niski poziom hałasu, – stosunkowo długi czas trzymania baterii, – niska waga urządzenia. Do podstawowych wad/niedogodności urządzenia można zaliczyć: – bardzo trudną pracę (niska precyzja manipulacyjna urządzenia), – ograniczoną funkcjonalność, – niską użyteczność w niektórych zadaniach roboczych. W ocenie respondentów badania tablet był urządzeniem pośrednim pomiędzy smartfonem i laptopem, które w przypadku dostępności wspomnianych wcześniej urządzeń, wykorzystywany był sporadycznie, tylko do realizacji dedykowanych zadań. Charakterystyka zadań (usług) preferowanych do wykonywania z pomocą tabletu: – usługi informacyjne (czytanie newsów, przeglądanie stron WWW, e-booki), – rozrywka (gry, widgety). – – – – 3.6. Dyskusja i wnioski Z całości przeprowadzonego badania można sformułować następujące grupy ustaleń. Z zebranych danych wyłaniają się zasadnicze cztery sytuacje, w których korzystano z usług on-line w kontekście mobilnym: 162 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne – „dom” – w warunkach domowych, podczas czynności niezwiązanych z pracą zawodową, – „podróż” – w trakcie podróży, w środkach lokomocji, transportu miejskiego itp., – „biurko” – „przy stole”, na siedząco, często podczas wykonywania określonych prac umysłowych, – „teren” – wszystkie pozostałe sytuacje: w mieście, w ruchu pieszym, na wycieczce itp. Na podstawie zebranych obserwacji można również wskazać główne kategorie usług on-line najczęściej użytkowanych w kontekście mobilnym: – poczta/kontakty, – podróże, dojazdy, mapy, – wiadomości, waluty, pogoda, – finansowe, przelewy, doładowania, – poszukiwanie informacji, serwisy WWW, – zakupy, – rozrywka. Uczestnicy badania obserwacyjnego zgłaszali następujące czynniki problemowe zniechęcające do korzystania z usług on-line z urządzenia mobilnego3: – zawodna synchronizacja danych między różnymi urządzeniami, – utrudnienia dotyczące otwierania i zapisywania załączników (pdf, office), – konieczność drukowania i utrudnienia z tym związane, – konieczność czekania aż się system zabootuje, – źle zaprojektowana aplikacja mobilna, brak lub słaba strona „m”, – powolny transfer na Wi-Fi. Ogólnie, za czynniki główne determinujące chęć korzystania z urządzenia z usług on-line w trybie mobilnym należy uznać takie jak: – odpowiednio atrakcyjna relacja: czas uzyskania gotowości urządzenia do czasu trwania zadania, – niska złożoność zadania, – niewymagana wysoka precyzja manipulacji, – oczekiwany format wyniku – ekran (bez wydruku). Tabela 4 prezentuje zestawienie ogólnych charakterystyk poszczególnych rodzajów zadań najchętniej wykonywanych z danego urządzenia. Mogą one stanowić rodzaj wzorca opisującego rodzaj usług związanych z danymi charakterystykami zadania oraz rodzaj urządzenia, z którego w danej sytuacji użytkownik skorzystałby najchętniej, zakładając pełną wolność wyboru (dostępność urządzeń). Przedstawione wyniki mają przekrojowy charakter w zakresie obserwacji przeprowadzonych na niewielką skalę, na chwile obecną trudno je zatem poddać szerszemu uogólnieniu z uwagi na niewielką grupę osób uczestniczących w badaniu i dość ograniczony jego zakres czasowy. Należy również zaznaczyć, że wspomniana powyżej sytuacja wolnego wyboru nie zawsze ma miejsce i w rzeczywistych warunkach użytkownik często vol. 10, nr 3 (38), 2012 163 Krzysztof Redlarski, Marcin Sikorski korzysta z tego urządzenia, które ma akurat pod ręką, gdyż w wielu gospodarstwach domowych jest tych urządzeń kilka, a wszystkie korzystają z dostępu do sieci bezprzewodowej. Związane jest to z cyfryzacją życia codziennego, w którym komputer wykorzystuje się bardzo często nie tylko do pracy, ale również do organizowania życia osobistego. Sytuacja ta wymusza konieczność stosowania różnorodnych urządzeń cyfrowych (w tym mobilnych) w życiu codziennym. Niewątpliwą zaletą każdego z nich jest możliwość wyboru określonego typu urządzenia do aktualnych potrzeb użytkownika, wynikających jednocześnie z kontekstu użycia oraz parametrów technicznych dostępnego urządzenia. Urządzenie Preferowany rodzaj zadania Laptop – zadanie długotrwałe, wymagające długotrwałej koncentracji uwagi (długotrwałe czytanie lub/oraz precyzyjne manipulowanie) – konieczność dłuższego pisania na klawiaturze – preferowana pozycja siedząca, zwykle przy stole – konieczność korzystania z drukarki (lub innych urządzeń zewnętrznych) Smartfon – zadanie krótkie, częste, powtarzane okresowo, ale nie długotrwałe – konieczność jedynie krótkiego pisania na klawiaturze dotykowej, gdy nie ma konieczności korzystania z drukarki (lub innych urządzeń zewnętrznych, z wyjątkiem słuchawek) Tablet – czytanie dłuższych tekstów, bez użycia klawiatury i bez konieczności wydruku – rozrywka, multimedia – zwykle na siedząco Tab. 4. Preferowane rodzaje zadań i ich charakterystyki. Źródło: opracowanie własne. Warto zauważyć, że mimo iż badanie zostało przeprowadzone na bardzo mała skalę, dostarczyło ono pożytecznych informacji przydatnych do planowania badań podobnego typu, już bardziej pogłębionych i z udziałem znacznie większej grupy uczestników. Należy podkreślić, że badania tego typu – mimo że mają charakter głownie jakościowy – pozwalają na lepsze zrozumienie zachowań użytkowników, ich motywacji, intencji i oczekiwań w naturalnych sytuacjach docelowego kontekstu użytkowania, a przez to pozwalają na zidentyfikowanie czynników sytuacyjnych, które generują ryzyko niepełnego wykorzystania mobilnego rozwiązania IT lub nawet całkowitego jego odrzucenia. 4. Podsumowanie Przedstawiono wyniki badania obserwacyjnego mającego na celu zidentyfikowanie czynników kształtujących u użytkowników chęć korzystania z usług on-line za pomocą urządzeń mobilnych takich jak laptop, smartfon lub tablet. W wyniku badań zidentyfikowano cztery główne rodzaje kontekstów mobilnych (dom, podróż, biurko, teren) oraz główne rodzaje użytkowanych 164 Problemy Zarządzania Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne usług on-line (poczta/kontakty, planowanie podróży, wiadomości, poszukiwanie informacji, zakupy i rozrywka). Zidentyfikowano również czynniki stanowiące w opinii użytkowników przeszkody zmniejszające motywację do korzystania z urządzenia mobilnego w sytuacji, gdy do dyspozycji jest również laptop (w trybie pracy „przy stole”). Określono również (stanowiące rodzaj „wzorca użytkowania”) uniwersalne charakterystyki zadań związanych z korzystaniem z usług on-line, w których w większości przypadków jedno z dostępnych urządzeń było preferowane jako najdogodniejszy punkt dostępowy. Informacje o autorach Mgr inż. Krzysztof Redlarski – Wydział Zarządzania i Ekonomii, Politechnika Gdańska. E-mail: [email protected]. Dr hab. inż. Marcin Sikorski – Wydział Zarządzania i Ekonomii, Politechnika Gdańska. E-mail: [email protected]. Przypisy 1 Projekt został sfinansowany ze środków Narodowego Centrum Nauki w ramach grantu 4591/B/H03/2011/40. 2 W badaniach wykorzystano smatfony Samsung Galaxy II, Samsung Note, tablet Samsung Galaxy 10.1 oraz tablet-netbook Asus Eee PC. 3 Czyli zarazem zachęcające do korzystania z trybu stacjonarnego „przy stole” (laptop). Bibliografia Adobe 2011. Adobe Mobile Experience Survey: What UsersWant from Media, Finance, Travel and Shopping, http://www.keynote.com/docs/news/AdobeScene7_MobileConsumerSurvey.pdf. Chuttur, M.Y. 2009. Overview of the Technology Acceptance Model: Origins, Developments and Future Directions. Sprouts: Working Papers on Information Systems, nr 9 (37), http://sprouts.aisnet.org/9-37. Davis, F.D. 1989. Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, nr 3 13, s. 319–340. Glasnapp, J. 2010. Ethography in Industry: Methods Overview. UX Magazine, nr 578, http:// http://uxmag.com/articles/ethnography-in-industry-methods-overview. Gualtieri, M. 2011. Forrester Research: Mobile App Design Best Practices, http://blogs. forrester.com/mike_gualtieri/11-04-13-forresters_mobile_app_design_context_location_locomotion_immediacy_intimacy_and_device. Morgan Stanley 2011. Tablet Demand and Disruption, Morgan Stanley Research Report, 14.02.2011. Roto, V. 2005. Browsing on Mobile Phones, Nokia Research Center, 10.05.2005, http:// www2.research.att.com/~rjana/WF12_Paper1.pdf. Sparandara, M., Chu, L. i B. Engel 2011. Uncovering Context with Mobile Diary Studies. Punchcut Perspective, 17.05.2011, http://punchcut.com/perspectives/uncoveringcontext-mobile-diary-studies. Tullis, T. i A. Albert 2008. Measuring the User Experience, Morgan Kaufman. vol. 10, nr 3 (38), 2012 165 166 T ablet L aptop 3. S martfon 1. 2. Naz wa urz ądz enia Lp. kategorie j.w. pros z ę wpis ać wg potrz eb kategorie j.w. pros z ę wpis ać wg potrz eb ???? ??? R oz rywka P rz eglądanie s tron WWW S prawdz anie pocz ty e-mail Zakres wykorz ys tywania (do cz ego? ) technicz ne (parametry urz ądz enia, s ieci) funkcjonalne (moż liwoś ć s korz ys tania z danej funkcji/us ługi) C z ynniki wz macniające chęć s korz ys tania z urz ądz enia s ytuacyjne (konteks t uż ycia) technicz ne funkcjonalne s ytuacyjne C z ynniki os łabiające chęć s korz ys tania z urz ądz enia P oz os tałe uwagi Załącznik 1. Wzór dzienniczka do rejestracji korzystania z usług on-line za pomocą urządzeń mobilnych Krzysztof Redlarski, Marcin Sikorski Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 167 – 183 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.10 Metody oceny architektur korporacyjnych Małgorzata Pańkowska Architektura w swym tradycyjnym ujęciu stanowiła, a obecnie stanowi także w obszarze technologii informacji (Information Technology – IT), synergię nauki i sztuki projektowania struktur złożonych dla zapewnienia użyteczności i kontroli ewolucji tej złożoności. Niniejsze opracowanie obejmuje w pierwszej części prezentację standardów i podstawowych modeli rozwoju architektury przedsiębiorstwa. W drugiej części uwagę skoncentrowano na modelach oceny architektury w podziale na metody i modele dopasowania działalności biznesowej i IT, metodach oceny architektury oprogramowania i metodach badania dojrzałości architektur korporacyjnych. W ostatniej części przedstawiono model wielokryterialnej oceny architektury korporacyjnej. 1. Interpretacja pojęcia architektury przedsiębiorstwa Pojęcie architektury przedsiębiorstwa pojawiło się na przełomie lat 80. i 90. ubiegłego wieku i obejmowało zasady oraz modele graficznej prezentacji struktur technologii i systemów informatycznych. Już wówczas zaobserwowano, że analiza architektury przedsiębiorstwa jest pożądana dla ułatwienia podejmowania decyzji o określonych zakupach w obszarze IT oraz dla zwiększenia integracji i interoperabilności komponentów IT. Należy zacząć od tego, że specjaliści rozwoju metod architektury sformułowali odrębną definicję przedsiębiorstwa. Przedsiębiorstwo jest kolekcją organizacyjnych lub instytucjonalnych encji, a przykładem przedsiębiorstwa jest cała korporacja, dział lub wydział korporacji, grupa geograficznie rozproszonych organizacji, agencja rządowa, grupa instytucji rządowych (Minoli 2008; Op’t Land i in. 2009). Architektura przedsiębiorstwa jest koherentną całością zasad, metod i modeli, które używane są w projektowaniu i realizacji struktury organizacyjnej przedsiębiorstwa, procesów biznesowych, systemów informacji i infrastruktury (Lankhorst 2005). Definicja architektury przedstawiona w normie IEEE 1471-2000 stanowi, że architektura jest fundamentalną organizacją systemu złożonego z komponentów powiązanych ze środowiskiem i wzajemnie oraz obejmuje zasady ustalające metody projektowania i ewolucji. Norma IEEE Standard 1471-2000 zawiera sześć praktyk opisu architektury: vol. 10, nr 3 (38), 2012 167 Małgorzata Pańkowska – dokumentowanie i dokumentacja architektury jako niezbędne do identyfikowania, wersjonowania i przeglądu informacji w procesach konstrukcji architektury; – identyfikacja interesariuszy projektu; – selekcja punktów widzenia architektury, zawierająca przyczyny i specyfikacje każdego aspektu, który został wybrany w celu organizowania reprezentacji architektury; – ujęcia architektury zgodnie z wybranymi punktami widzenia; – dbałość o zachowanie zgodności między ujęciami architektury w różnych aspektach; – racjonalizm architektury, czyli wybór jednej z wielu rozważanych opcji rozwoju architektury. Standardy architektury przedsiębiorstw, tj. ANSI/IEEE 1471-2000 i ISO/ IEC 42010-2007, swoje źródła mają w badaniach inżynierii oprogramowania. Norma ISO/IEC 42010-2007 wymaga, by opis architektury zawierał następujące elementy: – identyfikacja interesariuszy architektury i systemu interesów; – identyfikacja powiązanych z architekturą problemów interesariuszy; – zbiór punktów widzenia architektury definiowanych tak, by wszystkie problemy interesariuszy były uwzględnione przez wszystkie punkty widzenia; – zbiór widoków architektury; – zbiór modeli architektury; – racjonalizm architektury dla podejmowania kluczowych decyzji. Zgodnie z powyższą normą architektura jest abstrakcją. Najbardziej istotne jest sporządzenie opisu architektury, który jest produktem procesu jej rozwoju. Opis architektury jest wieloaspektowy i żaden pojedynczy aspekt nie jest wystarczający do ujęcia architektury. Opis wymaga podejścia multidyscyplinarnego, przy identyfikacji wielu różnych interesariuszy i ich problemów (Greefhorst i Proper 2011). Pięć poziomów architektury przedsiębiorstwa zostało wyróżnionych w 1989 r. przez US National Institute of Standards (NIST). Pozostają one ważne także w środowisku rozszerzonego przedsiębiorstwa prowadzącego działalność w warunkach gospodarki elektronicznej (IT Governance Institute 2005). Zatem na architekturę przedsiębiorstwa składają się: – architektura jednostek biznesowych, obejmująca procesy biznesowe, krajowe i międzynarodowe standardy współdzielenia się informacją i praktyki biznesowe; – architektura informacji, obejmująca oryginalne dokumenty, przeglądy i dane odpowiedzialnych organizacji, standardy, procedury niezbędne do zapewnienia integralności informacji, konwencje nazywania i metody opisu; – architektura systemu informacji, obejmująca oprogramowanie użytkowe, ustalająca ramy dla zaspokojenia specyficznych wymagań informacji; 168 Problemy Zarządzania Metody oceny architektur korporacyjnych – architektura danych; – architektura infrastruktury technicznej, obejmująca sprzęt, oprogramowanie i urządzenia komunikacji. Podobną specyfikację warstw architektury przedsiębiorstwa przedstawiają Jaap i in. (2006). Na potrzeby niniejszego opracowania bardziej użyteczna jest definicja architektury jako układu systemów opracowana przez Object Managament Group (rysunek 1). jest (System) Architektura Specyfikacja składa się jest realizowany przez składa się z składa się z Części są połączone przez Łączniki używają System mają Interakcje są połączone przez Reguły Rys. 1. Definicja Architektury Systemu według OMG MDATM. Źródło: opracowanie na podstawie C.E. Dickerson i D.N. Mavris 2010. Architecture and Principles of Systems Engineering, Boca Raton: CRC Press Taylor & Francis Group, An Auerbach Book. Według definicji przedstawionej na rysunku 1 architektura jest utożsamiana z systemem, który składa się z systemów i z części. Części architektury jak też jej systemy powiązane są ze sobą. Określone reguły determinują te powiązania. W uzupełnieniu można dodać, że rozwój architektury przedsiębiorstwa jest ciągłym procesem obejmującym tworzenie, modyfikowanie, zastosowanie i rozpowszechnianie różnych produktów architektury. Ten ciągły proces powinien być zsynchronizowany z rozwojem środowiska przedsiębiorstwa. Celem architektury przedsiębiorstwa jest konstruowanie środowiska IT w przedsiębiorstwie, przy ścisłym wiązaniu gospodarowania IT ze strategią przedsiębiorstwa. W ramach rozwoju architektury przedsiębiorstwa istotne jest stworzenie mapy aktywów IT i procesów biznesowych oraz zbioru zasad gospodarowania. W literaturze przedmiotu wymienia się następujące motywy opracowania architektury przedsiębiorstwa (Minoli 2008): – architektura przedsiębiorstwa jest fundamentalna dla efektywnego uczestniczenia w globalnej interakcji nowoczesnych przedsiębiorstw; – pojawia się potrzeba zarządzania wiedzą w przedsiębiorstwie; – zachodzi konieczność integracji technologii teleinformatycznych w przedsiębiorstwie. vol. 10, nr 3 (38), 2012 169 Małgorzata Pańkowska Architektura przedsiębiorstwa zapewnia holistyczne wyrażenie kluczowych problemów rozwoju strategii przedsiębiorstwa, oddziałuje na podstawowe procesy i funkcje. Może być interpretowana jako wiedza, która steruje przedsiębiorstwem, jako informacja konieczna do prowadzenia przedsiębiorstwa, jako technologia i ogólny proces wdrażania IT w odpowiedzi na zmieniające się potrzeby biznesowe. Wygenerowanie architektury wzbogaca możliwości przedsiębiorstw – zarówno komercyjnych, jak i budżetowych – dostosowania się do przemian technologicznych i rynkowych oraz zarządzania zmianą. Może też być stosowana do komunikowania celów organizacji i polityk. 2. Modele i metody architektury przedsiębiorstwa Architekturę przedsiębiorstwa buduje się na podstawie odpowiedniej metodyki, która jest zestawem pojęć, notacji, modeli, języków, technik i sposobów postępowania służących do analizy dziedziny stanowiącej przedmiot projektowania oraz do projektowania pojęciowego, logicznego lub fizycznego. W rozwoju architektury przedsiębiorstwa stosuje się dwie zasady (Bazewicz 1994): – zasada dekompozycji: rozdzielenie złożonego problemu na podproblemy, które można rozpatrywać i rozwiązywać niezależnie od siebie i niezależnie od całości; – zasada abstrakcji: eliminacja, ukrycie lub pominięcie mniej istotnych szczegółów rozważanego przedmiotu lub mniej istotnej informacji; wyodrębnienie cech wspólnych i zbioru niezmienników. Metoda architektury przedsiębiorstwa jest uporządkowanym zbiorem technik i procesów do tworzenia i konserwacji architektury przedsiębiorstwa. Metody określają różne fazy cyklu życia architektury, definiują produkty, które powinny powstawać na każdym etapie, określają sposoby ich weryfikacji i walidacji (Lankhorst 2005). W literaturze przedmiotu wymienia się następujące metody rozwoju architektury: – Rational Unified Process definiuje iteracyjny proces, który pozwala na wykonanie oprogramowania przez dodanie funkcjonalności do architektury na każdym etapie; zgodnie z tą metodą konstruowany jest Zunifikowany Proces Przedsiębiorstwa (Enterprise Unified Process); – UN/CEFACT Modelling Methodology (UMM) jest metodologią konstrukcji modelu informacji i inkrementalnych procesów biznesowych (Huemer 2009); – TOGAF Architecture Development Method (ADM); metoda obejmuje działania skupione wokół następujących zagadnień: a) wizja architektury, b) architektura biznesu, c) architektura systemów informacji, d) architektura technologii, którym to zagadnieniom poświęcone są zadania: 1) tworzenie podstaw, 2) analizowanie poglądów, 3) tworzenie modelu architektury, 4) wybór usług, 5) ustalenie obiektów biznesowych, 6) defi170 Problemy Zarządzania Metody oceny architektur korporacyjnych niowanie kryteriów, 7) definiowanie modelu architektury, 8) analiza luk i nieścisłości, 9) planowanie migracji,10) zarządzanie implementacją i zmianą architektury (Lankhorst 2005). Konstrukcja nowego modelu architektury wymaga uwzględnienia istniejącej bazy aktywów IT, istniejącej architektury przedsiębiorstwa, istniejących standardów architektury przedsiębiorstwa, zasad przedsiębiorstwa, praktyk, pożądanej strategii biznesowej, dostępnych modeli i narzędzi dla rozwoju nowej architektury przedsiębiorstwa lub modyfikacji architektury istniejącej. Modele architektury są stosowane do analizy architektur alternatywnych, planowania biznesowego przejścia z obecnej do nowej architektury, komunikacji między organizacjami zaangażowanymi w rozwój, produkcję, działanie i konserwację modelu przedsiębiorstwa, do wspomagania komunikacji między interesariuszami projektu, do weryfikacji i zapewnienia możliwości certyfikacji wdrażanej architektury, do rozwijania i konserwacji dokumentacji, do wprowadzenia systemów informatycznych nowych generacji i nowych narzędzi analizy, do planowania i wspomagania budżetowania oraz przeglądu i oceny w całym cyklu życia systemów informatycznych. Najczęściej prezentowane w literaturze przedmiotu modele architektury przedsiębiorstwa to (Bernus, Nemes i Schmidt 2003; Minoli 2008; Sobczak 2008): – model architektury przedsiębiorstwa zwany siatką Zachmana, – model LEA (Lightweight Enterprise Architecture), – model FEAF (Federal Enterprise Architecture Framework), – model TOGAF (The Open Group Architecture Framework), – model GERAM (Generic Enterprise Reference Architecture and Methodology), – model PERA (Purdue Enterprise Reference Architecture), – model CIMOSA (Computer Integrated Manufacturing Open System Architecture). Siatka Zachmana jest jednym z najstarszych modeli architektury przedsiębiorstwa. Siatka obejmuje sześć aspektów modelowania: zarząd, kierownictwo, projektant, wykonawca, programista i użytkownik, oraz sześć rodzajów komponentów, tj. dane, funkcje, sieci, ludzie, czas i motywacje. Specyfikacja sześciu perspektyw i sześciu komponentów wymaga skrupulatnego analizowania dopasowania na różnych poziomach, można zatem wnioskować o wysokiej przydatności tego modelu do wspomagania zarządzania IT w organizacji. Argumentów przekonywujących o potrzebie rozwoju architektury przedsiębiorstwa do wspomagania strategii organizacji gospodarczej dostarcza Theuerkorn (2005) w swoim opracowaniu przedstawiającym model LEA (Lightweight Enterprise Architecture). Model LEA zawiera ujęcia trzech perspektyw, na które składają się: strategiczna architektura, architektura koncepcji i architektura wykonania. Strategiczna architektura dotyczy budowania strategicznych zasad i rozwijania wytycznych dla pracy liderów organizacji. Jest ciągłym procesem translacji strategii biznesu i zapewnienia vol. 10, nr 3 (38), 2012 171 Małgorzata Pańkowska ram wytyczających pomoc technologiczną. Plan strategiczny IT służy jako narzędzie komunikacji dla przywódców w zrozumieniu ogólnego kierunku technologii w organizacji i zapewnieniu kontekstu dla planów szczegółowych. Model FEAF jest zorientowany na doskonalenie interoperabilności jednostek biznesowych. Stanowi kolekcję wzajemnie powiązanych modeli referencyjnych dotyczących realizacji inwestycji IT, operacji biznesowych, usług, informacji standardów technologii. Ogólnie ujmując, architektura przedsiębiorstwa może pomóc w procesach realizacji strategii. Jest instrumentem aktywnego planowania i sterowania oraz narzędziem zarządzania złożonością implementacji i ryzykiem. Mierzalne korzyści rozwoju architektury przedsiębiorstwa to przede wszystkim optymalizacja aktualnych systemów i doskonalenie przyszłych możliwości. Najważniejsze jest, że projekty realizowane w ramach modelu architektury są wzajemne komplementarne i kompatybilne. Architektura korporacyjna jest wysoko pozycjonowana w zarządzaniu przedsiębiorstwem i w zarządzaniu IT. Jej zastosowanie uzupełnione jest zastosowaniem innych praktyk zarządzania, tj. zrównoważonej karty wyników, modeli zarządzania jakością (EFQM, European Foundation for Quality Management Excellence Model, ISO 9001). Model TOGAF powstał jako ogólna struktura i metodologia rozwoju architektur technicznych. Obecnie ma cztery główne komponenty (Lankhorst 2005): – wysokiego poziomu strukturę opartą na wybranych kluczowych koncepcjach i metodzie zwanej Architecture Development Method (ADM); – TOGAF Enterprise Continuum, co obejmuje: TOGAF Foundation Architecture, która zawiera model referencyjny techniczny (Technical Reference Model), bazę informacji o otwartych standardach (Open Group’s Standards Information Base – SIB), bazę informacji o blokach konstrukcyjnych (Building Blocks Information Base – BBIB); – model referencyjny infrastruktury informacji zintegrowanej (Integrated Information Infrastructure Reference Model); – TOGAF Resource Base, zbiór narzędzi i technik dostępnych do użycia w zastosowaniu TOGAF i TOGAF ADM, np. scenariusze biznesowe, język modelowania rozwoju architektury (Architecture Development Modelling Language – ADML), studia przypadków, inne ramy architektur, mapowanie TOGAF do siatki Zachmana. Model GERAM stał się podstawą normy ISO 15740:2000 (Bernus, Nemes i Schmidt 2003). GERAM stanowi skrzynkę narzędziową do projektowania i konserwacji przedsiębiorstwa w całym cyklu życia. Struktura modelu GERAM jest następująca: – GERA (Generalized Enterprise Reference Architecture) – model integrujący koncepcje integracji przedsiębiorstwa, ich relacje, jak też wszelkie odpowiednie własności (funkcja, koszt, czas, zasoby); – EEM (Enterprise Engineering Methodology) – model opisujący metodę inżynierii przedsiębiorstwa; 172 Problemy Zarządzania Metody oceny architektur korporacyjnych – język EML (Enterprise Modelling Language) zapewniający konstrukcje do modelowania ról, procesów i technologii; – narzędzia EETs (Enterprise Engineering Tools) wspomagające inżynierię przedsiębiorstwa; – koncepcje GEMCs (Generic Enterprise Modelling Concepts) określające nowe znaczenie konstrukcji modelowania przedsiębiorstwa; – modele EMs (Enterprise Models) stanowiące projekty przedsiębiorstwa i modele do wspomagania analizy i dalszego projektowania; – modele PEMs (Partial Enterprise Models) zapewniające wielokrotnego zastosowania modele referencyjne i projekty ról, procesów i technologii; – modele EMOs (Enterprise Models) wspomagające wdrażanie działań, procesów operacyjnych i technologii; – EOS (Enterprise Operational Systems) wspomagające działanie konkretnego przedsiębiorstwa. GERAM zapewnia opis wszystkich elementów zalecanych w inżynierii przedsiębiorstwa i jego integracji. Ustala standardy gromadzenia narzędzi i metod, z których przedsiębiorstwo może czerpać korzyści w celu efektywnego uporania się ze wstępnym projektem integracji i procesami zmian, które wystąpią w cyklu życia przedsiębiorstwa. Purdue Enterprise Reference Architecture (PERA) przedstawia model inżynierii przedsiębiorstwa. Ponieważ diagram PERA wykorzystuje tę samą temporalną abstrakcję kroków metodologicznych jak GERAM, bezpośrednie odwzorowanie faz cyklu życia jest możliwe (Bernus, Nemes i Schmidt 2003). Celem architektury CIMOSA jest modelowanie procesów gospodarczych oraz identyfikacja informacji niezbędnych do realizacji tych procesów w przedsiębiorstwie przemysłowym. W modelu CIMOSA – w przeciwieństwie do tradycyjnego rozumienia integracji, czyli opisów przebiegów oddolnych (bottom-up) – preferuje się integrację postępującą odgórnie (top-down), co oznacza, że procesy przedsiębiorstwa są ściśle powiązane z celami przedsiębiorstwa. Zintegrowana infrastruktura architektury CIMOSA umożliwia wykorzystanie modeli przedsiębiorstwa w heterogenicznym otoczeniu systemu. Zintegrowana infrastruktura CIMOSA wspomaga procesy symulacyjne modelu i jego optymalizację w fazie użytkowania systemu (Bernus, Nemes i Schmidt 2003). Ze względu na ograniczoną wielkość rozdziału opisy pozostałych modeli architektury dostępne są w literaturze przedmiotu (Bernus, Nemes i Schmidt 2003; Lankhorst 2005; Minoli 2008). 3. Metody oceny architektur korporacyjnych Przedsiębiorstwa zmieniają się ciągle, ich struktury ulegają transformacji i rozszerzeniu. Bez środków kontroli i oceny takie zmiany prowadzą do powstawania ogólnie złożonych, nieskoordynowanych, heterogenicznych środowisk trudnych do zarządzania oraz do utrudnień wprowadzania zmian pożądanych w wybranych kierunkach. vol. 10, nr 3 (38), 2012 173 Małgorzata Pańkowska Architektura przedsiębiorstwa ze swej istoty jest środkiem kontroli zmian przedsiębiorstwa. Zapewnia ujęcie zarówno bardzo ogólne, jak i szczegółowe wybranych działów przedsiębiorstwa. Architektura przedsiębiorstwa pełni w organizacji rolę regulatora, instruktażu oraz środka komunikacji (Greefhorst i Proper 2011). 3.1. Zastosowanie metod oceny architektury oprogramowania Występujące w literaturze przedmiotu metody oceny architektury przedsiębiorstwa wywodzą się z metod oceny architektur oprogramowania proponowanych przez środowiska inżynierii oprogramowania. Obszerny ich przegląd i propozycje oryginalnych rozwiązań w tym zakresie umieszczone są w pracy Sobczaka (2008). Do tej grupy metod należą m.in.: – metoda SBAR (Scenario Based Architecture Reengineering), której celem jest ocena wpływu architektury oprogramowania na wymagania jakościowe; – metoda ACSPP (Architecture-Centered Software Project Planning) (Paulish 2002); – metoda ALPSM (Architecture Level Prediction of Sofware Maintenance) do wspomagania oceny konserwacji oprogramowania; – metoda SARA (Software Architecture Review and Assessment (SARA 2002); – metoda CBAM (Cost Benefit Analysis Method) do oceny zagadnień technicznych i ekonomicznych; – metoda SACAM (Software Architecture Comparison Analysis Method) do prowadzenia analizy porównawczej architektury systemów oprogramowania; – metoda ATAM (Architecture Trade off Analysis Method) do badania spełnienia wymagań jakościowych (Ionita, Hammer i Obbink 2012). 3.2. Zastosowanie metod oceny dopasowania praktyki biznesowej i rozwiązań IT Ocena architektury przedsiębiorstwa może być dokonywana przez porównanie dopasowania technologii informatycznych do celów ekonomicznych, działań i procesów organizacji. Brak dopasowania działalności biznesowej i IT jest czynnikiem wstrzymującym tworzenie unikatowych wartości przez IT w przedsiębiorstwie (King i Tao 1997). W literaturze przedmiotu spotkać można wiele modeli dopasowania technologii do potrzeb biznesowych: – model BITA (Business IT Alignment), – model strategicznego dopasowania SAM (Strategic Alignment Model), – model IAF (Integrated Architecture Framework), – model Luftmana (Luftman’s Alignment Model, LAM), – Reich i Benbasat Model (RBM), – model SCAM (Sabherwal Chain Alignment Model), – model HHAM (Hu Huang Alignment Model). 174 Problemy Zarządzania Metody oceny architektur korporacyjnych W modelu BITA przyjmuje się, że dopasowanie biznes–IT jest konstrukcją wielowymiarową. Analizowane wymiary to strategia i polityka, organizacja i procesy, technologia informacji, monitorowanie i kontrola, ludzie i kultura. Dojrzałość wszystkich wymiarów jest równie ważna i równowaga między poziomami dojrzałości jest zasadniczo traktowana jako dopasowanie biznes–IT (Wijaya, Spruit i Scheper 2009). Henderson i Venkatraman zaproponowali model SAM, obejmujący dwie części znane jako strategiczne dopasowanie i funkcjonalna integracja. Model SAM wymaga odróżnienia strategii IT od procesów i infrastruktury IT. Podobnie model wymaga odróżnienia wewnętrznej działalności biznesowej i strategii biznesowej. Każdy z obszarów (biznes, IT) dzieli się dalej na podobszary, zgodnie ze swoją specyfikacją funkcjonalną. Strategiczne dopasowanie rozpoznawane jest na podstawie tego, jak firma jest pozycjonowana na rynku IT (perspektywa zewnętrzna) i jak infrastruktura IT jest konfigurowana i zarządzana (perspektywa wewnętrzna). W modelu wyróżniono dwa rodzaje integracji. Strategiczna integracja jest połączeniem strategii biznesu i strategii IT. Integracja operacyjna obejmuje powiązania infrastruktury organizacyjnej i procesów biznesowych z infrastrukturą IT i procesami zarządzania IT (Henderson i Venkatraman 1999). W modelu IAF projekt architektury jest katalizatorem dopasowania biznes–IT. Autorzy modelu IAF wzbogacili model SAM przez wprowadzenie architektury informacji, komunikacji i infrastruktury. W modelu dokonano podziału dopasowania na dopasowanie strukturalne i dopasowanie operacyjne, które wiążą ze sobą zmienne takie jak architektura i możliwości oraz procesy i umiejętności (Wiggers, Kok i de Boer-de Wit 2004). Luftman w swoim modelu przestawia strategiczne dopasowanie jako kompletnie holistyczny proces, który obejmuje nie tylko ustalenie dopasowania, ale także jego dojrzałość przez maksymalizowanie działania czynników wspomagających i ograniczanie czynników minimalizujących. Model LAM zgodny jest z podejściem oddolnym, czyli ocenę dopasowania należy rozpocząć od ustalenia celów operacyjnych uwzględniających powiązanie biznes–IT, poprzez analizowanie i hierarchizację celów, nadawanie priorytetów lukom, specyfikowanie działań zarządzania projektami, wybieranie i ocenianie, czy spełnione są kryteria sukcesu, aż po konsekwentne utrzymywanie dopasowania we wszystkich procesach biznesu. Model Luftmana kompleksowo i dokładnie ujmuje problemy dopasowania. W modelu uwzględniono sześć kryteriów: komunikacja, miary, zarządzanie strategiczne (governance), partnerstwo, technologia i zasoby ludzkie, oraz wyróżniono pięć poziomów dojrzałości: wstępny, rozpoczęcia, celowy, doskonalony i optymalny. Dla każdego z kryteriów wyspecyfikowano listę subkryteriów wspomagających ewaluację dopasowania (Luftman 2003). W modelu RBM autorzy koncentrują uwagę na czynnikach społecznych determinujących dopasowanie biznes–IT. Zaliczają do nich: współdzielenie wiedzy dziedzinowej, sukces wdrożenia IT, komunikację między kierownicvol. 10, nr 3 (38), 2012 175 Małgorzata Pańkowska twem biznesu i kierownictwem IT, powiązania między planowaniem biznesowym i planowaniem IT (Reich i Benbasat 2000). W modelu SCAM, zorientowanym na rozwój strategii systemów informacji, wykorzystano podejście Milesa i Snowa typologii strategów jako obrońców, analityków i prognostyków podejmujących wyzwania dopasowania (Sabherwal i Chan 2001). W modelu HHAM zrównoważona karta wyników (Balanced Scorecard) jest podstawowym narzędziem oceny dopasowania biznes–IT. Model HHAM stanowi rozszerzenie modelu RBM dla zarządzania dopasowaniem (Hu i Huang 2006). 3.3. Zastosowanie metody oceny dojrzałości architektury Model dojrzałości architektury (Architecture Capability Maturity Model) służy zapewnieniu, że organizacja gospodarcza ustawicznie podejmuje wysiłki budowy modelu architektury IT. Wspomaga ocenę procesów IT, zapewnia przejście od architektury istniejącej do architektury docelowej, umożliwia identyfikowanie obszarów niedoskonałości i wspomaga określenie sposobów przejścia w kierunku udoskonalenia oraz zwiększa korzyści architektury w miarę rozwoju jej dojrzałości. W literaturze przedmiotu wyróżnia się cztery poziomy rozwoju dojrzałości architektury przedsiębiorstwa. Dwa pierwsze poziomy dotyczą przedsiębiorstw, dla których nie zbudowano modelu architektury, dwa kolejne określają stopniowy rozwój EA (Salmans 2010). Organizacja Garner Group zaproponowała 8 kryteriów dojrzałości architektury przedsiębiorstwa (Godinez i in. 2010; Salmans 2010): – zakres architektury i jej zarząd, – zaangażowanie interesariuszy, – proces definiowania architektury, – rozpoznanie kontekstu biznesowego, – przedmiot architektury, – rozpoznanie możliwości realizacyjnych, – konstrukcja zespołu architektów, – oddziaływanie architektury przedsiębiorstwa. W modelowaniu dojrzałości architektury przedsiębiorstwa znajdują zastosowanie następujące narzędzia (Salmans 2010): – narzędzia opisowe do oceny aktualnego stanu architektury, wspomagania procesu doskonalenia, ilustrowania projektowanych korzyści, wspomagania zarządzania projektem przez kwantyfikację postępu; – narzędzia preskryptywne (np. burze mózgów) do ustalania celów na przyszłość, osiągnięcia pożądanego poziomu dojrzałości; – narzędzia porównań, takie jak benchmarking efektywności praktyk EA. 176 Problemy Zarządzania Metody oceny architektur korporacyjnych 3.4. Ocena architektury przedsiębiorstwa jako złożenia projektów IT Przyjęcie definicji architektury przedsiębiorstwa (Enterprise Architecture – EA) jako układu systemów, czyli złożenia całości z komponentów, jakimi są systemy informatyczne, pozwala na zastosowanie w celu jej oceny metod proponowanych do oceny przedsięwzięć informatycznych. W literaturze przedmiotu z zakresu zarządzania przedsięwzięciami stale dominuje podejście rozwoju jednego projektu i koncentracji uwagi na problemach wewnętrznych projektu w oderwaniu od powiązań z innymi projektami i ze środowiskiem społeczno-gospodarczym, w którym projekt się rozwija. W kontekście rozwoju architektury przedsiębiorstwa uzasadnione jest podjęcie analizy uwarunkowań rozwoju sieci projektów takich jak multiprojekty, portfele projektów, programy i kompozycje projektów roll-out (Pańkowska 2009). Projekty informatyczne architektury przedsiębiorstwa cechuje interdyscyplinarność, oznaczająca konieczność współpracy specjalistów z różnych działów, różnych dziedzin i wielu jednostek organizacyjnych, tzn. analityków biznesu, projektantów aplikacji, programistów, wdrożeniowców, specjalistów infrastruktury technicznej. Projekty systemów informatycznych architektury korporacyjnej są wykorzystywane jako środki realizacji planu strategicznego przedsiębiorstwa, niezależnie od tego, czy zespół projektowy jest grupą osób zatrudnionych w danej organizacji, czy jest to zespół kontraktowy dostawcy usług. Projekty informatyczne EA są zawsze jako całość zorientowane na osiągnięcie predefiniowanych celów i istotną ich własnością jest konieczność rozdzielenia całości architektury na części lub etapy dla łatwiejszej analizy, realizacji projektów równolegle lub sekwencyjnie i ich oceny. Zachodzi zatem konieczność podziału pracy wykonawców i oceniających projekty informatyczne architektury przedsiębiorstwa. Wśród ważnych własności EA należy wymienić unikatowość rozwoju EA wyznaczoną parametrami systemów informacji, wiedzą interesariuszy, kulturą i strukturą wewnątrz przedsiębiorstwa i jego relacjami z otoczeniem, oraz ciągłością zmian wymuszoną zmianami systemu zarządzania oraz ustawicznym wprowadzaniem na rynek ciągle nowych technologii informatycznych. W rzeczywistości przestrzeń rozwoju projektów informatycznych EA jest złożona, gdyż każdy projekt jest związany z innym projektem danego modelu EA, a zespoły wykonawców mogą być rozproszone i przydzielone do wielu projektów w różnym czasie. Realizowane równolegle lub z przesunięciem czasowym projekty informatyczne modelu EA pozwalają wykorzystać źródła synergii, możliwości wspólnego wykorzystania dostępnej infrastruktury techniczne, dostępnych pakietów komputerowego wspomagania inżynierii oprogramowania (Computer Aided Software Engineering – CASE) i pakietów komputerowego wspomagania zarządzania projektem (Computer Aided Project Management – CAPM). vol. 10, nr 3 (38), 2012 177 Małgorzata Pańkowska Model procesu rozwoju architektury przedsiębiorstwa obejmuje: 1. Definiowanie wizji, celów i zasad architektury przedsiębiorstwa: – ustalenie procesu, zakresu i budżetu, – ustalenie kluczowych czynników sukcesu rozwoju EA, – rozwój wizji IT i celów ekonomicznych i technicznych, – rozwój modelu architektury przedsiębiorstwa. 2. Specyfikację planowanych systemów informatycznych w modelu EA: – ustalenie podstaw specyfikacji wymagań i studiów wykonalności, – gromadzenie danych do specyfikacji systemów: prowadzenie wywiadów, warsztaty, badania ankietowe, tworzenie raportów, 3. Przygotowanie projektu architektury docelowej: – oddzielne modelowanie widoków dla odzwierciedlenia ujęć architektury z różnych punktów widzenia, tj. przez różnych interesariuszy, – kompletną identyfikację technologii, – tworzenie opisu architektury docelowej dla każdego widoku (czyli w aspektach: procesy biznesowe, dane, oprogramowanie, sprzęt i wyposażenie), – syntezę widoków, – ocenę zgromadzonych produktów: docelowa architektura, dokumentacja, modele referencyjne. 3. Analizę ryzyka, sposobności i luk EA: – specyfikację wszystkich projektów informatycznych niezbędnych do osiągnięcia architektury docelowej, – ustalenie wykonalności projektów informatycznych występujących w modelu EA, – analizę projektów alternatywnych, zagrożeń i korzyści, – identyfikację wszelkich możliwych sposobności uzyskania dodatkowych korzyści i efektów synergii rozwoju wielu projektów, – analizę luk i niezaspokojonych potrzeb informatycznych i biznesowych przedsiębiorstwa, – dokumentowanie rozpoznanych luk i sposobności. 4. Przygotowanie planu migracji do środowiska nowej EA: – ustalenie priorytetów realizacyjnych, – hierarchizację projektów częściowych składających się na model EA, – identyfikację i administrowanie międzyprojektowymi zależnościami. 5. Wdrażanie systemów informatycznych modelu EA: – realizację projektów systemów informatycznych według ustalonych priorytetów, – ustalanie podstaw pod każde kolejne wdrożenie, – ustalenie odpowiedzialności za każde kolejne wdrożenie, – aktualizację studium wykonalności dla całości obejmującej wszystkie projekty informatyczne architektury przedsiębiorstwa, – aktualizację planu migracji do nowej architektury przedsiębiorstwa, – monitorowanie i oceny wykonanych projektów informatycznych. 178 Problemy Zarządzania Metody oceny architektur korporacyjnych 6. Ustawiczny przegląd, ocenę i aktualizację: – ustawiczny przegląd, ocenę i aktualizację modelu architektury przedsiębiorstwa, – dopasowanie modelu architektury przedsiębiorstwa do nieprzewidzianych zmian, – ocenę dopasowania systemów informatycznych i procesów biznesowych do potrzeb biznesowych, – doskonalenie dopasowania IT do celów biznesowych przedsiębiorstwa, – ocenę projektów informatycznych wchodzących w skład EA, – aktualizację dalszego planu rozwoju EA. Przedstawiona wyżej propozycja procesu zarządzania rozwojem architektury przedsiębiorstwa bazuje na przekonaniu, że rozwój EA jest oparty na hierarchii projektów informatycznych przebudowy procesów biznesowych, rozwoju oprogramowania i budowy infrastruktury sprzętowej i wyposażenia. W celu usprawnienia osiągnięcia celów rozwoju architektury korporacyjnej (EA) organizacje gospodarcze powołują biuro zarządzania projektami (BZP), które steruje projektami począwszy od ich konceptualizacji aż do zakończenia. BZP jest odpowiedzialne za zarządzanie zbiorem projektów architektury przedsiębiorstwa przy zachowaniu odrębności ich celów wewnętrznych i metod realizacji. Odpowiada za zapewnienie, że wszystkie projekty są odpowiednio monitorowane i oceniane. Biuro jest niezbędne do ustalenia struktury zadań i efektów, harmonogramu, kosztów, ryzyka nie pojedynczego projektu, lecz kompleksu projektów EA. BZP ocenia wszystkie projekty w aspekcie komunikacji, powiązań i ryzyka, gospodarowania zasobami ludzkimi, w aspekcie poprawności akwizycji zasobów (poprawności postępowań przetargowych i gospodarowania oszczędnościami poprzetargowymi). BZP koordynuje użycie zasobów rzadkich (np. prace krytycznych wykonawców) i poprawność przesunięć zasobów między projektami. BZP prowadzi oceny wewnętrzne projektów EA, ale współpracuje w tym zakresie z jednostkami oceny zewnętrznej, np. jednostkami nadzorującymi realizację przedsięwzięć rozwoju architektur przedsiębiorstwa. BZP prowadzi analizę wartości dodanej wygenerowanej w każdym projekcie EA, sprawdza efekty weryfikacji i walidacji. Koordynuje współzależności projektów w kategoriach problemów biznesowych, kwestii technicznych i polityk korporacyjnych. W zarządzaniu projektami do określenia czynności oceny projektu z punktu widzenia przyjętych kryteriów używa się terminu ewaluacja (Wysocki i McGary 2005). Celem ewaluacji jest ustalenie kluczowych czynników sukcesu i przyczyn niepowodzeń projektu, stałe ulepszanie skuteczności interwencji zewnętrznej. Podstawowym kryterium oceny w przypadku ewaluacji jest efektywność i wpływ działań realizowanych w ramach projektów na osiąganie celów strategicznych przedsiębiorstwa. Zdaniem Sobczaka (2008) ewaluacja jest systematycznym badaniem wartości albo cech konkretnego obiektu z punktu widzenia przyjętych kryteriów w celu jego usprawnienia, rozwoju lub lepszego zrozumienia. Ewaluacja definiowana jest jako szersza vol. 10, nr 3 (38), 2012 179 Małgorzata Pańkowska od oceny, której wyniki wykorzystywane są do poprawy jakości prowadzonych działań lub jakości produktów Ewaluacje i oceny projektów wykonywane są okresowo i regularnie przed rozpoczęciem projektu, w trakcie jego realizacji i przy zakończeniu projektu oraz jakiś czas po jego zakończeniu (Frączkiewicz-Wronka i Zrałek 2012). Ewaluacja obejmuje swoim zakresem całą architekturę lub wybrane obszary projektowe (np. analizę finansową) jednego lub wielu projektów. Ewaluacja odnosi się do długotrwałych efektów projektów, oddziaływania i rezultatów projektów EA. Ewaluacja jest to obiektywna ocena projektu lub architektury przedsiębiorstwa we wszystkich etapach, takich jak planowanie, realizacja i mierzenie rezultatów. Ewaluacja EA może być prowadzona na podstawie następujących kryteriów: – trafności, – efektywności, – skuteczności, – oddziaływania, – bezpieczeństwa, – trwałości. Kryterium trafności określa, w jakim stopniu przyjęte cele architektury przedsiębiorstwa odpowiadają zidentyfikowanym problemom w obszarze objętym projektami EA i realnym potrzebom beneficjentów. Kryterium efektywności pozwala ocenić ekonomiczność projektów informatycznych EA, czyli stosunek poniesionych nakładów do uzyskanych produktów (nakłady to zasoby finansowe i ludzkie). Kryterium skuteczności wyznacza, w jakim stopniu zostały osiągnięte cele EA zdefiniowane na etapie planowania. Kryterium oddziaływania pozwala ocenić związek między celami EA a celami ogólnospołecznymi, tj. stopień, w jakim korzyści odniesione przez beneficjentów rozwoju EA będą miały szerszy, ogólnospołeczny wpływ na otoczenie społeczno-gospodarcze przedsiębiorstwa. Kryterium bezpieczeństwo służy ocenie poziomu ochrony zasobów EA, czyli powstałych struktur i procesów biznesowych, informacji, infrastruktur informatycznych przed naruszeniem integralności systemów informatycznych i nieuprawnionym dostępem. Kryterium trwałości efektów pozwoli ocenić, czy rezultaty osiągnięte w ramach projektu mogą trwać po zakończeniu okresu wsparcia finansowego na wykonanie EA oraz czy możliwe jest długotrwałe utrzymanie wpływu EA na rozwój przedsiębiorstwa. Kryterium trwałości służy odpowiedzi na pytanie, czy beneficjent rozwoju EA faktycznie osiągnął zamierzone efekty, czy też być może udało mu się osiągnąć efekty odmienne od planowanych, albo może efekty nie są należycie wykorzystane i należy beneficjenta posądzić o niegospodarność. Poza ewaluacją i oceną projektów w gospodarowaniu zasobami informatycznymi architektury korporacyjnej stosowana jest kontrola, której celem jest porównanie istniejącego stanu projektu ze stanem postulowanym, z punktu widzenia prawa (legalność podejmowanych działań), ustalenie 180 Problemy Zarządzania Metody oceny architektur korporacyjnych nieprawidłowości oraz przekazanie wyników w formie wniosków i zaleceń do uprawnionego organu. Proces kontroli jest wyrywkowy, nieregularny, na żądanie, w trakcie projektu i po zakończeniu jego realizacji. Przedmiotem kontroli są generowane w projektach EA produkty, dokumenty analizy finansowej i prawnej oraz dokumenty wydatkowania środków (Zysińska 2007). W odróżnieniu od kontroli proces audytu jest to proces kompleksowy, nieregularny lub regularny, prowadzony w trakcie lub po zakończeniu realizacji projektu. Przedmiotem zainteresowań audytorów są generowane w ramach projektów produkty i rezultaty oraz legalność i gospodarność wydatkowania środków przez przedsiębiorstwo. W porównaniu z oceną projektów monitorowanie projektów jest to proces systematycznego zbierania i analizowania wiarygodnych informacji ilościowych i jakościowych dotyczących realizacji projektów. Celem monitorowania jest zapewnienie zgodności realizacji projektów z wcześniej zatwierdzonymi założeniami. 4. Podsumowanie Opracowanie modelu architektury przedsiębiorstwa jest przedsięwzięciem zalecanym dla holistycznego podejścia zarządzania i gospodarowania zasobami IT w organizacji gospodarczej. W niniejszym opracowaniu przyjęto założenie, że architektura przedsiębiorstwa jest złożeniem wielu systemów informatycznych. W konsekwencji uznano, że rozwój architektury przedsiębiorstwa może dokonywać się przez rozwój wielu projektów wzajemnie powiązanych, realizowanych równolegle lub z przesunięciem czasowym. Takie podejście rozwoju portfela projektów skłania do przedstawienie propozycji oceny architektury przedsiębiorstwa przez pryzmat prowadzonych projektów informatycznych, w konkluzji ocena EA jest utożsamiana z oceną projektów w portfelu. Informacje o autorce Dr hab. prof. UE Małgorzata Pańkowska – Wydział Informatyki i Komunikacji, Uniwersytet Ekonomiczny w Katowicach. E-mail: [email protected]. Bibliografia Bazewicz, M. 1994. Metody i techniki reprezentacji wiedzy w projektowaniu systemów, Wrocław: Wydawnictwo Politechniki Wrocławskiej. Bernus, P., Nemes, L. i G. Schmidt 2003. Handbook on Enterprise Architecture, Berlin: Springer. Dickerson, C.E. i D.N. Mavris 2010. Architecture and Principles of Systems Engineering, Boca Raton: CRC Press Taylor & Francis Group, An Auerbach Book. Frączkiewicz-Wronka, A. i M. Zrałek 2012. Ewaluacja jako narzędzie usprawniania zarządzania projektem realizowanym przez ośrodek pomocy społecznej, w: W. Koczur, A. Rączaszek (red.) Współczesne obrazy polityki społecznej i gospodarczej, s. 157–179. Katowice: Wydawnictwo Uniwersytetu Ekonomicznego. vol. 10, nr 3 (38), 2012 181 Małgorzata Pańkowska Godinez, M., Hechler, E., Koening, K., Lockwood, S., Oberhofer, M. i M. Schroeck 2010. The Art of Enterprise Information Architecture, Upper Saddle River: IBM Press Pearson. Greefhorst, D. i E. Proper 2011. Architecture Principles, The Cornerstones of Enterprise Architecture, Heidelberg, Berlin: Springer-Verlag, DOI: 10.1007/978-3-642-20279-7_7. Henderson, J.C. i N. Venkatraman 1999. Strategic Alignment: Leveraging Information Technology for transforming organizations. IBM Systems Journal, nr 2–3 (38), DOI: 10.1147/SJ.1999.5387096. Hoogervorst, J.A.P. 2009. Enterprise Governance and Enterprise Engineering, Berlin: Springer, DOI: 10.1007/ 978-3-540-92671-9. Hu, Q. i C.D. Huang 2006. Using the Balanced Scorecard to Achieve Sustained ITBusiness Alignment: A Case Study. Communications of the Association for Information Systems, nr 17, s. 181–204. Huemer, Ch. 2009. UN/CEFACT’s Modeling Methodology (UMM) in a Nutshell, UN/ CEFACT TMG, 18 September 2009, http://www.unece.org/cefact/umm/ UMM_userguide-nutshell.pdf, odczyt: maj 2011. Ionita, M.T., Hammer, D.K. i H. Obbink 2012. Scenario Based Software Architecture Evaluation Methods, http://www.win.tue.nl, dostęp: maj 2012. IT Governance Institute 2005. Governance of the Extended Enterprise, Bridging Business and IT Strategies, London: Wiley & Sons. Jaap, B., Van Dorn, M. i M. Piyusch 2006. Making IT Governance Work in a SarbanesOxley World, Hoboken: Wiley &Sons. King, W.R. i T.S.H. Tao 1997. Integration between Business Planning and Information Systems Planning: Validating a Stage Hypothesis. Decision Science, nr 2 (28), s. 279–308, DOI: 10.1111/j.1540-5915.1997.tb01312.x. Lankhorst, M. 2005. Enterprise Architecture at Work, Berlin: Springer, DOI: 10.1007/9783-642-01310-2. Luftman, J. 2003. Assessing IT-Business Alignment, w: C.V. Brown i H. Topi (red.) IS Management Handbook, s. 7–20. London: Auerbach Publications, DOI: 10.1201/9781420031393.ch1. Minoli, D. 2008. Enterprise Architecture A to Z, Frameworks, Business Process Modeling, SOA, and Infrastructure Technology, London: CRC Press, DOI: 10.1201/9781420013702. Op’t Land, M., Proper, E., Waage, M., Cloo, J. i C. Steghuis 2009. Enterprise Architecture, Creating Value by Informed Governance, Berlin: Springer, DOI: 10.1007/978-3540-85232-2_3. Pańkowska, M. 2010. Środowiska projektowe przedsięwzięć informatycznych, w: J. Sobieska-Karpińska (red.) Informatyka ekonomiczna. Informatyka w zarządzaniu, s. 238–253. Wrocław: Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu.. Paulish, D.J. 2002. Architecture-Centric Software Project Management: A Practical Guide, Upper Saddle River: Addison Wesley. Reich, B.H. i I. Benbasat 2000. Factors That Influence The Social Dimension of Alignment Between Business and Information Technology Objective. MIS Quarterly, nr 1 (24), s. 81–113, DOI: 10.2307/3250980. Sabherwal, R. i Y.E. Chan 2001. Alignment Between Business and IS Strategies; A Study of Prospectors, Analyzers and Defenders. Information Systems Research, nr 1 (12), s. 11–33, DOI: 10.1287/isre.12.1.11.9714. Salmans, B. 2010. EA Maturity Models, w: L. Kappelman (red.) The SIM Guide to Enterprise Architecture, s. 89–96. Boca Raton: CRC Press, Taylor & Francis Group. SARA 2002. Final Report of the Software Architecture Review and Assessment, http:// philippe.kruchten.com/architecture/SARAv1.pdf, odczyt: maj 2012. Sobczak, A. 2008. Formułowanie i zastosowanie pryncypiów architektury korporacyjnej w organizacjach publicznych, Warszawa: Szkoła Główna Handlowa. 182 Problemy Zarządzania Metody oceny architektur korporacyjnych Theuerkorn, F. 2005. Lightweight Enterprise Architectures, London: Auerbach Applications, DOI: 10.1201/9780203505311. Wiggers, P., Kok, H. i M. de Boer-de Wit 2004. IT Performance Management, Amsterdam: Elsevier Butterworth-Heidemann, DOI: 10.1016/B978-0-7506-5926-0.50006-6. Wijaya, S., Spruit, M.R. i W.J. Scheper 2009. Webstrategy Formulation: Benefiting from Web 2.0 concepts to deliver business values, w: M.D. Lytras, E. Damiani i P. Ordones de Pablos (red.) Web 2.0, The Business Model, s. 103–133. New York: Springer, DOI: 10.1007/978-0-387-85895-1. Wysocki, R. i R. McGary 2005. Efektywne zarządzanie projektami, Gliwice: Helion. Zysińska, M. 2007. Ewaluacja, monitorowanie i kontrola projektów europejskich, w: M. Trocki i B. Grucza (red.) Zarządzanie projektem europejskim, s. 223-238. Warszawa: Polskie Wydawnictwo Ekonomiczne. vol. 10, nr 3 (38), 2012 183 Problemy Zarządzania, vol. 10, nr 3 (38): 184 – 203 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.11 Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych na przykładzie instytucji sektora publicznego Mirosław Dyczkowski W pracy zaprezentowano wybrane problemy oceny efektywności ekonomicznej wdrażania telepracy w zespołach informatycznych instytucji sektora publicznego. Telepraca jest formą zatrudnienia, która z powodzeniem może być stosowana w większości prac i zawodów informatycznych. W warunkach konieczności racjonalizacji stale rosnących kosztów pracy niezbędne staje się wdrażanie programów telepracy w zespołach IT, także w instytucjach publicznych. Autor przedstawił podstawy metodyczne badania efektywności ekonomicznej takich programów, które bazuje na rachunku CBA (Cost-Benefits Analysis). Szacowanie oczekiwanych korzyści oparto na kluczowych wskaźnikach celu (Key Goal Indicators) oraz kluczowych wskaźnikach wydajności (Key Performance Indicators) zalecanych w procesie PO7 Zarządzanie zasobami ludzkimi IT (Manage IT Human Resources) modelu COBIT® 4.1 (Control Objectives for Information and related Technology). Zaproponowane podejście zostało następnie zweryfikowane na przykładzie rzeczywistego programu telepracy dla informatyków, wdrażanego w dużej instytucji publicznej, a wybrane szczegółowe oceny efektywności zawarto w niniejszym artykule. 1. Wprowadzenie do zarządzania efektywnością ekonomiczną w sektorze publicznym Analizując problemy pomiaru i oceny efektywności ekonomicznej w instytucjach sektora publicznego należy zwrócić uwagę na dwa – zdaniem autora – istotne zagadnienia. Po pierwsze trzeba zauważyć, że prace unifikujące i standaryzujące ocenę efektywności prowadzone przez OECD, Bank Światowy czy Komisję Europejską i jej agendy w ramach m.in. takich koncepcji, jak „nowe zarządzanie publiczne” (new public management), „zarządzanie oparte na wynikach” (results-based management) i „zarządzanie menedżerskie w sferze publicznej”, wyraźnie podkreślają konieczność ekonomizacji sektora publicznego 184 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... (Habuda i Habuda 2005: 94–95; Lubińska 2009). Usługi publiczne powinny być świadczone zgodnie z zasadą efektywności, a ich oceny bazować na mierzalnych wskaźnikach jakościowych i ilościowych. Ma to umożliwić „uzyskiwanie najlepszych efektów z danych nakładów” czy też „minimalizować nakłady niezbędne do osiągania założonych rezultatów” (Duda i in. 2004: 34–35). Można więc przyjąć, że wszystkie aktywności związane z informatyzacją tej sfery powinny być analizowane według zasad i kryteriów oceny finansowej i/lub ekonomicznej1, zaś stosowane metody szczegółowe musi charakteryzować jasność i jednoznaczność interpretacyjna, względna łatwość użycia oraz akceptowalny poziom kosztów pozyskania wymaganych danych i informacji. Cechy te posiadają metody analizy finansowej i ekonomicznej oraz klasycznego rachunku efektywności (zarówno tzw. tradycyjne, jak i dedykowane innowacjom), dlatego – zdaniem autora – wśród nich należy szukać rozwiązań właściwych obszarowi zastosowań IT w instytucjach publicznych. Po drugie trzeba podkreślić, że pogorszenie koniunktury gospodarczej, jakie obserwujemy na świecie, w tym także w naszym kraju, od drugiej połowy 2008 r., dotknęło również instytucje publiczne, w których dostępne środki finansowe – w tym przeznaczone na przedsięwzięcia i systemy informatyczne – w dużej mierze zależą od wielkości wpływów do budżetów centralnego lub budżetów samorządowych, generowanych przez podmioty gospodarcze. Według badań przeprowadzonych przez autora2, który w latach 2009–2011 przeanalizował zebrane metodą ankietową w 375 obiektach dane opisujące wpływ kryzysu gospodarczego na obszar IT, w większości z nich spowodowało to częściowe, a w wielu radykalne zmiany strategii informatyzacji. Najczęściej wskazywanymi przez respondentów przejawami tych zmian były: spadek nakładów na inwestycje informatyczne, zmniejszenie budżetów oraz ograniczenie zatrudnienia w działach czy służbach IT, zmniejszenie ilości szkoleń i kursów informatycznych oraz przesunięcie planowanych inwestycji IT w czasie. Jedną z zauważalnych konsekwencji deklaracji o obniżeniu poziomu finansowania jest ciągłe poszukiwanie rozwiązań nakierowanych na poprawę efektywności ekonomicznej IT, w tym także racjonalizujących stale rosnące koszty pracy zatrudnionych informatyków3. Celem niniejszego opracowania jest weryfikacja roboczej hipotezy wskazującej telepracę jako nie tylko elastyczną organizacyjnie oraz zorientowaną prospołecznie i proekologicznie4, ale również proefektywnościową formę zatrudnienia, którą z powodzeniem można zastosować w zespołach informatycznych w instytucjach sektora publicznego. W kolejnych częściach artykułu są przedstawione wybrane problemy wdrażania telepracy w IT i założenia metodyczne badania efektywności ekonomicznej programów telepracy opartych na tzw. modelu mieszanym5. Zaproponowane podejście jest następnie weryfikowane na przykładzie pilotażowego wdrożenia zrealizowanego w 2011 r. w dużej instytucji publicznej. vol. 10, nr 3 (38), 2012 185 Mirosław Dyczkowski 2. Wybrane problemy wdrażania telepracy w zespołach informatycznych Przed prezentacją zagadnień oceny efektywności ekonomicznej należy krótko omówić najważniejsze problemy wdrażania telepracy w zawodach i zespołach informatycznych. Po pierwsze przypomnijmy, że idea telepracy w obszarze IT ma już pół wieku6, a więc możemy korzystać z doświadczeń nie tylko licznych firm sektora IT, ale też z najlepszych praktyk wypracowanych przez organizacje, które za swój cel mają rozwój telepracy jako prospołecznego, proekologicznego i proefektywnościowego systemu świadczenia pracy. Dotyczą one zarówno samej koncepcji telepracy, jak i programów jej zastosowania w określonych sektorach (w tym w analizowanych w opracowaniu instytucjach publicznych), zawodach (w tym informatycznych) i strukturach organizacyjnych (w tym zespołach projektowych lub zadaniowych). Z punktu widzenia celu niniejszego artykułu należy zwrócić uwagę przede wszystkim na przedstawiane w nich korzyści, które zidentyfikowano jako efekty stosowania telepracy. Na przykład TelCoa (The Telework Coalition) zidentyfikowała 10 głównych grup potencjalnych korzyści, które dotyczą trzech kategorii interesariuszy: pracodawców i gospodarki, pracowników oraz społeczeństwa i środowiska (TelCoa’s Top 10 Reasons to Telework©, http:// www.telcoa.org/about-us/telcoas-top-10-reasons-to-telework). Natomiast P. Sienkiewicz i H. Świeboda (zob. tabela 1), analizując wiele dostępnych raportów, zestawili najważniejsze zalety i wady telepracy dla instytucji i dla pracowników. Należy zwrócić uwagę, że część podanych przez nich zalet i wad cechuje mierzalność, co pozwala rejestrować wartości charakteryzujących je wskaźników7, a następnie używać zebrane dane w typowych metodach pomiaru i oceny efektywności. Po drugie trzeba podkreślić, że idea telepraca jest obecnie promowana nie tylko przez specjalistów od zarządzania i świat biznesu, ale jest wspierana również przez polityków, którzy uznają ją m.in. za skuteczne narzędzie tworzenia nowych, elastycznych miejsc pracy8. Wsparcie polityczne jest o tyle istotne, że skutkuje ono z jednej strony kreowaniem strategii i będących ich konsekwencją programów wdrażania telepracy9 oraz zapewnieniem dla nich budżetowych źródeł finansowania, z drugiej zaś uchwalaniem regulacji prawnych związanych z elastycznymi formami zatrudnienia. Na przykład w Polsce odpowiednie zapisy dotyczące zatrudniania pracowników w formie telepracy – zgodne z rekomendacjami unijnymi – zostały wprowadzone do kodeksu pracy10 w sierpniu 2007 r. Dzięki wprowadzeniu prawnej definicji telepracy oraz telepracownika możliwe stało się jasne określenie charakteru i specyfiki tej formy zatrudnienia, a co za tym idzie wyznaczenie stosunków stron, w tym ich praw i obowiązków. Ponadto pojawienie się odpowiednich regulacji daje dodatkowe możliwości aktywizacji zawodowej kobiet, zainteresowanych łączeniem życia zawodowego z rodzinnym, osób niepeł186 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... nosprawnych, które – dzięki przełamaniu barier architektonicznych – mają większe szanse na zdobycie pracy oraz osób zamieszkałych na obszarach oddalonych od centrów gospodarczych lub administracyjnych11. Tym samym także w obszarze IT pozwala na częstsze stosowanie tej elastycznej formy zatrudnienia, także w stosunku do osób, których szanse na rynku pracy były mniejsze. Również firmy informatyczne oraz instytucje poszukujące informatyków mogą liczyć – dzięki zwiększeniu liczby potencjalnych kandydatów – m.in. na skrócenie procesu rekrutacji, ograniczenie zjawiska uzależnienia od kluczowych pracowników czy na redukcję kosztów związanych z tworzeniem stanowisk stacjonarnych. Zalety telepracy dla instytucji – zmniejszenie kosztów funkcjonowania (oszczędność powierzchni biurowej, wyposażenia i zużycia materiałów, kosztów zatrudnienia itp.) – zwiększenie wydajności – zmniejszenie liczby zwolnień chorobowych – brak spóźnień – możliwość zatrudnienia osób niepełnosprawnych i na urlopach wychowawczych (macierzyńskich) – pozyskanie i wykorzystanie wykwalifikowanego personelu – płaca za efekty, a nie za czas pracy – ograniczenie niekorzystnego wpływu wzajemnego oddziaływania pracowników Wady telepracy dla instytucji – duże koszty początkowe – trudności z zapewnieniem wymaganego poziomu bezpieczeństwa i poufności informacji – trudności w zarządzaniu (konieczność przedefiniowania wewnętrznych reguł, sprzeciw kadry kierowniczej) – brak bezpośredniego nadzoru nad pracownikiem – utrata tożsamości firmy – łatwość „ucieczki” pracownika (samozatrudnienie, freelancer) Zalety telepracy dla pracowników – większe możliwości zatrudnienia – elastyczność zatrudnienia, umowy o pracę, czasu pracy, miejsca zamieszkania i miejsca pracy – elastyczność – zmniejszenie kosztów pośrednich (wyższa płaca) – zlikwidowany lub zredukowany dojazd do pracy (oszczędność czasu i pieniędzy) – więcej czasu dla rodziny – uzależnienie od technologii, co może poprawiać umiejętności wymagane na rynku pracy – przestaje być istotny wygląd i wiek pracownika – liczą się tylko umiejętności Wady telepracy dla pracowników – izolacja i alienacja, poczucie wyobcowania – dłuższy dzień w pracy (brak struktury dnia pracy, co może wywołać dezorganizację pracy) – stres w rodzinie (trudności z odseparowaniem „pracy-domu” i życia innych domowników) – dodatkowe koszty – obawa przed mniejszą możliwością awansu oraz łatwiejszym zwolnieniem Tab. 1. Najważniejsze zalety i wady telepracy dla instytucji i dla pracowników. Źródło: opracowanie własne na podstawie Sienkiewicz, P. i H. Świeboda 2004. Analiza systemowa telepracy, w: L.H. Haber (red.) Społeczeństwo informacyjne – wizja czy rzeczywistość? tom II. Kraków: AGH, s. 34–35. Po trzecie należy zauważyć, że instytucje publiczne mogą i powinny szeroko wdrażać telepracę. Zdaniem autora wynika to z wielu przyczyn. Przede wszystkim strategie związane z unowocześnieniem obszaru zarząvol. 10, nr 3 (38), 2012 187 Mirosław Dyczkowski dzania publicznego zakładają istotny przyrost ilości i rodzajów usług świadczonych przedsiębiorstwom i obywatelom drogą elektroniczną12, co pozwala na wykonywanie przynajmniej części z nich w różnych modelach telepracy, m.in. poprzez telecentra czy w systemie mieszanym. Na przykład w Stanach Zjednoczonych, które są krajem o największej na świecie liczbie telepracowników, w tym w sferze publicznej, wdrażanie telepracy w agencjach rządowych i federalnych jest już od 2001 r. na bieżąco monitorowane przez GAO (The U.S. Government Accountability Office, wcześniej do 2004 roku General Accounting Office) i OPM (The U.S. Office of Personnel Management), a zebrane doświadczenia są publikowane w formie corocznych raportów13. Wynika z nich, że w 2009 r. telepracownicy stanowili 10,4% ogółu zatrudnionych w tych agencjach, z tego ponad 67% pracowało w tej formie przynajmniej 1 dzień w tygodniu. Najważniejszymi wskazywanymi korzyściami było zaś: zwiększenie wydajności pracy, efektywniejsze zarządzanie kapitałem ludzkim, niższe koszty związane z rekrutacją i utrzymaniem pracowników oraz oszczędności związane ze zmniejszoną absencją(United States Office of Personnel Management 2011b). Taka promocja telepracy w instytucjach publicznych oraz wynikające z jej wdrożenia korzyści mogą być dobrym przykładem dla przedsiębiorstw i zatrudnionych tam pracowników. Doświadczenia te można próbować przenieść na europejski i polski rynek pracy, w tym do zespołów informatycznych pracujących w instytucjach publicznych. Czwartym i zarazem ostatnim zagadnieniem, na jakie trzeba w tym punkcie zwrócić uwagę, jest fakt, iż zawody czy specjalizacje informatyczne są jednymi z najbardziej podatnych na stosowanie tej formy zatrudnienia14. Zauważają to autorzy licznych opracowań15, którzy podkreślają, że decyduje o tym m.in. wysoka zgodność cech telepracy z charakterystykami produktów informatycznych oraz zadaniami, które są realizowane podczas ich wytwarzania, obsługi i użytkowania, a więc czynnościami wykonywanymi przez pracowników IT. I tak, produkty informatyczne można wytwarzać i obsługiwać, a usługi informatyczne świadczyć w dużej mierze zdalnie, nawet w skali globalnej. Zatrudnieni w IT posiadają przy tym niezbędną do wdrożenia telepracy wiedzę, kompetencje i umiejętności z zakresu technologii informacyjnych i komunikacyjnych, a firmy wymaganą infrastrukturę sprzętową, aplikacyjną i sieciową. W telepracy liczy się nie samo działanie i sposób jego prowadzenia, ale efekt, czyli rezultat pracy. Podobnie jest w IT, gdzie większość dostarczanych rozwiązań jest tworzona w modelu projektowym, w którym zarówno produkty i usługi finalne, jak i ich składowe mają zdefiniowane zakres, kryteria wykonania, czas i terminy oraz nakłady i koszty. Bardzo ułatwia to zmianę technologii wytwarzania, udostępniania czy serwisowania ze stacjonarnych na zdalne lub mobilne. Zarówno telepracy, jak i działaniom składającym się na pracę informatyka przypisuje się często cechę koncepcyjności, co pozwala na ich równoległe prowadzenie, a jednocześnie nakłada wymogi, które są rozwiązywane przez tzw. zarządzanie równoległe, 188 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... obejmujące: planowanie, zarządzanie, synchronizację procesów i informacji, łączenie informacji, motywowanie i ocenę. Wdrażając telepracę, spotykamy się także z typowym dla złożonych projektów informatycznych i działań informatycznych zespołów zadaniowych wymogiem zachowania spójnego obrazu całości projektu (tzw. big picture), w sytuacji gdy każdy pracownik zajmuje się jedynie określonym wycinkiem całości. I w jednym, i w drugim przypadku pomaga zarządzanie zadaniowe, zorientowane na wynik, z precyzyjną specyfikacją wykonywanych produktów końcowych i pośrednich, procedurami zarządzaniem zmianami oraz wdrożoną platformą udostępniania i wymiany wszystkich niezbędnych informacji, a także odpowiednim systemem wsparcia. Na koniec trzeba też zauważyć, że zawody informatyczne z jednej strony wymagają, a z drugiej rozwijają takie cechy niezbędne telepracownikowi, jak: samodyscyplina, obowiązkowość, systematyczność, praca w systemie zadaniowym, nastawienie na wynik czy umiejętność organizacji pracy własnej, z jednoczesnym uwzględnieniem wymogów pracy w zespole. W efekcie pracownicy branży IT (czy szerzej ICT) oraz informatycy pracujący w przedsiębiorstwach i instytucjach, zarówno na świecie, jak i w naszym kraju, są jednymi z najczęściej podejmujących zatrudnienie w formie telepracy16. 3. Wybrane elementy koncepcji pomiaru i oceny efektywności ekonomicznej wdrożenia telepracy w zespołach informatycznych Po syntetycznej prezentacji zagadnień związanych z telepracą obecnie przejdziemy do omówienia najważniejszych problemów pomiaru i oceny efektywności ekonomicznej wdrożenia tej formy zatrudnienia w zespołach informatycznych. W literaturze przedmiotu można znaleźć opisy wielu podejść metodycznych stosowanych do badania efektywności ekonomicznej szeroko rozumianego obszaru zastosowań informatyki oraz przykłady ich użycia17. Mnogość dostępnych podejść wiąże się z tym, że pomiar i ocena efektywności ekonomicznej IT są zagadnieniami złożonymi i mogą być rozważane z różnych perspektyw badawczych i praktyki zastosowań. W pierwszej kolejności należy zauważyć, że metodyka używanego rachunku efektywności zależy w dużej mierze od tego czy dane przedsięwzięcie (także informatyczne) ma charakter komercyjny, komercyjny z akcentami społecznymi, społeczny z elementami komercyjnymi czy też wyłącznie społeczny. Różnice dotyczą m.in. kryterium decyzyjnego, metod i miar oceny opłacalności oraz sposobu uwzględniania ryzyka18. W związku z tym, że opracowanie koncentruje się na wdrożeniu telepracy, a więc na przedsięwzięciu, w którym – zgodnie z opisami z poprzedniego punktu – powinny równoważyć się akcenty komercyjne i społeczne, to zastosowane vol. 10, nr 3 (38), 2012 189 Mirosław Dyczkowski podejście metodyczne powinno z jednej strony opierać się na klasycznym, komercyjnym rachunku efektywności, z drugiej zaś uwzględniać czynniki społeczne, integrując uzyskane wyniki w spójny system oceniający. 1. Identyfikacja oraz kwantyfikacja nakładów i kosztów 2. Identyfikacja oraz kwantyfikacja efektów ekonomicznych 3. Kalkulacja oraz ocena efektywności ekonomicznej (NPV, IRR, i MIRR) 4. Wybór wskaźników efektywności (KPI) do oceny korzyści trudnych do wyceny pieniężnej 5. Okresowa ocena korzyści trudnych do wyceny pieniężnej (KPI) 6. Ocena rozszerzona czynników zmienności i ryzyka (analizy wrażliwości oraz scenariuszowa) Rys. 1. Ogólny schemat procesu analizy efektywności ekonomicznej rozszerzonej o oceny korzyści trudnych do wyceny pieniężnej oraz czynników zmienności i ryzyka. Źródło: opracowanie własne. Ilustruje to rysunek 1. Przedstawiona na nim schematycznie procedura składa się z sześciu kroków. Trzy pierwsze z nich to standardowe działania charakterystyczne dla klasycznych metod analizy efektywności ekonomicznej opartych na rachunkach analitycznych typu CBA (Cost Benefits Analysis), których możliwość stosowania zarówno w sferze zarządzania publicznego, jak i w obszarze IT została potwierdzona w licznych opracowaniach19. Ich autorzy podkreślają jednak często, że o ile strona nakładowo-kosztowa w tym rachunku jest przejrzysta oraz względnie prosta w identyfikacji i kwantyfikacji (w obszarze IT podstawą są zbióry praktyk TCO – Total Cost of Ownership), o tyle znacznie bardziej złożone jest identyfikowanie i kwantyfikowanie efektów ekonomicznych, zwłaszcza w ujęciu ex ante, a więc dla scenariuszy typu „to-be”. Proponują więc, aby oprócz tworzenia repozytoriów danych historycznych i porównawczych o uzyskanych wymiernych efektach i utraconych korzyściach, rozszerzyć proces badania o analizę kluczowych wskaźników efektywności (KPI – Key Performance Indicators), charakteryzujących wspomagane procesy organizacyjne czy biznesowe. Modelowanie oczekiwanych wartości KPI na bazie danych porównawczych pozwala w sposób pośredni wiarygodnie estymować możliwe do osiągnięcia przyrosty produktywności (redukcje kosztów i zmiany wskaźników wydajności). Jeżeli następnie chcemy do oceny 190 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... efektywności użyć zalecanych w analizie finansowej mierników (takich jak np. ROI, NPV, IRR czy MIRR), to zmiany wartości KPI trzeba przełożyć na konkretne wielkości finansowe20. Jest to na ogół możliwe, gdyż wiele z nich jest skojarzonych z określonymi obiektami kosztowymi lub przychodami. Proces taki jest jednak złożony, a tym samym praco- i czasochłonny. Dotyczy to zwłaszcza wyceny kosztów i korzyści społecznych, które są niejednokrotnie nie mniej ważne od wyników ekonomicznych i finansowych. W związku z tym, że sytuacja taka ma miejsce w przypadku telepracy, to kroki 4. i 5. zaproponowanej procedury (rysunek 1) modyfikują sposób użycia KPI. W przypadku korzyści trudnych do wyceny pieniężnej można proces analityczny ograniczyć do rejestrowania wartości wskaźników i badania ich zgodności z zaplanowanymi wielkościami docelowymi lub przejściowymi. Jest to podejście znane ze wszystkich procedur, których zadaniem jest ciągłe, ewolucyjne doskonalenie (continuous improvement) dowolnych procesów. Problemem pozostaje doboru zestawu właściwych wskaźników: celu (KGI – Key Goal Indicators) oraz efektywności (KPI). Wydaje się, że w przypadku analizowanego w opracowaniu wdrożenia telepracy określając taki zestaw można oprzeć się na modelu COBIT (Control Objectives for Information and related Technology) (IT Governance Institute 2007). Jest to powszechnie akceptowany standard tzw. ładu IT, opracowany przez ISACA i ITGI (IT Governance Institute), zawierający zbiór dobrych praktyk, w tym celów kontrolnych dla technologii informacyjnych i technologii powiązanych. Tworzy on przejrzysty i spójny model ramowego zarządzania IT w organizacjach. W wersji COBIT 4.1 cele i wskaźniki, których można użyć w obszarze telepracy, są zdefiniowane w procesie PO7 Zarządzanie zasobami ludzkimi IT21 (por. rysunek 2). Po przeanalizowaniu wskaźników efektywnościowych procesu PO7 uznano, że do pomiaru efektywności wdrożenia telepracy mogą być użyte następujące KPI: – liczba stanowisk pracy włączonych do programu telepracy, – liczba pracowników świadczących pracę w systemie telepracy, – koszt utrzymania stanowisk pracy włączonych do programu telepracy, – wskaźnik rotacji (liczba odejść w relacji do średniego poziomu zatrudnienia), – liczba umów o pracę rozwiązanych na wniosek pracownika, – liczba umów o pracę rozwiązanych za porozumieniem stron, – średnia liczba dni rekrutacji, – liczba opuszczonych dni pracy, – wskaźnik absencji (liczba opuszczonych dni pracy w relacji do liczby dni roboczych), – liczba dni roboczych utraconych z powodu nieplanowanych nieobecności, – wskaźnik zadań zrealizowanych terminowo (procentowy), – wskaźnik satysfakcji pracowników (poziom zadowolenia, zaufania i lojalności), – wskaźnik zainteresowania pracowników telepracą (procentowy). vol. 10, nr 3 (38), 2012 191 Mirosław Dyczkowski Wskaźniki – Poziom satysfakcji interesariuszy z wiedzy i umiejętności pracowników IT – Procent satysfakcji użytkowników IT – Procent pracowników IT spełniających profil kompetencyjny dla strategicznych ról – Procent obsadzenia ról IT – Procent dni roboczych utraconych z powodu nieplanowanych nieobecności – Procent pracowników IT, którzy ukończyli roczny plan szkoleń – Aktualna proporcja wykonawców zewnętrznych do pracowników, w stosunku do planowanej proporcji – Procent pracowników IT posiadających certyfikat bezpieczeństwa – Procent zapewnienia wykwalifikowanych zastępstw dla ról IT ją lizu ją lizu mierzone przez – Zatrudnianie i szkolenie pracowników IT do wspierania realizacji planu operacyjnego IT – Mitygacja ryzyka związanego z uzależnieniem od kluczowych pracowników IT – Okresowa ocena pracowników IT rea rea mierzone przez – Zbudowanie polityki zarządzania zasobami ludzkimi IT – Wykorzystanie wszystkich pracowników IT przy jednoczesnej minimalizacji uzależnienia się od kluczowych pracowników IT Działań wspierane przez – Pozyskanie i utrzymanie kompetencji IT wspierających realizację strategii IT – Elastyczne dopasowanie IT do oczekiwań biznesu Procesu wspierane przez Cele IT mierzone przez – Procent pracowników IT, którzy ukończyli ścieżkę szkoleń – Procent pracowników IT z udokumentowaną i terminowo przeprowadzoną oceną okresową – Procent kompletności opisu kart stanowisk wraz z wymaganymi kwalifikacjami – Wskaźnik rotacji pracowników IT – Procent pracowników IT posiadających wymagane certyfikaty – Średnia liczba dni rekrutacji Rys. 2. Cele i wskaźniki procesu PO7 Zarządzanie zasobami ludzkimi IT. Źródło: opracowanie własne na podstawie IT Governance Institute 2007. COBIT® 4.1, http://www.isaca.org/ Knowledge-Center/co-bit/Pages/Downloads.aspx, s. 57. Powyższa lista nie jest zamknięta i w konkretnych sytuacjach może być rozszerzona lub zawężona. Wybranych z niej KPI użyto w studium przypadku oceny pilotażowego wdrożenia programu telepracy, które jest przedstawione w następnej części opracowania. Ostatnim, szóstym krokiem procedury analitycznej przedstawionej na rysunku 1 jest rozszerzona ocena czynników zmienności i ryzyka, które nie są (poza dyskontem i badaniem profilu NPV) uwzględniane we wcześniejszych krokach. W tym celu powinno się uzupełnić badanie o analizę wrażliwości (what-if) i o analizę scenariuszową typu OBP (scenariusze optymistyczny, bazowy i pesymistyczny). W związku z tym, że są one szeroko opisane w literaturze przedmiotu22, pominiemy ich charakterystykę, a tylko pokażemy ich zastosowanie w prezentowanym studium przypadku. 192 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... 4. Studium przypadku 4.1. Ogólna charakterystyka środowiska wdrożenia Analizy tzw. krytycznych czynników sukcesu/porażki oraz liczne studia przypadków jednoznacznie wskazują, że największą szansę na powodzenie mają przedsięwzięcia o klarownie sformułowanych i jasno artykułowanych celach, spójnych ze strategiami biznesową i informatyzacji, mające pełne wsparcie zarządzających i angażujące na wszystkich etapach w możliwie dużym zakresie przyszłych użytkowników, a więc takie, które są dobrze wpisane w środowiska organizacji, których dotyczą. Podobnie jest z programami wdrażania telepracy. Dlatego też przed prezentacją wyników oceny efektywności krótko scharakteryzujemy badaną instytucję oraz najważniejsze założenia realizowanego tam programu. Weryfikację przyjętej metodyki oceny efektywności ekonomicznej wdrażania telepracy w zespołach informatycznych przeprowadzono w dużej instytucji publicznej, w której w 2011 r. rozpoczęto pilotażowy program telepracy23. W badanej instytucji telepraca nie była wcześniej szeroko stosowana, a zainteresowanie się tą formą świadczenia pracy wynika z przyczyn ekonomicznych i społecznych. Instytucja mieści się w centrum wielkiego miasta, gdzie ceny wynajmu powierzchni biurowych są wysokie, czego skutkiem są znaczne koszty utrzymania stacjonarnych stanowisk pracy. Poza tym duża część pracowników narzeka na czasochłonny dojazd do pracy i, ze względu na korki oraz odległość od miejsca zamieszkania, wnioskuje do przełożonych o przesunięcie godzin albo o elastyczny czas pracy. Dział IT funkcjonujący w instytucji zatrudnia prawie 100 pracowników. Wdrożono w nim system rejestracji czasu pracy oraz system stawiania i rozliczania zadań. Wszystkie zadania stawiane pracownikom mają precyzyjnie określone cele i wyniki. Instytucja jest od strony techniczno-organizacyjnej przygotowana do wdrożenia telepracy, gdyż ma opracowane i na bieżąco stosuje bezpieczne rozwiązania zdalnego dostępu do wewnętrznych zasobów informatycznych, posiada zdefiniowane standardy stacjonarnych i mobilnych stanowisk roboczych oraz funkcjonujący przez całą dobę system wsparcia (Service Desk). Największym wyzwaniem była natomiast zmiana kultury organizacyjnej i podniesienie świadomości co do telepracy oraz zminimalizowanie oporu przed wdrożeniem nowej formy pracy. Dlatego szczególna uwaga została zwrócona na następujące elementy: – nakierowanie systemu zarządzania na rezultaty, a nie na realizację działań; – nowe i pełne procedury działania, które oparto na kulturze zaufania i delegowaniu zadań do pracowników oraz na popieraniu ich wyobraźni, kreatywności i odpowiedzialności; – prowadzenie systematycznych szkoleń dla telepracowników i ich menedżerów. vol. 10, nr 3 (38), 2012 193 Mirosław Dyczkowski Ze względu na obecną kulturę organizacyjną oraz potrzebę osobistych kontaktów pracowników przyjęto mieszany model telepracy, w którym telepracownik miał pracować zdalnie przez 3 dni w tygodniu. Założono też, że telepracownikiem będzie mógł zostać każdy, kto będzie chciał, ale jednocześnie spełni ściśle określone kryteria. Będzie mógł również, bez żadnych konsekwencji, zrezygnować z tej formy pracy i powrócić do poprzedniej. 4.2. Pomiar i analiza efektywności wdrożenia finansowymi metodami dyskontowymi Zgodnie z przedstawioną wcześniej (punkt 3) koncepcją badania efektywności, pomiar i analizę należy zacząć od zastosowania klasycznych finansowych metod dyskontowych (por. kroki 1–3 na rysunku 1), opartych na rachunku CBA. Tabela 2 zawiera główne parametry programu wdrożenia telepracy, na podstawie których kwantyfikowano wartości niezbędnych nakładów i kosztów oraz oczekiwanych efektów. Wyszczególnienie 2012 2013 Średni roczny pełny koszt zapewnienia stanowiska pracy w siedzibie instytucji 960 zł Średni koszt dostosowania jednego stanowiska pracy w instytucji dla telepracownika (tzw. gorące biurko) 2 000 zł po 50 000 zł rocznie Procent czasu pracy telepracownika poza instytucją Koszty wdrożenia (pierwszy rok) oraz utrzymania (kolejne lata) programu telepracy Liczba telepracowników narastająco 2015 13 000 zł Średni roczny pełny koszt dostępu telepracownika do sieci Roczny koszt szkolenia dla grupy telepracowników i ich menedżerów włączanych do programu telepracy 2014 0,00 zł 60%, tj. 3 dni w tygodniu 100 000 zł 10 po 30 000 zł rocznie 20 30 30 Tab. 2. Podstawowe parametry analizowanego wdrożenia telepracy. Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 24. Oszacowane na bazie tych parametrów wielkości wymaganych nakładów i kosztów prezentuje tabela 3. Z kolei zestawienie wysokości oczekiwanych bezpośrednich efektów ekonomicznych zawiera tabela 4. Zgodnie z przyjętymi wcześniej założeniami (por. kroki 4. i 5. procedury z rysunku 1), ze względu na nieracjonalne koszty związane z wyceną pieniężną korzyści oraz 194 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... późniejszą jej aktualizacją, zrezygnowano z takiej wyceny korzyści związanych ze zwiększeniem efektywności pracowników oraz z ich rekrutacją i utrzymaniem. Uwzględniono je natomiast w monitorowanych wskaźnikach wdrożenia telepracy (zob. tabela 8). Wyszczególnienie Pełne nakłady i koszty wdrożenia programu Pełne koszty dostosowania stanowisk pracy Pełny koszt dostępu telepracowników do sieci Szkolenia i warsztaty telepracowników i ich menedżerów Koszty utrzymania programu telepracy Razem nakłady i koszty 2012 2013 2014 2015 100 000 0 0 0,00 12 000 12 000 12 000 0,00 9 600 19 200 28 800 28 800,00 50 000 50 000 50 000 0,00 0 30 000 30 000 30 000,00 171 600 111 200 120 800 58 800,00 Tab. 3. Przewidywane nakłady i koszty wdrożenia programu telepracy (w zł). Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 25. Wyszczególnienie Zmniejszone koszty zapewnienia stanowisk pracy Zmniejszone koszty absencji telepracowników Razem efekty 2012 2013 2014 2015 39 000 156 000 234 000 234 000 1 800 7 200 10 800 10 800 40 800 163 200 244 800 244 800 Tab. 4. Przewidywane efekty ekonomiczne wdrożenia programu telepracy (w zł). Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 25. Tabela 5 prezentuje zestawienie przepływów pieniężnych (cash flow) wdrożenia, stanowiące podstawę do obliczenia wartości NPV, IRR i MIRR. Z kolei wartości tych miar efektywności, obliczone dla 3- i dla 4-letniego cyklu życia programu telepracy przedstawia tabela 6. W związku z tym, że obliczone miary odnoszą się wyłącznie do wariantu bazowego i nie uwzględniają czynników zmienności i ryzyka, konieczne jest – jak wskazano wcześniej – ich zweryfikowanie dla innych scenariuszy wdrożenia. W tym celu użyto metod analizy wrażliwości i scenariuszowej, a ich wyniki przedstawiono w kolejnym punkcie opracowania. vol. 10, nr 3 (38), 2012 195 Mirosław Dyczkowski Wyszczególnienie 2013 2014 171 600 2012 111 200 120 800 58 800 40 800 163 200 244 800 244 800 –130 800 52 000 124 000 186 000 1,0000 0,9200 0,8465 0,7788 Zdyskontowane przepływy pieniężne (NCF × CO) –130 800 47 842 104 965 144 859 Skumulowane zdyskontowane przepływy pieniężne –130 800 –82 958 22 007 166 866 Nakłady i koszty (CF–) Efekty (przewidywane korzyści oraz redukcje kosztów CF+) Przepływy pieniężne netto (NCF) Współczynnik dyskonta 10% (CO) 2015 Tab. 5. Przepływy pieniężne w ramach wdrożenia programu telepracy (w zł) Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 26. Wskaźnik efektywności ekonomicznej 2012–2014 (3 lata) 2012–2015 (4 lata) Zmiana procentowa NPV 18 952,07 zł 158 696,62 zł 837,4% IRR 19,25% 57,39% 298,1% MIRR 18,04% 43,94% 243,6% Tab. 6. Wskaźniki efektywności ekonomicznej wdrożenia programu telepracy. Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 27–28. 4.3. Rozszerzona analiza i finalna ocena efektywności ekonomicznej wdrożenia telepracy Ostatnim, szóstym krokiem zaproponowanej procedury (por. rysunek 1) jest rozszerzona ocena efektywności uwzględniająca czynniki zmienności i ryzyka, w której stosuje się metody analizy wrażliwości i scenariuszowej. Jej wyniki prezentują tabele 7 i 8. Na podstawie danych zawartych w pierwszej z nich można stwierdzić, że zwłaszcza przy 4-letnim okresie analitycznym projekt cechują duże marginesy bezpieczeństwa. Dotyczy to zarówno jego strony nakładowo-kosztowej, jak i efektów. Natomiast jeżeli chodzi o przedstawione w tabeli 8 wyniki analizy scenariuszowej, a więc wyliczone dla poszczególnych scenariuszy wartości NPV, IRR i MIRR, można zauważyć, że projekt – poza scenariuszem pesymistycznym dla 3-letniego okresu analitycznego – w pełni spełnia we wszystkich przypadkach tzw. bezwzględne kryterium opłacalności, gdyż NPV 암 0 oraz IRR i MIRR 암 kgr24. 196 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... 2012–2014 (3 lata) 2012–2015 (4 lata) Zmiana procentowa Margines bezpieczeństwa dla nakładów i kosztów 5,09 38,08 748,1 Margines bezpieczeństwa dla efektów –4,84 –27,58 569,9 Wskaźnik efektywności ekonomicznej Tab. 7. Wybrane wyniki analizy wrażliwości wdrożenia programu telepracy (w %). Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 27–28. Wskaźnik efektywności Scenariusz optymistyczny bazowy pesymistyczny 3-letni okres analityczny (lata 2012–2014) NPV 63 571,40 zł 18 952,07 zł –23 667,27 zł IRR 44,55% 19,25% –0,69% MIRR 37,87% 18,04% 0,97% 4-letni okres analityczny (lata 2012–2015) NPV 212 512,05 zł 158 696,62 zł 105 378,56 zł IRR 80,77% 57,39% 39,08% MIRR 57,13% 43,94% 32,30% Tab. 8. Wyniki analizy scenariuszowej wdrożenia programu telepracy. Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa. Jak wskazano wcześniej, w analizie prowadzonej finansowymi metodami dyskontowymi nie uwzględniano przy szacowaniu korzyści części wskaźników efektywnościowych (KPI) telepracy, gdyż ich wycena pieniężna jest zbyt złożona, czaso- i pracochłonna, a tym samym nieracjonalna z punktu widzenia koniecznych do poniesienia kosztów. Nie oznacza to, że je w badaniu i ocenie ostatecznej wdrożenia pominięto. Są one na bieżąco monitorowane na podstawie danych rejestrowanych przez odpowiednie służby lub systemy działające w instytucji w sferze zarządzania zasobami ludzkimi (tabela 9). Kończąc prezentację, należy podkreślić, że w analizowanym przypadku wszystkie warunki i wynikające z nich kryteria efektywności są spełnione, więc można uznać badany projekt za opłacalny w ujęciu ekonomicznym i udzielić rekomendacji dla rozpoczęcia wdrożenia telepracy w zespołach informatycznych badanej instytucji. vol. 10, nr 3 (38), 2012 197 Mirosław Dyczkowski Wskaźnik efektywności (KPI) Źródło danych Uwagi Cykl pomiaru Liczba stanowisk pracy objętych projektem Administracja Miesięczny Koszt utrzymania stanowisk pracy objętych projektem Administracja Miesięczny Wskaźnik rotacji pracowników Kadry W podziale na pracowników i telepracowników Miesięczny Liczba umów rozwiązanych na wniosek pracownika Kadry W podziale na pracowników i telepracowników Miesięczny Liczba umów rozwiązanych za porozumieniem stron Kadry W podziale na pracowników i telepracowników Miesięczny Średnia liczba dni rekrutacji Kadry W podziale na pracowników i telepracowników Miesięczny Liczba dni nieobecności w pracy System rejestracji czasu pracy W podziale na pracowników i telepracowników Miesięczny Procent zadań zrealizowanych terminowo System rejestracji czasu pracy W podziale na pracowników i telepracowników Miesięczny Liczba pracowników świadczących pracę w formie telepracy Kadry Poziom zadowolenia pracowników Cykliczne badania ankietowe Miesięczny W podziale na pracowników i telepracowników Półroczny Tab. 9. Dodatkowe wskaźniki efektywnościowe (KPI) dla projektu wdrożenia telepracy. Źródło: opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 21–22. 5. Zamiast podsumowania Instytucje publiczne – podobnie jak sfera biznesu – w obliczu spadku nakładów finansowych na IT, wywołanego m.in. przez kryzys gospodarczy, oraz stale rosnących kosztów pracy zatrudnionych tam zespołów informatycznych ciągle poszukują możliwości ich racjonalizacji. Jedną z opcji jest powszechniejsze stosowanie telepracy jako elastycznej organizacyjnie, efektywnej ekonomicznie oraz zorientowanej prospołecznie i proekologicznie formy zatrudnienia. 198 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... Autor ma nadzieję, że stanowiące treść opracowania rozważania, w tym szczególnie koncepcja pomiaru i oceny efektywności oraz bazujące na niej studium przypadku wdrożenia telepracy, przyczynią się do upowszechnienia wiedzy na ten tak istotny temat i tym samym spowodują częstsze korzystanie z tej formy zatrudnienia w zespołach informatycznych. Informacje o autorze Dr Mirosław Dyczkowski – Instytut Informatyki Ekonomicznej, Katedra Technologii Informacyjnych, Uniwersytet Ekonomiczny we Wrocławiu. E-mail: [email protected]. Przypisy 1 Szerzej na temat podobieństw i różnic pomiędzy analizą finansową i ekonomiczną zob. m.in.: Drobniak 2008: 67–192. 2 Celem badania było określenie wpływu obecnego kryzysu gospodarczego na strategie informatyzacji przedsiębiorstw i instytucji. Szerokie omówienie jego wyników, z uwzględnieniem sektora publicznego, zawiera praca: Dyczkowski 2011b: 121–138. Badania kontynuowano w latach 2011-2012, a ich wyniki są sukcesywnie publikowane. Zob. m.in.: Dyczkowski 2011c: 102–117; Dyczkowski i Dyczkowski 2012 (w druku). 3 Wysokie i stale rosnące w Polsce koszty pracy we wszystkich praktycznie zawodach informatycznych w kontekście analizowanego w artykule problemu telepracy związane są m.in. ze względną łatwością świadczenia przez polskich informatyków pracy na rynkach krajów o zdecydowanie wyższym poziomie wynagrodzeń i to często nawet bez konieczności migracji (emigracji). Z jednej strony bowiem „praca przychodzi do nich” (wiele firm lokalizuje u nas swoje oddziały czy centra kompetencyjne lub usługowe), z drugiej zaś technologie wytwarzania i rozwoju większości produktów i usług IT pozwalają na ich bezproblemową zdalną obsługę. Sytuacja ta wywołuje zjawisko wyrównywania wynagrodzeń w górę, do poziomu krajów wyżej rozwiniętych, co w połączeniu z dużymi narzutami na płace w Polsce wywołuje wskazany wzrost kosztów pracy w sferze IT. 4 Elastyczność organizacyjna oraz orientacja prospołeczna i proekologiczna są w wielu opracowaniach wskazywane jako te cechy telepracy, które powodują, że jest ona coraz szerzej wdrażana jako alternatywna forma zatrudnienia lub świadczenia pracy. Zob. m.in. fundamentalną pracę: Nilles 2003 oraz manifesty: TelCoa’s Top 10 Reasons to Telework© (http://www.telcoa.org/about-us/telcoas-top-10-reasons-to-telework) i Why do we keep trying to solve today’s economic, energy, and environmental problems… with yesterday’s transportation-based solutions? (http://www.telcoa.org). Ten ostatni dokument – zachęcając do stosowania telepracy – podaje następującą formułę na „udaną pracę na dziś i jutro”: IT + P3 = E3, zgodnie z którą poprawa gospodarki, racjonalizacja zapotrzebowania na energię oraz ochrona środowiska E³ (economic, energy and environmental) zależą od stopnia połączenia stale rozwijanej technologii informacyjnej IT (information technologies) z odpowiednimi politykami, procesami i procedurami P³ (policies, processes and procedures). 5 Model mieszany telepracy, który występuje najczęściej i jest najłatwiej akceptowany zarówno przez pracowników, jak i pracodawców, polega na przemiennym wykonywaniu pracy w kilku miejscach, np. w domu, telecentrum, firmie klienta, siedzibie pracodawcy. Oprócz mieszanego, najczęściej wyróżnia się jeszcze dwa modele: vol. 10, nr 3 (38), 2012 199 Mirosław Dyczkowski (1) wyłącznego wykonywania telepracy przez pracownika w domu oraz (2) wyłącznego jej świadczenia w miejscu specjalnie przeznaczonym do telepracy (telecentrum), a więc zarówno poza miejscem zamieszkania pracownika, jak i poza siedzibą firmy. Szerzej m.in. w: Łodyga 2007; Sienkiewicz i Świeboda 2004: 27–40. 6 Najczęściej przyjmuje się, że pojęcie telepracy narodziło się w latach siedemdziesiątych ubiegłego wieku, a za „ojca” telepracy uznaje się J.M. Nillesa, twórcę idei telecommute (szerzej w: Nilles 2003), ale trzeba zauważyć, że początkiem realnej telepracy w IT jest powstanie w Wielkiej Brytanii w 1962 r. firmy programistycznej F International, która jako pierwsza zatrudniała kobiety pracujące zdalnie w swoich domach. Natomiast sam termin telepraca (telework) został po raz pierwszy użyty 1972 r. przez J. Schiffa na łamach Washington Post (zob. m.in. Janiec i in. 2006: 15–20; Harnik 2008: 31). 7 Przykładem tego mogą być badania przytaczane w pracy M. Janiec i in (2006: 36), które podają, że wzrost efektywności pracownika dzięki wdrożeniu telepracy wynosi od 15% do 30%, zależnie od sposobów powiązania wynagrodzenia z efektami pracy oraz kontroli telepracowników. 8 Przykładem może być wystąpienie prezydenta Baracka Obamy, który w marcu 2010 r. w Kongresie Stanów Zjednoczonych, na forum dotyczącym elastyczności pracy powiedział m.in., że „praca to jest to, co robisz, a nie to, gdzie robisz” i podkreślił rolę telepracy w tworzeniu nowych, elastycznych miejsc pracy. Zob. United States Office of Personnel Management 2011b: 7. 9 Na przykład Unia Europejska uwzględnia telepracę w kolejnych strategiach rozwoju społeczeństwa informacyjnego, poczynając od strategii lizbońskiej, poprzez takie inicjatywy jak „eEurope – an Information Society for All”, kończąc na szczegółowych programach typu Telework, i zapewnia ich finansowanie w sferze badań i rozwoju oraz projektów wdrożeniowych. Z kolei w Polsce telepraca – zwłaszcza w obszarze zarządzania publicznego – stanowi ważny element kolejnych Strategii informatyzacji, a także licznych programów i projektów centralnych (przykładem są współfinansowane przez Ministerstwo Rozwoju Regionalnego i PARP programy Telepraca I i II) oraz regionalnych (w tym współfinansowanych przez lokalne agencje rozwoju regionalnego). Szerzej m.in. w: Badanie efektywności... 2010; MAiC 2012; Janiec i in. 2006; MSWiA 2008; Harnik 2008. 10 Ustawa Kodeks Pracy z dnia 26 czerwca 1974 roku z późniejszymi zmianami – tekst ujednolicony, stan prawny na dzień 28.07.2011, rozdz. IIb, (http://www.prawopracy. pl/graf/Kodeks_pracy.pdf), zgodnie z którą jako telepracę uznaje się pracę wykonywaną regularnie poza zakładem pracy, z wykorzystaniem środków komunikacji elektronicznej w rozumieniu przepisów o świadczeniu usług drogą elektroniczną (Art. 675 §1). 11 Należy jednak zaznaczyć, że mimo stworzenia odpowiednich regulacji prawnych, nadal elastyczne formy zatrudnienia – w tym telepraca – są bardzo słabo rozpowszechnione na polskim rynku pracy. Według badań przeprowadzonych na zlecenie PARP przez MillwardBrown SMG/KR w lutym 2010 tylko 11,2% pracowników deklarowało chęć pracy jako telepracownicy. Z badań tych też m.in. wynika, że największym problemem, ograniczającym rozwój telepracy w Polsce, jest kwestia mentalności pracodawców i pracowników. Pierwsi nie chcą tracić stałego nadzoru nad pracownikiem, drudzy uznają zdalne zatrudnienie za mniej atrakcyjne i bezpieczne od typowej pracy na etacie. Zob. Badanie efektywności… 2010: 39. 12 W przypadku administracji i służb publicznych już w planie eEurope 2005 zawarto wytyczne Komisji Europejskiej definiujące 20 podstawowych usług publicznych, jakie powinny być świadczone obywatelom (12 usług) i przedsiębiorstwom (8 usług) drogą elektroniczną. Dotyczy to także naszego kraju. Szeroko na ten temat m.in. w doku- 200 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... mencie MSWiA 2008. Także najnowsza, ciągle doskonalona Długookresowa Strategia Rozwoju Kraju Polska 2030 w ramach agendy „Polska Cyfrowa” za jeden z pięciu kluczowych przyjmuje projekt III.4 „Wdrożenie mechanizmów nowoczesnej debaty społecznej i komunikacji Państwa z obywatelami, obejmujące zmianę procedur administracyjnych, wspartą wykorzystaniem narzędzi ICT”. Zob. MAiC 2012: 11 i 135. 13 Zob. m.in.: Federal Government’s Telework Program (http://www.telework.gov); United States Office of Personnel Management 2011a; U.S. Government Accountability Office 2003; United States Office of Personnel Management 2011b. 14 Listy i szczegółowe opisy zawodów oraz specjalizacji informatycznych zawierają m.in.: Klasyfikacja Zawodów i Specjalności (pełna wersja jest dostępna m.in. na stronach Ministerstwa Pracy i Polityki Społecznej – http://www.psz.praca.gov.pl/main.php?do=ShowPage&nPID=867758&pT=details&sP=CONTENT,object ID,868220) oraz dokumentacja Europejskiego Certyfikatu Zawodu Informatyka, część Professional EUCIP (European Certification of Informatics Professionals) opracowana przez CEPIS (Council of European Professional Informatics Societies), w tym przez Polskie Towarzystwo Informatyczne (http://www.eucip.pl). 15 Zob. m.in. MAiC 2012 oraz MSWiA 2008. 16 Potwierdzają to na przykład dane z firmy Cisco Polska, w której ponad 90% pracowników na bieżąco korzysta z formy telepracy w modelu mieszanym. Podano za Błaszczak 2011. 17 Zob. monografie poświęcone efektywności ekonomicznej IT, takie m.in. jak: Cypryjański 2007; Dudycz i Dyczkowski 2006; Jeruzalski 2009; Lech 2007. 18 Zob. porównanie przedstawione w pracy: Kasiewicz i Rogowski 2009: 144. 19 Zob. m.in. przywoływane wcześniej prace: Cypryjański 2007; Dudycz i Dyczkowski 2006; Jeruzalski 2009; Lech 2007; Rogowski 2008. 20 Autor przedstawił przykład użycia takiego podejścia m.in. w pracach Dyczkowski 2011a: 197–215 oraz Dyczkowski 2012: 45–54. 21 Najnowszym wydaniem modelu jest wersja COBIT 5, która została przyjęta w kwietniu 2012 r., a więc już po przygotowaniu założeń do opisywanego w opracowaniu badania. W wersji tej odpowiednikiem PO7 jest proces APO7 Manage Human Resources, w którym zdefiniowano analogiczne cele i wskaźniki. Szersze dane są dostępne na stronie http://www.isaca.org/COBIT/Pages/default.aspx. 22 Zob. m.in. prace: Dyczkowski 2008: 151–164; Rogowski 2008: rozdz. 3 i powoływane tam opracowania innych autorów. 23 Weryfikację przeprowadzono we współpracy z T. Kordeckim, który pod kierunkiem autora napisał pracę dyplomową na Studium Podyplomowym Efektywne Zarządzanie IT w Przedsiębiorstwie, prowadzonym w Szkole Głównej Handlowej. Zob. Kordecki 2011 (maszynopis). 24 Wartość stopy granicznej kgr na ogół jest przyjmowana w projektach komercyjnych z elementami społecznymi na poziomie równym średniemu ważonemu kosztowi pozyskania kapitału (WACC). Dopuszcza się przy tym sytuacje, że w przypadku występowania przewagi efektów społecznych – a takie są w przypadku wdrażania telepracy – może być ona nawet niższa. Szerzej na ten temat m.in. prace: Drobniak 2008; Kasiewicz i Rogowski 2009; W. Rogowski 2008. vol. 10, nr 3 (38), 2012 201 Mirosław Dyczkowski Bibliografia Badanie efektywności ogólnopolskiej kampanii informacyjno-promocyjnej, realizowanej przez PARP w latach 2009-2011 oraz kampanii świadomościowej realizowanej w ramach projektu „Ogólnopolski program promocji i szkoleń dla przedsiębiorców Telepraca II” 2010. Etap I – Pretest, raport przygotowany dla PARP przez MillwardBrown SMG/KRC, Warszawa, http://www.efs.gov.pl/AnalizyRaportyPodsumowania/ba-za_projektow_ badawczych_efs/Strony/Badanieefektywnocioglnopolskiejkamp28032011.aspx. Błaszczak, A. 2011. Mało telepracy w polskich firmach. Rzeczpospolita, 13.04.2011, http:// www.rp.pl/artykul/295881,642167.html. Cypryjański, J. 2007. Metodyczne podstawy ekonomicznej oceny inwestycji informatycznych przedsiębiorstw, Szczecin: Wydawnictwo Naukowe Uniwersytetu Szczecińskiego, seria „Rozprawy i studia”, t. 669. Drobniak, A. 2008. Podstawy oceny efektywności projektów publicznych, Katowice: Akademia Ekonomiczna w Katowicach. Duda, J., Jeżowski, A., Misiąg, W., Nowak, B., Szlachta, J. i J. Zaleski 2004. Mierzenie ilości i jakości usług publicznych jako element Programu Rozwoju Instytucjonalnego, Warszawa: Instytut Badań nad Gospodarka Rynkową. Dudycz, H. i M. Dyczkowski 2006. Efektywność przedsięwzięć informatycznych. Podstawy metodyczne pomiaru i przykłady zastosowań, Wrocław: Wydawnictwo Akademii Ekonomicznej we Wrocławiu. Dyczkowski, M. 2008. Analizy wrażliwości i scenariuszowa jako techniki wspomagające ocenę efektywności przedsięwzięć informatycznych w warunkach zmienności i ryzyka, w: J.K. Grabara, J.S. Nowak i T. Lis (red.) Przegląd zastosowań informatyki, s. 151–164. Katowice: Polskie Towarzystwo Informatyczne – Oddział Górnośląski. Dyczkowski, M. 2011a. Kalkulatory ROI/TCO jako narzędzie wspomagające zarządzanie efektywnością systemów informatycznych. Podstawy metodyczne konstrukcji i studium przypadku, w: W. Chmielarz, J. Kisielnicki i O. Szumski (red.) Informatyka 4 przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego, rozdz. 2.4, s. 197–215. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego. Dyczkowski, M. 2011b. Zmiany strategii informatyzacji pod wpływem kryzysu gospodarczego. Wyniki badań ankietowych z lat 2009–2010 z uwzględnieniem sektora administracji publicznej, w: J. Goliński, A. Kobyliński, A. Sobczak (red.) IT w służbie efektywnego państwa. Technologie informatyczne w administracji publicznej i służbie zdrowia, seria „Monografie i Opracowania” nr 586, s. 121–138. Warszawa: Szkoła Główna Handlowa w Warszawie. Dyczkowski, M. 2011c. Zmiany strategii informatyzacji polskich obiektów gospodarczych pod wpływem kryzysu gospodarczego. Podsumowanie badań z lat 2009–2011. Informatyka Ekonomiczna (Business Informatics), nr 22/2011, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu nr 212, s. 102–117. Dyczkowski, M. 2012. Źródła wiedzy wspomagania procesu zarządzania efektywnością zastosowań systemów klasy FSM/FFA w obszarze zarządzania publicznego, w: J. Gołuchowski (red.) Technologie wiedzy w zarządzaniu publicznym, Zeszyty Naukowe Wydziałowe Uniwersytetu Ekonomicznego w Katowicach, Studia Ekonomiczne nr 99, s. 45–54. Dyczkowski M. i T. Dyczkowski 2012. Changes in informatization strategies of Polish companies and institutions in reaction to the economic crisis. Summary of the surveys from the years 2009-2011, in: Federated Conference on Computer Science and Information Systems FedCSIS 2012, Wrocław (w druku). Habuda, A. i L. Habuda 2005. Zarządzanie w zachodniej administracji publicznej (nowe zarządzanie publiczne), w: R. Wiszniowski (red.) Administracja i polityka. Europejska Administracja Publiczna, s. 93–112. Wrocław: Wydawnictwo Uniwersytetu Wrocławskiego. 202 Problemy Zarządzania Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych... Harnik, I. (red.) 2008. Telepraca i usługi zdalne, e-Przedsiębiorczość, Kraków: Małopolska Agencja Rozwoju Regionalnego, http://www.marr.pl/multimedia/0000/3473/Telepra-ca_i_uslugi_zdalne_publikacja.pdf. IT Governance Institute 2007. COBIT® 4.1, http://www.isaca.org/Knowledge-Center/ co-bit/Pages/Downloads.aspx. Janiec, M., Czerniak, T., Kreft, W. i R. Piontek 2006. Prowadzenie działalności biznesowej z zastosowaniem telepracy – poradnik, Telepraca. Ogólnopolski Program Promocji i Szkoleń dla Przedsiębiorców, Warszawa: Polska Agencja Rozwoju Przedsiębiorczości, http://www.praca.czestochowaonline.pl/telepraca.pdf. Jeruzalski, T. 2009. Efektywność i skuteczność wdrażania systemów IT w administracji publicznej. Wspomaganie procesów podejmowania decyzji, Warszawa: Wydawnictwo CeDeWu. Kasiewicz, S. i W. Rogowski 2009. Inwestycje hybrydowe – nowe ujęcie oceny efektywności, Warszawa: Szkoła Główna Handlowa. Kordecki, T. 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa. Lech, P. 2007. Metodyka ekonomicznej oceny przedsięwzięć informatycznych wspomagających zarządzanie organizacją, Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego. Lubińska, T. (red.) 2009. Nowe zarządzanie publiczne – skuteczność i efektywność, Warszawa: Difin. Łodyga, O. 2007. Telepraca – możliwości i ograniczenia. e-Mentor, nr 3 (20), http:// www.e-mentor.edu.pl/artykul/index/numer/20/id/443. MAiC 2012. Długookresowa Strategia Rozwoju Kraju Polska 2030. Trzecia fala nowoczesności, Warszawa: Ministerstwo Administracji i Cyfryzacji, http://mac.gov.pl/strategie. MSWiA 2008. Strategia rozwoju społeczeństwa informacyjnego w Polsce do roku 2013, Warszawa: Ministerstwo Spraw Wewnętrznych i Administracji, http://mac.gov.pl/strategie. Nilles, J. 2003. Telepraca, strategie kierowania wirtualną załogą, Warszawa: Wydawnictwo Naukowo- Techniczne. Rogowski, W. 2008. Rachunek efektywności inwestycji, Kraków: Oficyna a Wolters Kluwer business. Sienkiewicz, P. i H. Świeboda 2004. Analiza systemowa telepracy, w: L.H. Haber (red.) Społeczeństwo informacyjne – wizja czy rzeczywistość? tom II, s. 27–40. Kraków: AGH, http://winntbg.bg.agh.edu.pl/skrypty2/0096/027-040.pdf. U.S. Government Accountability Office 2003. HUMAN CAPITAL Further Guidance, Assistance, and Coordination Can Improve Federal Telework Efforts, GAO-03-679, http://www.gao.gov/new.items/d03679.pdf. United States Office of Personnel Management 2011a. Guide to Telework in the Federal Government, http://www.telework.gov/guidance_and_legislation/telework_guide/telework_guide.pdf. United States Office of Personnel Management 2011b. Status of Telework in the Federal Government – Report to the CONGRESS, http://www.telework.gov/Reports_and_Studies/Annual_Reports/2010teleworkreport.pdf. Ustawa Kodeks Pracy z dnia 26 czerwca 1974 roku z późniejszymi zmianami – tekst ujednolicony, stan prawny na dzień 28.07.2011, http://www.prawopracy.pl/graf/Ko-deks_pracy.pdf. vol. 10, nr 3 (38), 2012 203 Problemy Zarządzania, vol. 10, nr 3 (38): 204 – 218 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.12 Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji, oparte na ontologii wielowymiarowego systemu wczesnego ostrzegania Helena Dudycz Celem artykułu jest przedstawienie badania dotyczącego oceny użyteczności zastosowania wizualizacji sieci semantycznej w wyszukiwaniu informacji ekonomicznej. W związku z tym krótko opisano wyszukiwanie informacji oparte na wizualizacji sieci semantycznej. Omówiono zaproponowaną metodę badawczą dotyczącą weryfikacji wykorzystania mapy pojęć w procesie analizy wskaźników ekonomicznych. Przedstawiono założenia przeprowadzonego eksperymentu i jego uczestników. Omówiono otrzymane dane oraz przeprowadzono ich analizę. Na końcu wskazano dalsze kierunki prowadzenia badań. 1. Wprowadzenie Kadra kierownicza, analizując wskaźniki ekonomiczne, oczekuje, że w trakcie eksploracji danych z systemów informatycznych będzie mogła dynamicznie zmieniać szczegółowość rozpatrywanych danych również ze względu na powiązania semantyczne istniejące między różnymi pojęciami ekonomicznymi. Wymaga to rozwiązania dwóch istotnych zagadnień: reprezentacji wiedzy o różnorodnych zależnościach między wskaźnikami ekonomicznymi w systemie informatycznym oraz zastosowania, oprócz tradycyjnych metod wyszukiwania informacji, narzędzi pozwalających na przeszukiwanie kontekstowe. Przy czym kadra kierownicza oczekuje, że będzie to realizowane za pomocą intuicyjnego interfejsu, pozwalającego na łatwe i szybkie pozyskiwanie informacji. Problematyka wyszukiwania informacji bazującego na sieciach semantycznych jest przedmiotem wielu opracowań i dotyczy różnych obszarów (zob. m.in. Andaroodi i in. 2004; Wienhofen 2010; Wurzer i Smolnik 2008; Yi 2008). W podejściu tym zwraca się dużą uwagę na rolę wizualizacji sieci semantycznej, która nie tylko jest narzędziem do prezentacji danych, ale także stanowi interfejs pozwalający na interaktywne wizualne wyszukiwanie informacji (zob. m.in. Grand i Soto 2010; Wienhofen 2010). 204 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... Jednym z proponowanych rozwiązań, które pozwoli na wizualne wyszukiwanie informacji bazujące na sieci semantycznej jest mapa pojęć (topic map – TM). Jest to standard wprowadzony przez International Organization for Standardization (ISO/IEC 13250:2000). TM stanowi abstrakcyjną strukturę pozwalającą odwzorować wiedzę z danej dziedziny oraz umożliwiającą przeglądanie odpowiednich zasobów z nią związanych (Garshol i Moore 2005). Pojęcia znajdujace się w TM mogą być powiązane z wieloma zasobami informacyjnymi, odpowiadającymi ich kontekstowi oraz je opisującymi (zob. m.in. Ahmed i Moore 2006; Pepper 2000). W ten sposób można zbudować sieć semantyczną ponad zasobami informacji (zob. m.in. Grand i Soto 2000; Rath 2001), która pozwala na łatwą nawigację po rozproszonych źródłach danych (zob. m.in. Korczak i Dudycz 2009: 88–89; Weber, Eilbracht i Kesberg 2008: 1). A zatem TM może pełnić w pewnym sensie rolę interfejsu między użytkownikiem a różnymi bazami danych, umożliwiając wyszukiwanie i pozyskiwanie unikatowych informacji (Wurzer i Smolnik 2008: 172) ze względu na zależności kontekstowe. Prowadzone są badania nad zastosowaniem TM do reprezentacji ontologii dotyczących analizy wskaźników ekonomicznych, jak i wizualnego wyszukiwania informacji ze względu na istniejące zależności semantyczne (zob. m.in. Dudycz 2011a; 2011b; 2010b). Celem ich jest również weryfikacja użyteczności zastosowania TM jako wizualnego interfejsu wspomagającego wyszukiwanie kontekstowe w procesie analizy wskaźników ekonomicznych. W niniejszym artykule omówiono wyniki przeprowadzonego eksperymentu na bazie utworzonej aplikacji zbudowanej ontologii wielowymiarowego systemu wczesnego ostrzegania (WSWO) dla przedsiębiorstw produkcyjnych. Struktura artykułu jest następująca. W następnym punkcie krótko opisano wizualizację sieci semantycznej w mapie pojęć w kontekście wyszukiwania informacji. W kolejnym omówiono zaproponowaną metodę badawczą dotycząca weryfikacji wykorzystania mapy pojęć w procesie analizy wskaźników ekonomicznych. W punkcie czwartym krótko przedstawiono założenia przeprowadzonego eksperymentu, w piątym zaś – jego uczestników oraz przebieg badania. Natomiast w punkcie szóstym omówiono uzyskane dane, koncentrując się na ocenie heurystycznej1, oraz przedstawiono wynikające z nich wnioski. Na końcu przeprowadzono krótkie podsumowanie oraz wskazano dalsze badania2. 2. Wizualizacja sieci semantycznej w mapie pojęć a wyszukiwanie informacji Metodą graficzną, którą można wykorzystać w procesie wizualnego wyszukiwania informacji, jest mapa pojęć. Jest to rozwiązanie, które może efektywnie wspomóc eksplorację danych, ułatwiając pozyskiwanie istotnych informacji z różnorodnych baz danych istniejących w przedsiębiorstwie, jak i z zewnętrznych źródeł. TM bazuje na trzech elementach: pojęciach, powiąvol. 10, nr 3 (38), 2012 205 Helena Dudycz zaniach (czyli relacjach występujących pomiędzy pojęciami) oraz wystąpieniach (zwanych również instancjami indeksowanych źródeł informacji związanych z danym pojęciem). Jest stosunkowo nową formą prezentacji wiedzy, która kładzie nacisk na semantykę danych i łatwość znalezienia potrzebnych informacji (zob. Ahmed i Moore 2006; Pimentel, Suárez i Caparrini 2009: 30). TM pozwala na wyświetlanie całej sieci semantycznej, gdzie po zastosowaniu różnych technik interaktywnych można pozyskać zarówno potrzebne, jak i unikatowe informacje (Wurzer i Smolnik 2008). W wyszukiwaniu semantycznym w TM wizualizacja odgrywa istotną rolę, dzięki niej użytkownicy mogą szybciej zauważyć i zrozumieć różne zależności istniejące między pojęciami – zarówno strukturalne, jak i semantyczne oraz pozyskać dane źródłowe. Występuje tutaj możliwość interaktywnego wybierania analizowanych zagadnień (pojęć lub relacji) oraz zmieniania obszaru prezentowanych szczegółów. W wyszukiwaniu semantycznym w TM wizualizacja udostępnia ogólny widok lub wybrany fragment, umożliwiając użytkownikowi zidentyfikować interesujące go podzbiory danych lub struktury. Stanowi to podstawę do rozpoczęcia interaktywnego procesu wizualnego wyszukiwania informacji. Po identyfikacji przez użytkownika interesujących go struktur można przeprowadzać różnego rodzaju operacje filtrowania. Zastosowana prezentacja danych oraz wyszukiwanie informacji mają duży wpływ na sposób, w jaki kadra kierownicza zinterpretuje dane oraz jak oceni użyteczność danego rozwiązania. Interaktywna wizualizacja danych sprzyja odkrywczemu spojrzeniu na nie przez menedżera, pozwalając mu na formułowanie nowych hipotez oraz ich walidację. Od kilkunastu lat wiadomo, że wizualizacja danych znacząco poprawia percepcję informacji, co w konsekwencji przyczynia się do skrócenia czasu potrzebnego na jej pozyskanie z systemów informatycznych. Badania prowadzone w ostatnim dziesięcioleciu dotyczące zastosowania metod i technik wizualizacji pokazały rosnące ich znaczenie oraz przydatność w analizach wyszukiwania informacji poprzez połączenie wizualnej percepcji człowieka oraz jego możliwości rozpoznawania z ergonomią pojemności zbiorów danych i możliwościami dzisiejszych systemów informatycznych w odkrywaniu struktur i trendów w danych (zob. m.in. Aguilar-Ruiz i Ferrer-Troyano 2005: 1749; Keim 2002: 100). Jak wskazują badania empiryczne przeprowadzone przez S. Falconera, wizualizacja wzmacnia zrozumienie ontologii, sprawiając, że użytkownicy szybciej realizują zadania koncepcyjne wymagające zrozumienia i opisu semantyki danego pojęcia (Falconer 2009). Wizualizacja w TM z jednej strony stanowi sieć semantyczną, dającą ogólny lub bardziej szczegółowy obraz analizowanego obszaru wiedzy, z drugiej strony zaś stanowi wizualny interfejs, który poprzez stosowanie różnych technik interaktywnych pozwala na pozyskanie potrzebnych informacji. 206 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... 3. Zastosowana metoda badawcza Podstawowe badania empiryczne przeprowadzono według opracowanej i zaproponowanej metody dotyczącej wykorzystania mapy pojęć do odzwierciedlenia ontologii wskaźników ekonomicznych służących ocenie funkcjonowania przedsiębiorstwa oraz jako interaktywnej wizualnej metody wyszukiwania informacji. Składa się ona z dwóch faz oraz pięciu etapów. Faza pierwsza dotyczy tworzenia aplikacji mapy pojęć dla zbudowanej ontologii określonego obszaru analizy wskaźników ekonomicznych. Celem jej jest weryfikacja koncepcji wykorzystania standardu TM jako modelu wiedzy dotyczącego obszaru ekonomii oraz finansów. Faza ta składa się z trzech etapów, pomiędzy którymi występuje sprzężenie zwrotne. Na każdym etapie uwzględniono weryfikację wykonanych prac przez eksperta (ekspertów). Budując ontologię dla wybranego fragmentu analizy wskaźników ekonomicznych, trzeba koniecznie włączyć do tego procesu ekspertów z tej dziedziny, aby: utworzyć uzgodnione słownictwo i strukturę semantyczną, móc zapisać ukrytą ich wiedzę (często tzw. ukrytą), będącą doświadczeniem3 z wielokrotnie przeprowadzanych analiz wskaźników ekonomicznych związanych z procesem podejmowania decyzji, oraz znaleźć między rozpatrywanymi danymi unikatowe zależności i informacje. W tej części realizujemy następujące cele założonego badania: konceptualizację ontologii dla wybranego obszaru analizy wskaźników ekonomicznych oraz budowanie dla niej aplikacji TM. Na potrzeby prowadzonych badań związanych z weryfikacją możliwości zastosowania mapy pojęć do odwzorowania wiedzy dotyczącej analizy wskaźników ekonomicznych zbudowano dwie aplikacje. Pierwsza, zawierająca ontologię dla wskaźnika rentowności ROI (Return On Investment) według modelu Du Ponta (zob. m.in. Dudycz 2010a; 2010b), druga zaś ontologię dla wielowymiarowego systemu wczesnego ostrzegania (zob. m.in. Dudycz 2011b). Wymagało to zidentyfikowania wszystkich pojęć, zdefiniowania klas i hierarchii klas, modelowania relacji oraz zdefiniowania wystąpień. Badania bazowały m.in. na testowaniu zarówno poprawności utworzonej ontologii, jak i aplikacji mapy pojęć. Natomiast faza druga zaproponowanej procedury badawczej dotyczy badania użyteczności zastosowania wizualizacji w semantycznym wyszukiwaniu informacji ekonomicznej, opartego na TM. Realizowane są dwa cele badawcze. Pierwszym jest zbadanie użyteczności zastosowania wizualizacji sieci semantycznej w wyszukiwaniu potrzebnych informacji w analizie wskaźników ekonomicznych oraz użycia TM jako interfejsu system–użytkownik. Drugim zaś jest weryfikacja użyteczności korzystania z aplikacji mapy pojęć do odwzorowania wiedzy dotyczącej analizy wskaźników ekonomicznych oraz wizualnej eksploracji danych z różnorodnych systemów istniejących w przedsiębiorstwie. Faza ta składa się z dwóch etapów odpowiadających postawionym celom badawczym. Pomiędzy nimi występuje również sprzężenie zwrotne. W wyniku realizacji tej części badań uzyskamy m.in. ocenę vol. 10, nr 3 (38), 2012 207 Helena Dudycz użyteczności wizualizacji sieci semantycznej w TM w wyszukiwaniu potrzebnych informacji ekonomicznych przy aktywnym udziale użytkowników w tym procesie. W ramach tej fazy badawczej przeprowadzono badania oceny użyteczności zastosowania wizualizacji sieci semantycznej w wyszukiwaniu informacji ze względu na różnorodne powiązania między wskaźnikami ekonomicznymi. Bazowano na utworzonych i opracowanych ontologiach oraz zbudowanych aplikacjach. W literaturze jest opisanych wiele podejść i metod badania oraz oceny interfejsu pozwalającego na interakcję człowiek–komputer (Lazar, Feng i Hochheiser 2010; Sikorski 2010; 2012; Tullis i Albert 2008). W przypadku prototypu lub już gotowego systemu eksperyment jest prowadzony z udziałem ekspertów (np. ocena heurystyczna, listy kontrolne) lub użytkowników (np. testy zadaniowe, eye tracking). Zdecydowano się przeprowadzić badanie z udziałem użytkowników, opierając się na połączeniu dwóch metod oceny użyteczności systemu, tj. testu zadaniowego oraz oceny heurystycznej. W związku z tym opracowano kwestionariusze4, które składają z trzech części, tj.: – zadań do wykonania, – heurystycznej oceny wizualnego wyszukiwania informacji, – identyfikacji i oceny potencjalnych trudności korzystania z wizualnego wyszukiwania informacji. Przygotowane kwestionariusze różnią się tylko pierwszą częścią, która odzwierciedla zadania do wykonania przez użytkownika, polegające na wyszukaniu potrzebnych informacji opartym na wizualizacji sieci semantycznej. Dane uzyskane z kwestionariuszy można podzielić na cztery grupy, które dotyczącą: – poprawności realizacji poleceń i prawdziwości uzyskanych informacji, – oceny łatwości znalezienia informacji, – oceny użyteczności interfejsu, – identyfikacji potencjalnych trudności związanych z zastosowanym sposobem interakcji człowiek–komputer. W trakcie eksperymentów uczestnicy badania pełnili podwójną rolę. Z jednej strony typowych użytkowników, czyli wykonujących określone zadania w aplikacji mapy pojęć (test zadaniowy), z drugiej strony ekspertów oceniających użyteczność zastosowanego interfejsu oraz wyszukiwania informacji, opierając się na wizualizacji sieci semantycznej (ocena heurystyczna). Badania w ramach fazy drugiej przeprowadzono na podstawie zmodyfikowanej metody badawczej zaproponowanej przez M. Sikorskiego (zob. m.in. Sikorski 2011; Sikorski i Garnik 2010). Eksperymenty realizowano według następującego planu: 1. Opracowanie testów zadaniowych oraz kwestionariusza oceniającego użyteczność zastosowania wizualizacji sieci semantycznej do wyszukiwania informacji ekonomicznej. 2. Badanie z udziałem użytkowników. 2.1. Wprowadzenie do badania (15–30-minutowe szkolenie). 208 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... 2.2. Przeprowadzenie badania użyteczności zastosowania wizualizacji sieci semantycznej do wyszukiwania informacji, bazując na ontologii wybranego obszaru analizy ekonomicznej (testów zadaniowych i oceny kwestionariuszowej). 3. Analiza danych. 4. Opracowanie wyników i sformułowanie wniosków. Pomiędzy wyróżnionymi dwoma etapami w ramach fazy drugiej występuje sprzężenie zwrotne. Takie podejście do badania i oceny użyteczności systemu informatycznego stanowi zmodyfikowaną metodę zaproponowaną przez J. Beringer (Eilrich i in. 2009). Również pomiędzy fazami w zaproponowanej metodzie badawczej występuje sprzężenie zwrotne, tzn. wnioski wynikające z fazy drugiej mają wpływ na doskonalenie zarówno zaproponowanego rozwiązania, jak i procedury tworzenia TM dla obszaru wiedzy, jakim jest analiza wskaźników ekonomicznych. Badania według przedstawionej metody przeprowadzono cyklicznie: najpierw dla ontologii wskaźnika ROI (faza pierwsza oraz druga), następnie dla ontologii WSWO. Wnioski uzyskane z fazy pierwszej dla wskaźnika ROI wykorzystano przy tworzeniu ontologii oraz aplikacji dla WSWO. Otrzymane zaś dane z fazy drugiej zweryfikowano, ponownie przeprowadzając eksperyment na bazie ontologii wskaźnika ROI, jak i dla WSWO. Utworzone aplikacje dla zbudowanych ontologii różnią się skalą rozwiązania, co jest istotne w weryfikacji zastosowania TM jako wizualnego narzędzia w wyszukiwaniu informacji ze względu na powiązania semantyczne. W przypadku ontologii wskaźnika ROI zdefiniowano 44 pojęcia, 6 klas taksonomicznych z relacją typu Subclass-Of oraz 13 relacji binarnych. Natomiast w ontologii WSWO zdefiniowano 142 pojęć, 23 klasy z relacją typu Subclass-Of oraz 20 relacji binarnych. W niniejszym artykule skoncentrujemy się na omówieniu eksperymentu przeprowadzonego dla ontologii WSWO. 4. Założenia przeprowadzonego badania Celem przedstawionych w niniejszym opracowaniu badań jest ocena zastosowania wizualizacji w semantycznym wyszukiwaniu informacji ekonomicznej. Niniejsze studia są kontynuacją badań wstępnych, w których bazowano na utworzonej aplikacji dla ontologii wskaźnika ROI według modelu Du Ponta (zob. m.in. Dudycz 2011c). W przeprowadzonych obecnie eksperymentach wykorzystano dwie aplikacje dotyczące analizy wskaźników ekonomicznych, tj. zbudowanych dla ontologii WSWO oraz dla ontologii wskaźnika ROI. W badaniach wstępnych przyjęto założenie, że uczestnicy badania realizują wyszukiwanie informacji, pracując na dwóch aplikacjach, czyli wykonywali zadania najpierw w aplikacji dla ontologii kierunku studiów „Informatyka w biznesie”, gdzie obszar wiedzy był im znany5, a następnie te same osoby realizowały zadania w aplikacji dla ontologii wskaźnika ROI6. vol. 10, nr 3 (38), 2012 209 Helena Dudycz Natomiast w niniejszym badaniu przyjęto następujący sposób realizacji. Najpierw część uczestników (23% z biorących udział) realizowała zadania dla ontologii wskaźnika ROI, następnie pozostali uczestnicy wykonywali zadania, wyszukując informacje w aplikacji dla WSWO. Te dwa eksperymenty były realizowane w odstępie dwudniowym. Obserwacja uczestników w czasie realizacji zadań na aplikacji dla wskaźnika ROI, po modyfikacji treści poleceń do wykonania w stosunku do badań wstępnych, miała pomóc przygotować eksperyment realizowany z uczestnikami korzystającymi z aplikacji WSWO. Przyjęte podejście realizacji eksperymentu wynikało z zaproponowanej metody badawczej. Po pierwsze uzyskano tzw. dane kontrolne (z eksperymentu z wykorzystaniem aplikacji dla wskaźnika ROI) dla badania z wykorzystaniem aplikacji dla WSWO, gdzie znacząco zwiększono liczbę pojęć oraz relacji. Po drugie miało to zweryfikować wyniki uzyskane ze wstępnych badań, gdzie bazowano tylko na aplikacji dla wskaźnika ROI. Po trzecie zaś uwzględniono wnioski ze wstępnych badań (zob. Dudycz 2011c; 2012b) dotyczące: zbudowanej aplikacji, treści sformułowanych zadań w kwestionariuszu badania oraz sposobu przeprowadzonego szkolenia dotyczącego wizualnego wyszukiwania informacji na podstawie sieci semantycznej. Pozostawiono podobny czas wprowadzenia do badania (20–30 minut), ale zmodyfikowano treść szkolenia. Przygotowane kwestionariusze w części pierwszej (tj. dotyczące treści poleceń do wykonania) różniły się w stosunku do kwestionariusza z badania wstępnego, natomiast części drugiej oraz trzeciej nie zmieniono. Badanie przeprowadzono, wykorzystując moduł OntoGraf w programie Protégé 4.1 beta. Aplikacje mapy pojęć tworzono i testowano w narzędziu TM4L. Ze względu na wymaganą funkcjonalność związaną z wizualnym wyszukiwaniem opartym na sieci semantycznej moduł OntoGraf w Protégé 4.1 beta najlepiej spełnił te kryteria. Ponadto narzędzie TM4L, ze względu na brak ostatnich modyfikacji, często zawiesza się w środowisku systemu operacyjnego Windows 7. 5. Uczestnicy badania oraz jego przebieg W badaniu wzięło udział 60 uczestników w wieku 20–23 lata. W eksperymencie, gdzie wykorzystano aplikację dla ontologii wskaźnika ROI, uczestniczyło 14 osób, natomiast w przypadku ontologii WSWO – 46 osób. Wszyscy uczestnicy badania mieli porównywalną wiedzę dotyczącą zarówno pojęć ekonomicznych, jak i systemów informatycznych7. Żadna z nich nie korzystała wcześniej z wyszukiwania informacji na bazie wizualizacji ontologii, jak również nie znała programu Protégé. Badanie już z udziałem uczestników z wykorzystaniem aplikacji dla ontologii WSWO zostało przeprowadzone według zaproponowanego planu, obejmującego: 1. Wprowadzenie do badania. 15–30 minutowe, krótkie szkolenie, gdzie najpierw wyjaśniono teoretycznie pojęcia: standard mapy pojęć, ontolo210 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... gia, wizualizacja sieci semantycznej, ideę wyszukiwania semantycznego. Następnie pokazano podstawowe operacje (funkcje) związane z wizualnym wyszukiwaniem informacji opartym na sieci semantycznej8. 2. Przeprowadzenie badania użyteczności zastosowania wizualizacji sieci semantycznej do wyszukiwania informacji na podstawie ontologii wybranego obszaru analizy ekonomicznej. Uczestnicy najpierw realizowali zadania do wykonania (tzw. test zadaniowy), polegające na wyszukaniu informacji, bazując na sieci semantycznej wyświetlonej w modelu OntoGraf. Odpowiedzi zapisywali w przygotowanym kwestionariuszu9. Następnie zaś przeprowadzali ocenę heurystyczną zastosowanego interfejsu, zapisując swoją opinię. W przeprowadzonym badaniu ograniczono szkolenie do minimum, ponieważ eksperyment ten miał odpowiedzieć również na pytanie, na ile wyszukiwanie informacji przez użytkownika systemu zawierającego aplikację mapy pojęć jest łatwe, gdy obszar wiedzy zapisany za pomocą ontologii nie jest mu dobrze znany, jak też nie korzystał wcześniej z interfejsu opartego na wizualizacji sieci semantycznej. Jednak tym razem szkolenie skoncentrowano bardziej na pokazaniu przydatnych funkcji i możliwości wyszukiwania informacji w programie Protégé niż poprzednim razem. Takie podejście wynikało z obserwacji uczestników podczas wstępnych badań. W tym eksperymencie nie mierzono czasu realizacji poszczególnych zadań przez uczestników. Nie nagrywano badania kamerą wideo, ale realizacja zadań przez uczestników była obserwowana oraz notowano uwagi wypowiadane w trakcie badania, jak i po nim. 6. Uzyskane wyniki oraz ich wstępna analiza Dane uzyskane w wyniku realizacji niniejszego badania można podzielić na dwie części. Pierwsza dotyczy realizacji zadań, druga zaś oceny wyszukiwania informacji na podstawie sieci semantycznej. W niniejszym artykule skoncentrujemy się na omówieniu wyników z tej drugiej części10, gdzie dane przeanalizowano ze względu na: – ocenę użyteczności interfejsu, – identyfikację potencjalnych trudności związanych z zastosowanym sposobem interakcji człowiek–komputer. Najpierw przeanalizujemy uzyskane wyniki dotyczące oceny użyteczności zastosowanego interfejsu w wyszukiwaniu informacji w aplikacji dla ontologii WSWO. W tabeli 1 zawarto dane pochodzące z drugiej części kwestionariusza, gdzie ze względu na cztery cechy uczestnicy badania oceniali zastosowane rozwiązanie. Wartości odpowiedzi dominujące dla każdego pytania wyróżniono w tabeli. Wynika z niej, że żadne z kryterium nie uzyskało oceny bardzo niezadowalający, a w trzech przypadkach (oprócz B) tylko 2% uczestników zaznaczyło niezadowalający. W tej skali pięciostopniowej dominują odpowiedzi dla każdego z kryterium: zadowalający od 46% (kryterium D) vol. 10, nr 3 (38), 2012 211 Helena Dudycz do 59% (kryterium A), natomiast ocena bardzo zadowalający kształtuje się od 15% (kryterium B) do 4% (kryterium A). Uzyskana ocena interfejsu wskazuje na użyteczność zaproponowanego podejścia opartego na wizualnym wyszukiwaniu informacji ekonomicznej w sieci semantycznej powstałej na podstawie zakodowania zbudowanej ontologii WSWO. Zwłaszcza istotny jest tak mały procent ocen negatywnie opiniujących zaproponowane rozwiązanie. Specyfikacja kryteriów oceny użyteczności interfejsu Skala ocen użyteczności Rozkład ocen dla interfejsu ontologii WSWO (w %) bardzo zadowalający A. Jak oceniasz system pod względem klarowności wizualnej? B. Jak oceniasz system pod względem jego funkcjonalności (w kontekście wyszukiwania informacji)? C. Jak oceniasz system pod względem elastyczności, sposobu prezentacji informacji i sposobu obsługi? D. Jak oceniasz sposób wyszukiwania informacji na podstawie wizualizacji powiązań semantycznych (relacji i zależności) danej ontologii? 4 zadowalający 59 średnio 35 niezadowalający 2 bardzo niezadowalający 0 bardzo zadowalający 15 zadowalający 52 średnio 33 nie zadowalający 0 bardzo niezadowalający 0 bardzo zadowalający 9 zadowalający 54 średnio 35 niezadowalający 2 bardzo niezadowalający 0 bardzo zadowalający 9 zadowalający 46 średnio 43 niezadowalający 2 bardzo niezadowalający 0 Tab. 1. Rozkład ocen dotyczących badania użyteczności zastosowania wizualizacji sieci semantycznej wyszukiwania informacji dla ontologii WSWO. Źródło: opracowanie własne. Drugim omawianym w niniejszym artykule badanym zagadnieniem jest identyfikacja potencjalnych trudności związanych z zastosowaniem wizualizacji sieci semantycznej w wyszukaniu informacji ze względu na kontekst. Dane szczegółowe przedstawiono w tabeli 2. Analogicznie jak w przypadku tabeli 1, wyróżniono wartości dominujące dla wymienionych trudności. 212 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... Specyfikacja trudności Skala ocen trudności to nie jest problem 1. Zrozumienie sposobu to jest drobny problem nawigacji w OntoGraf to jest istotny problem 2. Zrozumienie, jak wykonywać zadania 3. Zrozumienie, jak informacja na ekranie ma się do wykonywanych czynności 4. Znalezienie potrzebnej informacji 5. Trudność w odczytaniu informacji na ekranie 6. Zbyt wiele kolorów na ekranie 7. Konieczność zapamiętywania zbyt wielu informacji podczas wykonywania zadania 8. Zrozumienie nazwy relacji (powiązań) miedzy pojęciami Rozkład ocen dla ontologii WSWO (w %) 70 28 2 to nie jest problem 46 to jest drobny problem 52 to jest istotny problem 2 to nie jest problem 48 to jest drobny problem 48 to jest istotny problem 4 to nie jest problem 71 to jest drobny problem 24 to jest istotny problem 4 to nie jest problem 65 to jest drobny problem 33 to jest istotny problem 2 to nie jest problem 67 to jest drobny problem 28 to jest istotny problem 4 to nie jest problem 70 to jest drobny problem 30 to jest istotny problem 0 to nie jest problem 37 to jest drobny problem 54 to jest istotny problem 9 Tab. 2. Rozkład ocen potencjalnych trudności związanych z wizualnym wyszukiwaniem informacji opartym na sieci semantycznej dla aplikacji dla ontologii WSWO. Źródło: opracowanie własne. Analizując odpowiedzi uczestników eksperymentu ze względu na ocenę to jest istotny problem można zauważyć, że w przypadku trudności nr 7 nikt nie zaznaczył tej odpowiedzi, natomiast w pozostałych kształtuje się to od 2% (trudności nr 1, 2, 5) przez 4% (trudności nr 3, 4, 6) kończąc na 9% (trudność nr 8). W porównaniu ze wstępnymi badaniami, mimo że w tym przypadku była to bardziej rozbudowana ontologia pod względem liczby vol. 10, nr 3 (38), 2012 213 Helena Dudycz pojęć, jak i relacji (a zatem i wyświetlana sieć semantyczna), uzyskano lepsze wyniki (zdecydowanie mniej osób wskazało przy którejkolwiek trudności, iż to jest istotny problem). To samo dotyczy oceny to nie jest problem, gdzie wartości dominujące kształtują się od 65% (trudność nr 5) do 71% (trudność nr 4). W przypadku trudności nr 3 oceny to nie jest problem oraz to jest drobny problem są identyczne, czyli 48%. Natomiast w przypadku trudności nr 2 oraz 8 dominującą odpowiedzią jest to jest drobny problem (odpowiednio: 52% oraz 54%). Dane te wymagają komentarza. Wskazania uczestników badania dla trudności nr 2, które, analizując je z ocenami trudność nr 3, sugerują, aby przy kolejnym eksperymencie w trakcie szkolenia zwrócić szczególną uwagę na wyjaśnienie wykonywania zadań. Zwłaszcza, że trudności nr 4, 5 oraz 6, związane ze znalezieniem informacji wyświetlonej w postaci wizualizacji sieci semantycznej, nie stanową problemu dla uczestników niniejszego eksperymentu. Natomiast trudność nr 8 wstawiono do kwestionariusza dopiero przy prowadzeniu badania z aplikacją zawierającą ontologię WSWO. Uzyskane odpowiedzi, w porównaniu z realizacją poleceń do wykonania (tzw. test zadaniowy)11, są tutaj cenne. Po pierwsze skłaniają do przeanalizowania zaproponowanych nazw relacji w zbudowanej konceptualizacji ontologii WSWO. Po drugie zaś należy rozważyć, czy przed kolejnym eksperymentem w czasie szkolenia dla uczestników niemających wiedzy na temat analizy ekonomicznej nie zrobić wprowadzenia na temat relacji między wskaźnikami. Taki wniosek sformułowano również, gdy przeanalizowano dane dotyczące poprawności wykonanych zadań (Dudycz 2012b). W przypadku polecenia nr 5 (test zadaniowy), gdzie należało podać operację arytmetyczną, jaką należy wykonać, aby obliczyć dany wskaźnik, wystąpił największy procent niepoprawnych odpowiedzi (10%) spośród wszystkich realizowanych zadań (Dudycz 2012b). Przy kolejnym badaniu trzeba zweryfikować, jak będzie się kształtowała poprawność wykonania zadania oraz wskazania przy trudności nr 8, jeśli w trakcie krótkiego szkolenia wyjaśni się, że zależności między wskaźnikami polegają na wykonywaniu różnych operacji arytmetycznych. Podsumowując przeprowadzony eksperyment oraz uzyskane wyniki w ramach niniejszego badania, trzeba je uznać za dość obiecujące, wskazujące na użyteczność zastosowania wizualizacji sieci semantycznej jako wizualnego interfejsu w wyszukiwaniu informacji w trakcie procesu analizy ekonomicznej wskaźników. 7. Podsumowanie i dalsze badania W niniejszym artykule omówiono przeprowadzone badania dotyczące oceny użyteczności zastosowania wizualizacji sieci semantycznej zbudowanej na bazie konceptualizacji ontologii wielowymiarowego systemu wczesnego ostrzegania. Przedstawiono zaproponowaną metodę badawczą składającą się 214 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... z dwóch faz. Omówiono przeprowadzone badania, czyli przedstawiono założenia eksperymentu, krótko scharakteryzowano jego uczestników oraz przebieg, przeanalizowano otrzymane dane ze względu na ocenę użyteczności interfejsu oraz identyfikację potencjalnych trudności związanych z zastosowanym sposobem interakcji człowiek–komputer. Uzyskane wyniki z przeprowadzonego badania można uznać za dość obiecujące i wskazujące na użyteczność zastosowania wizualizacji ontologii wybranego wskaźnika ekonomicznego jako interfejsu użytkownik–system w wyszukiwaniu informacji ze względu na powiązania kontekstowe. Wnioski wynikające z tego eksperymentu potwierdzają, że bardzo ważną rolę w mapie pojęć odgrywa zastosowanie właściwych oraz odpowiednich nazw relacji między pojęciami. Wymaga to zarówno zwrócenia uwagi przy konceptualizacji ontologii dla danej dziedziny, jak i testowania już prototypu mapy pojęć z udziałem użytkowników w celu ich weryfikacji i ewentualnej modyfikacji. Kontynuacja badań pozwoli również na doskonalenie funkcjonalności narzędzi do wizualizacji sieci semantycznej w mapie pojęć w kierunku usprawnienia procesu wizualnej eksploracji danych z różnych systemów informatycznych istniejących w przedsiębiorstwie i w jego otoczeniu. Jest to też istotne w kontekście prowadzonych badań dotyczących dostosowania tego produktu do wymogów związanych z ergonomią interfejsu. Międzynarodowa firma zajmująca się konsultingiem oraz prowadzeniem analiz rynku, Pierre Audoin Consultants (PAC), przygotowała w 2007 r. raport. W tym opracowaniu wskazano cztery najważniejsze kryteria, którymi powinna się kierować kadra kierownicza przedsiębiorstw w wyborze systemu informatycznego. Jednym z nich jest ergonomia: „Użytkownicy końcowi lubią pracować na oprogramowaniu, które jest łatwe w użyciu i opiera się na przejrzystej logice” (Pierre Audoin Consultants 2007). Informacje o autorce Dr Helena Dudycz – Katedra Technologii Informacyjnych, Uniwersytet Ekonomiczny we Wrocławiu. E-mail: [email protected]. Przypisy 1 Analizę danych dotyczących testu zadaniowego, czyli poprawności realizacji poleceń i prawdziwości uzyskanych informacji oraz oceny łatwości znalezienia informacji, omówiono w: Dudycz 2012b. 2 Tekst dotyczący przedstawionego badania powstał w ramach projektu badawczego nr NN111 2840 38 pt. Wizualna eksploracja danych z wykorzystaniem mapy pojęć w analizie wskaźników oceniających funkcjonowanie przedsiębiorstwa, finansowanego przez Ministerstwo Nauki i Szkolnictwa Wyższego. 3 Na zagadnienie doświadczenia związanego z procesem podejmowania decyzji oraz tworzoną ontologią dla obszarów powiązanych z organizacją zwrócono uwagę m.in. w artykule: Sanin, Szczerbicki i Toro 2007. vol. 10, nr 3 (38), 2012 215 Helena Dudycz 4 Badania są prowadzone cyklicznie. 5 Taka realizacja zadań miała na celu zapoznanie się uczestników z modułem OntoGraf zanim przystąpili do wykonywania poleceń w aplikacji dla wybranego obszaru analizy ekonomicznej, czyli dziedziny, która dla większości uczestników badania wstępnego była nieznana. Wyniki z tej części badań wstępnych opisano w: Dudycz i Korczak 2011. 6 Szerzej badanie to opisano w: Dudycz 2011c. 7 W badaniu wstępnym uczestniczyły 42 osoby w wieku 23–30 lat, które podzielono na trzy grupy użytkowników: z wykształceniem tylko informatycznym, informatyczno-ekonomicznym, nieinformatycznym. 8 W badaniu interfejsu użytkownika za pomocą testów użytkownika jest zalecenie, że należy przeprowadzić szkolenie, aby uczestnik eksperymentu dokładnie poznał interfejs, ponieważ najczęściej celem takiego badania jest identyfikacja trudności w realizacji zadań. W tym przypadku następuje ocena funkcjonalności programu oraz interfejsu. 9 Zakres kwestionariuszy omówiono w: Dudycz 2012b. 10 Wyniki z tej części badania przedstawiono w: Dudycz 2012b. 11 Tę cześć kwestionariusza, jak również otrzymane wyniki z przeprowadzonego badania, przedstawiono w: Dudycz 2012b. Bibliografia Aguilar-Ruiz, J.S. i F.J. Ferrer-Troyano 2005. Visual Data Mining. Journal of Universal Computer Science, nr 11 (11), s. 1749–1751. Ahmed, K. i G. Moore 2006. Applying Topic Maps to Applications. The Architecture Journal, http://msdn.microsoft.com/en-us/library/bb245661.aspx. Andaroodi, E., Andres, F., Ono, K. i P. Lebigre 2004. Developing a Visual Lexical Model for Semantic Management of Architectural Visual Data, Design of Spatial Ontology for Caravanserais of Silk Roads. Journal of Digital Information Management, nr 4 (2), s. 151–160. Dudycz H. 2010a. Conceptualization of Ontology of Return on Investment in Order to Generate it in Topic Map Standard, w: J. Korczak, H. Dudycz i M. Dyczkowski (red.) Advanced Information Technologies for Management – AITM’2010, s. 87–100. Wrocław: Wrocław University of Economics. Dudycz, H. 2010b, Topic Map for Notation of Ontology of Return on Investment Indicator. Applied Technologies & Innovations, nr 3 (3), s. 1–14. Dudycz, H. 2011a. Analiza metod budowania ontologii dla wskaźników ekonomicznych w celu zapisania jej w standardzie mapy pojęć, w: W. Chmielarz, J. Kisielnicki, T. Parys i O. Szumski (red.) Zastosowania systemów informatycznych zarządzania. Problemy Zarządzania, zeszyt specjalny 2011, s. 44–53. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania UW. Dudycz, H. 2011b. Approach to the conceptualization of an ontology of an early warning system, w: P. Jałowiecki, P. Łukasiewicz i A. Orłowski (red.) Information Systems in Management XI. Data Bases, Distant Learning, and Web Solutions Technologies, s. 29–39. Warszawa: SGGW. Dudycz, H. 2011c. Wstępne badania zastosowania standardu mapy pojęć w analizie wskaźników ekonomicznych. Ocena wyszukiwania informacji w ontologii modelu Du Ponta, w: W. Chmielarz, J. Kisielnicki i O. Szumski (red.) Informatyka 4 przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego, s. 180–196. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania UW. 216 Problemy Zarządzania Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji... Dudycz, H. 2012a. An Attempt of the Heuristic Evaluation of Visualization in Searching Economic Information in Topic Maps, w: M. Bajec i J. Eder (red.) CAiSE 2012 Workshops, LNBIP 112, s. 130–142. Berlin Heidelberg: Springer-Verlag. Dudycz, H. 2012b. Wizualizacja w semantycznym wyszukiwaniu informacji. Studium przypadku: wielowymiarowy system wczesnego ostrzegania, w: Systemy wspomagania organizacji SWO’2012, Katowice: Prace Naukowe Uniwersytetu Ekonomicznego w Katowicach (w druku). Dudycz, H. i J. Korczak 2011. Próba oceny wizualizacji informacji w sieciach semantycznych – studium przypadku, w: T. Porębska-Miąc i H. Sroka (red.) Systemy wspomagania organizacji SWO’2011, s. 22–43. Katowice: Prace Naukowe Uniwersytetu Ekonomicznego w Katowicach. Eilrich, L., Andres, F., Sillaume, G. i M. Backes 2009. Foresting User Experience in order to Improve the Quality of a Digital Library, The Workshop on Advanced Technologies for Digital Libraries 2009, Trento, s. 13–16. Falconer, S.M. 2009. Cognitive Support for Semi-automatic Ontology Mapping, Dissertation, Canada: Department of Computer Science, University of Victoria. Garshol, L.M. i G. Moore 2005. Topic Maps – Data Model. ISO/IEC JTC 1/SC34, January, http://www.isotopicmaps.org/sam/sam-model. Grand, B.L. i M. Soto 2000. Information Management – Topic Maps Visualization, http:// www.gca.org/papers/xmleurope2000/pdf/s29-03.pdf. Grand, B.L. i M. Soto 2010. Topic Maps, RDF Graphs, and Ontologies Visualization, w: V. Geroimenko i C. Chen (red.) Visualizing the Semantic Web. XML-Based Internet and Information Visualization, s. 59–79. London: Springer-Verlag. ISOO/IEC 13250:2000 2000. Information Technology – SGML Applications – Topic Maps, Geneva: International Organization for Standardization, http://www.y12.doe.gov/sgml/ sc34/document/0322_files. Keim, D.A. 2002. Information Visualization and Visual Data Mining. IEEE Transactions on Visualization and Computer Graphics, nr 1 (7), s. 110–107. Korczak, J. i H. Dudycz 2009. Approach to Visualisation of Financial Information using Topic Maps, w: B.F. Kubiak i A. Korowicki (red.) Information Mangement, s. 88–89. Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego. Lazar, J., Feng, J.H. i H. Hochheiser 2010. Research Methods in Human-Computer Interaction, John Wiley &Sons. Pepper, S. 2000. The TAO of Topic Maps: Finding the Way in the Age of Information, Proceedings of XML Europe, GCA, http://www.ontopia.net/topicmaps/materials/tao. html. Pierre Audoin Consultants 2007. How IT Empowers the Proactive Enterprise, http://www. pac-online.com/backoffice/servlet/fr.pac.page.download.document.DocumentView; jsessionid=F64382AB03ACC2912E3943D4A7608C54;__sid__=pac-online?doc Id=WhitePaper_Pro_Enterprise&dtyId=white_paper&pathFile=%2Fhome%2Fpac %2FLenya%2Fbuild%2Flenya%2Fwebapp&fileName=WhitePaper_Pro_Enterprise. pdf&mth=open. Pimentel, M.P., Suárez, J. i F.S. Caparrini 2009. Topic Maps for Philological Analysis, w: L. Maicher i L.M. Garshol (red.) Linked Topic Maps. Fifth International Conference on Topic Maps Research and Applications, s. 29–39. Leipzig: Leipziger Beiträge zur Informatik. Rath, H.H. 2001. Making Topic Maps More Colorful, http://www.gca.org/papers/xmleurope2000/pdf/s29-01.pdf. Sanin, C., Szczerbicki, E. i C. Toro 2007. An OWL Ontology of Set of Experience Knowledge Structure. Journal of Universal Computer Science, nr 2 (13), s. 209–223. Sikorski, M. 2010. Interakcja człowiek-komputer, Warszawa: Wydawnictwo PJWSTK. vol. 10, nr 3 (38), 2012 217 Helena Dudycz Sikorski, M. 2011. Badania użyteczności usług on-line: pozainformatyczne determinanty satysfakcji klienta, w: W. Chmielarz, J. Kisielnicki, T. Parys i O. Szumski (red.) Zastosowania systemów informatycznych zarządzania Problemy Zarządzania, zeszyt specjalny 2011, s. 44–53. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania UW. Sikorski, M. 2012. User-System Interaction Design in IT Projects, Gdańsk: Gdansk University of Technology. Sikorski, M. i I. Garnik 2010. Towards Methodology for User Experience Measurement in On-line Services, w: J. Korczak, H. Dudycz i M. Dyczkowski (red.) Advanced Information Technologies for Management – AITM’2010, s. 244–254. Wrocław: Wrocław University of Economics. Tullis, T. i B. Albert 2008. Measuring the User Experience. Collecting, Analyzing, and Presenting Usability Metrics, Morgan Kaufmann. Weber, G.E., Eilbracht, R. i S. Kesberg 2008. Topic Maps as Application Data Model for Subject-centric Applications, w: L. Maicher i L.M. Garshol (red.) Subject-centric computing. Fourth International Conference on Topic Maps Research and Applications, TMRA 2008, s. 1–9. Leipzig: Leipziger Beiträge zur Informatik. Wienhofen, L.W.M. 2010. Using Graphically Represented Ontologies for searching Content on the Semantic Web, w: V. Geroimenko i C. Chen (red.) Visualizing the Semantic Web. XML-Based Internet and Information Visualization, s. 137–153. London: Springer-Verlag. Wurzer, J. i S. Smolnik 2008. Towards an Automatic Semantic Integration of Information, w: L. Maicher, L.M. Garshol (red.) Subject-centric Computing. Fourth International Conference on Topic Maps Research and Applications, TMRA 2008, s. 169–179. Leipzig: Leipziger Beiträge zur Informatik. Yi, M. 2008. Information Organization and Retrieval Using a Topic Maps-Based Ontology: Results of a Task-Based Evaluation. Journal of the American Society for Information Science and Technology, nr 59, s. 1898–1911. 218 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 219 – 228 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.13 Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy dla systemów edukacyjnych Jerzy Kisielnicki W artykule przedstawiono projekt SYNAT jako nowe przedsięwzięcie mające na celu utworzenie w kraju, powiązanej z odpowiednimi rozwiązaniami na świecie, uniwersalnej, otwartej, repozytoryjnej platformy hostingowej i komunikacyjnej dla sieciowych zasobów wiedzy dla nauki, edukacji i otwartego społeczeństwa wiedzy. Projekt ten analizowano pod kątem jego relacji z systemami edukacji, a zwłaszcza e-edukacją. Jego realizacja powinna przyczynić się do wzrostu jakości systemów edukacji i tym samym przyczynić się do znaczącej poprawy pozycji Polski zarówno w Unii Europejskiej, jak i na świecie. 1. Wstęp E-edukacja jako element rozwoju gospodarki jest zarówno istotny, jak i specyficzny. Wpływ e-edukacji na gospodarkę jest różnorodny. Zależy on od wielu czynników. Jednym z najbardziej istotnych zadań, jakie stoją przed e-edukacją, jest zapewnienie stałego zasilania we współczesną wiedzę. Dlatego, aby system edukacji był nowoczesny, musi stale mieć aktualne zasoby informacji i wiedzy. Zasilanie takie wymaga dostępu do odpowiednich repozytoriów. Repozytoria zdefiniowane są, między innymi przez R. Crow (2002), jako kolekcje cyfrowe, gromadzące, przechowujące i udostępniające dorobek intelektualny społeczności naukowej jednego lub wielu uniwersytetów lub innych placówek naukowych. Repozytoria coraz powszechniej wkraczają w struktury wyższych uczelni i instytucji naukowych, zmieniając jednocześnie paradygmat komunikowania się w nauce. Zasób repozytoriów jest określony przez instytucje będące jej właścicielem, a treść ma charakter: naukowy, kumulacyjny i ciągły. Zasoby dostępne są w trybie Open Access (OA) oraz cechuje je interoperacyjność. Obecnie obserwuje się ogromny wzrost liczby funkcjonujących repozytoriów na świecie, jak również publikacji podejmujących ten temat. E-edukacja jest szansą dla wielu ludzi pragnących zdobyć wiedzę i nową pozycję w firmie. Jest też pewnym zagrożeniem, ponieważ nie jest dostępna dla każdego, a jej poziom nie zawsze jest zadowalający. vol. 10, nr 3 (38), 2012 219 Jerzy Kisielnicki Obecnie są prowadzone prace nad realizacją strategicznego programu o nazwie SYNAT, którego jednym z celów jest dostarczenie odbiorcom informacji i wiedzy, która dotyczy osiągnięć naukowych. Jednym z odbiorców zawartych w niej najnowszych zasobów wiedzy mają być platformy edukacyjne. Program SYNAT jest skrótem sformułowania SYstem Informacji Naukowo-Technicznej (w języku angielskim: Information System for Science and Technique) (por. Niezgódka 2009; Górecka-Hajkiewicz 2012; J. Kisielnicki 2011a, 2011b). Realizacja tego programu ma na celu utworzenie w kraju, powiązanej z odpowiednimi rozwiązaniami na świecie, uniwersalnej, otwartej, repozytoryjnej platformy hostingowej i komunikacyjnej dla sieciowych zasobów wiedzy dla nauki, edukacji i otwartego społeczeństwa wiedzy. Ja odpowiadam za jedno z 17 zadań wchodzących w skład realizowanego projektu. Zadanie to opracowanie modelu długoterminowego finansowania, zapewniającego trwałość systemu informacji naukowo-technicznej. E-edukcja to zbiór różnych form i procedur działania. Można postawić również hipotezę, że obecny model e-edukacji to model multimedialny. Natomiast model, który może być konkurencyjny na rynku usług edukacji, to model elastyczny, a najlepiej model inteligentnego, elastycznego nauczania. To również model zasilany wiedzą z różnego typu repozytoriów, w tym ze wspomnianej wcześniej platformy systemu SYNAT. Podstawowa hipoteza robocza, która będzie uzasadniana w artykule, jest następująca. W warunkach współczesnego rozwoju ICT (informacyjno-komunikacyjnej technologii) w Polsce edukacja, a zwłaszcza e-edukacja jest strategią, która powinna wspierać tradycyjną edukację wyższą, chociaż nie jest jeszcze strategią konkurencyjną na rynku usług edukacji. Jednak organizacje, które nie będą stosować strategii mieszanej, zostaną wyeliminowane z rynku usług informacyjnych. Jednym z promowanych rozwiązań jest ścisłe powiązanie systemu edukacji z repozytoriami wchodzącymi w zakres działań krajowego systemu informacji naukowo-technicznej, którego elementem jest SYNAT. W artykule przedstawiono wybrane problemy dotyczące analizy tego zagadnienia. 2. E-edukacja – mapa problemu i miejsce w nim projektu SYNAT We współczesnym świecie coraz większą wagę przywiązuje się do edukacji i to nie tylko w szkołach, uczelniach, placówkach naukowych, ale również do szkolenia pracowników w przedsiębiorstwach i innych podmiotach gospodarki. Wyszkolony pracownik jest bowiem źródłem przewagi konkurencyjnej nad innymi funkcjonującymi w sektorze firmami. Szkoląc go, tworzymy i powodujemy tym samym wzrost kapitału intelektualnego w organizacji. 220 Problemy Zarządzania Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy... Szkolenie to jedna z podstawowych metod kreowania kapitału intelektualnego przedsiębiorstwa, które może być realizowane za pomocą wielu strategii. Jedną z nich jest szkolenie przez specjalizujące się w tym firmy, które w tym celu stosują różnego rodzaju formy, w tym e-edukacji. Stosunkowo niewiele firm decyduje się na szkolenie swoich pracowników tylko w technologii e-edukacji. W praktyce najczęściej spotykaną strategią jest szkolenie pracowników poprzez strategię mieszaną (blended-learning), czyli taką, która uzupełniona jest o zajęcia z trenerem. Na podstawie przeprowadzonych własnych analiz, prac moich współpracowników i literatury przedmiotu prowadzę badania mające za zadanie ustalenie podstawowych efektów i zagrożeń związanych z zastosowaniem e-edukacji jako strategii konkurencyjnej na rynku usług edukacji wyższej. Opinie na temat e-edukacji zbierałem w różnych ośrodkach akademickich w trakcie stypendiów zagranicznych oraz jako ekspert i przewodniczący komisji akredytacyjnych PKA (byłem przez dwie kadencje członkiem zespołu ds. studiów ekonomicznych). Przeprowadzone rozważania dotyczą w szczególności takich kierunków nauczania jak: ekonomia, zarządzanie i marketing, finanse i bankowość, ekonometria i informatyka. Zdaję sobie sprawę, że na innego typu studiach, np. medycznych, możemy spotkać zupełnie inną sytuację. W wielu ośrodkach akademickich istnieją dość duże problemy, które można nazwać skrótowo „brakiem minimum kadrowego”. I tu e-edukacja może w dość zasadniczy sposób rozwiązać istniejące trudności. Czy to nie jest tylko teoretyczny punkt widzenia? W artykule będę też próbował odpowiedzieć na to pytanie. Moje dyskusje z rektorami, władzami uczelni (w tym założycielami i kanclerzami), a także z kadrą wykładowców pozwoliły mi na prezentację pewnych uogólnień związanych z próbą odpowiedzi na pytanie: W jakich warunkach e-edukacja jest strategią konkurencyjną na rynku usług edukacji wyższej i w jakich warunkach zastąpi w znaczącym stopniu edukacje tradycyjną? W literaturze przedmiotu wymienione są różne strategie edukacji, jak i kryteria podziału. E-edukacja stanowi bowiem jeden z elementów przyjętej strategii edukacyjnej. Jej rola w systemie edukacji wciąż rośnie. W pracach analizujących możliwe strategie na specjalną uwagę zasługują monografie M. Rosenberga (2001 i 2005). Przedstawia on w nich drogę rozwoju e-learningu od e-treningu oraz analizę różnych strategii. J. Bersih (2004), który jest zwolennikiem strategii mieszanych, wyróżnia 16 różnych możliwych mediów stosowanych w nauczaniu i, stosując tzw. „road map”, selekcjonuje, jakie rozwiązania powinny być stosowane w zależności od rozwiązywanego problemu. Najczęściej wymienianym kryterium podziału jest poziom nauczania. W rozważaniach zajmę się edukacją na poziomie studiów wyższych zarówno pierwszego i drugiego stopnia, jak i studiów podyplomowych. Realizacja tego właśnie typu studiów wymaga stałego zasilania tzw. kontentu. Analizując strategię, możemy zastosować również jej podział według formy kontaktu ze vol. 10, nr 3 (38), 2012 221 Jerzy Kisielnicki słuchaczami. Ten to właśnie podział przyjęto jako podstawowy. Podstawowe strategie e-edukacji przedstawiono w tabeli 1. Współpraca ze słuchaczem Cel Horyzont czasu System zarządzania procesem nauczania Platforma nauczania Samokształcenie Asynchroniczna Synchroniczna Konwergencyjna – mieszana (blended learning) Tab. 1. Podstawowe rodzaje strategii e-edukacji – „mapa strategii”. Źródło: opracowanie własne. Jak przedstawiono w tabeli 1, można wydzielić następujące cztery podstawowe strategie współpracy ze słuchaczem: samokształcenie, asynchroniczna, synchroniczna, konwergencyjna. Strategie te mogą być realizowane w różny sposób. I tak, realizując strategię synchroniczną (w której celem jest bezpośrednia nauka, a więc nauka i jej odbiór w tym samym czasie), możemy się przygotowywać do realizacji w przyszłości strategii bardzie zaawansowanej – asynchronicznej, gdzie uczący korzystają z systemu edukacyjnego, gdzie chcą i kiedy chcą. W tym systemie można przyjąć, iż stosowana jest zasada „tam, gdzie jest mój laptop, tam jest moja sala wykładowa”. Każda z wymienionych uprzednio strategii może być wspomagana przez dwa systemy zarządzania procesem nauczania: LMS (Learning Management System) oraz LCMS (Learning Content Management System). System LMS umożliwia administrowanie kursami i prezentowanie przedstawianych treści. System taki umożliwia monitorowanie postępów w nauce studenta oraz określanie praw dostępu do poszczególnych modułów i kursów dla poszczególnych użytkowników. Zaawansowane LMS-y pozwalają na realizowanie studiów we wszystkich rodzajach strategii kształcenia. Systemy LCMS są bardziej zaawansowane technologicznie. Oprócz funkcji systemu LMS, posiadają dodatkowe moduły służące do tworzenia treści dydaktycznych – tzw. kursów WBT (Web Based Training). Systemy LMS mogą jedynie prezentować takie multimedialne treści dydaktyczne. Każda z wymienionych wcześniej strategii może być realizowana przy pomocy różnych środków sprzętowo-programowych, czyli tzw. platform. Najpopularniejszą platformą open source jest Moodle. Na Moodle zbudowany jest między innymi Wirtualny Campus UMCS (http://ekonomia.kampus. umcs.lublin.pl), jak też funkcjonuje COME, czyli placówka Uniwersytetu Warszawskiego powołana do zdalnego nauczania. Termin Moodle jest skró222 Problemy Zarządzania Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy... tem od Modular Object-Oriented Dynamic Learning Environment – środowisko nauczania zdalnego za pomocą sieci teleinformatycznych, dostępne przez przeglądarkę internetową. Platforma e-learningowa Moodle została oparta na oprogramowaniu Apache, PHP i MySQL lub PostgreSQL. Można ją uruchomić w systemach operacyjnych zarówno Linux, jak i MS Windows lub Mac OS X, NetWare 6. Moodle jest udostępniany za darmo jako oprogramowanie open source. Podobne platformy dla e-edukacji to miedzy innymi: FirstClass, Blackboard, Scholar360, WebCT, Desire2Learn, LON-CAPA. Do przedstawionej w tabeli 1 „mapy strategii e-edukacji” powinno się jeszcze dodać takie elementy jak zasilanie platformy w wiedzę. Wymienić w tym zakresie można zastosowanie Internetu – Based Learning (por R. Saade 2003 i 2006) – lub platform dostarczających wiedzę, na przykład SYNAT (Kisielnicki 2011a, 2011b). Właśnie zastosowanie projektowanego programu SYNAT pozwoli na bezpośrednie zasilane systemu edukacyjnego najnowszą wiedzą, co będzie skutkowało dostarczaniem słuchaczom najnowszej literatury przedmiotu. Wzorem do naśladowania rozwiązań w zakresie e-edukacji mogą być serwisy edukacyjne działające przy renomowanych uczelniach: HBS Working Knowledge (Harvard Business School), Insead Knowledge (działający przy elitarnej szkole biznesu INSEAD) oraz Knowledge@Wharton (The Wharton School, University of Pennsylvania). Wszystkie te trzy serwisy oferują dostęp (po darmowej rejestracji) do obszernej biblioteki artykułów poruszających tematykę szeroko pojętego zarządzania w ramach wyraźnie wyodrębnionych sekcji, takich jak: biznes, marketing, finanse, zarządzanie strategiczne itp. Pisząc o e-edukacji, należy również wspomnieć o prekursorze stosowanej na szeroką skalę e-edukacji, jakim jest grupa Phoenix, stworzona na University of Phoenix (mają kilkadziesiąt punktów e-edukacji na świecie i w ich systemie studiuje około 200 tysięcy ludzi na całym świecie). 3. SYNAT jako dostarczyciel kapitału intelektualnego dla e-edukacji Analizując literaturę przedmiotu, a zwłaszcza prace K.E. Sveiby’ego (2001, 2006), można zauważyć trzy etapy w rozwoju koncepcji kapitału intelektualnego. Etap pierwszy to lata osiemdziesiąte, kiedy to pojęcie kapitału intelektualnego ograniczano tylko do zarządzania zasobami ludzkimi. Drugi etap w rozwoju badań nad zagadnieniem kapitału intelektualnego to lata 1991–1997. Jest to czas rozwoju Internetu, który staje się, w pełnym tego słowa znaczeniu, siecią globalną, siecią powszechnie dostępną na całym (prawie!) świecie. Obecnie znajdujemy się na trzecim etapie rozwoju nauk o kapitale intelektualnym. Postulaty takie znajdujemy w licznych opracowaniach, nie tylko wspominanego już K.E. Sveiby’ego (2006), ale także u P. Lambego (2007) czy B. Levitta i J. Marcha (1988). W dniu dzisiejszym zarządzanie wiedzą zostaje włączone jako integralny element strategii vol. 10, nr 3 (38), 2012 223 Jerzy Kisielnicki zarządzania. Gospodarka oparta na zarządzaniu wiedzą jest możliwa tylko i wyłącznie wtedy, gdy organizacja dysponuje kapitałem intelektualnym i jednocześnie potrafi go zdobywać, kreować i wykorzystywać w sposób efektywny. Zarządzanie jest procesem składającym się z wielu czynników. Autorzy, tacy jak wspomniany wcześniej K.E. Sveiby (2006), C. Lee i J. Yang (2000) czy B. Levitt i J. March (1988), coraz częściej patrzą na organizację jak na łańcuch wartości (Value Network), który rozumiany jest jako „interakcja pomiędzy osobami odgrywającymi różne role i powiązanymi różnymi relacjami, tworzącymi zarówno niematerialne wartości (wiedza, idee), jak i wartość materialną (pieniądze)”. Wewnątrz organizacji wiedza zdobywana w różny sposób wpływa na system aktywów przedsiębiorstwa, które z kolei wzajemnie na siebie oddziaływają (rysunek 1). Poprzez proces zarządzania wiedzą tworzy się cykl, w którym następuje nieustanne oddziaływanie zasobów między sobą (rysunek 2). Tworzy się w ten sposób zamknięte koło relacji, w którym można wyróżnić następujące po sobie procesy: 1. Aktywa materialne (w tym aktywa finansowe) organizacji, które są zaangażowane w proces edukacji. 2. Poprzez edukacje zwiększane są zasoby niematerialne. 3. Zasoby niematerialne, czyli tzw. kapitał intelektualny zawarty w platformie SYNAT, wykorzystywany w celu powiększania zasobów materialnych organizacji. Aktywa finansowe Aktywa materialne E-edukacja Aktywa niematerialne Rys. 1. System finansowych, materialnych i niematerialnych aktywów i ich wpływ na edukację. Źródło: opracowanie własne. Istotny jest wpływ czynników znajdujących się poza strukturą wewnętrzną organizacji, którą może zapewnić SYNAT. Współczesne organizacje są zmuszone do nieustannej komunikacji z otoczeniem, gdyż niejednokrotnie to bodźce wpływające spoza organizacji stanowią o jej dalszym sukcesie bądź porażce rynkowej. Stąd też coraz bardziej powszechna staje się opinia, iż 224 Problemy Zarządzania Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy... jednym z najważniejszych, a może nawet i kluczowym aspektem jest dbałość o budowę efektywnego systemu transferu i konwersji wiedzy do oraz z organizacji. Transfer ten (por. rysunek 2) musi być dwukierunkowy, gdyż w dzisiejszych warunkach coraz częściej mamy do czynienia z rozmyciem granic i koniecznością kooperowania z coraz to szerszym otoczeniem. Takie właśnie zadania są postawione w realizowanym programie SYNAT. Dzięki SYNAT-owi możliwy będzie transfer i konwersja wiedzy z różnych repozytoriów. Struktura zewnętrzna Kompetencje indywidualne $ Transfery wiedzy, konwersja wiedzy Struktura wewnętrzna Rys. 2. Obraz zasilania wiedzą organizacji edukacyjnej. Źródło: K.E. Sveiby 2005. Dziesięć sposobów oddziaływania wiedzy na tworzenie wartości, E-mentor, nr 2 (9). 4. E-edukacja w strategii projektu SYNAT Przedstawiając modele biznesowe strategii projektu SYNAT, trzeba określić jej cel, za który przyjmujemy: dostęp do zawartości repozytoriów funkcjonujących w ramach KSINT nie jest pod żadnym względem ograniczony (np. tylko do środowiska akademickiego i naukowego), ale otwarty dla wszystkich, w tym dla edukacji (nie tylko dla e-edukacji). Przeprowadzona analiza światowych rozwiązań podobnego typu systemów (zob. raporty programu SYNAT) wykazała, że przestrzeń rozwiązań dopuszczalnych w zakresie strategii jego budowy jest różnorodna. W tabeli 2 przedstawiono zależności strategii tylko od dwóch zmiennych, a mianowicie od systemu koordynacji, czyli systemu zarządzania, i rozwiązania finansowego. Można wskazać też inne warianty strategii budowy SYNAT jako elementu Krajowego Systemu Informacji Naukowo-Technicznej. W okresie wysokiego popytu na opracowania naukowe i równoczesnej postkryzysowej sytuacji państwa mamy do czynienia z wieloma dylematami. W praktyce trudno vol. 10, nr 3 (38), 2012 225 Jerzy Kisielnicki jest stosować jedną strategię, najczęściej mamy do czynienia ze strategiami hybrydowymi. Większość stosuje w różnych wariantach strategię I (centralizacja i finansowanie z budżetu państwa w różnych formach). Ale jaką rekomendować w istniejących warunkach strategię dla Polski? System zarządzania Budżet państwa finansuje funkcjonowanie platformy SYNAT Opłaty za korzystanie z SYNAT pobierane od wszystkich użytkowników Scentralizowany system koordynacji Strategia I Strategia III Zdecentralizowany system koordynacji Strategia II Strategia IV Tab. 3. Strategie realizacji projektu SYNAT. Źródło: J. Kisielnicki 2011a. Docelowy model biznesowy dla instytucji eksploatujących platformę SYNAT jako podstawy Krajowego Systemu Informacji Naukowo Technicznej KNSIT, materiały konferencji SYNAT, Warszawa: Uczelnia Łazarskiego. Strategia I. Scentralizowana równocześnie ze względu na system koordynacji i finansowanie wyłącznie z budżetu państwa, a użytkownicy mają nieodpłatny dostęp do zasobów zgromadzonych w cyfrowych repozytoriach. Bardzo atrakcyjny, ale mało realny pomysł z uwagi na permanentny kryzys finansów publicznych. Wydaje się też bardzo kosztowny i trudny do urzeczywistnienia. Często w instytucjach powstających w wyniku tej strategii następuje rozrost biurokracji i w konsekwencji zmniejsza się skuteczność takich instytucji. W kontekście e-edukacji problemem są dwa systemy odpłatności uczestników. Strategia II. Hybrydowa – zarządzanie w zasadzie zdecentralizowane, natomiast koszty eksploatacji płatne z budżetu centralnego i częściowo też płatne przez użytkowników. Ze względu na sposób finansowania strategia podobna do poprzedniej, różnica dotyczy systemu koordynacji. Wydaje się, że w Polsce dominuje strategia II – nie istnieje scentralizowany system koordynacji, ale budżet państwa finansuje większość projektów naukowych i powstających w ich wyniku publikacji. Bardzo silnym wzmocnieniem realizacji strategii II mogą być przykłady funkcjonowania rozwiązań Open Access. Komisja Europejska w swoich regulacjach wprowadziła specjalną klauzulę, tzw. Clause 39. Zobowiązuje ona do udostępniania publikacji powstających w wyniku takich projektów jak PR7 w repozytoriach Open Access. Przyjęcie takiego rozwiązania mogłoby być podstawą strategii zasilania platformy SYNAT w najnowsze i wartościowe publikacje naukowe, które byłyby uwzględniane w podręcznikach szkolnych i akademickich. Strategia III. Zdecentralizowany system zarządzania oraz pełna odpłatność za dostęp do zasobów ulokowanych na platformie SYNAT uiszczana przez wszystkich użytkowników. Trudno ją rekomendować ze względu na fundamentalne założenie o pełnej otwartości dostępu do zasobów repozy226 Problemy Zarządzania Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy... toriów w KSINT, chociaż jej elementy obecnie funkcjonują w Polsce. Dotyczy to np. udostępniania danych, które zbiera Główny Urząd Statystyczny, a które w większości są udostępnianych za opłatą. Strategia IV. Rynkowa – wszystko jest płatne, platforma jest własnością prywatną, bez udziału Skarbu Państwa. Ta strategia ma wielu zwolenników. Zakłada się w niej, że państwo nie partycypuje w pokrywaniu kosztów związanych z funkcjonowaniem systemu informacji naukowo-technicznej, sponsorami publikowania i archiwizowania utworów w otwartych repozytoriach są podmioty prywatne, opłaty pobierane są też od użytkowników. Autorzy podręczników szkolnych i akademickich płaciliby za korzystanie z materiałów zawartych w repozytorium systemu SYNAT. Wśród zwolenników takiego rozwiązania jest, jak się wydaje, na pierwszym miejscu Ministerstwo Finansów. 5. Uwagi końcowe – rekomendacje w zakresie projektu SYNAT i jego roli w e-edukacji Platforma SYNAT ma na celu przyczynienie się do wzrostu kapitału intelektualnego Polski, doprowadzając do wzrostu konkurencyjności naszej gospodarki. Jak pisze Z. Gackowski (2012), jest to element spirali tworzenia kapitału intelektualnego. Jednym z istotnych elementów tej spirali jest edukacja a zwłaszcza e-edukacja. Realizacja tego postulatu może być przeprowadzona na wiele sposobów. Wszystkie jednak muszą uwzględniać istotny dla procesu edukacji łańcuch Data-Information-Knowledge-Wisdom (DIKW). Jak już podkreślałem, jestem zwolennikiem dostępu bezpłatnego i rozwoju rozwiązań Open Access, co w bardzo istotny sposób wpływa na wzrost jakości publikacji nie tylko naukowych, ale też edukacyjnych. Jak wcześniej wskazywano, instytucje określone jako repozytoria to serwery sieciowe, które umożliwiają najczęściej równoległą (oprócz papierowej) publikację w Internecie oraz długotrwałą archiwizację i udostępnianie treści kręgom osób uprawnionych (np. pracownikom naukowym, nauczycielom, studentom, członkom stowarzyszeń zawodowym) lub szerokiej publiczności, bez dyskryminacji i zbędnych ograniczeń. Dlatego też realizacja projektu SYNAT powinna się przyczynić do wzrostu jakości systemów edukacji i tym samym przyczynić się do znaczącej poprawy pozycji Polski zarówno w Unii Europejskiej, jak i na świecie. Aktualna pozycja w rankingach światowych (65.–70. miejsce) nie jest dla nas satysfakcjonująca. Można mieć nadzieję, że takie właśnie projekty jak SYNAT poprawią sytuację i spowodują nie tylko wzrost samego kapitału intelektualnego, ale także przyczynią się do wzrostu naszej konkurencyjności. Informacje o autorze Prof. zw. dr hab. Jerzy Kisielnicki – Kierownik Zakładu Projektowania Systemów Informatycznych, Wydział Zarządzania Uniwersytetu Warszawskiego. E-mail: [email protected]. vol. 10, nr 3 (38), 2012 227 Jerzy Kisielnicki Bibliografia Bersih, J. 2004. The Blended Learning Book, John Wiley & Sons. Crow, R. 2002. The Case for Institutional Repositories: a SPARC Position Paper, Washington, http:www.arl.org/sparc/IR/ir.html, dostęp: 26.04.2011. Gackowski, Z. 2012. The Helix of Human Cognition: Knowledge Management According to DIKW, E2E, and the Proposed View. Informing Science: the International Journal of an Emerging Transdiscipline, nr 15. Górecka-Hajkiewicz, M. (red) 2012. Proponowany model biznesowy dla instytucji eksploatującej platformę SYNAT, raport z badań, Warszawa: Uczelnia Łazarskiego. Kisielnicki, J. 2011a. Docelowy model biznesowy dla instytucji eksploatujących platformę SYNAT jako podstawy Krajowego Systemu Informacji Naukowo Technicznej KNSIT, materiały konferencji SYNAT, Warszawa: Uczelnia Łazarskiego. Kisielnicki J. 2011b. Krajowy System Informacji Naukowo-Technicznej KNSIT jako znaczący element budowy systemu społeczeństwa informacyjnego, w: Informatyka 4 przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego, W. Chmielarz, J. Kisielnicki, O. Szumski (red.), Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego. Köhler, M., Arndt, H.W. i T. Fetzer 2008. Information Society as Seen by EU Citizens, The Gallup Organization. Lambe, P. 2007. Organising Knowledge: Taxonomies, Knowledge and Organisational Effectiveness, Chandos Publishing. Lee, C.C. i J. Yang 2000. Knowledge Value Chain. Journal Management of Development, nr 4 (21). Levitt, B. i J. March 1988. Organizational Learning. Annual Review of Sociology, nr 14. Niezgódka, M. 2009. Modele otwartego komunikowania w nauce i edukacji – perspektywy dla Polski, w: Otwartość w nauce – Open Access i inne modele, Warszawa: materiały konferencji PAN PAN 2009. Public Trust in Science and Industry-supported Research and Education, materiały konferencji PAN, Warszawa. Rosenberg, M.J. 2001. E- Learning, Strategies for Delivering Knowledge in the Digital Age, Mc Graw Hill Rosenberg, M.J. 2006. Beyond E-Learning: Approaches and Technologies to Enhance Knowledge, Learning and Performance, Pfeiffer. Saadé, R. 2006. Motivation in Internet-Based Learning Mediums. Information & Management. Saadé, R. i B. Bahli 2005. The Impact of Cognitive Absorption on Perceived Usefulness and Perceived Ease of Use in On-line Learning: An Extension of the Technology Acceptance Model. Information & Management, nr 2 (42), s. 317–327. Saadé, R. i I. Galloway 2005. Understanding the acceptance of multimedia applications for learning. Issues in Informing Sciences and Information Technology, nr 2, s. 287–296. Sveiby, K.E. 2001. Intellectual Capital and Knowledge Management, http://www.sveiby. com. Sveiby, K.E. 2005. Dziesięć sposobów oddziaływania wiedzy na tworzenie wartości. E-mentor nr 2 (9). 228 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 229 – 247 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.14 Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie dla rozwoju firm informatycznych Jerzy Rosiński Autor artykułu, na podstawie danych badawczych, przedstawia postawy informatyków wobec zatrudniających ich organizacji. Specyficzne dla pracowników IT traktowanie zatrudniających ich firm może być charakterystyczne dla szerszej grupy wysoko specjalizowanych pracowników wiedzy. 1. Wstęp Obszarem, który może być wartościowy dla eksploracji naukowej, wydaje się stosunek pracowników branży IT do zatrudniającej organizacji. Sposób postrzegania współpracowników oraz całej organizacji to znaczący element regulacyjny, wpływający na zachowania jednostki. Dotyczy to nie tylko zachowań celowych jednostki, ale także szerszego kontekstu funkcjonowania i adaptacji do środowiska pracy (Łaguna 2010: 80–82). Jak wskazują studia przypadków firm z sektora IT, nieznajomość postaw pracowników wobec organizacji może stanowić znaczącą przyczynę zmniejszenia efektywności, a nawet upadku firmy1 (Chibelushi i Trigg 2012: 103–126). W firmach z branży IT można liczyć się z modyfikacjami w zakresie postrzegania przez pracowników organizacji, gdyż jak wskazują badania N.K. Lankton i in. (2010: 300–307), już samo wykorzystywanie urządzeń IT zmienia nawyki zachowania. Także stosowanie technologii informacyjnych w zarządzaniu organizacją modyfikuje charakter i sposób funkcjonowania firmy (Hempel 2004: 164–165). Znaczenie modyfikujące dla kultury organizacji ma nawet rodzaj użytkowanego oprogramowania stosowanego do zarządzania procesami organizacyjnymi (Shih i Huang 2010: 271–281). W firmach z branży IT tego rodzaju zjawiska – wysycenie sprzętem komputerowym, użycie technologii informatycznych w procesach zarządzania – wydają się szczególnie nasilone. Niestety na podstawie dostępnych badań trudno rozstrzygnąć charakter postaw pracowników IT odnośnie organizacji, w której pracują. Istnieją wprawdzie współczesne badania postaw pracowników branży IT wobec zatrudniającej organizacji, ale wiążą one postrzeganie i ocenę organizacji vol. 10, nr 3 (38), 2012 229 Jerzy Rosiński raczej z czynnikami pochodzącymi z systemu rodzinnego, takimi jak kapitał kulturowy (Mauno i in. 2011: 147–166; Steinfield i in. 2010: 1156–1166) czy łączenie życia osobistego i zawodowego (Nitzsche i in. 2011: 407–421). 2. Zaangażowanie współczesnych pracowników IT w organizację – przegląd literatury Można przypuszczać, że pracownicy IT będą odnosić się z rezerwą do swoich organizacji: badani przez A. Marks i C. Lockyer (2005: 219–237) programiści identyfikowali się z zespołem, a nie z organizacją. Do podobnych wniosków można dojść na podstawie analizy danych badawczych odnoszących się do szerszej grupy – pracowników wiedzy o eksperckim poziomie kompetencji specjalistycznych. Wywiady przeprowadzone przez N. Kinnie i J. Swart (2012: 21–38) na grupie 150 wysoko specjalizowanych pracowników wiedzy (professionals) z różnych branż wskazały, że istnieje grupa pracowników wiedzy, którzy starają się połączyć korzyści dla organizacji z korzyściami dla klienta i dla swojej kariery zawodowej (tzw. sytuacja wygrana–wygrana– wygrana). Jednak najczęściej mamy do czynienia z łączeniem 2 z 3 elementów, np. korzyści dla klienta i dla swojego rozwoju zawodowego, co może prowadzić do konfliktów w trzecim, pomijanym obszarze – w tym przypadku dbaniu o interesy organizacji. Oznacza to, że dbając o swój rozwój zawodowy i interesy organizacji, pracownik może na dalszym planie sytuować potrzeby klienta (rysunek 1). Organizacja Klient Zawód/środowisko zawodowe Rys. 1. Kierunki zaangażowania pracowników wiedzy. Źródło: opracowanie własne na podstawie N. Kinnie i J. Swart 2012. Committed to Whom? Professional Knowledge Worker Commitment in Cross-boundary Organizations. Human Resource Management Journal, nr 1 (22), s. 24. Inaczej niż w tradycyjnych modelach ery industrialnej, pracownicy nie są zaangażowani tylko w realizację interesów zatrudniającej ich organizacji. Równoległym obszarem zaangażowania są relacje z klientami lub ze środowi230 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... skiem zawodowym (Kinnie i Swart 2012: 30). Z punktu widzenia pracownika mamy raczej do czynienia z korzystnym współistnieniem różnych obszarów zaangażowania, choć z punktu widzenia pracodawcy może tu dochodzić do rozbieżności interesów (Nęcki 1995: 151–156) czy też negatywnego zaangażowania pracownika w organizację (Bugdol 2006: 84)2. Coraz częściej zwraca się uwagę, iż w związku z rozwojem wysoko specjalizowanej pracy opartej na wiedzy, pracownicy czują się w większym stopniu związani ze swoim środowiskiem zawodowym niż z aktualnym pracodawcą (Alvesson 2004: 21–38). Pracownicy wiedzy, czując się posiadaczami swoich umiejętności i wiedzy zawodowej, mogą chętniej rozwijać swoje kompetencje, opierając się na zewnętrznych sieciach kontaktów – wymianie wiedzy między ekspertami z różnych organizacji (Scarbrough 1999: 5–16). Dlatego przy wyborze kierunku zaangażowania możemy mieć do czynienia z preferencją zaangażowania zawierającego element: „zawód/środowisko zawodowe”. Najprawdopodobniej preferowanym zaangażowaniem będzie kierunek: klient–środowisko zawodowe, przy stopniowym marginalizowaniu organizacji. Dane z badan prowadzonych przez N. Kinnie i J. Swart (2012) mogą być charakterystyczne także dla pracowników wiedzy z branży IT – jako osób silnie zmotywowanych pracą w środowisku „wysyconym wiedzą” (knowledge-intensive environments) (Marks i Lockyer 2005: 219–237). Dla modyfikacji postaw pracowników IT wobec organizacji istotna wydaje się występująca u pracowników wiedzy potrzeba identyfikacji zawodowej i budowanie tożsamości, opierając się na grupie zawodowej. Oznacza to, że pracownicy IT częściej czują się np. programistami niż pracownikami konkretnej firmy (Rosiński i Filipkowska 2009: 216–217). Przesłanki odnośnie kształtowania postaw pracowników IT wobec organizacji możemy identyfikować także w charakterystykach tzw. agenta wiedzy (Perechuda 2005: 141–145). Mimo różnic pojęciowych3, warto brać pod uwagę charakterystyki agenta wiedzy – wszak wiele prac w firmach IT jest wykonywanych na podstawie struktury projektowej. Opisami, które mogą być przydatne do wnioskowania na temat postaw pracowników IT wobec organizacji, są charakterystyki agentów wiedzy trafne w odniesieniu do pracowników wiedzy i ekspertów organizacyjnych: – czasowy charakter pracy i mobilność (niekiedy łącznie zwane nomadycznością); – niski poziom lojalności wobec firmy, zastąpiony lojalnością dla projektu lub grupy zawodowej; – funkcjonowanie osoby na zasadach mikrofirmy (występują tu elementy rynku, wartości firmy, rozpoznawalności marki – nazwiska, PR – np. aktywności na zawodowych forach dyskusyjnych). Funkcjonowanie na rynku jako mikrofirma sprzedająca swój kapitał intelektualny w kolejnych projektach i lojalność wobec grupy zawodowej może powodować, że pracownicy branży IT będą z rezerwą odnosić się do swoich organizacji. vol. 10, nr 3 (38), 2012 231 Jerzy Rosiński Postawy wobec pracodawcy mogą zmieniać się w czasie. Niestety, jak zwraca uwagę J. Meyer (2011: 307), istnieje stosunkowo niewielka liczba doniesień badawczych wiążących funkcjonowanie pracowników IT ze stażem pracy. Autorzy badający pracowników IT i biorący pod uwagę zmienną czasu, koncentrowali się raczej na osobach zarządzających (Van Olst i Mbungela 2009), w mniejszym stopniu zaś interesowali się samymi pracownikami branży IT. Badania pracowników prowadzone w organizacjach z branży IT koncentrowały się dotychczas na opisywaniu zależności pomiędzy wiekiem pracowników a ich innowacyjnością4 (Nishimura i in. 2004; Rouvinen 2002: 575–580; Schneider 2008: 37–54). Drugi nurt badań odnosił się do wieku pracownika i efektywnego użytkowania narzędzi informatycznych przy wykonywaniu zadań zawodowych5 (Arning i Ziefle 2008: 89–93; Friedberg 2003: 511–529; Schleife 2006: 325–348; Tijdens i Steijn 2005: 60–73; Verworn i Hipp 2009: 180–197). Wartościowe dla tego nurtu wydają się zwłaszcza badania jakie prowadzili L. Borghans i B. ter Weel (2002: 139–173) oraz J. de Koning i A. Gelderblom (2006: 467–490). Wymienieni badacze wskazali na ciekawą zależność: wraz z wiekiem zmniejszała się skłonność do użytkowania narzędzi informatycznych, przy czym dotyczyło to także osób pracujących na bogato wyposażonych stanowiskach. Innymi słowy, firmy inwestowały w urządzenia i oprogramowanie dla pracowników o długim stażu pracy, jednak udoskonalenia te nie były wykorzystywane w codziennej pracy. Badania prowadzono jednak w znacznym stopniu poza branżą IT. Pojawiają się także doniesienia badawcze wskazujące na czynniki modyfikujące postawy pracowników wobec technologii informacyjnych. Kwestionowany jest spadek innowacyjności i mniejsze chęci do korzystania z narzędzi informatycznych – wskazywane są nawet pozytywne efekty wysycenia środowiska pracy narzędziami informatycznymi (Ebling i Janz 1999; Gera i Gu 2004). Szeroko zakrojone badania, prowadzone w 1251 firmach na terenie Niemiec wskazują, że zmiany zachodzące wraz z wiekiem pracownika (spadek innowacyjności, niechęć do używania narzędzi IT) mają miejsce znacznie częściej u osób, które nie uczestniczyły w specjalnie przygotowanych działaniach rozwojowych (szkoleniach), adresowanych do osób po 50. roku życia. Osoby rozwijające swoje umiejętności za pomocą dopasowanych dla nich narzędzi nie podlegały w tym samym stopniu zjawiskom negatywnym, co osoby pozbawione wsparcia rozwojowego (Bertschek i Meyer 2010: 13–14). Istniejące skąpe i niejednoznaczne doniesienia badawcze wskazują, iż postawy pracowników wobec technologii stosowanych w firmach branży IT zmieniają się wraz z wiekiem. Młodsze osoby (do 30. roku życia) oceniają technologie informacyjne lepiej w porównaniu z osobami powyżej 30. roku życia. Ma to wpływ także na użytkowanie samych narzędzi informatycznych (Meyer 2011: 305–324). Jednak publikacja ta odnosi się do narzędzi, a nie organizacji. Stąd wyniki badań mogą wprowadzać w błąd: mówiąc o stosunku do organizacji, należałoby wziąć pod uwagę nie tylko stronę techniczną, 232 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... ale też elementy związane z przynależnością do grupy zawodowej (może to modyfikować postawy wobec organizacji). Innymi słowy, w firmach z branży IT możemy mieć do czynienia z odrębnymi postawami wobec organizacji i wobec narzędzi czy technologii informacyjnych stosowanych w danym miejscu pracy. Obserwacje dotyczące generacyjnych różnic w zakresie postaw wobec pracy stwierdzano u pracowników spoza branży IT (Jamka 2004: 346. Cyt. za Sikorski 1997: 87). Nie ma jednak regularnych i potwierdzonych doniesień badawczych odnoszących się do specyfiki pracowników branży IT. 3. Hipotezy i procedura badań Wobec skąpych doniesień badawczych pojawia się obszar możliwości dla uzyskania nowych danych. Na podstawie dostępnej literatury możliwe jest postawienie hipotez odnoszących się do postaw pracowników branży IT wobec zatrudniających organizacji (hipoteza 1. i 2.), dotyczą one jednak obszaru w początkowym stadium eksploracji naukowej. Hipoteza 1: Informatycy bardziej krytycznie postrzegają zatrudniające ich organizacje niż inni pracownicy. Hipoteza 2: Trwałość krytycznej postawy różnicuje informatyków od osób spoza branży. Krytyczne postawy informatyków wobec zatrudniającej organizacji nie zmieniają się wraz ze zwiększaniem się stażu pracy. Pracownika nowej gospodarki poszukiwano wśród osób zatrudnionych w branży IT (część szerzej pojętej gospodarki nowych technologii – high), ich opisy konfrontowano z charakterystykami pracowników sprzedaży (rynek FMCG) i osobami zatrudnionymi w instytucjach publicznych (urzędnicy) – grupę tę określano jako „innych” (można uznać, że jest to część gospodarki low tech). Taki dobór próby badawczej powoduje, że wyniki możemy odnosić głownie do branży IT, ale także podjąć próbę uogólnienia wyników dla pracowników branży nowych technologii, czy jeszcze szerzej odnosić do pracowników wiedzy będących wysoko kwalifikowanymi ekspertami. Ogółem przebadano 468 osób, w tym 228 pracowników branży IT i 240 osób spoza niej6. Pierwszym elementem celowego wyboru był dobór pracowników z branży IT i osób spoza branży jako grupy kontrolnej. O przydzieleniu do grupy pracowników IT decydowało kryterium przynależności ze względu na wykonywaną pracę w organizacji z branży IT. Powodowało to, że do badań zostały zaproszone wyłącznie osoby zajmujące się bezpośrednio tworzeniem, testowaniem i wdrażaniem aplikacji, administratorzy sieci oraz osoby zarządzające grupami projektowymi. Wewnątrz grupy osób zaproszonych do badań stosowany był wybór losowy. Celowym wyborem było także umieszczenie w grupie pracowników IT osób pracujących w organizacjach o zróżnicowanej wielkości – osoby badane vol. 10, nr 3 (38), 2012 233 Jerzy Rosiński rekrutowano z organizacji zatrudniających 30–50 osób poprzez organizacje liczące ponad 100 osób aż do firm zatrudniających kilkaset osób w jednym oddziale i ponad tysiąc w całej firmie na terenie Polski (tabela 1). Grupa pracowników IT Inni – 99 osób – duża organizacja (powyżej 1000 osób w Polsce), zatrudniająca w dziale, gdzie prowadzono badania około 300 osób – 51 osób z organizacji zatrudniającej około 150 osób – 36 osób z organizacji zatrudniającej około 50 osób – 29 osób z dużej organizacji zatrudniającej w dziale, gdzie było prowadzone badanie, około 100 osób – 13 osób z organizacji zatrudniającej około 30 osób – 119 osób – handlowcy i kierownicy sprzedaży (bezpośrednio nadzorujący prace sprzedawców) z branży FMCG – 52 osób – pracownicy firm z sektora MSP nie związanego z nowymi technologiami – 40 osób – pracownicy administracyjni i kierownicy bezpośrednio nadzorujący pracę administracji (sektor publiczny) – 17 osób – pracownicy administracyjni (organizacja komercyjna) – 5 osób – sprzedawcy (przedstawiciele handlowi) branża farmaceutyczna – 7 osób – kierownicy sprzedaży sprawujący bezpośredni nadzór nad sprzedawcami – handel detaliczny Łącznie: 228 osób Łącznie: 240 osób Tab. 1. Zestawienie liczności osób badanych ze względu na wielkość i charakter organizacji, w których wykonują swoją pracę. Źródło: opracowanie własne. W zakresie doboru osób do grupy kontrolnej (osoby spoza branży IT – opisywani jako „grupa kontrolna” lub „inni”) stosowano także dobór celowo-losowy. Do badań zapraszano wyłącznie osoby spoza branży IT, nie mające w codziennej pracy związku z tworzeniem oprogramowania czy administrowaniem siecią. Dobór osób do tej grupy wzorowany był na klasycznych7 badaniach8. J.D. Couger i R.A. Zawacki (1980). Cyt. za: Prasad i in. (2007: 349–372), w których grupę kontrolną stanowili pracownicy sprzedaży i usług. W obecnych badaniach mamy także grupę sprzedawców oraz pracowników administracyjnych z sektora publicznego i komercyjnego Do tej grupy nie byli włączani pracownicy administracyjni (np. sekretarki, księgowe) z firm z branży IT. Badania prowadzone były za pomocą ankiety zawierającej 34 pytania zamknięte, odnoszące się do postrzegania organizacji, relacji z przełożonymi oraz współpracownikami. Pytania do ankiety zostały zebrane w wyniku wywiadów z menedżerami i pracownikami branży IT. Narzędzie przetestowano w badaniach pilotażowych, odrzucając lub zmieniając treść wybranych pytań. 234 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... 4. Prezentacja wyników badań Po zebraniu wyników badań sprawdzono, czy wskaźniki kwestionariusza tworzą strukturę czynnikową W tym celu obliczono wskaźniki KMO oraz test sferyczności Bartletta-Boxa (zob. tabela 2). Wartość KMO (Kaisera-Meyera-Olkina) wyniosła 0,78, była więc zadowalająca (Zakrzewska 1994: 55). Test sferyczności Bartletta w obydwu pomiarach odrzucił hipotezę, że poszczególne itemy są nieskorelowane i nie ma wśród nich struktury czynnikowej. W kolejnym kroku ustalono liczbę czynników, jaką zawiera kwestionariusz, oraz ich wartości własne i procent wariancji wyjaśnionej przez czynniki (po rotacji). Wyniki tego kroku analizy zawiera tabela 3. Wskaźniki Wynik Miara KMO adekwatności doboru próby 0,78 Test sferyczności Bartletta chi2 3016,33 df 561 p <0,001 Tab. 2. Adekwatność doboru próby i test sferyczności dla kwestionariusza stosowanego w badaniach. Źródło: opracowanie własne. Czynnik Wartość własna % wariancji wyjaśnionej % skumulowany wariancji wyjaśnionej 1 3,84 11,28 11,28 2 2,08 6,11 17,39 3 2,07 6,09 23,48 4 1,82 5,36 28,84 5 1,79 5,27 34,12 6 1,58 4,64 38,76 7 1,47 4,34 43,10 8 1,34 3,95 47,05 9 1,28 3,77 50,81 10 1,28 3,75 54,56 11 1,25 3,67 58,23 Tab. 3. Wartości własne czynników i procent wariancji wyjaśnionej. Źródło: opracowanie własne. Uzyskane czynniki poddano dalszej analizie. Biorąc pod wykres osypiska (scree plot) oraz interpretowalność, do ostatecznej analizy przyjęto siedem pierwszych czynników. Uzyskane czynniki posiadały zadowalające ładunki czynnikowe (powyżej 0,5) oraz możliwa była sensowna merytorycznie synteza pytań ankiety wchodzących w skład danego czynnika9. vol. 10, nr 3 (38), 2012 235 Jerzy Rosiński Czynnik 1. Uznanie ze strony firmy można określić także jako „ogólną przychylność firmy”. Im bardziej nasilony jest ten czynnik, tym bardziej firma dba o rozwój kompetencji swoich pracowników; osoby zatrudnione spotykają się także z wyrazami uznania ze strony przełożonych, brak jest zachowań autorytarnych ze strony kadry zarządzającej czy też okazywania wyższości. Wymiar ten odnosi się raczej do „przychylności organizacji” w jej formalnym aspekcie funkcjonowania (kariera, rozwój, ocena pracownicza). Czynnik 2. Familiarność organizacji mówi o dystansie władzy i więzi pomiędzy osobami pracującymi w firmie. Im silniej zaznaczony ten czynnik, tym można mówić o mniejszym dystansie władzy, a większym bliskości czy też swojskości relacji. Wymiar ten odnosi się raczej do „przychylności organizacji” w jej nieformalnym aspekcie funkcjonowania (codzienne sytuacje, kontakty w miejscu wykonywania pracy i w miejscu odpoczynku podczas przerw w pracy)10. Czynnik 3. Identyfikacja zadaniowa to chęć odniesienia sukcesu właśnie w tej firmie. Nie musi to jednak oznaczać identyfikacji z wartościami organizacyjnymi, możemy mieć w tym wypadku do czynienia z uczestnictwem kalkulatywnym (Etzioni 1985: 159–174) w organizacji (zob. także czynnik 6. – motywatory materialne). Oznacza to, że pracownik jest silnie zorientowany na realizację zadań na rzecz danej organizacji, jednak postawa ta wynika z uznania danej firmy za najlepsze miejsce dla realizacji osobistych celów i zaspokojenia własnych potrzeb. Czynnik 4. Obowiązkowość mówi o dotrzymywaniu zobowiązań zarówno wobec osób we własnym zespole (najczęściej w zespole projektowym), jak i wobec osób w organizacji (tzw. klienta wewnętrznego). Czynnik 5. Formalizacja relacji międzyludzkich11 odnosi się do jakości współpracy, kontaktów, bycia razem przy wykonywaniu zadań organizacyjnych. Im wyższe nasilenie tego czynnika, tym pracownicy wyrażają mniejszą ochotę do wspólnej pracy. Wysoki wynik w tym czynniku może także wskazywać na formalizację relacji pomiędzy „informatykami” a „biznesem” czy „administracją” – innymi słowy formalne relacje mogą dotyczyć styku różnych działów organizacji (zob. item 2. w czynniku 5.). Czynnik 5. nie odnosi się wyłącznie do relacji szef–podwładny (dystans władzy opisuje także czynnik 2.), zakres czynnika 5. dotyczy także relacji pomiędzy współpracownikami. Czynnik 6. Motywatory materialne to waga, jaką przywiązują pracownicy do motywatorów o charakterze materialnym (zarówno płacowych, jak i pozapłacowych). Im większe wysycenie danego czynnika, tym większe znaczenie osobiste mają dla pracowników motywatory materialne oferowane przez firmę 236 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... Czynnik 7. Indywidualizm to pozytywna ewaluacja przez pracowników autonomii działania rozumianej jako dystans emocjonalny do relacji z przełożonym i grupą oraz nonkonformizm wobec wybranych zasad firmowych. W kolejnym kroku prowadzonych analiz skupiono się na opisie specyfiki funkcjonowania pracowników sektora IT w zakresie opisywanym przez 7 czynników użytego w badaniach kwestionariusza. Szczegółowe wyniki badań kwestionariuszowych zostały przedstawione w tabelach 4 i 5. Prezentowane zmienne niezależne to: – praca – pracownicy IT, tzw. high tech (określeni w tabeli jako „informatycy”) lub pracownicy spoza branży IT, tzw. low tech (określeni w tabeli jako „grupa kontrolna”); – staż – pracownicy o stażu do 3 lat lub pracownicy o stażu 4 lata i większym. Przy wyodrębnieniu podgrup ze względu na zmienną „praca” (tabela 4) mamy do czynienia z 5 istotnymi statystycznie różnicami (na 7 czynników ankiety). Są to w kolejności: uznanie ze strony firmy, familiarność organizacji, identyfikacja zadaniowa, formalizacja relacji międzyludzkich, indywidualizm. W zakresie czynników: obowiązkowość, motywatory materialne nie ma istotnie statystycznych różnic między grupami. Wyodrębnione podgrupy osób badanych ze względu na zmienną niezależną „praca” Czynniki ankiety informatycy grupa kontrolna p odchylenie odchylenie średnia średnia standardowe standardowe 1. Uznanie ze strony firmy 1,67 0,46 2,10 0,60 <0,001 2. Familiarność organizacji 1,26 0,42 2,41 0,76 <0,001 3. Identyfikacja zadaniowa 2,39 0,52 1,90 0,47 <0,001 4. Obowiązkowość 1,46 0,51 1,49 0,51 0,566 5. Formalizacja relacji międzyludzkich 3,27 0,48 2,82 0,55 <0,001 6. Motywatory materialne 1,74 0,65 1,68 0,66 0,111 7. Indywidualizm 2,90 0,47 2,64 0,48 <0,001 Tab. 4. Zależności między zmienną niezależną „praca” a wyodrębnionymi czynnikami. Źródło: opracowanie własne. Wyniki związane ze zmienną „staż” (tabela 5) wskazują, iż wraz ze stażem pracy rośnie przekonanie pracowników o zyskiwaniu uznania ze strony firmy (czynnik 1.) oraz postrzeganie przez osoby zatrudnione organizacji jako bardziej przyjaznej (czynnik 2.). vol. 10, nr 3 (38), 2012 237 Jerzy Rosiński Wyodrębnione podgrupy osób badanych ze względu na zmienną niezależną „staż” Czynniki ankiety krótki staż średnia długi staż odchylenie średnia standardowe p odchylenie standardowe 1. Uznanie ze strony firmy 1,74 0,55 1,97 0,57 0,023 2. Familiarność organizacji 1,54 0,72 2,01 0,85 <0,001 3. Identyfikacja zadaniowa 2,27 0,53 2,08 0,55 0,217 4. Obowiązkowość 1,44 0,52 1,49 0,50 0,546 5. Formalizacja relacji międzyludzkich 3,11 0,50 3,00 0,59 0,791 6. Motywatory materialne 1,66 0,61 1,74 0,68 0,094 7. Indywidualizm 2,82 0,48 2,74 0,50 0,630 Tab. 5. Zależności między zmienną niezależną „staż” a wyodrębnionymi czynnikami. Źródło: opracowanie własne. W tabelach 6 i 7 oraz na rysunkach 2 i 3 zawarto wyniki dotyczące znaczących statystycznie interakcji między zmiennymi niezależnymi. W zakresie postrzegania familiarności organizacji (czynnik 2.) pracownicy branży IT mają podobny obraz organizacji, niezależnie od długości stażu. W zakresie postrzegania familiarności organizacji pracownicy IT różnią się znacząco od osób z innych branż, niezależnie od długości stażu pracy. Natomiast niechęć do wspólnego wykonywania pracy (czynnik 5.) wzrasta u pracowników IT znacząco wraz ze stażem pracy. Pracownicy IT, niezależnie od stażu pracy, są zawsze znacząco mniej nastawieni na współpracę niż osoby spoza branży. Jednakże, porównując pracowników IT z małym i dużym stażem, stwierdzamy nasilanie się niechęci do współpracy w grupie pracowników o dłuższym stażu. U osób spoza branży IT mamy do czynienia z odwrotną tendencją, tzn. pracownicy o dłuższym stażu są bardziej skłonni do współpracy niż pracownicy o krótszym stażu. Zmienne niezależne (interakcja) F(1, 460) p Czynnik 2. Familiarność organizacji grupa × staż 5,95 0,015 Czynnik 5. Formalizacja relacji międzyludzkich grupa × staż 9,47 0,002 Czynnik Tab. 6. Czynniki, dla których zachodzi istotna statystycznie interakcja zmiennych. Źródło: opracowanie własne. 238 Problemy Zarządzania vol. 10, nr 3 (38), 2012 praca × staż praca × staż Czynnik Czynnik 2. Familiarność organizacji Czynnik 5. Formalizacja relacji staż praca staż praca Zmienna niezależna –0,07 –1,20 –0,15 3 lata i mniej vs. 4 lata i więcej 3 lata i mniej vs. 4 lata i więcej informatycy vs. nieinformatycy informatycy vs. nieinformatycy 3 lata i mniej vs. 4 lata i więcej 3 lata i mniej vs. 4 lata i więcej informatycy vs. nieinformatycy informatycy vs. nieinformatycy informatycy grupa kontrolna 3 lata i mniej 4 lata i więcej informatycy grupa kontrolna 3 lata i mniej 4 lata i więcej 0,569 0,243 0,18 –0,90 –0,37 Różnica średnich Porównanie podgrup wyodrębnionych ze względu na zmienną niezależną Podgrupa wyodrębnia ze względu na zmienną niezależną <0,001 0,005 0,030 0,029 <0,001 <0,001 <0,001 0,407 p Tab. 7. Szczegółowe dane dotyczące charakteru relacji pomiędzy zmiennymi dla czynników, w których zachodzi istotna statystycznie interakcja zmiennych. Źródło: opracowanie własne. Interakcja zmiennych Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... 239 Jerzy Rosiński Wartości dla Czynnika 2. (Familiarność organizacji) 3,0 2,5 2,0 1,5 1,0 0,5 0 Informatycy staż do 3 lat Informatycy staż 4 lata i więcej Grupa kontrolna staż do 3 lat Grupa kontrolna staż 4 lata i więcej Grupy osób badanych Wartości dla Czynnika 5. (Formalizacja stosunków międzyludzkich) Rys. 2. Dane dla czynnika 2. (familiarność organizacji). Porównanie grup (ANOVA, efekty proste) o krótszym i dłuższym stażu, osobno w grupach pracowników branży IT (na rysunku oznaczonych jako „informatycy”) i grupy kontrolnej. Źródło: opracowanie własne. 4,0 3,5 3,0 2,5 2,0 1,5 1,0 0,5 0 Informatycy staż do 3 lat Informatycy staż 4 lata i więcej Grupa kontrolna staż do 3 lat Grupa kontrolna staż 4 lata i więcej Grupy osób badanych Rys. 3. Dane dla czynnika 5. (formalizacja stosunków międzyludzkich). Porównanie grup (ANOVA, efekty proste) o krótszym i dłuższym stażu, osobno w grupach pracowników branży IT (na rysunku oznaczonych jako „informatycy”) i grupy kontrolnej. Źródło: opracowanie własne. 5. Omówienie wyników badań W pierwszej kolejności przeanalizowane zostały istniejące różnice pomiędzy grupami, występujące w części ankiety odnoszącej się do postrzegania organizacji (tabela 3). Na podstawie tych danych można uznać, iż badane osoby z branży IT, w porównaniu z innymi pracownikami: 240 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... – uważają swoje organizacje za nieprzykładające wagi do o rozwoju kompetencji swoich pracowników; uznają także, iż rzadko spotykają się z pozytywną informacją zwrotną, wyrazami uznania ze strony przełożonych (czynnik 1 – uznanie ze strony firmy); – postrzegają zatrudniające ich organizacje jako mało przyjazne pracownikom, odznaczające się dużym dystansem władzy i mniej przyjazną atmosferą pomiędzy współpracownikami (czynnik 2 – familiarność organizacji); – posiadają silną, jednoznaczną postawę związaną z chęcią odniesienia sukcesu właśnie w tej organizacji; są silnie zorientowani zadaniowo (czynnik 3 – identyfikacja zadaniowa); – niechętnie odnoszą się do wspólnego wykonywania pracy w obrębie grupy specjalistów IT lub współpracy przy wykonywaniu zadaniu z innymi działami (czynnik 5 – formalizacja relacji międzyludzkich); – cenią swoją autonomię zawodową, postawa ta może się przejawiać w formie dystansu wobec przełożonych czy też nieuznawania zasad organizacyjnych uznanych za „zagrażające wolności” (czynnik 7 – indywidualizm). Ponadto czynnik 7 w skojarzeniu z czynnikami 1, 2, 3 może informować o jeszcze jednej charakterystycznej właściwości osób z sektora IT – „kosmopolitycznej” orientacji zawodowej (Merton 1982: 436–437). Wyniki tej samej części ankiety, analizowane pod kątem zmiennej „staż” (tabela 4) przynoszą informacje, iż wspomniane wcześniej: – postrzeganie przez pracowników IT swoich organizacji jako mało przyjaznych jest niezależne od stażu pracy; – nie następuje efekt występujący w grupie kontrolnej – postrzegania organizacji jako bardziej przyjaznej wraz ze wzrostem stażu pracy. O ile w przypadku grupy kontrolnej, wraz ze stażem pracy rośnie przekonanie pracowników o zyskiwaniu uznania ze strony firmy (tabela 4, czynnik 1) oraz postrzeganie przez osoby zatrudnione organizacji jako bardziej przyjaznej (tabela 4, czynnik 2.), to w grupie pracowników IT zależność ta nie pojawia się. Dane mogące świadczyć, o posiadaniu przez pracowników IT krytycznego i trwałego obrazu organizacji pojawiają się ponownie w danych z interakcji zmiennych „staż” i „praca” (czynniki 2. i 5. ankiety; zob. tabele 5 i 6) Zaprezentowane wyniki pozwalają pozytywnie zweryfikować obie hipotezy badawcze. Oznacza to, że w świetle przedstawionych badań: 1. Informatycy bardziej krytycznie postrzegają zatrudniające ich organizacje niż inni pracownicy. 2. Trwałość krytycznej postawy różnicuje informatyków od osób spoza branży. Krytyczne postawy informatyków wobec zatrudniającej organizacji nie zmieniają się wraz ze zwiększaniem się stażu pracy. Należy przy tym zaznaczyć, że trwałość postaw odnosi się jedynie do postawy wobec organizacji. Wraz z upływem czasu zmienia się nastawienie wobec współpracowników – w grupie pracowników IT wraz ze stażem pracy zmniejszała się skłonność do współpracy. Należy jednak zaznaczyć, że vol. 10, nr 3 (38), 2012 241 Jerzy Rosiński problematyka współpracy w organizacjach IT jest złożona i wprowadzenie wiarygodnych wniosków wymaga prezentacji większej ilości danych. Obecnie prezentowane wyniki pozwalają jedynie stwierdzić trwałą postawę krytyczną wobec organizacji przy jednoczesnych zmianach postaw w innych obszarach. 6. Interpretacja i wnioski W zakresie postrzegania zatrudniającej organizacji mamy do czynienia z krytycznym obrazem aktualnie zatrudniającej firmy. Typowym sposobem funkcjonowania w organizacji pracowników IT może być uczestnictwo kalkulatywne12. Pracownicy IT uznają firmy, w których pracują, za systemy, gdzie: – panuje mało przyjazna atmosfera, istnieje duży dystans władzy w relacjach z przełożonymi oraz nieprzyjazna atmosfera pomiędzy pracownikami; – brak jest pozytywnej informacji zwrotnej ze strony przełożonych; – nie rozwija się kompetencji pracowników13. W zakresie postrzegania familiarności organizacji pracownicy IT różnią się znacząco od osób z innych branż, niezależnie od długości stażu pracy. U pracowników spoza branży IT negatywny obraz organizacji zmienia się w czasie – pracownicy o dłuższym stażu widzą organizację jako bardziej przyjazną dla pracowników14. Natomiast pracownicy IT, niezależnie od stażu pracy, postrzegają zatrudniające ich organizacje jako mało przyjazne – zarówno pracownicy o krótszym, jak i o dłuższym stażu wyrażają swoje negatywne oceny pod adresem pracodawcy. Co prawda wraz z upływem czasu negatywizm w postrzeganiu pracodawcy maleje, jednak zarówno pracownicy o krótkim, jak i o długim stażu postrzegają pracodawcę znacząco gorzej, niż czynią to osoby spoza IT wobec swoich organizacji. Wspomniane negatywne komponenty mogą nie mieć odzwierciedlenia w systemach: ocen, wynagrodzeń, rozwoju kompetencji czy też w ilości wyposażenia i przyjazności miejsc codziennej pracy. Może być to raczej poznawcze uzasadnienie przyjętej postawy identyfikacji z grupą zawodową, przy jednoczesnym braku identyfikacji z zatrudniającą organizacją. Oznacza to, że pracownik stara się nadać sens sytuacji, w której się znajduje, i szuka punktu odniesienia nie w grupie pracowników tej samej firmy, ale w grupie osób wykonujących ten sam zawód. Skoro za istotną uznaje grupę zawodową, to jej będzie nadawał wysoką wartość, umniejszając jednocześnie wartość aktualnego pracodawcy. Taką interpretacją może uzasadniać współistniejąca z negatywną oceną potrzeba odniesienia sukcesu w tej właśnie konkretnej organizacji. O ile sama postawa może mieć przyczyny w rynku pracy – łatwość świadczenia usług w branży IT dla rozproszonych geograficznie, często wirtualnych organizacji czy organizacji sieciowych15 – czy też jest po prostu powszechną tendencją występująca na rynku pracy (Bugdol 2006: 23–24), to konsekwencje na poziomie funkcjonowania jednostki są możliwe do opisania za pomocą 242 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... mechanizmów z obszaru psychologii, związanych na przykład z redukcją dysonansu poznawczego i zachowaniem spójności postawy. Konsekwencjami organizacyjnymi tego rodzaju postaw mogą być dla organizacji uczącej się trudności w uczeniu się całej organizacji. Wyzwaniem jest zbudowanie współpracy i chęci kooperacji wśród jednostek realizujących jako priorytet swoje indywidualne interesy. Kolejnym zadaniem dla organizacji jest minimalizowanie rotacji pracowników – opisane w artykule postawy pracownicze mogą powodować traktowanie firmy jako krótkiego przystanku w karierze. Stąd wyzwanie polegające na takim stawianiu zadań, aby były wyzwaniami dla pracowników i dawały przekonanie o rozwoju zawodowym w tej właśnie organizacji. Warto rozważyć także przedefiniowanie roli szkoleń w organizacji. O ile ze strony organizacji mogą być one traktowane jako dowód zaufania do pracownika i chęci utrzymania go w firmie, o tyle ze strony osoby zatrudnionej znaczenie szkoleń może być rozumiane wąsko i czysto utylitarnie – jako zwiększenie swojej wartości na otwartym rynku pracy (i to na koszt obecnego pracodawcy). W zakresie relacji ze współpracownikami u pracowników branży IT możemy wyspecyfikować elementy różnicujące, w porównaniu z postrzeganiem tego typu relacji przez osoby pracujące poza IT. Elementem odróżniającym osoby pracujące w IT w zakresie postrzegania relacji ze współpracownikami jest postrzeganie atmosfery pomiędzy współpracownikami jako mało przyjaznej. Przekonanie to może wynikać z silnej rywalizacji z innymi osobami z branży (na otwartym rynku pracy pracowników IT), inne osoby uznawane są za potencjalną konkurencję, dlatego atmosfera postrzegana jest jako mało przyjazna. Taka postawa wobec współpracowników jest poważnym wyzwaniem dla organizacji – wszak zaufanie jest ważnym czynnikiem pozwalającym na transfer wiedzy pomiędzy osobami w organizacji. Postrzeganie klimatu organizacyjnego jako mało przyjaznego może utrudnić dzielenie się wiedzą pomiędzy współpracownikami. Ważnym wnioskiem dla całości wyników dotyczących specyfiki funkcjonowania branży IT, wydaje się interpretacja faktu, iż wszystkie różnice dotyczące branży IT ujawnione zostały na podstawie ankiety: brak jest różnic pomiędzy IT, a nie-IT wykazywanych za pomocą metod służących do pomiaru elementów osobowościowych (obraz siebie, rola zespołowa), Może to wynikać z charakteru użytych narzędzi, jednak warto rozważyć interpretację, iż różnice pomiędzy pracownikami branży IT a osobami spoza branży wynikają z czynników społecznych (środowiskowych), a nie indywidualnych (osobowościowych). Taką interpretację potwierdzają także przytoczone wcześniej różnicujące dla branży IT wyniki związane z oddziaływaniem stażu pracy (a więc przebywania w danym środowisku). vol. 10, nr 3 (38), 2012 243 Jerzy Rosiński 7. Podsumowanie Przytoczone dane przynoszą informacje na temat specyfiki funkcjonowania pracowników branży IT. Jednak wraz z rozwojem gospodarki opartej na wiedzy, informacje odnoszące się do branży IT mogą być charakterystyczne dla szerszej grupy wysoko specjalizowanych pracowników wiedzy. Charakterystyczne dla pracowników sektora IT uczestnictwo kalkulatywne może być elementem specyficznym głównie dla wirtualnych organizacji (Sikorski 1998: 151–153. Cyt. za: Gableta i Pyszczek-Pietroń 2004: 48). Na uwagę zasługują ujawnione w badaniach elementy opisowe tej grupy zawodowej, a zwłaszcza: – brak przywiązania się pracownika do organizacji i negatywna ocena pracodawcy, przy jednoczesnej aprecjacji niezależności zawodowej; – postrzeganie organizacji i zespołu jako środowiska wysoce rywalizacyjnego; – koncentracja na osobistym rozwoju zawodowym i sukcesie indywidualnym. Elementy te, wraz ze wspomnianym uczestnictwem kalkulatywnym, mogą stanowić interesujące dane dla praktyków zarządzania w organizacjach uzależniających swój sukces rynkowy od efektywności wysokiej klasy specjalistów – mogą być wskazówką dla modyfikowania działań w obrębie systemów motywacyjnych i ścieżek rozwoju. Pozwalają zrozumieć zachowania specjalistów nie tylko na poziomie organizacji, ale też w zespole projektowym – toteż mogą być inspirujące dla liderów projektów czy kierowników liniowych. Informacje o autorze Dr Jerzy Rosiński – adiunkt w Katedrze Negocjacji Instytutu Ekonomii i Zarządzania Uniwersytetu Jagiellońskiego. E-mail: [email protected]. Przypisy 1 C. Chibelushi i D. Trigg (2012) formułują tego rodzaju wniosek na podstawie opisów przypadków dwóch organizacji z branży IT, należących do małych i średnich firm (MSP). W odniesieniu do firm sektora MSP opisywane przez autorów prawidłowości mogą dotyczyć także nieumiejętności kierowania zmianą w firmie – zarządzania organizacją podczas kryzysów rozwojowego: kryzysu przywództwa (zob. Greiner 1972. Cyt. za: Clarke 1997: 14–15; Greiner 1997). Jednak nawet tego rodzaju przyczyny wiążą się z nieznajomością postaw pracowników i ich specyficzną dynamiką w sytuacji zmiany (Blanchard 2007: 170–178). 2 Z pewnością taka sytuacja jest wyzwaniem dla budowania przez dział HR strategii personalnych. Konieczne staje się także rozwijanie umiejętności menedżerskich. 3 O agencie wiedzy mówimy, gdy na rzecz firmy pracuje specjalista nie będący jej stałym pracownikiem. 4 Mimo że wymienieni autorzy prowadzili badania w podobnych firmach, doszli do zróżnicowanych wniosków. K.G. Nishimura oraz P. Rouvinen stwierdzają, że wraz 244 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... z wiekiem innowacyjność pracowników maleje. Natomiast K. Schleife stwierdza, iż do pewnego wieku innowacyjność rośnie, potem znacznie spada (tzw. wykres odwróconego U). Dyskusyjna jest granica spadku innowacyjności, którą sytuuje się od 40. do 55. roku życia. Granica ta jest zależna od indywidualnych decyzji autorów publikacji co do podziału grup osób badanych. 5 Ten nurt badań stara się opisać dwa ważne trendy: zmiany struktury wiekowej wśród pracowników oraz wysycanie środowiska pracy urządzeniami informatycznymi. Wszyscy wymienieni autorzy dochodzą do podobnego wniosku: wraz z wiekiem zmniejsza się skłonność pracowników do wykorzystania narzędzi informatycznych. Podobnie jak w przypadku pierwszego nurtu badań, granica zmiany postaw pracowników (spadek zainteresowania narzędziami IT) jest wyznaczana indywidualnie przez poszczególnych autorów. Dla opisywanych publikacji granica ta wynosi od 50. do 60. roku życia. 6 Płeć uznawana była za znaczący czynnik różnicujący i w niniejszych badaniach była czynnikiem monitorowanym. W sytuacji różnoliczności grup rozważać można było zmniejszanie liczności aż do osiągnięcia efektu równoliczności. Zaletą tego rozwiązania jest uzyskanie planu zrównoważonego, tzn. po tyle samo osób w komórkach. Jednak zasadniczą wadę stanowi radykalna utrata szansy na uzyskanie wyniku istotnego statystycznie, jeśli taki efekt w populacji istnieje. Aby równoważyć do pewnego stopnia różnoliczności, użyto analiz wariancji w wersji sumy kwadratów TYP III. Ten sposób obróbki danych bierze pod uwagę różnoliczności osób w poszczególnych komórkach. 7 Ze względu na szerokie cytowanie w literaturze naukowej przez ponad 30 lat. 8 Warto zwrócić uwagę, że badania te były prowadzone przed zmianami związanymi z zaistnieniem komputerów w prywatnych domach, nie wspominając o Internecie. Stąd nawet dokładne odwzorowanie metodologii, wykraczające poza sposób doboru grupy kontrolnej, miałoby wartościowy aspekt poznawczy. Wszak prowadzone badania odnosiłyby się do zupełnie nowego środowiska, cechującego się: mobilnością, zindywidualizowaniem i scaleniem technologii z życiem prywatnym. 9 Możliwe było również przyjęcie 9 czynników do dalszych interpretacji (wtedy przekroczone zostałoby 50% skumulowanej wariancji). Jednak zwiększenie liczby czynników byłoby nieuzasadnione ze względów merytorycznych – niskiej interpretowalności zestawu złożonego z 9 czynników w porównaniu z zestawem 7 czynników. To właśnie zestawienie 7 czynników zostało poddane ocenie i pozytywnie ocenione we wcześniejszych publikacjach naukowych (Rosiński i Marcinkowski 2010: 181–202). 10 Jedno z pytań wchodzących w skład czynnika 2.: „Mogę spokojnie zostawić kubki po dniu pracy, ktoś je umyje” zmieniło swoją funkcję. Na etapie budowania narzędzia (podczas wywiadów) element ten był w opinii respondentów wskaźnikiem świadczącym o braku współpracy, irytującym elementem codziennej pracy. W badaniu ankietowym został on zinterpretowany przez osoby badane jako indykator przyjaznej atmosfery w organizacji. 11 Pewną niespodzianką okazało się pytanie: „Mogę spokojnie zostawić kubki po dniu pracy, ktoś je umyje”. O ile na etapie badań jakościowych poprzedzających budowanie ankiety kwestia brudnych kubków była jedną z najbardziej drażliwych spraw irytujących pracowników. To w ankiecie pytanie to przestało wskazywać problem organizacyjny, a zaczęło być indykatorem nieformalnej atmosfery. 12 Uczestnictwo kalkulatywne związane jest m.in. z poszukiwaniem przez pracownika głownie zysku materialnego, pracownik podporządkowuje się władzy przełożonego wynikającej z dysponowania przez szefa środami finansowymi, ignorując jednocześnie wszelkie wartości jakie promuje organizacja. Zob. także dane dotyczące postrzegania przez pracowników IT własnej kariery oraz współpracowników – te dane świadczą o kalkulatywnym uczestnictwie w organizacji. vol. 10, nr 3 (38), 2012 245 Jerzy Rosiński 13 Może być to pochodna wysokiego poziomu oczekiwań, który nie jest zaspokajany przez organizację – jest to wyraźny motyw sygnalizowany na poziomie indywidualnego funkcjonowania pracowników IT. 14 Wyniki te mogą świadczyć o postępującym procesie socjalizacji pracownika w organizacji. 15 Stąd wynikają trudności w identyfikacji z miejscem i „szyldem” – wszak można świadczyć pracę dla kilku firm jednocześnie, nie opuszczając mieszkania. Bibliografia Arning, K. i M. Ziefle 2008. Development and Validation of a Computer Expertise Questionaire for Older Adults. Behaviour and Information Technology, nr 1 (27), s. 89–93. Bertschek, I. i J. Meyer 2010. IT is Never too Late for Changes? Analysing the Relationship Between Process Innovation, IT and Older Workers. ZEW Discussion Paper, nr 10-053. Borghans, L. i B. ter Weel 2002. Do Older Workers Have More Trouble Using a Computer than Younger Workers? Research in Labor Economics, nr 21, s. 139–173. Bugdol, M. 2006. Wartości organizacyjne. Szkice z teorii organizacji i zarządzania, Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego. Chibelushi, C. i D. Trigg 2012. Internal Self-assessment for ICT SMEs: A Way Forward. International Journal of Business Performance Management, nr 2 (13), s. 103–126. Couger, J.D. i R.A. Zawacki 1980. Motivating and Managing Computer Personnel, New York: Wiley. Ebling, G. i N. Janz 1999. Export and Innovation Activities in the German Service Sector: Empirical Evidence at the Firm Level. ZEW Discussion Paper, nr 99-53. Friedberg, L. 2003. The Impact of Technological Change on Older Workers: Evidence from Data on Computer Use. Industrial and Labor Relations Review, nr 3 (56), s. 511–529. Gableta, M. i A. Pyszczek-Pietroń 2004. Funkcjonowanie pracownika w wirtualnych warunkach gospodarowania, w: Z. Wiśniewski i A. Pocztowski (red.) Zarządzanie zasobami ludzkimi w warunkach nowej gospodarki, Kraków: Oficyna Ekonomiczna. Gera, S. i W. Gu 2004. The Effect of Organizational Innovation and Information and Communications Technology on Firm Performance. International Productivity Monitor, nr 9, s. 37–51. Hempel, P.S. 2004 Preparing the HR Profession for Technology and Information Work. Human Resource Management, nr 2–3 (43), s. 163–177. Kinnie, N. i J. Swart 2012. Committed to Whom? Professional Knowledge Worker Commitment in Cross-boundary Organizations. Human Resource Management Journal, nr 1 (22), s. 21–38. Koning de, J. i A. Gelderblom 2006. ICT and Older Workers: No Unwrinkled Relationship. International Journal of Manpower, nr 5 (27), s. 467–490. Lankton, N.K., Wilson, E.V. i E. Mao 2010. Antecedents and Determinants of Information Technology Habit. Information & Management, nr 47, s. 300–307. Łaguna, M. 2010. Przekonania na własny temat i aktywność celowa. Badania nad przedsiębiorczością, Gdańsk: GWP. Marks, A. i C. Lockyer 2005. Debugging the System: The Impact of Dispersion on the Identity of Software Team Members. International Journal of Human Resource Management, nr 2 (16), s. 219–237. Mauno, S., Kiuru, N. i U. Kinnunen 2011. Relationships between Work-Family Culture and Work Attitudes at Both the Individual and the Departmental Level. Work and Stress, nr 2 (25), s. 147–166. 246 Problemy Zarządzania Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie... Meyer, J. 2011. Workforce Age and Technology Adoption in Small and Medium-sized Service Firms. Small Business Economics, nr 3 (37), s. 305–324. Nęcki, Z. 1995. Negocjacje w biznesie, Kraków: Wydawnictwo PSB. Nishimura, K.G., Minetaki, K., Shirai, M. i F. Kurokawa 2004. Effects of Information Technology and Ageing Work Force on Labor Demand and Technological Progress in Japanese Industries: 1980–1998, w: P. Onofri (red.) The Economics of an Ageing Population: Macroeconomic Issues, Boston: Kluwer Publishing. Perechuda, K. 2005. Dyfuzja wiedzy w przedsiębiorstwie sieciowym. Wirtualizacja i kompozycja, Wrocław: Wydawnictwo Akademii Ekonomicznej im. Oskara Langego we Wrocławiu. Prasad, J., Enns, H.G. i T.W. Ferratt 2007. One size Does not Fit All: Managing IT Employees’ Employment Arrangements. Human Resource Management, Special Issue: Human Resource Management of Information Technology Employees, nr 3 (46), s. 349–372. Rosiński, J. i A. Filipkowska 2009. Pracownicy wiedzy – jak rozwijać kompetencje specjalistyczne z korzyścią dla pracownika i organizacji, w: E. Skrzypek i A. Sokół (red.) Zarządzanie kapitałem ludzkim w gospodarce opartej na wiedzy, s. 213–228. Warszawa: Instytut Wiedzy i Innowacji. Rouvinen, P. 2002. Characteristics of Product and Process Innovators: Some Evidence from the Finnish Innovation Survey. Applied Economics Letters, nr 9, s. 575–580. Schneider, L. 2008. Alterung und technologisches Innovationspotential. Eine- LinkedEmployer-Employee-Analyse Zeitschrift fuer Bevoelkerungswissenschaft, nr 1 (33), s. 37–54. Schleife, K. 2006. Computer Use and the Employment Status of Older Workers. LABOUR: Review of Labour Economics and Industrial Relations, nr 2 (20), s. 325–348. Shih, C.-C. i S.-J. Huang 2010. Exploring the Relationship between Organizational Culture and Software Process Improvement Deployment. Information & Management, nr 47, s. 271–281. Sikorski, C. 1997. Profesjonalizm. Filozofia zarządzania nowoczesnym przedsiębiorstwem, Warszawa: Wydawnictwo Naukowe PWN. Sikorski, C. 1998. Ludzie nowej organizacji. Wzory kultury organizacyjnej wysokiej tolerancji niepewności, Łódź: Wydawnictwo Uniwersytetu Łódzkiego. Steinfield, C., Scupola, A. i C. López-Nicolás 2010. Social Capital, ICT Use and Company Performance: Findings from the Medicon Valley Biotech Cluster. Technological Forecasting and Social Change, nr 7 (77), s. 1156–1166. Tijdens, K. i B. Steijn 2005. The Determinants of ICT Competencies among Employees. New Technology, Work and Employment, nr 1 (20), s. 60–73. Verworn, B. i C. Hipp 2009. Does the Ageing Workforce Hamper the Innovativeness of Firms? Evidence from Germany. International Journal of Hurman Resource Management and Development, nr 2/3 (9), s.180–197. Zakrzewska, M. 1994. Analiza czynnikowa w budowaniu i sprawdzaniu modeli psychologicznych, Poznań: Wydawnictwo Naukowe UAM. vol. 10, nr 3 (38), 2012 247 Problemy Zarządzania, vol. 10, nr 3 (38): 248 – 261 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.15 Podstawowe aspekty tworzenia systemów grafiki kognitywnej Olga Pilipczuk, Dima Shamroni W artykule przedstawiono pojęcie i podstawowe założenia koncepcji grafiki kognitywnej. Opisano jej znaczenie w procesie rozwoju technologii informatycznych oraz historię powstania systemów grafiki kognitywnej. Ponadto w artykule zaprezentowano architekturę klasycznych systemów grafiki kognitywnej i jej podstawowe moduły. Uwagę poświęcono też systemowi NovoSpark®Visualizer, jego strukturze, metodologii i specyfice wizualizacji. Przedstawiono przykład rozwiązywania problemu wyboru strategii cenowej w systemie korporacji NovoSpark. W zakończeniu omówiono perspektywy rozwoju systemów grafiki kognitywnej oraz kierunki dalszych badań w tej dziedzinie. 1. Wprowadzenie Wraz z rozwojem społeczeństwa gwałtownie wzrasta ilość informacji wymagających przetwarzania i jednocześnie zwiększa się poziom złożoności analizy tych informacji. Nawet przetwarzanie maszynowe nie zawsze pozwala wyekstrahować nową wiedzę z dostępnych danych. W chwili obecnej rozwiązanie wielu zadań przewyższa nie tylko możliwości umysłowe człowieka, ale i możliwości analityczne systemów komputerowych. Dlatego powstaje potrzeba poszukiwania nowych sposobów przetwarzania danych. Jednym z takich sposobów jest wizualizacja dostępnych informacji przeprowadzona z wykorzystaniem podejścia kognitywnego. Głównym zadaniem grafiki kognitywnej jest częściowa automatyzacja funkcji procesu poznania. Współczesne systemy grafiki kognitywnej zazwyczaj wspierają procesy poznania źródła problemu. Specjaliści przewidują, że kolejnym etapem w rozwoju systemów tej klasy będzie wdrożenie modułu inteligentnego w celu stworzenia reguł i doboru najlepszych wariantów decyzyjnych. Celem artykułu jest omówienie głównych aspektów tworzenia systemów grafiki kognitywnej oraz przedstawienie koncepcji i architektury systemu NovoSpark Visualizer – jako jednego z najbardziej symbolicznych przykładów systemu stosującego podejście kognitywne. 248 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej 2. Systemy grafiki kognitywnej – krok ku przyszłości Definicja pojęcia grafiki kognitywnej po raz pierwszy została wprowadzona w 1991 r. w pracy naukowej A. Zenkina, opisującej badania nad właściwościami różnych pojęć w teorii liczb. Według Zenkina grafika kognitywna jest to „zespół sposobów i metod prezentacji graficznej problemu, który pozwała albo zobaczyć rozwiązanie od razu, albo uzyskać przynajmniej podpowiedź” (Zenkin i Pospelov 1991). Innymi słowy, jest to rodzaj grafiki maszynowej, który łączy wizualizację graficzną z procesami kognitywnymi zachodzącymi w umyśle człowieka podczas podejmowania decyzji. Główną przyczyną powstania koncepcji grafiki kognitywnej stało się to, że wiedza werbalna lub symboliczna o obiekcie, zjawisku lub sytuacji rzadko jest w stanie zapewnić taką wyraźną percepcję i zrozumienie, jaką może dać percepcja wzrokowa. Grafika kognitywna pozwala użytkownikowi zobaczyć źródło lub nowy sposób rozwiązywania problemu, które wcześniej, przy wykorzystaniu tradycyjnych narzędzi analizy danych, nie były widoczne. Podejście kognitywne zakłada, że informacja przedstawiona w postaci kształtu i koloru lub ich zmiany zostaje przyswojona o wiele szybciej niż informacja w postaci tekstowej. Powstanie koncepcji grafiki kognitywnej zainicjowało tworzenie szeregu systemów informatycznych zwiększających efektywność podejmowania decyzji. Początkowo systemy te miały prostą architekturę i w małym stopniu różniły się od tradycyjnych systemów grafiki komputerowej. Z biegiem czasu zwiększał się poziom zaawansowania systemów grafiki kognitywnej, zaczęły pojawiać się systemy wspierające nie tylko wizualizację analizowanych danych, ale również dobierające najlepszy wariant decyzyjny dla użytkownika. Systemy te znalazły zastosowanie w medycynie, ekonomice i zarządzaniu, statystyce, budownictwie, architekturze, matematyce, fizyce, mikroelektronice itp. Dzisiaj najbardziej zaawansowane systemy grafiki kognitywnej stosuje się w astronautyce i medycynie. Na przykład przy wystartowaniu rakiety uruchamia się około dwudziestu procesów. Procesy te w systemie zostają przedstawione za pomocą kognitywnego okrągłego diagramu, na którym za pomocą spektrum barw określa się stan obiektu. Jeśli jakiś z parametrów odbiega od normy, to odpowiedni kolor na obrazie wskazuje miejsce, które wymaga naprawy. Oprócz tego system grafiki kognitywnej pomaga pokazać proces zbliżenia kosmonauty do stacji kosmicznej nie tylko podczas nauki w centrum przygotowania kosmonautów, ale również podczas lotu kosmicznego. Ciekawe rozwiązania można znaleźć w diagnostyce medycznej. Na jednym z wydziałów uniwersytetu przeprowadzono badania nad pacjentami chorymi na astmę. System stworzony do diagnostyki tej choroby pozwala nie tylko za pomocą spektrum barw śledzić zmianę parametrów stanu organizmu, ale również za pomocą kształtów w postaci gwiazdy kontrolować odchylenie vol. 10, nr 3 (38), 2012 249 Olga Pilipczuk, Dima Shamroni parametrów od normy. „Gwiazdy” oprócz zmiany rozmiaru w zależności od normy zmieniają również kształt, stają się bardziej gładkie w przypadku zmiany jednych parametrów i bardziej ostre w przypadku zmiany innej grupy parametrów. Zmienić się może również liczba ramion gwiazdy. „Gwiazdy” przedstawiono w postaci obrazów trójwymiarowych, istnieje możliwość śledzenia ich zmiany na różnych płaszczyznach. Obrazy kognitywne stworzone w systemie pozwalają lekarzowi szybko ocenić ogólny stan choroby pacjenta i podjąć natychmiastowe działania. Systemy grafiki kognitywnej bardzo pomocne są również w zarządzaniu, a szczególnie w procesie podejmowania decyzji w warunkach niepewności oraz w przypadku potrzeby szybkiego reagowania na zmieniające się warunku otoczenia: na giełdzie, w procesie wyboru strategii firmy, podczas kryzysu gospodarczego itd. Podsumowując, można stwierdzić, że w procesie tworzenia systemu grafiki kognitywnej trzeba uwzględnić następujące wymagania (Zenkin i Pospelov 1991): 1. System powinien tworzyć takie modeli reprezentacji wiedzy, które byłyby w stanie zapewnić jednolite sposoby prezentacji obiektów charakterystycznych dla myślenia logicznego i obrazów-rysunków powstałych na skutek uruchomienia myślenia obrazowego. 2. System powinien wizualizować informacje niepoddające się opisowi liczbowemu lub słownemu. 3. System powinien zawierać przejścia od obserwowanych obrazów do sformułowania hipotezy na temat mechanizmów i procesów ukrytych w dynamice tych obrazów. System grafiki kognitywnej może zostać stworzony jako osobna struktura lub jako moduł wizualizacji kognitywnej w strukturze innego systemu informatycznego. Tak moduł grafiki kognitywnej może zostać z powodzeniem zaimplementowany w systemach informowania kierownictwa w celu dostarczenia informacji o procesach i obiektach odbiegających od normy, w systemach wspomagania decyzji w celu wizualizacji wyników symulacji niezbędnej do pojęcia decyzji, w systemach ekspertowych w celu prezentacji wiedzy specjalistów i w wielu innych systemach. Najważniejszym modułem w systemach grafiki kognitywnej jest moduł wizualizacji. Bez prawidłowej wizualizacji danych nie ma możliwości podjęcia poprawnej decyzji. W chwili obecnej większość systemów grafiki kognitywnej proponuje wizualizację bazującą na wykorzystaniu klasycznych i rozmytych map kognitywnych. Spośród nich warto wymienić następujące systemy: iThink, Sytuacja, Kompas, IPU RAN, Kanva i inne. Należy jednak podkreślić, że architektura systemów grafiki kognitywnej w dużym stopniu zależy od rodzaju zadania, które chcemy rozwiązać za ich pomocą. Obecnie możemy wyróżnić systemy „wizualizacji kognitywnej” i systemy „doradztwa kognitywnego”. 250 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej Za jedno z głównych zadań systemu „wizualizacji kognitywnej” uważa się zwiększenie poziomu kognitywności dynamiki procesu poprzez przedstawienie wszystkich danych w ramach jednego integralnego obrazu. Taki system staje się niezbędny w przypadkach pojawienia się potrzeby podjęcia natychmiastowej decyzji, gdy podjęcie niepoprawnych decyzji może doprowadzić do znacznych strat finansowych albo stworzyć zagrożenie dla życia człowieka. System zazwyczaj zaprogramowany jest w taki sposób, aby uwzględniał sytuacje anomalnie i kryzysowe, pozostawiając funkcję podjęcia decyzji użytkownikowi. W tej sytuacji podejście kognitywne zakłada, że informacja przedstawiona w postaci kształtu, koloru, zmiany proporcji kształtu, zmiany koloru przyswaja się o wiele szybciej niż informacja słowna lub liczbowa. Taką koncepcję zastosowano w systemach: Novospark®Vizualizer, Tasmo-bit, Kogra, Dikobraz i innych. System grafiki kognitywnej składa się zazwyczaj z następujących zintegrowanych modułów: hurtowni danych, modułu analitycznego, modułu wizualizacji, serwera, warstwy semantycznej. Na rysunku 1 przedstawiono architekturę standardowego systemu „wizualizacji kognitywnej”. Centralnym punktem systemu jest hurtownia danych, która wspiera proces konsolidacji informacji, a także ułatwia dostęp do danych, kontroluje spójność informacji i zwiększa prędkość przetwarzania danych. Niektóre systemy wykorzystują również wirtualną hurtownię danych, która zapewnia dostęp do danych przechowywanych w dowolnych relacyjnych bazach danych. SYSTEM GRAFIKI KOGNITYWNEJ Moduł analityczny Moduł wizualizacji Warstwa semantyczna Bazy danych: MS SQL, Oracle itd. Hurtownia danych Rys. 1. Architektura klasycznego systemu grafiki kognitywnej. Źródło: opracowanie własne. vol. 10, nr 3 (38), 2012 251 Olga Pilipczuk, Dima Shamroni STREFA EKSPERTA Źródło danych 1 Źródło danych 2 Konsolidacja danych Analiza, Data Mining Wizualizacja danych Wyniki analizy Wyniki wizualizacji STREFA UŻYTKOWNIKA Rys. 2. Architektura systemu grafiki kognitywnej z podziałem na strefy użytkowania. Źródło: opracowanie własne. STREFA EKSPERTA Źródło danych 1 Źródło danych 2 Konsolidacja danych Ustalenie preferencji Analiza, Data Mining Wizualizacja danych Doradztwo Wyniki analizy Wyniki wizualizacji STREFA UŻYTKOWNIKA Rys. 3. Architektura systemu grafiki i doradztwa kognitywnego. Źródło: opracowanie własne. 252 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej Często w systemach grafiki kognitywnej funkcje eksperta zostają oddzielone od funkcji zwykłego użytkownika (rysunek 2). Użytkownik końcowy ma dostęp tylko do wyników analizy i ich wizualizacji. Druga grupa systemów opiera się na procesach modelowania kognitywnego, analizy kognitywnej, prognozowania kognitywnego oraz na procesie podejmowania decyzji. W tym przypadku system przyjmuje na siebie funkcję podejmowania decyzji. Niektóre systemy oprócz wymienionych modułów posiadają w swojej strukturze moduł analizy preferencji (rysunek 3). Do takich systemów należy na przykład system Kanva. Niestety systemy grafiki kognitywnej nie należą do tanich rozwiązań. Im bardziej funkcjonalny jest system, tym koszt systemu jest większy. W szczególności dotyczy to systemów z funkcją doradztwa kognitywnego. 3. Koncepcja i architektura systemu NovoSpark®Visualizer Maksymalny wymiar obrazów danych wielowymiarowych zależy od wymiaru narzędzi prezentacji danych, takich jak papier lub ekran komputera. Oznacza to, że do wizualizacji stanu statycznego można wykorzystać maksymalnie trójwymiarową przestrzeń. Natomiast dla danych dynamicznych, gdzie jeden z wymiarów zostaje zarezerwowany dla przedziałów czasowych, maksymalny wymiar obrazu ogranicza się do dwóch wymiarów. W przypadku odwzorowania trzech i więcej powiązanych parametrów tradycyjne metody wizualizacji danych (wykresy, diagramy, piktogramy i inne) nie radzą sobie z przedstawionymi wcześniej wymaganiami dotyczącymi przedstawienia i późniejszej interpretacji obrazów (Chernoff 1973; Bajaj 1999; Cleveland 1993; Friendly 2008; Friedman 2008; D’Ocagne 1885; Inselberg 1985; Inselberg 2009). Główną ideą koncepcji systemu jest wizualizacja stanu systemu jako całości, która polega na wizualizacji wszystkich parametrów opisujących stan systemu w jednym integralnym obrazie. Metodologia przyjęta w systemie dotyczy zarówno statycznych stanów systemu, jak i dynamiki zmian stanu systemu (Eidenzon i Shamroni 2011). Podsumowując, możemy stwierdzić, że wizualizacja integralnego stanu systemu musi spełniać następujące wymagania: – używać wartości wszystkich parametrów systemu do tworzenia obrazu stanu bez utraty informacji; – posiadać nie więcej niż dwa wymiary obrazu stanu; – dynamika zmian stanu powinna być zaprezentowana w jednym obrazie statycznym. System NovoSpark®Visualizer służy do analizy i wizualizacji danych wielowymiarowych. Moduł wizualizacji składa się z zestawu podmodułów dla systemu operacyjnego Windows XP/Vista/7. vol. 10, nr 3 (38), 2012 253 Olga Pilipczuk, Dima Shamroni Interfejs użytkownika został stworzony zgodnie ze standardami Microsoft dla aplikacji Windows i umożliwia wykonanie takich funkcji jak: – skoordynowana i interaktywna wizualizacja danych, obrazów i wyników analizy; – elastyczna konfiguracja interfejsu; – dostępność wszystkich funkcji poprzez menu użytkownika; – pomóc kontekstowa i pomoc dynamiczna. Moduł wizualizacji daje możliwość tworzenia dwóch rodzajów obrazów: tradycyjnych i integralnych. Obrazy integralne w systemie otrzymuje się za pomocą krzywych Novospark, krzywych Andrew i współrzędnych równoległych. W systemie można uzyskać następujące rodzaje obrazów: obraz obserwacji wielowymiarowej, obraz procesu wielowymiarowego, obraz przedziału wielowymiarowego. Na rysunku 4 pokazano okno wizualizacji z integralnym obrazem. Użytkownik ma do wyboru szeroki wachlarz opcji do pracy z obrazami: różne rodzaje projekcji i przekształceń obrazu, możliwość tworzenia „chmury” przedziału wielowymiarowego, możliwość określenia obserwacji anomalnych, możliwość wyboru spektrum barw, możliwość wyboru podzbioru danych i innych ważnych opcji. Do obrazów tradycyjnych w systemie zalicza się histogramy, wykresy liniowe, diagramy punktowe, współrzędne biegunowe i inne. Pilipczuk 4.pdf 1 10/19/12 12:01 PM Rys. 4. Wizualizacja danych wielowymiarowych w systemie NovoSpark Visualizer. Źródło: opracowanie własne. System również tworzy możliwość przeprowadzenia szeregu analiz tradycyjnych: analizy czynnikowej, analizy skupień, analizy regresji, samoorganizujących map Kohonena itd. Szczegółową architekturę systemu przedstawiono na rysunku 5. 254 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej Prezentacja Projekt NovoSpark®Visualizer Obraz Open GL Raporty Kontrola manipulacji Renderowanie w formacie HTML Dostęp do danych FlexCell Grid Framework wizualizacji Dołączalne moduły wizualizacji Dołączalne moduły analizy danych Import danych Narzędzia wczytywania danych Narzędzie formatowania danych Wartości oddzielone przecinkami Wartości oddzielone separatorem MS Access MS SQL Server ODBC Rys. 5 Architektura systemu NovoSpark®Visualizer. Źródło: opracowanie własne. NovoSpark Visualizer jest aplikacją komputerową implementująca paradygmat okienkowy multi-SDI, typowy dla popularnych „Office-like” aplikacji użytkowników. Każdy projekt w systemie przedstawia się w postaci oddzielnego okna i zapisuje się jako plik projektu, co oznacza, że można im manipulować niezależne od innych okien projektu. Istotą każdego projektu NovoSpark Visualizer jest komponent oparty na renderowaniu OpenGL, który pokazuje wielowymiarowy obraz kompozytowy wszystkich zbiorów danych przedstawionych w oknie projektu za pomocą opatentowanej metody wizualizacji stworzonej i ciągle rozwijanej przez korporację NovoSpark. Mechanizm renderujący zapewnia możliwość wyboru różnych sposobów wizualizacji danych i różnych opcji transformacji obrazu, które mogą zostać zmienione przez użytkownika w celu otrzymania najbardziej reprezentatywnego i informatywnego obrazu wielowymiarowych zbiorów danych. Strukturę i zawartość każdego zbioru danych można przeglądać i modyfikować w oknie obsługującym FlexCell Grid, optymalnym do pracy z dużymi ilościami danych. Okna danych można przemieszczać i dołączać do dowolnej krawędzi okna projektu w celu dokonania szybkiej i łatwej konfiguracji przestrzeni projektu. NovoSpark Visualizer Framework składa się z dołączonych modułów analizy i wizualizacji danych, które można wczytać osobno od aplikacji głównej. Niektóre dołączone moduły, zawierające metody eksploracji danych i diagramy wizualne, można pobrać ze strony korporacji NovoSpark, a także kilka niestandardowych modułów od partnerów firmy NovoSpark zintegrowanych z aplikacją główną. Framework zawiera API (interfejs programowy aplikacji) do manipulacji na wewnętrznych strukturach danych i generowania raportów w formacie HTML. W dolnej warstwie architektury systemu znajduje się warstwa danych, która stanowi podstawę do pobierania i formatowania danych ze źródeł vol. 10, nr 3 (38), 2012 255 Olga Pilipczuk, Dima Shamroni zewnętrznych. Biblioteka standardowych narzędzi do wczytywania danych obsługuje różne typy plików tekstowych i „3rd party” baz danych, podczas, gdy narzędzie formatowania danych zapewnia kompatybilność danych pochodzących z różnych źródeł i wczytywanych do tego samego projektu. 4. Wykorzystanie systemu NovoSpark®Visualizer podczas wyboru strategii cenowej Systemy grafiki kognitywnej rozpowszechniły się w ostatnich latach w zarządzaniu, szczególnie przy podejmowaniu decyzji strategicznych. W celu zaprezentowania, jak system grafiki kognitywnej może pomóc w procesie podejmowania decyzji menedżerskich, w artykule przedstawiono przykład ośrodka rekreacyjno-sportowego. Dział promocji i marketingu otrzymuje zadanie przeanalizowania częstotliwości wizyt w ośrodku i stworzenia nowej oferty cenowej, uwzględniającej otrzymane wyniki. Podczas badania została obliczona średnia liczba wizyt klientów w określonych przedziałach czasowych według poszczególnych dni tygodnia i poszczególnych miesięcy w 2011 r. W tabelach 1, 2, 3 przedstawiono otrzymane dane. Przedziały czasowe Poniedziałek Wtorek Środa Czwartek Piątek Sobota Niedziela 8.00–9.00 8,3 12,2 10,0 13,3 14,5 22,5 10,1 9.00–10.00 8,6 14,2 15,4 17,1 16,3 28,9 33,5 10.00–11.00 22,1 26,3 20,5 25,5 21,1 35,4 36,3 11.00–12.00 25,0 26,9 22,2 29,5 35,5 60,5 51,2 12.00–13.00 21,3 23,5 25,9 31,1 34,7 72,3 55,5 13.00–14.00 25,8 19,0 30,2 27,4 37,4 68,4 60,4 14.00–15.00 25,6 18,4 31,1 29,5 39,4 73,5 57,7 15.00–16.00 33,4 34,2 32,7 35,3 42,6 66,6 55,1 16.00–17.00 34,4 45,1 38,5 46,5 65,2 63,7 45,5 17.00–18.00 42,2 51,8 43,3 56,6 64,7 41,9 42,4 18.00–19.00 50,1 55,7 48,6 58,2 60,5 34,9 25,3 19.00–20.00 38,9 40,1 46,2 42,0 37,3 45,1 18,1 20.00–21.00 27,5 26,0 32,2 40,2 24,2 22,9 17,2 21.00–22.00 12,6 18,9 16,1 25,7 10,3 12,8 15,8 22.00–23.00 5,3 8,9 7,7 10,3 2,1 12,2 8,0 Tab. 1. Frekwencja klientów basenu w roku 2011. Źródło: opracowanie własne. 256 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej Przedziały czasowe Poniedziałek Wtorek Środa Czwartek Piątek Sobota Niedziela 8.00–9.00 7,2 11,2 11,7 13,6 14,5 2,2 2,8 9.00–10.00 8,5 17,5 14,5 14,4 16,7 8,7 3,8 10.00–11.00 21,1 24,2 22,8 14,9 21,3 15,1 16,2 11.00–12.00 26,5 26,5 23,4 18,5 25,1 20,5 21,7 12.00–13.00 20,3 22,7 27,6 20,2 34,4 22,1 25,1 13.00–14.00 27,5 20,6 31,9 28,5 37,5 28,5 25,4 14.00–15.00 24,7 16,6 32,7 35,3 39,8 33,9 27,3 15.00–16.00 33,5 35,4 35,5 28,4 42,2 26,3 25,9 16.00–17.00 35,6 31,5 37,5 27,7 35,5 23,3 23,7 17.00–18.00 24,2 26,9 34,0 22,2 34,7 21,1 22,1 18.00–19.00 21,3 26,7 21,7 19,7 30,2 24,5 15,5 19.00–20.00 17,5 22,3 14,5 10,2 27,1 15,3 8,5 20.00–21.00 6,3 7,7 11,1 11,2 14,1 12,4 7,6 21.00–22.00 5,4 5,8 7,4 6,3 5,5 6,6 3,1 22.00–23.00 0,0 0,5 0,7 0,7 1,3 2,7 0,5 Tab. 2. Frekwencja klientów SPA w roku 2011. Źródło: opracowanie własne. Przedziały czasowe Poniedziałek 8.00–9.00 6,2 8,4 10,6 7,7 14,3 22,7 10,2 9.00–10.00 8,7 14,4 15,5 9,5 16,1 28,5 23,8 10.00–11.00 12,2 16,2 20,1 15,3 21,2 35,7 26,5 11.00–12.00 15,3 16,5 22,2 19,5 25,5 30,2 21,6 12.00–13.00 11,5 13,7 25,5 21,1 24,4 32,4 25,6 13.00–14.00 15,5 19,3 20,3 27,5 27,6 38,1 27,1 14.00–15.00 20,2 18,6 21,1 29,8 29,8 33,5 30,2 15.00–16.00 23,7 24,2 22,7 35,6 32,2 33,6 25,4 16.00–17.00 24,1 25,5 28,8 32,2 35,5 33,3 25,8 17.00–18.00 22,3 31,1 33,5 36,5 34,4 31,2 25,3 18.00–19.00 20,1 25,6 28,9 28,6 30,1 24,9 22,1 19.00–20.00 18,0 20,1 26,3 22,1 17,2 21,3 8,4 20.00–21.00 17,5 16,9 22,6 20,2 14,5 12,4 3,9 21.00–22.00 8,9 12,8 11,1 15,4 10,2 2,5 0,7 22.00–23.00 0,1 1,2 0,2 1,0 0,4 2,2 0,3 Wtorek Środa Czwartek Piątek Sobota Niedziela Tab. 3. Frekwencja klientów siłowni w roku 2011. Źródło: opracowanie własne. vol. 10, nr 3 (38), 2012 257 Olga Pilipczuk, Dima Shamroni Wszystkie dane, zawarte w tabelach 1, 2, 3, można przedstawić w systemie za pomocą jednego integralnego obrazu w przestrzeni trójwymiarowej – jak to pokazano na rysunku 6. Obraz został pokolorowany zgodnie z wartością funkcji za pomocą spektrum barw, przy czym kolorem niebieskim zaznaczono najmniejsze znaczenie funkcji, kolorem czerwonym zaś największe. W systemie istnieje również możliwość przedstawienia powyższego obrazu w przestrzeni dwuwymiarowej (rysunek 7). Na obrazie jako 0 oznaczono poniedziałek, 1 – wtorek itd. Rys. 6 Integralny obraz w przestrzeni trójwymiarowej. Źródło: opracowanie własne. Rys. 7. Integralny obraz w przestrzeni dwuwymiarowej. Źródło: opracowanie własne. W jaki sposób powstał kolor każdego punktu na obrazie, można dowiedzieć się, wykorzystując funkcję inspekcji, która pokazuje wpływ poszczególnych dni i ich koloru na wartość funkcji w tym punkcie (rysunek 8). 258 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej W celu zaprezentowania, jak obraz może pomóc w szybkim odnalezieniu źródła problemu, stworzono rysunek 9. Oś X przedstawia poszczególne dni tygodnia, natomiast oś Y przedziały czasowe. Przy pierwszym spojrzeniu od razu widać, w jakich dniach i godzinach popyt na usługi basenu był największy. Są to: piątek od 16.00 do 19.00, a także sobota i niedziela od godziny 12.00 do 17.00. Najniższy popyt odnotowujemy codzienne od 22.00 do 23.00. Oprócz tego łatwo jest zauważyć niski popyt w dni robocze do godziny 15.00, a szczególnie od 8.00 do 9.00. Przy projektowaniu nowej strategii cenowej warto jest rozpatrzyć wcześniejsze zamknięcie i późniejsze otwarcie basenu w celu redukcji kosztów utrzymania, natomiast w dni robocze do godziny 15.00 wprowadzenie zniżki albo promocyjnej oferty połączonej z innymi usługami ośrodka. Rys. 8. Integralny obraz w przestrzeni trójwymiarowej z wybranym punktem. Źródło: opracowanie własne. SRQLHG]LDáHN ZWRUHN ĞURGD F]ZDUWHN SLąWHN VRERWD QLHG]LHOD Rys. 9. Obraz frekwencji klientów basenu. Źródło: opracowanie własne. vol. 10, nr 3 (38), 2012 259 Olga Pilipczuk, Dima Shamroni 5. Perspektywy rozwoju systemów grafiki kognitywnej Jak już wcześniej zaznaczono, dzisiaj najwięcej systemów grafiki kognitywnej skupia się na wizualizacji danych, pozostawiając podjęcie decyzji użytkownikowi. Powstało również kilka systemów posiadających w swojej strukturze funkcję wsparcia procesu decyzyjnego i doboru najlepszego wariantu decyzyjnego. W chwili obecnej rozwój systemów grafiki kognitywnej idzie właśnie w tym kierunku, czyli w kierunku połączenia wizualizacji kognitywnej i decydowania kognitywnego. Sensowne wydaje się również zastosowanie metod sztucznej inteligencji w grafice kognitywnej i odwrotnie – zastosowanie elementów grafiki kognitywnej w metodach sztucznej inteligencji. Dlatego takie połączenie będzie kierunkiem dalszych badań autorów. Oprócz tego, bez względu na to, że skuteczność zastosowania grafiki kognitywnej została już udowodniona wiele razy, istnieje wiele dziedzin, w których jeszcze nie próbowano jej zastosować. Dlatego kolejnym krokiem badawczym powinno zostać wprowadzenie grafiki kognitywnej do nowych branż gospodarki i dziedzin nauki. 6. Zakończenie Tworzenie systemów grafiki kognitywnej jest zadaniem bardzo skomplikowanym. Najważniejszym modułem systemu jest moduł wizualizacji danych. Wizualizacja powinna spełniać nie tylko swoją pierwotną funkcję – funkcję prezentacji danych, każdy obraz powinien też nieść w sobie rozwiązanie problemu. Podczas projektowania systemu grafiki kognitywnej projektant powinien rozumieć cały proces zachodzący w umyśle decydenta podczas analizy obrazu i nawet tworzyć dodatkowe moduły wspierające ten proces i proponujące najlepszy wariant decyzyjny. Informacje o autorach Dr Olga Pilipczuk – Katedra Zarządzania i Inżynierii Wiedzy, Uniwersytet Szczeciński. E-mail: [email protected]. Dr Dima Shamroni – Korporacja NovoSpark, Kanada. E-mail: [email protected]. Bibliografia Bajaj, Ch. i B. Krishnamurthy 1999. Data Visualization Techniques, Wiley Computer Books. Chernoff, H. 1973. The Use of Faces to Represent Points in K-Dimensional Space Graphically. Journal of the American Statistical Association, nr 68 (342), s. 361–368. Cleveland, W. 1993. Visualizing Data, New Jersey: Hobart Press. 260 Problemy Zarządzania Podstawowe aspekty tworzenia systemów grafiki kognitywnej D’Ocagne, M. 1885. Coordonnées Parallèles et Axiales: Méthode de transformation géométrique et procédé nouveau de calcul graphique déduits de la considération des coordonnées parallèlles, Paris: Gauthier-Villars. Eidenzon, D. i D. Shamroni 2011. Multidimensional Data Visualization, materiały konferencyjne “Conference on Probabilistic Methodologies in Water and Wastewater Engineering”, Toronto. Friedman, V. 2008. Data Visualization and Infographics. Graphics, Monday Inspiration, 14.01.2008. Friendly, M. 2008. Milestones in the history of thematic cartography, statistical graphics, and data visualization, http://www.math.yorku.ca/SCS/Gallery/milestone/milestone.pdf. Inselberg, A. 1985. The Plane with Parallel Coordinates. Visual Computer, nr 1 (4), s. 69–91. Inselberg, A. 2009. Parallel Coordinates: VISUAL Multidimensional Geometry and its Applications, Springer. Zenkin, A. i D. Pospelov 1991. Kognitywna grafika komputerowa, Moskwa: Nauka. vol. 10, nr 3 (38), 2012 261 Problemy Zarządzania, vol. 10, nr 3 (38): 262 – 270 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.7172.1644-9584.38.16 Gry komputerowe w organizacji – uwarunkowania psychologiczne Michał Mijal Artykuł podsumowuje obecny stan wiedzy z zakresu zastosowania gier komputerowych w organizacji i ich uwarunkowań psychologicznych. Wymienia i opisuje najważniejsze aspekty, które należy brać pod uwagę przy projektowaniu i wykorzystaniu gier komputerowych w szkoleniach, oraz wskazuje najważniejsze zagrożenia związane z użytkowaniem gier w procesach dydaktycznych. Sugeruje także najistotniejsze kierunki dalszych badań z tego zakresu oraz najbardziej perspektywiczne obszary zastosowań gier komputerowych w organizacji. 1. Wstęp Nauka jest efektywniejsza, gdy sprawia przyjemność (Lepper i Cordova 1992: 203). Stwierdzenie to leży u podstaw zastosowania gier komputerowych do celów szkoleniowych. Celem niniejszego artykułu jest eksploracja i opis psychologicznych uwarunkowań związanych z zastosowaniem gier komputerowych (na PC, konsole i urządzenia przenośne, w tym telefony i tablety) w organizacji. Ponieważ temat ten jest dość obszerny i obejmuje zarówno klasyczne gry komputerowe, gry symulacyjne, jak i elektroniczne implementacje gier planszowych, głównym przedmiotem opisu będą uwarunkowania psychologiczne ich zastosowań oraz przydatność gier w realizowaniu różnych funkcji organizacyjnych, nie zaś klasyfikacja samych gier. Obszarem w organizacji, gdzie gry znajdują najczęściej zastosowanie, jest zarządzanie zasobami ludzkimi, a zwłaszcza rekrutacja i szkolenia. Oczywiście to nie wyczerpuje możliwych zastosowań gier komputerowych – są one używane także w finansach i zarządzaniu kryzysowym (prognozowanie), marketingu (promocja i reklama produktów i firm) oraz w obszarach nietypowych: symulowaniu zachowań (Green 2011) czy w projektowaniu (Sharma i in. 2009). Spośród znaczącej liczby uwarunkowań psychologicznych, omówione zostaną przede wszystkim te dotyczące zastosowania gier komputerowych w szkoleniach i rozwoju pracowników. Ze względu na objętość artykułu pozostałe uwarunkowania zostaną zasygnalizowane jedynie, gdy pośrednio wpływają także na proces zdobywania przez pracowników nowej wiedzy 262 Problemy Zarządzania Gry komputerowe w organizacji – uwarunkowania psychologiczne lub umiejętności. Wybór został dokonany z uwzględnieniem jednego kryterium – czy opisywane aspekty psychologiczne są z jednej strony na tyle istotne, a z drugiej strony na tyle praktyczne, żeby zainteresować badaczy zajmujących się zarządzaniem także w najbliższej przyszłości. Dlatego też, siłą rzeczy, artykuł nie zawiera pełnego przeglądu obecnego stanu wiedzy z omawianej tematyki, ale ma stanowić kompendium najważniejszych zdaniem autora trendów w badaniach psychologicznych nad grami komputerowymi w szkoleniach i rozwoju pracowników. Temat gier komputerowych w organizacji jest o tyle istotny, że współcześnie gry urosły do rangi medium równorzędnego kinematografii1 i cały czas zyskują na znaczeniu. Wraz z przenikaniem gier komputerowych do głównego nurtu rozrywki zaczęto je także coraz powszechniej wykorzystywać w różnych obszarach funkcjonowania organizacji. Ponieważ jednak jest to stosunkowo młoda dziedzina, mimo coraz większej uwagi badaczy istnieje jeszcze wiele jej aspektów słabo lub w ogóle nieopisanych. Duża część analiz poświęconych grom komputerowym bazuje na badaniach prowadzonych od kilkudziesięciu lat w psychologii, socjologii, pedagogice i innych naukach społecznych. Gry są także opisywane od strony technologii w nich stosowanej, opierając się na różnych działach informatyki i matematyki. 2. Ramy pojęciowe Od razu należy wyjaśnić, że różnice pomiędzy klasycznymi grami „analogowymi” (realizowanymi bez użycia sprzętu elektronicznego) a grami komputerowymi są współcześnie coraz bardziej rozmyte. O ile gry komputerowe dają duże możliwości ukrycia mechanizmów rządzących rozgrywką oraz pozwalają przerzucić na komputer lub inne urządzenie większość obliczeń wykonywanych wcześniej ręcznie, o tyle gry planszowe pozwalają lepiej zaangażować uczestników, a komunikacja pomiędzy uczestnikami jest mniej ustrukturyzowana i spontaniczniejsza (Cushman-Roisin i in. 2000). Oczywiście istnieje jeszcze cały szereg różnic związanych między innymi ze stosowaną technologią, ale te wymienione powyżej są najważniejsze. Można także znaleźć w literaturze doniesienia o tym, że gry komputerowe bardziej zwiększają motywację do nauki niż stosowane w porównywalnych warunkach klasyczne gry planszowe (Ke 2008), ale brak jest innych danych potwierdzających to zjawisko. Podobnie różnica pomiędzy grami a symulacjami jest współcześnie mało wyraźna i ulega zatarciu, głównie dzięki mocy obliczeniowej komputerów. Symulacje – w odróżnieniu od gier – obejmują zwykle dużą liczbę zmiennych i danych potrzebnych do podejmowania decyzji (Gredler 2004), ale – dzięki przerzuceniu koniecznych obliczeń na sprzęt – z punktu widzenia użytkownika są dość podobne i określenia gry i symulacje są wobec tego często stosowane zamiennie. Dlatego określenie gry będzie używane w niniejszym artykule do opisu obu kategorii. vol. 10, nr 3 (38), 2012 263 Michał Mijal 3. Główne uwarunkowania Historia badań psychologicznych nad grami komputerowymi jest dość ściśle związana z rozwojem samych gier komputerowych, chociaż z racji młodego wieku tego medium systematyczne i mocno osadzone w teorii analizy zaczęto publikować dopiero kilkanaście lat temu. Jednym z pierwszych artykułów na ten temat był tekst Richarda Bartle’a (1996) na temat podziału uczestników gier sieciowych ze względu na ich motywację do grania. Na jego podstawie przeprowadzono następnie trwające kilka lat badanie kwestionariuszowe2, mające na celu eksperymentalne zweryfikowane koncepcji Bartle’a. Dzieli ona graczy na cztery grupy: zdobywców (Achievers), odkrywców (Explorers), zabójców (Killers) i dusze towarzystwa (Socializers)3. Na podstawie wyników tego badania – początkowo pomyślanego wyłącznie dla użytkowników tzw. MUD-ów – tworzy się profil gracza, który później pomaga w analizowaniu, jakie elementy w grze są atrakcyjne dla jej konkretnego uczestnika. Dzięki temu można projektować gry skierowane do węższej grupy osób, nastawionych na konkretny rodzaj interakcji. Z koncepcji Bartle’a wyrosły inne typologie i klasyfikacje dzielące graczy na grupy poszukujące w grach różnych bodźców. Najczęściej przytaczana jest typologia Marca LeBlanca (Salen i Zimmerman 2004), wyróżniająca 8 typów przyjemności, których poszukiwanie napędza graczy do podejmowania gry: – zmysłowe (sensation) – wszystko, czego można doświadczać zmysłami; – fantasy – wymyślone światy i przyjemność uczestniczenia w nich; – narracyjne (narrative) – doświadczanie rozwoju wydarzeń; – wyzwanie (challenge) – rozwiązywanie problemów w grze; – wspólnota (fellowship) – przyjaźń, współpraca i poczucie wspólnoty; – odkrywanie (discovery) – szukanie i odnajdowanie czegoś nowego; – ekspresja (expression) – wyrażanie siebie i tworzenie nowych rzeczy; – poddanie (submission) – podążanie według reguł za grą. Obie wymienione koncepcje podejmują próbę uporządkowania zasad i celów interakcji graczy ze środowiskiem gier komputerowych poprzez sklasyfikowanie motywów, jakimi kierują się osoby siadające do rozgrywki. Stanowią także dobry punkt wyjścia przy określaniu, do jakiej grupy docelowej jest skierowana dana gra i jakie cele za jej pomocą chcą osiągnąć jej twórcy. Przy projektowaniu szkoleniowych gier komputerowych należy dokładnie zaplanować, jakie kompetencje i wśród jakich uczestników będą rozwijane. Przytoczone typologie ułatwiają ten proces i pozwalają lepiej dopasować treść i formę gry do potrzeb szkoleniowych. Istnieją także prawidłowości charakterystyczne dla całej populacji, które oddziałują w podobny sposób na większość graczy. Najważniejsze z nich to: – wirtualna waluta i jej przelicznik, – reaktancja. – efekt podarowanego postępu, – efekt jednostki, 264 Problemy Zarządzania Gry komputerowe w organizacji – uwarunkowania psychologiczne – motywacja gracza a jego zaangażowanie, – bariery wejścia (mentalne i fizyczne), – oszustwa. Wirtualna waluta występująca często w grach komputerowych pozwala wykonywać operacje znane ze świata rzeczywistego, czyli kupno, sprzedaż, licytowanie itp. W przypadku gier szkoleniowych zwykle waluta jest przydzielana równo wszystkim uczestnikom, jednak w przypadku sieciowych gier komercyjnych istnieje możliwość dokupienia waluty wirtualnej za prawdziwą gotówkę. Zwykle przelicznik pieniądza realnego do wirtualnego jest dość skomplikowany i uniemożliwia proste określenie, ile kosztuje wirtualne dobro w walucie rzeczywistej. Wynika to z pewnej prostej prawidłowości znanej z psychologii: im trudniej przeliczyć obcy nominał na własny, tym częściej rezygnuje się z porównywania wartości i podejmuje decyzję zakupową (Poundstone 2010). Tym samym nierówny przelicznik powoduje, że gracze będą wydawali częściej i więcej. Równocześnie subiektywne poczucie niesprawiedliwego przydziału dóbr może zniszczyć zaangażowanie gracza, a tym samym również efekt szkoleniowy (Adams 1963). W grach komputerowych występuje także zjawisko znane i opisane w psychologii już wiele lat temu – reaktancja. Jeśli gracz jest postawiony przed koniecznością podjęcia jakiejś decyzji, a wybór będzie oznaczał zawężenie przyszłych możliwości działania w grze, decyzja ta będzie odwlekana tak długo, jak to będzie możliwe (por. Dowd i Wallbrown 1994). Widać to szczególnie wyraźnie w grach fabularnych, gdzie decyzje gracza wpływają na rozwój opowiadanej przez grę historii – decyzja związana z wyborem jednej ze ścieżek postępowania jest zwykle opóźniana do ostatniej chwili. Jednak także w symulacjach ekonomicznych można zaobserwować to zjawisko – wybór strategii organizacji powoduje, że kolejne wybory są jego logiczną konsekwencją, a pewne opcje stają się graczom niedostępne. Dlatego uczestnicy starają się zwykle zrealizować maksymalnie dużo innych zadań przed podjęciem tej jednej, nieodwracalnej decyzji. Kolejnym istotnym uwarunkowaniem, które ma wpływ na zaangażowanie uczestników w grę komputerową, jest tzw. efekt podarowanego postępu (Endowed Progress Effect) – jeśli gracz otrzyma informację, że już na początku wykonał część zadań potrzebnych do osiągnięcia celu, zwiększa to prawdopodobieństwo jego osiągnięcia oraz skraca czas realizacji (Nunes i Dreze 2006). Prawidłowość ta ma zresztą zastosowanie nie tylko w grach komputerowych, ale także w marketingu, gdzie można ją wykorzystać, np. zamiast wręczając klientowi kupon na darmowy produkt po zakupie dziesięciu, wręcza mu się analogiczny kupon z darmowym dwunastym produktem, ale pierwsze dwa pola są już odznaczone. Powoduje to wrażenie częściowej realizacji zadania i ułatwia podjęcie kolejnych kroków. W przypadku gier komputerowych w organizacji można to wykorzystać na przykład w szkoleniach, dając graczom na początku rozgrywki jakieś zasoby, będące w koń- vol. 10, nr 3 (38), 2012 265 Michał Mijal cowym etapie kryterium zwycięstwa. W ten sposób zwiększa się motywację uczestników i ułatwia rozpoczęcie. Podobnie jest w przypadku zdobywania kolejnych elementów potrzebnych do ukończenia gry lub tzw. achievementów4. Bezpośrednio po takim zdarzeniu wydzielana jest do mózgu poprawiająca samopoczucie dopamina. Wraz z postępem rozgrywki nasz mózg rozpoznaje momenty, w których zostaniemy czymś nagrodzeni, i dopamina jest wydzielana także przed taką chwilą, co powoduje, że wysoki poziom satysfakcji z rozgrywki utrzymuje się przez cały czas jej trwania, a gracz nie chce się oderwać od monitora (Fiorillo i in. 2003). Pokrewnym zagadnieniem jest tzw. efekt jednostki (Unit Effect). Polega on na odmiennym postrzeganiu prezentowanych wartości i różnic pomiędzy nimi w zależności od rozmiaru liczby, a w oderwaniu od jednostek (Pandelaere i in. 2011). W grach komputerowych jest to widoczne choćby przy zdobywaniu tzw. punktów doświadczenia za wykonanie różnych zadań – nawet za najmniejsze dostaje się kilkadziesiąt lub kilkaset punktów, a za duże można zdobyć milion i więcej. Gdyby zachowano proporcje i zredukowano wszystkie liczby, gracz miałby wrażenie zdobywania mniejszej liczby punktów, a proporcje i różnice pomiędzy małymi i dużymi zadaniami byłyby odbierane jako mniejsze niż w pierwszym opisanym przypadku. W ten sposób także zwiększa się zaangażowanie gracza w rozgrywkę i daje się mu subiektywne poczucie wykonania dużego postępu na drodze do sukcesu. Ciekawe spostrzeżenie dotyczące wyjaśnienia popularności gier komputerowych rozgrywanych z perspektywy pierwszej osoby (tzw. FPS) zaproponowali Przybylski, Rigby i Ryan (2010). Stworzyli oni model motywacji, w którym warunkiem zaangażowania gracza jest zaspokojenie trzech grup potrzeb: kompetencji, autonomii i relacji (competence, autonomy, and relatedness). Gry FPS doskonale zaspokajają wszystkie trzy grupy – kompetencja związana jest z wrażeniem kontroli nad poczynaniami awatara w grze i kolejnymi postępami (np. wspomnianymi już Trofeami), autonomia zaspokajana jest poprzez złudzenie wolności, jakie dają gry FPS, a relacje – dzięki trybowi dla wielu graczy. W rzeczywistości organizacyjnej koncepcja ta może być wykorzystywana do projektowania gier edukacyjnych lub szkoleniowych. Szczególnie w połączeniu z innymi badaniami. Greitemeyer i inni (2012) wskazują, że wieloosobowe gry FPS – będące w mediach synonimem rozrywki stymulującej zachowania agresywne – mogą być wykorzystywane do kształtowania postaw i zachowań kooperacyjnych. Wystarczy postawić przed uczestnikami zadanie wymagające współpracy do osiągnięcia wspólnego celu, aby stymulować współpracę nie tylko pomiędzy graczami, ale także pomiędzy graczami a osobami nie grającymi. Wpływ ten jest stosunkowo stały i niezależny od osób i sytuacji. Osobnym zagadnieniem opisywanym przez teoretyków gier komputerowych i coraz popularniejszym w praktyce w ostatnich latach są bariery wejścia do rozgrywki. Istotną barierą wejścia w świat gry jest na przykład potrzeba nauczenia się mechaniki gry oraz obsługi interfejsu. Dlatego w ostatnich 266 Problemy Zarządzania Gry komputerowe w organizacji – uwarunkowania psychologiczne latach coraz większą popularnością cieszą się kontrolery do gier wykorzystujące ruchy całego ciała gracza: Wii Remote, PS Move i Kinect (Skalski i in. 2011). W świetle badań kontrolery ruchowe ułatwiają naukę i zaangażowanie w rozgrywkę, co przekłada się na uczestnictwa i większy komfort obsługi. Uczestnicy chętniej i dłużej pozostają w grze, a po jej zakończeniu wyżej oceniają jej realizm. Właśnie z tego powodu gry stosowane w organizacjach będą prawdopodobnie w coraz większym stopniu korzystać z tego sposobu komunikacji z graczem (por. np. Kato 2010). Oczywiście istnieją ograniczenia w stosowaniu tej techniki – symulacje zarządzania zasobami nadal będą prawdopodobnie wymagać obsługi bardziej klasycznego interfejsu (przynajmniej w najbliższej przyszłości), ale wraz z rozwojem techniki również tutaj możliwa jest rezygnacja z klawiatury. Już kilkanaście lat temu futurolodzy przewidywali wprowadzenie trójwymiarowych przestrzeni nawigacyjnych, które pozwalają wykonywać nawet dość skomplikowane operacje na zbiorach danych i wydawać polecenia, do których dotychczas konieczne było posługiwanie się myszą i klawiaturą (por. np. Burmester i in. 2000). Obecnie jest to raczej kwestia ograniczeń technologicznych niż koncepcyjnych i prawdopodobnie jedynie kwestią czasu jest zastosowanie jeszcze bardziej zaawansowanych technicznie interfejsów w grach wykorzystywanych w organizacjach. Istotnym elementem gier komputerowych są także oszustwa. Czasem dokonywane nieświadomie, z wykorzystaniem błędów w programie (tzw. bugów), czasem celowo je eksploatujące, a w pewnych sytuacjach popełniane świadomie, z wykorzystaniem zewnętrznych programów modyfikujących samą grę (specyfika i gatunek gry determinuje programy wykorzystywane do oszustw – por. Jeung i Lui 2008). Psychologiczne uwarunkowania oszustw w grach są stosunkowo proste i można je podzielić na kilka grup: – związane z graczem – np. samoocena (Oren 2008), Machiawelizm (Cooper i Peterson 1980); – związane z mechanizmami rozgrywki – np. nagradzanie uczestników w sposób postrzegany przez nich jako niesprawiedliwy (por. Wicker i Bushweller 1970), brak zabezpieczeniem przed oszustwami (por. Wilson i Kelling 1982); – związane z interakcją z innymi graczami – np. dysproporcja pomiędzy umiejętnościami i możliwościami różnych graczy (Schwieren i Weichselbaumer 2009), możliwość bezkarnego lub anonimowego oszukiwania (Constantiou 2012), postrzeganie oszukiwania przez współgraczy (LaSalle 2009). Oczywiście nie wyczerpuje to katalogu możliwych motywów i rodzajów oszustw podczas rozgrywek, ale obejmuje te najważniejsze oraz najczęściej spotykane i opisywane w literaturze. Ze wszystkimi można walczyć na dwa główne sposoby: oddziałując na program komputerowy (czyli zabezpieczając go przed oszustwami) lub na samych graczy (tworząc im motywację wewnętrzną do grania fair lub ściśle ich kontrolując). Ten pierwszy sposób wymaga działania ex ante, podczas gdy ten drugi – ex post. vol. 10, nr 3 (38), 2012 267 Michał Mijal 4. Podsumowanie W świetle przytoczonych badań gry komputerowe w szkoleniach mogą być stosowane w wielu obszarach, do kształtowania zarówno pożądanych zachowań, jak i postaw. Szczególnie interesujące wydaje się kształtowanie tzw. kompetencji miękkich, które najskuteczniej ćwiczy się w sytuacjach wymagających aktywnego zaangażowania uczestnika oraz interakcji z innymi ludźmi. Gry komputerowe dają możliwość wchodzenia w interakcje także osobom słabiej radzącym sobie z sytuacjami społecznymi i z tego powodu doskonale nadają się do stosowania w grupach niejednorodnych pod względem poziomu kompetencji społecznych. Strona techniczna gier komputerowych powala już teraz używać ich względnie niewysokim kosztem, co ułatwia dostęp także mniejszym firmom, a także organizacjom sektora pozarządowego. Dalsze badania powinny objąć przede wszystkim eksperymentalne potwierdzenie skuteczności różnego rodzaju ćwiczeń i gier oraz stworzenie pełnej i kompletnej bazy teoretycznej do tworzenia edukacyjnych gier komputerowych. Jest to o tyle istotne, że w ostatnich latach wzrasta popularność gier w edukacji (por. np. Kebritchi i Hirumi 2008), ale nadal brak jest kompleksowego opracowania teoretycznego, które osadzałoby tę część sektora edukacyjnego w szerszej perspektywie, uniezależniając go jednocześnie od dotychczasowych badań obejmujących wyłącznie tradycyjne gry i symulacje. Informacje o autorze Dr Michał Mijal – Zakład Teorii i Metod Organizacji, Katedra Teorii Organizacji Wydziału Zarządzania Uniwersytetu Warszawskiego. E-mail: [email protected]. Przypisy 1 Światowy rynek gier komputerowych i wideo już w roku 2011 odnotował obroty przewyższające obroty na rynku filmowym (en.wikipedia.org/wiki/Video_game_industry, dostęp: 13.07.2012). 2 www.gamerdna.com/quizzes/bartle-test-of-gamer-psychology, dostęp 12.07.2012. 3 Te cztery typy powstają z przecięcia dwóch wymiarów: działanie–interakcja oraz gracze–świat gry (Bartle 1996). 4 Trofea i osiągnięcia to jeden z elementów współczesnych gier. Gracz otrzymuje tytuł/ /medal/odznaczenie po spełnieniu określonych wymogów. W rozbudowanych produkcjach wysokobudżetowych lista trofeów przekracza czasem kilkaset pozycji. Wprowadzenie osiągnięć do gier jest też często autoparodiowane przez samych twórców, np. w grze cRPG „Risen” za zabicie 10 kurczaków zdobywa się trofeum „Pogromca drobiu”. 268 Problemy Zarządzania Gry komputerowe w organizacji – uwarunkowania psychologiczne Bibliografia Adams, J.S. 1963. Inequity in Social Exchange, w: J. Berkowitz, Advances in Experimental Social Psychology, Vol. 2. New York: Academic Press, DOI: 10.1016/S00652601(08)60108-2. Bartle, R.A. 1996. Hearts, Clubs, Diamonds, Spades: Players who Suit MUDs. Journal of MUD Research, nr 1 (1), http://www.brandeis.edu/pubs/jove/HTML /v1/bartle.html. Burmester, M., Komischke, T. i L. Wust 2000. Innovative User Interfaces in Automation Engineering by Application of Usability Engineering Methods Shown by the Example of a Three-Dimensional Plant Representation. International Journal of Human-Computer Interaction, nr 3–4 (12), s. 359–373, DOI: 10.1080/10447318.2000.9669064. Constantiou, I., Legarth, M. i K. Olsen 2012. What Are Users’ Intentions towards Real Money Trading in Massively Multiplayer Online Games? Electronic Markets, nr 2 (22), s. 105–115. Cooper, S. i Ch. Peterson 1980. Machiavellianism and Spontaneous Cheating in Competition. Journal of Research in Personality, nr 1 (14), s. 70–75, DOI: 10.1016/00926566(80)90041-0. Cushman-Roisin, B., Rice, III, N.J. i M.A. Moldaver 2000. A Simulation Tool for Industrial Ecology. Creating a Board Game. Journal of Industrial Ecology, nr 4 (3), DOI: 10.1162/108819899569601. Dowd, E.T. i F. Wallbrown 1994. Psychological Reactance and Its Relationship to Normal Personality Variables. Cognitive Therapy & Research, nr 6 (18), s. 601–612. Fiorillo, Ch,D., Tobler, Ph.N. i W. Scultz 2003. Discrete Coding of Reward Probability and Uncertainty by Dopamine Neurons. Science, nr 5614 (299), DOI: 10.1126/ science.1077349. Gredler, M. 2004. Games and Simulations and Their Relationships to Learning, Mahwah: Lawrence Erlbaum Associates. Green, D.R. 2011. ‘Tit-for-tat’ in Cell Biology. Nature Reviews. Molecular Cell Biology, nr 2 (12), DOI: 10.1038/nrm3054. Greitemeyer, T., Traut-Mattausch, E. i S. Osswald 2012. How to Ameliorate Negative Effects of Violent Video Games on Cooperation: Play It Cooperatively in a Team. Computers in Human Behavior, nr 28, s. 1465–1470, DOI: 10.1016/j.chb.2012.03.009. Kato, P.M. 2010. Video Games in Health Care: Closing the Gap. Review of General Psychology, nr 2 (14), s. 113–121, DOI: 10.1037/a0019441. Ke, F. 2008. Computer Games Application within Alternative Classroom Goal Structures: Cognitive, Metacognitive, and Affective Evaluation. Education Tech Research, nr 56, s. 539–556, DOI 10.1007/S11423-008-9086-5. Kebritchi, M. i A. Hirumi 2008. Examining the Pedagogical Foundations of Modern Educational Computer Games. Computers & Education, nr 51, s. 1729–1743, DOI: 10.1016/j.compedu.2008.05.004. LaSalle, R.E. 2009. The Perception of Detection, Severity of Punishment and the Probability of Cheating. Journal of Forensic Studies in Accounting & Business, nr 2 (1), s. 93–112. Lepper, M.R. i D.I. Cordova 1992. A Desire to Be Taught: Instructional Consequences of Intrinsic Motivation. Motivation and Emotion, nr 3 (16), s. 187–208, DOI: 10.1007/ BF00991651. Nunes, J.C. i X. Dréze 2006. The Endowed Progress Effect: How Artificial Advancement Increases Effort. Journal of Consumer Research, nr 4 (32), s. 504–512, DOI: 10.1086/500480. Pandelaere, M., Briers, B. i C. Lembregts 2011. How to Make a 29% Increase Look Bigger: The Unit Effect in Option Comparisons. Journal of Consumer Research, nr 2 (38), s. 308–322, DOI: 10.1086/659000. Poundstone, W. 2010. Priceless: the Myth of Fair Value (and How to Take Advantage of It). New York: Hill and Wang. vol. 10, nr 3 (38), 2012 269 Michał Mijal Przybylski, A.K., Rigby, C.S. i R.M. Ryan 2010. A Motivational Model of Video Game Engagement. Review of General Psychology, nr 2 (14), s. 154–166, DOI: 10.1037/ a0019440. Salen, K. i E. Zimmerman 2004. Rules of Play. Game Design Fundamentals, Massachusets Institute of Technology Press. Schwieren, Ch. i D. Weichselbaumer 2009. Does Competition Enhance Performance or Cheating? A Laboratory Experiment. Journal of Economic Psychology, nr 3 (31), s. 241–253, DOI: 10.1016/j.joep.2009.02.005. Sharma, D., Shaban, A., Riddell, A., Kalsi, V., Arya, M. i P. Grange 2009. Video-Games Station or Minimally Invasive Skills Training Station? Journal Compilation. BJU International, nr 104, s. 159–162, DOI: 10.1111/j.1464-410X.2009.08478.x. Skalski, P., Tamborini, R., Shelton, A., Buncher, M. i P. Lindmark 2011. Mapping the Road to Fun: Natural Video Game Controllers, Presence, and Game Enjoyment. New Media & Society, nr 2 (13), s. 224–242, DOI: 10.1177/1461444810370949. Wicker, A.W. i G. Bushweller 1970. Perceived Fairness and Pleasantness of Social Exchange Situations: Two Factorial Studies of Inequity. Journal of Personality & Social Psychology, nr 1 (15), s. 63–75, DOI: 10.1037/h0029208. Wilson, J.Q. i G.L. Kelling 1982. Broken Windows. The Atlantic Monthly, marzec. Yeung, S.F. i J.C.S. Lui 2008. Dynamic Bayesian Approach for Detecting Cheats in Multi-player Online Games. Multimedia Systems, nr 4 (14), s. 221–236, DOI: 10.1007/ s00530-008-0113-5. 270 Problemy Zarządzania Problemy Zarządzania, vol. 10, nr 3 (38): 271 – 273 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.xxxx/xxx Recenzja książki Janusza Wielkiego Modele wpływu przestrzeni elektronicznej na organizacje gospodarcze Witold Chmielarz Recenzowana książka ma charakter wyjątkowy. Gospodarka elektroniczna po gwałtownym wysypie publikacji na ten temat w latach 2001–2008 zaczęła od trzech lat przezywać swoisty kryzys zapomnienia. Ukazujące się publikacje jedynie dotykały tego zagadnienia lub prześlizgiwały się po temacie, żadna nawet nie usiłowała analizować ani tego zjawiska, ani determinant jego rozwoju. Uznano, że wszystko zostało już na ten temat powiedziane i nic się nie zmienia. A gospodarka elektroniczna, pomimo szalejących na świecie znamion kryzysu, nadal przeżywała rozwój czy przynajmniej nie wykazywała takiego załamania lub zastoju jak inne części gospodarki tradycyjnej. Przyczyny wydawały się oczywiste – wyjątkowo niskie koszty aplikacji, implementacji i obsługi raczej zachęcały niż zniechęcały do uczestnictwa w procesach zachodzących w gospodarce wirtualnej. Jednak nie stało się to przedmiotem zbyt licznych publikacji. Wydawało się raczej, że temat ten po wykorzystaniu początkowych założeń i charakterystyce pojawiających się narzędzi przestał interesować autorów. Nikt również nie kwapił się dogłębnie zanalizować czy przeprowadzić badania rozwijające w konstruktywny sposób funkcjonowanie e-handlu, e-aukcji lub bankowości elektronicznej. Dopiero obszerna, licząca przeszło 300 stron monografia Janusza Wielkiego (wcześniejszego autora książki Elektroniczny marketing poprzez Internet, wydanej przez PWN w 2000) przywraca właściwą rangę temu zagadnieniu. Szczególnie imponujące są odniesienia literaturowe. Aby napisać trzy rozdziały swojej książki, autor wykorzystał w sposób twórczy ponad siedemset pozycji literaturowych, z których 30 stanowiły pozycje literaturowe autora. Jest to o tyle istotne, że przygotowywał się on do tej publikacji przez szereg lat, a każde następne badanie i artykuł układały się we wzór, który zaowocował tą znaczącą publikacją. Podstawowe hipotezy badawcze postawione w pracy koncentrują się wokół oddziaływania Internetu jako technologii informacyjnej na organizacje gospodarcze. I nie byłoby w tym stwierdzeniu nic odkrywczego, gdyby nie fakt, że autor jako pierwszy zwraca uwagę na zwrotność tej relacji. To również organizacje gospodarcze silnie wpływają na rozwój Internetu vol. 10, nr 3 (38), 2012 271 Recenzje poprzez rosnące wymagania swoich użytkowników w tym zakresie. Bez tych wymagań nie byłoby dziś tak szeroko rozwiniętych usług mobilnych, bez tych wymagań nie rozwijałyby się tak szybko metody komunikacji głosowej. Podkreślając wartości merytoryczne publikacji, należy stwierdzić, że jest to opracowanie wartościowe, integrujące niewątpliwie dotychczasową wiedzę na temat Internetu i przestrzeni elektronicznej poprzez wieloaspektowy przegląd procesów zachodzących w przestrzeni internetowej oraz nowe, kompleksowe spojrzenie na współistnienie organizacji i infrastruktury gospodarki elektronicznej, oparte na bardzo (może nawet zbyt) dogłębnej analizie olbrzymiej listy publikacji (jest tu chyba wszystko, co na ten temat napisano w Polsce i za granicą w ostatnich latach), podkreślając gruntowną wiedzę autora i swobodę jego poruszania się w teorii obejmującej omawiane zagadnienia. Ponadto, pomimo występowania w tekście elementów znanych z innych publikacji, warto podkreślić, że autorowi udało się dokonać nowego ich przeglądu, mającego za cel systematyzację wiedzy w perspektywie innej od dotychczasowych dokonań. A rzeczą podstawową stało się stworzenie przez niego nowej klasyfikacji i typologii wpływu przestrzeni elektronicznej na funkcjonowanie organizacji. Ostatecznym wyrazem poglądów autora, weryfikującym jego założenia badawcze, jest próba stworzenia deskryptywnego modelu oddziaływania przestrzeni elektronicznej na otoczenie organizacyjne poprzez identyfikację czynników oddziaływania oraz relacji pomiędzy nimi powodującymi określone skutki praktyczne. Autor podjął się realizacji bardzo obszernego i wielowątkowego tematu w trzech rozdziałach. W rozdziale pierwszym charakteryzuje przede wszystkim przemiany zachodzące we współczesnej gospodarce w procesie konwersji do ery postindustrialnej. Z tego punktu widzenia przedstawia rozwój gospodarki elektronicznej oraz określa miejsce i rolę technologii informatycznych w kształtowaniu gospodarki postindustrialnej. Szczególne znaczenie przypisuje Internetowi, jako podstawowemu narzędziu i elementowi tej transformacji, oraz jego wpływowi na tworzenie podstaw gospodarki elektronicznej. Rozdział ten był autorowi niezbędny do późniejszych analiz; jego drobiazgowość (niemal encyklopedyczność) nasuwa podejrzenie, że chciał on przekazać swoją całą olbrzymią wiedzę na ten temat czytelnikowi. Jest to bardzo dobre dla czytelnika spoza sfery informatyki ekonomicznej, lecz dla profesjonalistów może być nieco nużące. Rozdział drugi jest poświęcony analizom wpływu Internetu na rozwój organizacji gospodarczych. Rozpoczyna się od zdefiniowania i doprecyzowania wirtualizacji organizacji oraz głównych trzech kategorii organizacji działających w sferze elektronicznej. Następnie – co wynika z logiki badania – przedstawiono proces tworzenia wartości przez organizację wirtualną i korelację jej z fazami rozwoju Internetu. Ponadto autor rozpatruje uwarunkowania funkcjonowania organizacji z klientami, dostawcami i partnerami biznesowymi. 272 Problemy Zarządzania Recenzje Ostatni rozdział zawiera analizy oddziaływania przestrzeni elektronicznej na organizacje gospodarcze i ich otoczenie. Na początku definiowana jest przestrzeń elektroniczna wraz z jej elementami składowymi. Następnie dokonywana jest jej analiza, wraz z charakterystyką interesariuszy funkcjonujących w otoczeniu organizacji. Końcowa część rozdziału poświęcona jest tworzeniu modeli wpływu bezpośredniego i pośredniego podmiotów operujących w przestrzeni elektronicznej na organizacje oraz relacji odwrotnej – wpływu organizacji i jej wymagań na przestrzeń elektroniczną. Ze względu na obszerność analiz, autorskie klasyfikacje i nowe podejście do modelowania sfery elektronicznej oraz jej wpływu na rozwój organizacji (i vice versa) omawianą książkę można polecać jako niezbędny i aktualny podręcznik w zakresie biznesu elektronicznego. Ma więc szansę stać się istotną pomocą dydaktyczną na wykładach i ćwiczeniach dla studentów na wydziałach, gdzie w programie występują przedmioty związane z informatyka gospodarczą. Ponadto może się stać cenną pozycją dydaktyczną dla odbiorców nie tylko akademickich, ale również wywodzących się z kręgów praktyki gospodarczej. Wielki, J. 2012. Modele wpływu przestrzeni elektronicznej na organizacje gospodarcze, Wrocław: Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu (książka złożona do publikacji). vol. 10, nr 3 (38), 2012 273 Problemy Zarządzania, vol. 10, nr 3 (38): 274 – 279 ISSN 1644-9584, © Wydział Zarządzania UW DOI 10.xxxx/xxx Recenzja książki Zbigniewa Banaszaka, Sławomira Kłosa, Janusza Mleczko Zintegrowane systemy zarządzania Tomasz Parys Systemy informatyczne na stałe zagościły w codziennym życiu. Są obecne niemal na każdym kroku. W domach – na komputerach, w sprzęcie AGD, w komunikacji miejskiej – w nowoczesnych autobusach, a także telefonach i innych urządzeniach codziennego użytku. Jednak systemy działają nie tylko dla wygody czy rozrywki ich użytkowników. Są w chwili obecnej motorem napędowym cywilizacji, pracują i zarabiają. Dziś niemal każde przedsiębiorstwo korzysta z komputerów, po to aby zautomatyzować procesy, zmniejszyć pracochłonność, zredukować koszty, a w rezultacie zarobić więcej. W niektórych branżach jest to bardzo istotna część biznesu, dziś trudno wyobrazić sobie np. duży, ogólnokrajowy bank, nieposiadający obsługi w kanale bankowości elektronicznej czy choćby nawet wewnętrznego systemu umożliwiającego komunikację miedzy poszczególnymi oddziałami a centralą. Realizując potrzeby odbiorców, poszczególni producenci rozwiązań informatycznych wprowadzają do swoich produktów usprawnienia i nowe funkcje, w naturalny sposób przyczyniając się do zwiększenia różnorodności systemów. Naturalną konsekwencją takiego stanu rzeczy jest potrzeba klasyfikacji nowo powstałych rozwiązań, zarówno w zakresie technicznym, jak i użytkowym (biznesowym). To powoduje, że na rynku wydawniczym pojawia się dużo pozycji podejmujących próbę klasyfikacji i opisu zastosowań systemów informatycznych w gospodarce. Przykładem takiej pozycji jest recenzowana monografia, która ukazała się w roku 2011 nakładem Polskiego Wydawnictwa Ekonomicznego. Wpisuje się dobrze w literaturę przedmiotu z zakresu informatyki gospodarczej. Dobrze komponuje się z innymi pozycjami dotyczącymi problematyki zastosowania systemów zarządzania oraz ich implementacji informatycznych. Podkreślić należy, iż piśmiennictwo z tego zakresu jest bardzo bogate. Do najważniejszych pozycji należą: monografia Zintegrowane systemy informatyczne – dobre praktyki wdrożeń pod redakcją J. Kisielnickiego, M. Pańkowskiej i H. Sroki, która ukazała się nakładem PWN w 2012 r., monografia autorstwa J. Kisielnickiego pt. MIS – Systemy informatyczne zarządzania, którą w swej ofercie umieściło wydawnictwo Placet w 2008 r., monografia autorstwa P. Lecha 274 Problemy Zarządzania Recenzje pt. Zintegrowane systemy zarządzania ERP/ERP II. Wykorzystanie w biznesie, wdrażanie opublikowana przez wydawnictwo Difin w 2003 r., dwutomowa monografia autorstwa A. Januszewskiego pt. Funkcjonalność informatycznych systemów zarządzania, którą opublikowało wydawnictwo PWN w roku 2009, wznawiając ją w roku 2011, monografia napisana przez Z. Klonowskiego pt. Systemy informatyczne zarządzania przedsiębiorstwem. Modele rozwoju i właściwości funkcjonalne, która ukazała się nakładem Oficyny Wydawniczej Politechniki Wrocławskiej w 2004 r., monografia Zintegrowane systemy informatyczne w zarządzaniu przygotowana pod redakcją C. Olszak i H. Sroki, którą opublikowało Wydawnictwo Akademii Ekonomicznej w Katowicach w roku 2001, oraz skrypt zespołu autorskiego pod redakcją Z. Kabzy o identycznie brzmiącym tytule tj. Zintegrowane systemy zarządzania, który został opublikowany przez Oficynę Wydawniczą Politechniki Opolskiej w 2002 r. Recenzowana monografia stanowi cenne uzupełnienie literatury z tego zakresu, prezentując omawiane zagadnienie z perspektywy inżynierii produkcji. Recenzowana praca ukazała się ramach serii wydawniczej zatytułowanej „Zarządzanie i inżynieria produkcji”. Jej zawartość została wyznaczona z jednej strony przez ramy merytoryczne, z drugiej przez minima programowe dla kierunku zarządzanie i inżynieria produkcji. Monografia jest podręcznikiem akademickim obejmującym, co podkreślają autorzy we wstępie, „hasła programowe wymienione w minimach kierunku (...). Wymienione tam zagadnienia pokrywają podstawowe obszary funkcjonalności przedsiębiorstwa”. Niniejsza publikacja, podobnie jak cała seria, jest godną uznania inicjatywą środowiska akademickiego, mającą na celu ujednolicenie materiałów dydaktycznych ze wspomnianego zakresu. Jest to zamierzenie tym bardziej oczekiwane, że dowolność w określaniu zakresu tematycznego poszczególnych przedmiotów (opisanych w tzw. sylabusach) na rożnych uczelniach jest duża. Monografia jest, jak już wspomniano, podręcznikiem akademickim przygotowanym przez pracowników naukowych polskich politechnik i uniwersytetów, mających wieloletnie doświadczenie dydaktyczne, a zatem znających oczekiwania studentów. Recenzowana publikacja składa się z czterech rozdziałów, z których każdy zawiera podsumowanie oraz pytania kontrolne. Rozdział I zawiera omówienie zagadnień związanych z przepływem produkcji, które znajdują swoje odzwierciedlenie w systemie informatycznym przedsiębiorstwa. Przedstawiono zasoby i procesy jako elementy kluczowe dla przeprowadzenia produkcji. Przybliżono struktury wyrobów, podano definicje procesów wytwarzania oraz scharakteryzowano modele zarządzania produkcją i zarządzanie zdolnościami produkcyjnymi. Omówiono także podstawowe problemy związane z zarządzaniem logistycznym pod kątem sterowania zapasami i zarządzania składowaniem (zarządzanie magazynami). Jako zakończenie rozdziału I ukazano współczesne systemy zarządzania TPP (technicznym przygotowaniem produkcji) z zaakcentowaniem roli systemów informatycznych w tym procesie. vol. 10, nr 3 (38), 2012 275 Recenzje Rozdział II pracy zawiera prezentację strategii zarządzania przepływem produkcji. Przedstawia podstawowe paradygmaty wykorzystywane we współczesnych strategiach zarządzania przepływem produkcji. Omówiono koncepcję JiT (Just in Time) jako narzędzie sterowania przepływem produkcji oraz koncepcję systemu zintegrowanego ERP (Enterprise Resource Planning) jako narzędzie sterowania przepływem materiałów i zasobów przedsiębiorstwa. Dla obu powyższych koncepcji przybliżono możliwości zastosowań oraz podstawowe ograniczenia. W rozdziale II zawarto także prezentację techniki zoptymalizowanej produkcji OPT (Optimized Production Technology) oraz powstałej na jej bazie tzw. teorii ograniczeń TOC (Theory of Constraints). Zaprezentowano je jako strategie alternatywne w stosunku do przedstawionych wcześniej, tj. JiT oraz ERP. Jako zamknięcie rozważań w rozdziale II ujęto zasady, jakie należy uwzględnić przy przygotowywaniu strategii zarządzania przepływem produkcji. Kolejny rozdział monografii, oznaczony logicznie jako III, jest najobszerniejszym rozdziałem w całej monografii. Stanowi on zasadniczą merytorycznie część pracy i poświęcony został systemom informatycznym wspomagającym zarządzanie przedsiębiorstwem. Ukazuje rozwój zastosowań systemów informatycznych wspomagania zarządzania w kontekście oferowanego przez ich poszczególne rodzaje wsparcia wybranych zakresów funkcjonalnych działania przedsiębiorstwa. Zdefiniowano tu podstawowe pojęcia dotyczące danych, informacji oraz procesów informacyjno-decyzyjnych. Przedstawiono także technologie systemów informatycznych zarządzania, które zaprezentowane zostały w kontekście specyfikacji technicznej oraz uwarunkowań technicznych związanych z budową i funkcjonowaniem. Przybliżono także specyfikę systemów wspomagających poszczególne zakresy działania przedsiębiorstwa. Zaprezentowano systemy wspomagające zarządzanie relacjami z klientami CRM (Customer Relationship Management), systemy wspomagające konstrukcję i technologię PLM (Product Lifecycle Management), systemy działające w obszarze zaopatrzenia materiałowego i gospodarki magazynowej MRP (Material Requirement Planning) oraz systemy wspomagające planowanie i sterowanie produkcją MRP II (Manufacturig Resource Planning). W rozdziale swoje miejsce znalazły także systemy pomocnicze z punktu widzenia inżynierii produkcji, takie jak systemy informowania kierownictwa (SIK) oraz zarządzania logistyką na przykładzie systemu zarządzania łańcuchem dostaw (Supply Chain Management). Ostatni, czwarty rozdział pracy, stanowiący podsumowanie rozważań zawartych w poprzednich rozdziałach, koncentruje się na komputerowo zintegrowanym zarządzaniu. Traktuje on o zagadnieniach związanych z wdrażaniem i wykorzystaniem systemów informatycznych w roli narzędzia kontrolingowego, wspomagającego proces kontroli przychodów i kosztów. Prezentuje także tematykę związaną z zarządzaniem operacyjnym oraz przybliża proces wdrażania zintegrowanych systemów informatycznych wspomagających zarządzanie. Omówiono tu podstawowe składowe takiego procesu, 276 Problemy Zarządzania Recenzje tj. potrzeby przedsiębiorstwa, wybór systemu, metodykę wdrożenia, zarządzanie wdrożeniem (harmonogramem) oraz typowe zagrożenia. Rozdział IV zawiera także, zamieszczone w punktach 4.2.4 oraz 4.2.5, fragmenty dotyczące funkcjonowania przedsiębiorstwa w warunkach współczesnego rynku, który w coraz większym stopniu staje się rynkiem zdominowanym przez narzędzia elektroniczne, a tym samym wirtualnym. Zawarto w nich odniesienie do e-gospodarki oraz organizacji wirtualnych, co powoduje, że oba te podpunkty są najmniej techniczne w całej pracy. Materiał teoretyczny zamieszczony w poszczególnych rozdziałach został zilustrowany licznymi studiami przypadków i przykładami. Szczególnie w rozdziale III doskonale wpływają one na zrozumienie omawianej tematyki i dobrze obrazują logikę działania charakteryzowanych systemów. Zakres merytoryczny monografii jest ogromny. Porusza ona tak wiele zagadnień, że większość z nich musiała, ze względu na ograniczenia wyznaczone rozmiarem publikacji, zostać przedstawiona jedynie w podstawowym zakresie. Minimalistyczne ujęcie jest także wynikiem założeń serii wydawniczej, w ramach której książka została wydana. Choć niektóre zagadnienia wymagałyby szerszej prezentacji, podkreślić należy, iż recenzowana monografia wypełnia treść określoną w jej tytule i stanowi dla zainteresowanych dobry przewodnik do własnych badań i poszukiwań. Monografia, jak przystało na pracę naukową, zawiera imponujący, liczący w sumie 316 punktów wykaz literatury. Został on podzielony przez autorów na dwie części. Literatura podstawowa, która składa się z 98 pozycji, jest zamieszczona na końcu monografii. Literatura uzupełniająca, licząca 218 pozycji, została wydana w formie elektronicznej na dołączonej do publikacji płycie CD. Literatura podstawowa zawiera w zdecydowanej większości publikacje w języku polskim (co było zamierzeniem autorów). W języku obcym jest 10 pozycji, z czego 8 w języku angielskim, po jednej w słowackim i niemieckim. Literatura podstawowa zawiera tylko jedno źródło internetowe. Literatura dodatkowa to wykaz 196 pozycji drukowanych i 22 źródeł internetowych. W zdecydowanej większości aktualność adresów internetowych poddana została weryfikacji w latach 2008–2009. Jako uzupełnienie zamieszczono także listę 18 adresów witryn internetowych producentów oraz dostawców oprogramowania omawianego w treści pracy. Wspominając o literaturze, nie sposób pominąć faktu, iż jest ona bardzo różnorodna. Znalazły się w niej monografie będące wynikiem konferencji naukowych, monografie publikowane jako efekt projektów badawczych, prowadzonych przez różne ośrodki akademickie, czasopisma, specjalistyczne witryny internetowe, materiały firmowe producentów i dystrybutorów oprogramowania oraz raporty publikowane przez niezależne firmy analityczne. Książka jest napisana prostym, łatwym w odbiorze językiem, co pomaga zrozumieć bardzo specjalistyczną, obszerną jej treść. Autorzy, zgodnie z zasadami logiki, wyjaśniają poszczególne zagadnienia, przechodząc od ogólnych ku bardziej szczegółowym. Monografia przytacza w swej treści bardzo dużo vol. 10, nr 3 (38), 2012 277 Recenzje definicji, które zostały usystematyzowane w postaci (zamieszczonego na CD) słownika. Elementem, który znacznie ułatwia poruszanie się po monografii, jest zawarty w książce indeks. Integralną część książki stanowi załączona płyta CD. Zapisano na niej materiały uzupełniające w dwóch formach: przeglądalnej off-line strony internetowej w formacie HTML oraz liczącego 83 strony pliku PDF. Treścią tychże materiałów jest prezentacja 8 studiów przypadku oraz 6 przykładów prezentujących działanie i obrazujących zakres zastosowań systemów informatycznych wspomagających zarządzanie. Choć zakres merytoryczny monografii jest bardzo obszerny, można wskazać elementy, których zabrakło w pracy. Nie należy ich uważać za minusy pracy, lecz rozpatrywać w kategorii propozycji uzupełnień. Lista tychże sugestii nie jest długa i zawiera następujące propozycje. W pracy zabrakło odniesienia do modelu ERP II (Extended Resource Planning) jako elementu tzw. rozszerzonego przedsiębiorstwa (Extended Enterprise), które – przekraczając dotychczasowe granice organizacji – wykorzystuje nowoczesne techniki informatyczne i otwiera się na swoje otoczenie (klientów, dostawców oraz firmy współpracujące) integrując tym samym omówione w pracy systemy takie jak CRM czy SCM. Kolejnym elementem, który dobrze uzupełniłby tematykę, jest kwestia ryzyka wdrożeniowego i związanych z nim barier wdrożeniowych systemów informatycznych. Zagadnienie to zostało wprawdzie w pracy zasygnalizowane (pkt. 4.3.5), jednak biorąc pod uwagę wagę tego problemu, ilość poświęconego miejsca trzeba uznać za niewystarczającą. Doskonałym uzupełnieniem byłoby także zamieszczenie porównania omawianych i prezentowanych dość obszernie w załączniku na CD systemów informatycznych pod kątem np. ich funkcjonalności czy zakresu zastosowań. Wymienione powyżej uwagi nie wpływają na wysoką wartość merytoryczną monografii, natomiast ich zasygnalizowanie było konieczne w celu wskazania kierunków uzupełnień, przypadku ewentualnych kolejnych wydań tejże monografii. Podsumowując, należy wyrazić uznanie dla dużego wysiłku autorów, włożonego w przygotowanie tak obszernej, zarówno w sensie fizycznym (rozmiar książki), jak i merytorycznym (zakres poruszanych zagadnień), publikacji. Jest ona dobrze przygotowana pod względem edytorskim. Podkreślić należy, jak to już wcześniej zauważono, iż recenzowana pozycja uzupełnia dostępną literaturę z zakresu informatyki gospodarczej, stanowiąc, można powiedzieć, niezbędną pozycję w księgozbiorze każdego zainteresowanego tą tematyką. Konkludując, można stwierdzić, że recenzowana praca jest obowiązkową pozycją dla każdego studenta zainteresowanego zarówno technicznym aspektem wspomagania zarządzania produkcją, jak i zastosowaniem systemów informatycznych wspomagających zarządzanie przedsiębiorstwem. Powinna się znaleźć jako polecana pozycja w każdej bibliotece szkoły wyższej mającej w swojej ofercie studia z omawianego zakresu. 278 Problemy Zarządzania Recenzje Monografia w zamyśle autorów miała być, jak sami to trafnie sformułowali, „usystematyzowanym kompendium wiedzy z zakresu teorii i praktyki zintegrowanych systemów zarządzania”. Lektura książki pozwala stwierdzić, że cel ten udało się im w pełni zrealizować. Wypada wyrazić nadzieję, iż autorzy (w zespole lub osobno) będą kontynuować swoją pracę i wzbogacać rynek wydawniczy w tak wartościowe i przydatne, nie tylko dla studentów, pozycje. Banaszak, Z., Kłos, S. i J. Mleczko 2011. Zintegrowane systemy zarządzania, Warszawa: Polskie Wydawnictwo Ekonomiczne. vol. 10, nr 3 (38), 2012 279 Problemy Zarządzania, vol. 10, nr 3 (38): 280 – 286 ISSN 1644-9584, © Wydział Zarządzania UW Contents and Abstracts Information systems in process driven business organizations Ewa Ziemba, Iwona Obłąk The article deals with the Business Process Orientation (BPO) and information systems supporting this approach. At the beginning the Business Process (BP) concept and Business Process Management (BPM) approach are introduced. Next, the article describes main processes in organizations and information systems, which support them. Then, the BPM lifecycle is presented and information systems maintaining their steps. The important role of Business Process Management Systems (BPMS), the system designed for managing business processes, is also indicated here. This study is based on an analysis of literature, empirical experience, as well as the critical thinking and inductive inference methods. On selection criteria of management project methods Witold Chmielarz The primary goal of this study is the identification of the project management amongst traditional (heavy) and modern (agile) methods of information systems analysis and design. Recently, the approach to information systems project management is changing in fast and multidirectional ways. The classic theory of analysis and design and the current pragmatics are becoming more different. It seems that the use of agile design methods, at least partially minimize arising differences. The analysis is trying to answer the identified questions in this field and showing how to select proper method for given case of project management. 280 Problemy Zarządzania Contents and Abstracts The risk in implementation process of integrated information systems – a classification attempt in terms of barriers and actions burdened with it Tomasz Parys The main goal of this article is to show the risk and his place in implementation process of an integrated information system. The basic questions connected with the specific of the implementation project were brought closer. The definition of the risk was passed, and presented the areas of his occurrence. The principal part of this paper is an introduction of the author’s conception of classification of risk. It contains the description of individual categories in the context of all activities connected with risk. An analysis of the challenges connected with management of the electronic space by contemporary business organizations Janusz Wielki This paper relates to the issues connected with management of the electronic space in the context of growing utilization of the Internet by contemporary business organizations. The paper is composed of four parts. In the first one, a short overview of the basic aspects connected with the electronic space and its management is presented. The next two parts form the core of this paper. First, an analysis of the preventive and protecting activities connected with on-line operations, as the key element of management of the electronic space, is provided. Next, the possibilities for active influence on the electronic space, as a complementary element of its management, are presented and discussed. Finally, the most significant conclusions, suggestions and recommendations are offered. Innovative e-business models – perspectives of development Włodzimierz Szpringer In the case of innovative e-business models, the Internet is something that enables existence of such firms (e.g. search engines). In another sense, all these are innovative models that build on the progress of ICT, respond vol. 10, nr 3 (38), 2012 281 Contents and Abstracts to customer demand and thereby gain a competitive advantage. Innovation activity associates e-business models with business strategy, organization and technology. It is important to have the overall vision of the model. The close relationship of innovation in services and technology should also be noted. Innovations in services have been often studied in isolation from technology, which in the face of dynamic market changes, business, and customers may lead to misleading conclusions. Thus, a new service in an environment of new technologies may lead to the formation of new models of e-business. In the era of globalization and dynamic changes in the market the key features of e-business models should be their innovative character, flexibility, openness and generating added value for stakeholders. In the field of research, there is also an innovative approach to financing, the importance of social media, engaging users to contribute goods and services, mobile services, Cloud Computing two-(multi)-sided-business models. It is important also to take into account the convergence of devices and digitalization of content that lead to the formation of a new sector: telecommunications, services IT, media and entertainment sector – (TIME-Sector – Telecommunications, IT, Media, Entertainment). A value chain is a key concept, which defines the architecture of business models. Crowdfunding systems development – models, expectations, and circumstances Dariusz T. Dziuba The article presents the concept of internet crowdfunding – its economic and legal implications. Crowdfunding market (as a segment of electronic market) is estimated and analyzed. We present: crowdfunding definitions; typology of models and reward strategies; market characteristics and analyses of donations, loan-based and investment models, including ASSOB.com.au as the example of equity-based investment model. Special attention has been laid to the set of circumstances – benefits and limitations (economic and legal risks) related to its development, especially for investors (donators) and entrepreneurs. 282 Problemy Zarządzania Contents and Abstracts Application of rough sets to identify the behavior rules of consumer for the purposes of multi-agent simulation model Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji This paper presents the possibility of application of the rough set theory in procedure of building a multi-agent model of consumer behavior. Discussed are: multi-agent simulation, methods of gathering and processing data and rough set theory in the context of identification of market behavior rules of consumers. In addition to these, the paper presents an example of a simulation model of consumer behavior in the electrical appliances market which was built with applying the proposed research procedure. Kohonen neural networks in data analysis. A usage attempt in data mining regarding geographic regions in Poland Mirosława Lasek, Ada Myzik In the article the authors present results of analyses aimed at detecting dependencies in the collected data, their graphical presentation and interpretation with the aid of Kohonen neural network. For illustration of data analyses with Kohonen techniques, examples concerning varied restaurants and catering business objects, business entities, sport facilities in provinces of Poland are presented. Analyses were performed on simple data sets as well as on more complex sets with many observations and variables. For the purpose of data analyses and the results’ interpretation, SAS software was used. On-line services in a mobile context – a qualitative observational study Krzysztof Redlarski, Marcin Sikorski This paper presents results of an observational study aimed to identify factors affecting users’ willingness to access on-line services using mobile devices such as Smartphone, tablet or laptop. In this observational study vol. 10, nr 3 (38), 2012 283 Contents and Abstracts 7 users over 14 days were recording their on-line activity in connection to the motivating or de-motivating factors to use a specific mobile device in a particular context. As a result, four types of mobile contexts have been identified (home, travel, desktop, outside) and main types of on-line services (mail/contacts, travel planning, news, information search, shopping and entertainment). This study also helped to identify generic characteristics of typical on-line-services-related tasks, in which one of available mobile devices (Smartphone, tablet or laptop) have been preferred by users as the most convenient access point. Corporate architecture evaluation methods Małgorzata Pańkowska Architecture in Information Technology domain constitutes a synergy of science and art of design of complex structures to ensure usefulness and to control the evolution of that complexity. The paper covers presentation of standards and essential models of enterprise architecture development. In the second part of the paper the author focuses on models for assessing the architecture, including methods and models of business -IT alignment, software architecture evaluation methods and corporate architecture maturity methods. The last part of the paper includes the corporate architecture multi-criteria evaluation model. Economic effectiveness of telework implementation for IT teams in the public sector institutions Mirosław Dyczkowski The paper presents selected problems of economic effectiveness evaluation of telework implementation for IT teams in the public sector institutions. Telework is a form of employment which can be successfully used in most of IT activities and professions. In need for rationalizing constantly growing labor costs it is necessary to implement telework programs in IT teams, also in public institutions. The author presented a methodological background for a study on economic efficiency of such programs based on the Cost-Benefits Analysis (CBA). Estimates of expected benefits are based on Key Goal Indicators (KGI) and Key Performance 284 Problemy Zarządzania Contents and Abstracts Indicators (KPI) recommended in the PO7 Manage IT Human Resources process of the COBIT® 4.1 model (Control Objectives for Information and related Technology). The suggested approach is then verified on a real example for IT telework program implemented in a large public institution, and selected detailed effectiveness assessments are included in this article. Research on usability of visualization in searching information based on the ontology of an early warning system Helena Dudycz The goal of the article is introduction of research concerning evaluation of application usability of visualization semantic network built on the basis of ontology conceptualization of an early warning system. Therefore there is short description of searching information based on the visualization of semantic network. Following further there is discussed the suggestion of research method related to verification of usage topic map in the analysis of economic indicators. Introduced are the presumptions of conducted experiment and its participants. Then, there is a report and analysis of the data received. Finally, the future directions of research were identified. Repositories of the SYNAT project as a new opportunity to gain knowledge for the educational systems Jerzy Kisielnicki The paper presents the SYNAT project as a new venture to create in the country a universal, open, repositories hosting platform for networking and communication knowledge for science, education and open knowledge society, associated with the corresponding solutions in the world. This project is analyzed for its relationship with education systems in particular, e-education. Its implementation should contribute to the quality of education and thus contribute to a significant improvement in the Polish position in the European Union and the world. vol. 10, nr 3 (38), 2012 285 Contents and Abstracts Attitudes of the IT staff against employing organization as a challenge for the development of IT businesses Jerzy Rosiński Author of the article, on the basis of research data, presents the attitudes of the IT professionals towards their employing organizations. The specific attitude of the IT employees towards their companies may be characteristic for a wider group of highly specialized staff. Basic aspects of creating cognitive graphics systems Olga Pilipczuk, Dima Shamroni The article presents the term and basic assumptions of cognitive graphics concept. It also describes the importance of cognitive graphics in the development of information technology and the origins of cognitive graphics systems. Furthermore, the article presents examples of classical architecture of cognitive graphic systems and its basic modules. A special attention is given to the NovoSpark®Visualizer system, to its structure, methodology and specifics of visualization. Provided is an example of solving the problem of choice of pricing strategy by using the NovoSpark®Visualizer system. In conclusion, the prospects for the development of cognitive graphic systems and directions for further research in this field are discussed. Computer games in the organization – psychological determinants Michał Mijal The article summarizes the present state of knowledge on usage of the computer and video games in the organization and its psychological determinants. It enumerates and describes the most important aspects to consider while designing and using the computer and video games in training and indicates the most important threats for the application of the games in the didactic processes. It also suggests the main directions of further research and the most perspective areas of the further usage of the computer and video games in the organization. 286 Problemy Zarządzania INFORMACJE DLA AUTORÓW „Problemy Zarzadzania” to interdyscyplinarne pismo wydawane przez Wydział Zarządzania Uniwersytetu Warszawskiego. Każdy z numerów kwartalnika ma wcześniej określony temat przewodni. W piśmie zamieszczane są materiały o charakterze naukowym, w tym szczególnie: a) artykuły prezentujące z różnych perspektyw badawczych wszelkie problemy zarządzania i ekonomii, b) komunikaty z badań, c) recenzje książek (polskich i zagranicznych) i omówienia artykułów zamieszczonych w periodykach naukowych i branżowych. SKŁADANIE TEKSTU DO PUBLIKACJI Teksty złożone w redakcji „Problemów Zarzadzania” nie mogą być w tym samym czasie rozpatrywane pod kątem ich publikacji w redakcji innych czasopism, nie mogą być również opublikowane gdzie indziej wcześniej niż w „Problemach Zarządzania”. Złożenie tekstu do publikacji oznacza zgodę na zamieszczenie artykułu w kwartalniku w postaci drukowanej i elektronicznej. Prosimy o nadsyłanie tekstów nawiązujących do określonych przez redakcję tematów przewodnich kolejnych numerów (lista dostępna na stronie głównej pisma: www.pz.wz.uw.edu.pl). Redakcja oświadcza, że wersja papierowa jest wersją pierwotną czasopisma „Problemy Zarządzania”. Artykuły należy nadsyłać na e-mail: [email protected] i na adres: „Problemy Zarządzania” – Redakcja Wydział Zarządzania Uniwersytetu Warszawskiego ul. Szturmowa 1/3, pok. B310 02-678 Warszawa Tekst należy przesłać na adres mailowy redakcji ([email protected]. uw.edu.pl lub [email protected]) w pliku MS Word lub zgodnym (rtf) i pdf oraz 1 egzemplarz w wersji papierowej (na adres redakcji) podpisany przez Autora wraz z pisemnym oświadczeniem o nienaruszaniu praw osób trzecich (formularz oświadczenia do pobrania ze strony www.pz.wz.uw.edu.pl – Informacje dla Autorów). O zgodność wydruku i wersji elektronicznej musi zadbać Autor. W przypadku tekstów współautorskich prosimy o wyraźne zaznaczenie procentowego udziału współautorów. Należy wyraźnie wskazać, na jaki adres redakcja ma przesyłać korespondencję (w przypadku tekstów współautorskich prosimy o wskazanie osoby, do której należy kierować korespondencję). Autorzy odpowiadają za uzyskanie niezbędnych zezwoleń na publikację materiałów, do których prawa autorskie są w posiadaniu osób trzecich. Redakcja informuje, że ghostwriting oraz plagiatorstwo są przejawem nierzetelności naukowej i wszystkie wykryte przypadki będą demaskowane, włącznie z powiadomieniem odpowiednich podmiotów. Wszelkie przejawy nierzetelności naukowej, zwłaszcza łamania i naruszania etyki obowiązującej w nauce będą w redakcji dokumentowane. vol. 10, nr 3 (38), 2012 287 PROCEDURA RECENZOWANIA 1. Wszystkie nadesłane artykuły przechodzą na Kolegium przez procedurę preselekcji, do recenzji zaś zostają przesłane artykuły wyłonione w toku procedury. 2. Każdy (wyłoniony w toku preselekcji) artykuł jest recenzowany anonimowo przez dwóch niezależnych, anonimowych recenzentów. 3. Recenzja ma formę pisemną i kończy się wnioskiem recenzenta o odrzuceniu lub dopuszczeniu do publikacji (wzór arkusza recenzji na stronie: www. pz.wz.uw.edu.pl – Informacje dla Autorów). 4. Po otrzymaniu recenzji sekretarz redakcji informuje szczegółowo Autorów o uwagach recenzentów odnośnie jego artykułu oraz o ostatecznej decyzji co do publikacji. 5. Kryteria kwalifikacji lub odrzucenia tekstu: zgodność z tematem przewodnim numeru; oryginalność zastosowanej metody badawczej oraz ujęcia tematu; rzetelność przedstawienia dotychczasowych badań; jakość badań własnych (jeśli dotyczy); aktualność badań/rozważań teoretycznych; poprawność merytoryczna, metodologiczna i wnioskowania; wkład tekstu w rozwój dyscypliny; dobór literatury. 6. Redakcja nie zwraca prac, które nie zostały zakwalifikowane do druku. 7. Raz w roku redakcja umieszcza pełną listę recenzentów w numerze „4” danego roku oraz na stronach internetowych: www.pz.wz.uw.edu.pl – Strona główna. OPRACOWANIE TEKSTU A. Format tekstu Objętość tekstu nie powinna przekraczać 20 standardowych stron maszynopisu (1 strona = 1800 znaków; czcionka Times New Roman; wielkość czcionki 12; odstęp między wierszami 1,5; marginesy 2,5). W przypadku recenzji książek długość nadesłanego materiału to maksymalnie 6 stron. Wszelkie ilustracje prosimy wyraźnie oznaczać, przesyłać w osobnych plikach i zaznaczać w tekście, gdzie mają być umieszczone. Plik pdf prosimy przesyłać z zamieszczonymi w tekście ilustracjami. Prosimy o nadsyłanie tekstu w formacie MS Word lub zgodnym (rtf). Wykresy powinny być sporządzone w formacie Adobe Illustrator (ai) lub EPS, natomiast dane źródłowe do nich – w formacie Excel 3.0 (xls). Ilustracje prosimy przygotowywać w formacie Adobe Illustrator (ai) lub EPS. Wszelkie ilustracje powinny być czarno-białe. W przypadku, gdy tekst zawiera fotografie prosimy o nadesłanie ich oryginału. B. Układ tekstu Tekst powinien zawierać następujące elementy (w podanej kolejności): 1) tytuł (w języku polskim i angielskim); 2) streszczenie określające prezentowane w artykule tezy (100–200 słów) w języku polskim i angielskim; 3) podtytuły (w tym wstęp i wnioski); 4) informacje o autorze (stopień naukowy, afiliacja, e-mail); 5) przypisy; 6) bibliografia. 288 Problemy Zarządzania C. Przypisy, bibliografia, cytaty Jeśli w tekście są przypisy autora, powinny być one w miarę możliwości nieliczne i krótkie. Prosimy o umieszczanie przypisów na końcu tekstu, przed bibliografią. Bibliografia powinna zawierać wyłącznie pozycje cytowane w tekście. W każdej pozycji w bibliografii autor obowiązany jest zamieścić przypisany jej nr DOI (jeżeli taki posiada). Redakcja prosi o alfabetyczne sporządzanie not bibliograficznych w następującym formacie: 1. Publikacje książkowe: Kowalski, J. 2000. Tytuł książki, Miejsce wydania: Wydawnictwo, DOI: …… . 2. Publikacje książkowe redagowane: Kowalski, J. (red.) 2000. Tytuł książki, Miejsce wydania: Wydawnictwo, DOI: …… 3. Rozdziały w publikacjach książkowych: Kowalski, J. 2002. Tytuł rozdziału, w: Nowak J. (red.) Tytuł książki, s. 1–5. Miejsce wydania: Wydawnictwo, DOI: …… . 4. Artykuły: Kowalski, J. 2001. Tytuł artykułu. Tytuł pisma, Numer pisma, DOI: ……, s. 1–5. 5. Artykuły – wielu autorów: Kowalski, J., Nowak, J. i A. Wiśniewski. 2001. Tytuł artykułu. Tytuł pisma, Numer pisma, DOI: …… , s. 1–15. Cytat w tekście, z odwołaniem do autora, powinien mieć następującą postać: (autor rok wydania: strona), np. (Kowalski 2000: 67). D. Poprawki W przypadku konieczności dokonania poprawek lub skrótów tekst będzie zwrócony autorowi, który zobowiązany jest nanieść poprawki w terminie wskazanym przez redakcję. Redakcja zastrzega sobie możliwość wprowadzenia do tekstu drobnych poprawek i skrótów. vol. 10, nr 3 (38), 2012 289