Problemy Zarządzania 2012 nr3 - Warsaw University Digital Library

Transkrypt

Problemy Zarządzania 2012 nr3 - Warsaw University Digital Library
XZDUXQNRZDQLD]DVWRVRZDñV\VWHPöZ
LQIRUPDW\F]Q\FKZJRVSRGDUFH
YROQU
YROQU
XZDUXQNRZDQLD]DVWRVRZDñ
V\VWHPöZLQIRUPDW\F]Q\FK
ZJRVSRGDUFH
MHVLHñ
vol. 10, nr 3 (38)
uwarunkowania zastosowań
systemów informatycznych
w gospodarce
jesień 2012
Wydział Zarządzania Uniwersytet Warszawski
ISSN 1644-9584
Redakcja dr hab. prof. UW Beata Glinka, dr hab. Przemysław Hensel
Redaktor
tematyczny prof. dr hab. Witold Chmielarz
Redaktor
statystyczny prof. dr hab. Jerzy Wierzbiński
Recenzenci prof. dr hab. Witold Chmielarz
prof. dr hab. Mirosława Lasek (WNE UW)
dr hab. prof. SGGW Joanna Kisielińska
dr Tomasz Parys
Redakcja
językowa mgr Monika Sikorska, mgr Amelia Wydra
Sekretarz
redakcji mgr Anita Sosnowska
Rada
Programowa prof. Bernard Arogyaswamy (Le Moyne College, NY)
prof. dr hab. Ryszard Borowiecki (Uniwersytet Ekonomiczny, Kraków)
prof. Lothar Cerny (Cologne University of Applied Sciences)
prof. Barbara Czarniawska (Gothenburg Research Institute, Uniwersytet w Göteborgu)
prof. dr hab. Marian Gorynia (Uniwersytet Ekonomiczny, Poznań)
prof. dr hab. Stefan Kwiatkowski (Wydział Zarządzania, UW)
prof. dr hab. Krzysztof Konecki (Instytut Socjologii, Uniwersytet Łódzki)
prof. dr Slawomir Magala (Rotterdam School of Management, Erasmus University)
dr Julian Mahari (BPH Breakthrough Projects Holding AG, Szwajcaria)
prof. Jeff Michelman (University of North Florida)
prof. dr hab. Alojzy Z. Nowak – przewodniczący (Wydział Zarzadzania, UW)
prof. dr hab. Krzysztof Obłój (Wydział Zarzadzania, UW)
prof. Patrick O’Sullivan (Grenoble Bussines School, Francja)
prof. Rolf Solli (Goteborg University i Gothenburg Research Institute, Szwecja)
prof. Victor Starodubrovskij (Międzynarodowy Instytut Zarządzania, Moskwa)
prof. Jeff W. Steagall (Weber University, Uthah)
prof. dr hab. Andrzej Szumański (Wydział Prawa i Administracji, Uniwersytet Jagielloński)
prof. Ruth Taplin (University of Leicester)
prof. Janine Wedel (SPP, George Mason University)
prof. dr hab. Zofia Wysokińska (Instytut Ekonomii, Uniwersytet Łódzki)
prof. dr hab. Anna Zielińska-Głębocka (Wydział Ekonomiczny, Uniwersytet Gdański)
Adres redakcji Redakcja Problemów Zarządzania,
Szturmowa 1/3 pok. A102, 02-678 Warszawa
www.pz.wz.uw.edu.pl, [email protected]
Wydawca Wydawnictwo Naukowe Wydziału Zarządzania UW
Pismo można zaprenumerować lub nabyć pojedyncze egzemplarze, wysyłając zamówienie na e-mail:
[email protected] lub fax: (22) 5534198 z dopiskiem: Wydawnictwo Naukowe WZ.
Chęć dokonania prenumeraty można również zgłaszać telefonicznie pod numerem: (22) 5534198.
Na zamówieniu złożonym przez instytucję należy podać: nazwę instytucji zamawiającej, adres, numer NIP
oraz zgodę na wystawienie faktury bez podpisu odbiorcy.
Cena kwartalnika dla prenumeratorów 25 zł (100 zł za rok). Wysyłka niezwłocznie po ukazaniu numeru.
Cena prenumeraty zawiera koszt przesyłki.
Prenumeratorzy prywatni (nie instytucje) mogą zamawiać kwartalnik wysyłając pieniądze na konto:
Uniwersytet Warszawski Wydział Zarządzania, numer konta: 11-116022020000000060848803
z dopiskiem „zapłata za kwartalnik Problemy Zarządzania”.
Opracowanie komputerowe, druk i oprawa:
Dom Wydawniczy ELIPSA,
ul. Inflancka 15/198, 00-189 Warszawa
tel./fax 22 635 03 01, 22 635 17 85
e-mail: [email protected], www.elipsa.pl
Spis treści
Od redaktora naukowego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
Artykuły
Systemy informatyczne w organizacjach zorientowanych procesowo
Ewa Ziemba, Iwona Obłąk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
Kryteria wyboru metod zarządzania projektami informatycznymi
Witold Chmielarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
Ryzyko w projektach wdrożeniowych zintegrowanych systemów
informatycznych – próba klasyfikacji pod kątem barier
i działań nim obarczonych
Tomasz Parys . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
Analiza wyzwań związanych z zarządzaniem przestrzenią
elektroniczną przez współczesne organizacje gospodarcze
Janusz Wielki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
Innowacyjne modele e-biznesu – perspektywy rozwojowe
Włodzimierz Szpringer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
Rozwój systemów crowdfundingu – modele, oczekiwania
i uwarunkowania
Dariusz Dziuba . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
83
Zastosowanie zbiorów przybliżonych do wykrywania reguł
zachowania konsumentów na potrzeby wieloagentowego
modelu symulacyjnego
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska,
Fatimah Furaji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych.
Próba wykorzystania w eksploracji danych dotyczących
jednostek terytorialnych
Mirosława Lasek, Ada Myzik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Usługi on-line w kontekście mobilnym – jakościowe badanie
obserwacyjne
Krzysztof Redlarski, Marcin Sikorski . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Metody oceny architektur korporacyjnych
Małgorzata Pańkowska . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Efektywność ekonomiczna wdrażania telepracy w zespołach
informatycznych na przykładzie instytucji sektora publicznego
Mirosław Dyczkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Badanie użyteczności wizualizacji w semantycznym
wyszukiwaniu informacji, oparte na ontologii
wielowymiarowego systemu wczesnego ostrzegania
Helena Dudycz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania
wiedzy dla systemów edukacyjnych
Jerzy Kisielnicki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
Postawy pracowników branży IT wobec zatrudniających organizacji
jako wyzwanie dla rozwoju firm informatycznych
Jerzy Rosiński . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
Olga Pilipczuk, Dima Shamroni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Gry komputerowe w organizacji – uwarunkowania psychologiczne
Michał Mijal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Recenzje
Recenzja książki Janusza Wielkiego Modele wpływu przestrzeni
elektronicznej na organizacje gospodarcze
Witold Chmielarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
Recenzja książki Zbigniewa Banaszaka, Sławomira Kłosa,
Janusza Mleczko Zintegrowane systemy zarządzania
Tomasz Parys . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
Contents and Abstracts . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
280
Problemy Zarządzania, vol. 10, nr 3 (38): 5 – 7
ISSN 1644-9584, © Wydział Zarządzania UW
Od redaktora naukowego
Informatyka ekonomiczna określana jest na ogół jako ta część dyscypliny
naukowej informatyki, która precyzuje zasady metodyczne i pragmatyczne
zastosowania systemów informatycznych w organizacjach gospodarczych.
Precyzując, to nauka, która spaja metody, środki i cele biznesowe za pomocą
systemów i sieci informacyjnych na potrzeby użytkowników finalnych tych
organizacji.
Dlatego, znajdując się na pograniczu i przecięciu różnych nauk (informatyki, ekonomii, zarządzania, finansów, socjologii i psychologii), podlega
istotnym ograniczeniom i uwarunkowaniom. Wpływają one bezpośrednio
nie tylko na kształt ostateczny implementowanych rozwiązań technologii
informacyjnych, ale także na ekonomiczne skutki tych zastosowań. Ponadto
projektowanie, tworzenie, modyfikacje i wdrażanie systemów informatycznych przebiega według określonych schematów i procedur. Ich cechą szczególną jest zmienność i dostosowywanie się do dynamicznie ewoluujących
warunków technicznych i organizacyjnych. A na to wszystko nakładają się
też krańcowo zróżnicowane warunki gospodarcze, w których przychodzi im
działać, oraz rosnąca świadomość ostatecznego użytkownika (klienta) coraz
bardziej obciążonego rosnącymi wymogami profesjonalnej obsługi systemów.
Rozwój informatyki ekonomicznej miał bowiem zawsze dwa przeciwstawne trendy. Z jednej strony sprawiał, że systemy informatyczne sytuowano
coraz bliżej klienta – były coraz bardziej przyjazne, użyteczne, łatwe w obsłudze itp., a z drugiej strony systemy służyły do obsługi coraz bardziej skomplikowanych problemów zarządzania powstających w organizacjach – przewidywania możliwych strategii rozwoju, wykorzystania najlepszych praktyk
biznesowych itp. – co z kolei komplikowało ich profesjonalne wykorzystanie
na potrzeby użytkownika. Takich sprzeczności w zastosowaniach systemów
informatycznych, wynikających z konieczności uwzględnienia w zastosowaniach systemów problemów związanych z wykorzystaniem nieobliczalnego
czynnika ludzkiego i niepewnych, czasem nie do końca sprawdzonych technologii, jest oczywiście więcej i stanowią w innej płaszczyźnie też swego
rodzaju czynniki warunkujące zastosowania systemów informatycznych.
Kolejnym obszarem rozważań w tym zakresie jest opłacalność tych zastosowań. Pomimo upływu wielu lat, w czasie których wykorzystywano systemy
informatyczne do wspomagania zarządzania, nikt jeszcze nie wymyślił metodyki pomiaru efektywności na tyle sprawdzonej i adekwatnej do rodzaju
zastosowań, żeby była w pełni wiarygodna. I tak można by wyliczać niemal
w nieskończoność.
vol. 10, nr 3 (38), 2012
5
Od redaktora naukowego
Jak widać na powyższych przykładach, próba podejścia do pełnego przeglądu wszystkich problemów związanych z uwarunkowaniami zastosowań
systemów informatycznych w organizacji musiałaby się skończyć niepowodzeniem. Dlatego przedstawiony w niniejszym numerze Problemów Zarządzania
zbiór artykułów naukowych też tego tematu nie wyczerpuje. Niemniej jednak
pozwala on na wyodrębnienie kilku najistotniejszych trendów w identyfikacji
i przezwyciężaniu problemów wynikających z różnego rodzaju uwarunkowań
zastosowania systemów informatycznych w zarządzaniu.
Pierwsze trzy artykuły nawiązują do uwarunkowań metodyczno-organizacyjnych projektowania systemów informatycznych, związanych z procesowym podejściem do tworzenia systemów, wyborem adekwatnej metodyki do
obsługi określonego projektu oraz problemów pokonywania lub ograniczania
ryzyka związanego z realizacją projektów informatycznych.
Kolejna część numeru dotyczy uwarunkowań związanych z wykorzystaniem systemów informatycznych w przestrzeni elektronicznej, szczególnie
w przypadku gwałtownych zmian innowacyjnych, i skutków oraz oddziaływań
przestrzeni elektronicznej na użytkownika.
Istotnym ograniczeniem zastosowań systemów informatycznych był
zawsze również stopień komplikacji projektów realizowanych za pomocą
systemów informatycznych. W przypadku zadań złożonych, nieliniowych,
probabilistycznych, niepewnych itp. nie istnieją takie metody, o których
z całą pewnością moglibyśmy powiedzieć, że dokładnie odzwierciedlają
rozwiązanie. Albo jest to kwestią czasu lub liczby iteracji, które trzeba
wykonać, aby uzyskać kolejny, coraz bardziej przybliżony do rzeczywistości
wynik. A w podejmowaniu decyzji czas jest często bardziej istotny od jakości
wyniku. Toteż w obecnym numerze znalazły się dwa artykuły zmniejszające
w szczególnych przypadkach niektóre z tych ograniczeń – za pomocą sieci
neuronowych czy zbiorów przybliżonych.
Następne cztery artykuły poświęcono kwestiom oceny systemów informatycznych od strony jakości, użyteczności i efektywności ekonomicznej
z punktu widzenia użytkownika końcowego: dla usług mobilnych, dla architektur korporacyjnych, dla wdrażania telepracy w zespołach informatycznych
oraz wyszukiwania informacji bazującej na ontologii wielowymiarowego systemu wczesnego ostrzegania.
Aspekty teoretyczne i praktyczne uwarunkowań związanych z tworzeniem
platform informacyjnych pozyskiwania wiedzy dla systemów edukacyjnych
stanowią kanwę jednego z następnych artykułów zawartych w publikacji.
Ostatnie trzy artykuły przedstawiają uwarunkowania związane z czynnikiem ludzkim w organizacji: badania postaw pracowników IT wobec pracodawców, aspekty tworzenia i wykorzystania grafiki kognitywnej (automatyzującej, przynajmniej częściowo, procesy poznawcze użytkownika) czy
wreszcie psychologiczne aspekty stosowania gier komputerowych do szkoleń
w organizacji.
6
Problemy Zarządzania
Od redaktora naukowego
Zestaw przedstawionych uwarunkowań, które udało się przedstawić, jest
więc, jak widać, wbrew początkowym zastrzeżeniom, stosunkowo szeroki
i zróżnicowany. Pozostaje mieć nadzieję, że każdy czytelnik z tak szerokiego
wachlarza tematów będzie mógł wybrać dla siebie coś, co go głęboko zainteresuje i zachęci do podjęcia dalszych badań w tym kierunku.
Wydaje się jednak, że tak obszerny zakres omawianych zagadnień pozwoli
czytelnikowi poznać istotę uwarunkowań zastosowania systemów informatycznych w gospodarce i zrozumieć złożoność problemów, przed którymi stoi
informatyka ekonomiczna. W tym miejscu wypada też podziękować autorom
za nadesłanie interesujących tekstów – nie tylko tych, które złożyły się na
tę publikację, ale również tych, które wbrew moim intencjom w niniejszym
numerze niestety się nie zmieściły. Dziękuję też recenzentom, których cenne
uwagi przyczyniły się do dokonanego wyboru oraz podniesienia i tak wysokiej jakości merytorycznej niniejszej publikacji, której ostateczną weryfikacją
będzie zainteresowanie czytelników.
W imieniu Redakcji
prof. dr hab. Witold Chmielarz
vol. 10, nr 3 (38), 2012
7
Problemy Zarządzania, vol. 10, nr 3 (38): 8 – 24
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.1
Systemy informatyczne
w organizacjach zorientowanych procesowo
Ewa Ziemba, Iwona Obłąk
Artykuł opisuje podejście procesowe w organizacjach (Business Process
Orientation – BPO) oraz systemy informatyczne wspomagające jego realizację.
Na wstępie scharakteryzowano procesy biznesowe oraz koncepcję zarządzania
procesami biznesowymi (Business Process Management – BPM). Następnie
zaprezentowano systemy informatyczne wspomagające główne procesy w organizacji oraz poszczególne etapy cyklu życia zarządzania procesami biznesowymi
(BPM Lifecycle). Wskazano również na istotną rolę systemów zarządzania
procesami biznesowymi (Business Process Management Systems – systemy
BPM). Badania zostały przeprowadzone na podstawie analizy literatury,
doświadczeń empirycznych, a także konstruktywnego myślenia i indukcyjnych
metod wnioskowania.
1. Wprowadzenie
Od kilku lat wysiłki projektantów systemów informatycznych skupione
są na integracji trzech poziomów architektury systemów, a mianowicie:
koncepcji biznesu, procesów biznesowych i systemów aplikacji użytkowych
(Kasprzak 2000). Wynika to z faktu, iż firmy, które dążą do poprawy sposobu
funkcjonowania, muszą zacząć wykorzystywać technologie informatyczne
do przeprojektowania procesów biznesowych (Davenport i Short 1990).
Obecnie, coraz więcej procesów biznesowych realizowanych w organizacjach
może być wspieranych przez systemy informatyczne. Niejednokrotnie procesy
biznesowe mogą być wykonywane automatycznie, bez konieczności ludzkiej
ingerencji. Niestety, w praktyce w wielu organizacjach brakuje spójności
pomiędzy funkcjonalnością wdrożonych systemów informatycznych a procesami biznesowymi, których realizacja powinna być wspierana. Konieczna
jest zatem identyfikacja procesów biznesowych i etapów zarządzania nimi,
które z powodzeniem mogą być wspierane przez systemy informatyczne,
a także identyfikacja i wdrożenie adekwatnych systemów informatycznych.
Nabiera to istotnego znaczenia w kontekście ostatnich debat naukowych
dotyczących zarządzania procesami biznesowymi, łączącego nauki o zarządzaniu i technologie informatyczne (Kirchmer 2009).
8
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
Wdrażanie systemów informatycznych wspomagających zarządzanie
procesami biznesowymi stanowi nieodłączny element podejścia procesowego (Business Process Orientation – BPO) w organizacjach (Cieśliński
2011). Takie podejście wpływa zwłaszcza na zarządzanie jakością, informacją i efektywnością. W następstwie przyczynia się to do poprawy sytuacji
biznesowej organizacji, umożliwiając dostarczanie na rynek towarów i usług
o wymaganej funkcjonalności i jakości, w konkurencyjnych cenach i krótkim
terminie realizacji.
Niniejszy artykuł poświęcony jest systemom informatycznym w organizacjach zorientowanych procesowo. Na wstępie scharakteryzowano organizację zorientowaną procesowo. Następnie przedstawiono koncepcję zarządzania procesami biznesowymi (Business Process Management – BPM) oraz
różne kategorie procesów biznesowych. W dalszej części zaprezentowano
systemy informatyczne wspomagające procesy biznesowe w organizacji oraz
etapy cyklu życia zarządzania procesami biznesowymi (BPM Lifecycle).
Wskazano również istotną rolę systemów zarządzania procesami biznesowymi (Business Process Management Systems – systemy BPM) oraz
wybrane elementy wdrażania systemów informatycznych w organizacjach
zorientowanych procesowo.
Zaprezentowane wyniki mogą być przydatne dla menedżerów, analityków biznesowych i specjalistów z zakresu planowania i wdrażania systemów
informatycznych w organizacjach zorientowanych procesowo. Artykuł jest
wprowadzeniem do dalszych badań dotyczących informatycznych systemów
zarządzania procesami biznesowymi w organizacji.
2. Metodologia badań
Celem badań było zidentyfikowanie systemów informatycznych wspomagających procesy biznesowe organizacji oraz poszczególne etapy cyklu życia
zarządzania procesami. Realizacja celu wymagała badań o charakterze
poznawczym i utylitarnym. Wykorzystano analizę literatury, doświadczenia empiryczne w modelowaniu i wdrażaniu systemów informatycznych
wspomagających procesy biznesowe oraz indukcyjne metody wnioskowania.
Badania przeprowadzono w ramach projektu „Opracowanie systemowego
podejścia do zrównoważonego rozwoju społeczeństwa informacyjnego – na
przykładzie Polski” finansowanego z środków Narodowego Centrum Nauki,
2011/01/B/HS4/00974, 2011–2014.
vol. 10, nr 3 (38), 2012
9
Ewa Ziemba, Iwona Obłąk
3. Wyniki badań teoretycznych na temat
organizacji zorientowanej procesowo
3.1. Procesy biznesowe
i organizacja zorientowana procesowo
Z chwilą rozpowszechnienia definicji podejścia procesowego stało się
jasne, że jest ono pożądanym lub nawet koniecznym sposobem zarządzania organizacją (Durlik 1998). Przewaga konkurencyjna organizacji zorientowanych na procesy biznesowe stała się dostrzegalna. Wysunięte zostało
nawet stwierdzenie, że organizacja do realizacji swoich celów powinna być
zaprojektowana z uwzględnieniem procesów biznesowych. Podyktowane
jest to potrzebą spojrzenia ponad granice funkcjonalne organizacji, aby
zrozumieć poszczególne procesy i sposób, w jaki organizacja rzeczywiście
funkcjonuje. BPO wymusza myślenie zorientowane na procesy, natomiast
pomija obowiązującą hierarchię w organizacji (McCormack 1999). Jednocześnie nie wyklucza orientacji funkcjonalnej organizacji, czyli podziału na
działy funkcyjne. W praktyce, te dwie orientacje uzupełniają się wzajemnie
i umożliwiają efektywniejsze funkcjonowanie organizacji.
Pojęcie BPO zostało wprowadzone przez takich autorów jak Harrington
(1991), Davenport (1993), jak również Hammer i Champy (1994). Bazuje
ono na procesach biznesowych, które definiuje się, jako grupę powiązanych
działań, wymagającą na wejściu wkładu i dającą na wyjściu rezultat, który ma
pewną wartość dla klienta (Hammer i Champy 1994). Proces biznesowy jest
również definiowany jako przeprowadzanie działań w określonej kolejności,
w danym miejscu i czasie, o określonym początku i końcu oraz z oznaczonymi
punktami wejścia i wyjścia (Davenport 1993). Proces biznesowy może być
ograniczony do jednego działu organizacji, ale również może kompleksowo
obejmować kilka działów, włączając w to ich relacje z klientami biznesowymi.
Uważa się również, że proces to zbiór czynności przebiegających równolegle,
warunkowo lub sekwencyjnie, prowadzący do zmian zasobów organizacji
na wejściu, w efekty końcowe w postaci produktu lub usługi (Perechuda
2000). Każdy proces biznesowy wymaga: elementów wejścia, takich jak dane
i informacje, aby móc stworzyć elementy wyjścia, takie jak: przetworzone
informacje i wiedza. Tworzy kompleksowy łańcuch działań zaprojektowany
w sposób zwracający oczekiwane wyniki (Silver 2006). Proces biznesowy jest
również definiowany jako powtarzający się cykl, którego celem jest osiągnięcie korzyści biznesowych (Debevoise 2005). Jest oczywiste, że przemiana, jaka
w nim występuje, powinna dodać wartości elementom wejściowym i stworzyć
elementy wyjściowe, które będą posiadały cechy przydatne dla odbiorcy
(Johansson i in. 1993; Lindsay, Downs i Lunn 2003). Proces biznesowy jest
również rozpatrywany, jako element integrujący pracowników organizacji
i zasoby organizacji, jakimi są systemy informatyczne. Ten rodzaj współpracy pozwala na osiąganie celów w sposób sprawny i skuteczny, zwłaszcza
gdy systemy informacyjne są dobrze dostosowane do potrzeb organizacji.
10
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
Konkludując, w niniejszym artykule proces będzie rozumiany jako skoordynowana, logicznie ułożona sekwencja działań, która dzięki zaplanowanym
przekształceniom zwraca oczekiwany rezultat.
Procesy biznesowe oraz podejście procesowe są nieodłącznie sprzężone
z pojęciem zarządzania procesami biznesowymi (Business Process Management – BPM). Relację tę przedstawiono na rysunku 1. Wszystkie pokazane
tam elementy tworzą ekstensję organizacji zorientowanej procesowo.
BPO
BPM
Struktura
procesu
Zarządzanie
Kultura
procesu
Optymalizacja
Procesy biznesowe
Wdrażanie
Modelowanie
Rys. 1. Elementy organizacji zorientowanej procesowo. Źródło: A. Van Looy, M. De Backer
i G. Poels 2010. Which Maturity is Being Measured? A Classification of Business Process
Maturity Models, Eindhoven: 5th SIKS/BENAIS Conference on Enterprice Information Systems.
BPO przedstawia szeroko rozumiane podejście procesowe w organizacji,
reprezentowane przez strukturę i kulturę procesu. BPM zarządza i optymalizuje poszczególne procesy biznesowe (Jeston i Nelis 2008). Proces biznesowy
jest modelowany i wdrażany w ramach BPM, co pozwala lepiej zrozumieć
powiązania w samych procesach, jak również pomiędzy poszczególnymi procesami. Te aspekty są szerzej rozwinięte w dalszej części artykułu.
3.2. Zarządzanie procesami biznesowymi
BPM jest zbiorem koncepcji, metod i technik wspierających zarządzanie
administracją, konfiguracją i analizą procesów biznesowych (Weske 2007;
Zairi 1997; Smith i Finger 2003; Rudden 2007). BPM określa również zarządzanie procesami biznesowymi organizacji przez zastosowanie metod, technik
i narzędzi do projektowania i analizy procesów biznesowych, wykorzystując
zasoby ludzkie, zasoby organizacji, aplikacje, dokumenty i inne źródła informacji (Van Der Aalst, Hofstede i Weske 2003: 1–12; Gartner Research 2011).
BPM można zaprezentować jako cykl zawierający określone kroki, które
odpowiednio realizowane w znacznym stopniu podnoszą jakość procesów biznesowych w organizacji (Debevoise 2005; Keen i in. 2006; Vonderheide-Liem
i Pate 2004). W literaturze jest to opisywane jako cykl życia BPM (BPM Life
Cycle), który składa się z trzech faz: modelowania procesów biznesowych,
wykonania procesów biznesowych i monitorowania procesów biznesowych
(Schumm, Leymann i Streule 2010: 131–142). Inni autorzy przedstawiają
vol. 10, nr 3 (38), 2012
11
Ewa Ziemba, Iwona Obłąk
cykl życia BPM w czterech fazach: projektowanie (modelowanie), wdrażanie,
zatwierdzanie oraz analiza (Muehlen i Rosemann 2004). Istnieje również
bardziej rozbudowany model cyklu życia BPM, składający się z pięciu faz
(Pourshahid i in. 2009). Model ten jest zaprezentowany na rysunku 2.
Ulepszanie
Monitorowanie
i zarządzanie
wydajnością
Wdrożenie
i wykonanie
Odkrywanie
i modelowanie
Walidacja
i symulacja
Rys. 2. Cykl życia BPM. Źródło: A. Pourshahid, D. Amyot, L. Peyton, S. Ghanavati, P. Chen,
M. Weiss i A.J. Forster 2009. Business Process Management with the User Requirements
Notation. Electronic Commerce Research, nr 4 (9), s. 269–316.
Cykl życia BPM rozpoczyna się fazą odkrywania i modelowania. Następnie proces biznesowy jest walidowany i przeprowadzana jest jego symulacja.
Kolejną fazą jest wdrożenie procesu biznesowego, a następnie monitorowanie i zarządzanie jego wydajnością. Ostatnią fazą cyklu życia BPM jest
ciągłe udoskonalanie procesu biznesowego. Stanowi ona jednocześnie fazę,
w której powstają pomysły i innowacje, które należy odkryć i zamodelować.
3.3. Rodzaje procesów biznesowych w organizacji
Procesy biznesowe organizacji są dzielone na główne procesy, które są
kluczowe dla działalności organizacji, oraz procesy wspomagające, które
wspierają realizację głównych procesów (Brilman 2002). Główne procesy biznesowe są zazwyczaj bezpośrednio związane z klientami biznesowymi i rozpoczynają się wraz z nawiązaniem kontaktu z klientem, a kończą na zawarciu
transakcji. Procesy wspomagające specjalizują się w określonym rodzaju
działań pozwalających na dostarczanie produktów i usług (Repa 2011).
W praktyce identyfikacja procesów głównych poprzedza definicję procesów wspomagających, które nie są kluczowe dla prowadzenia działalności
organizacji, ale uzupełniają ich funkcjonowanie (Hernaus 2008). Nie wszystkie procesy są równie istotne dla prowadzonej działalności organizacji. Każda
organizacja powinna opracować mapę swoich procesów, aby zdefiniować te,
12
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
które mają krytyczne znaczenie dla osiągnięcia korzyści w danym momencie
(Brilman 2002). Mapa procesów pomaga koncentrować zasoby wokół procesów najistotniejszych, które generują zyski oraz tworzą wartość dodaną.
International Benchmarking Clearinghouse (1996) definiuje sześć
głównych procesów (operating processess) i siedem procesów wspierających
(management and support processes). Główne procesy, reprezentujące operacyjną działalność organizacji, określane są jako: rozumienie rynków i klientów, opracowanie wizji i strategii, wytwarzanie produktów i usług, marketing i sprzedaż, produkcja i dostawy w przedsiębiorstwach produkcyjnych
lub produkcja i dostawy w przedsiębiorstwach usługowych, fakturowanie
i obsługa klientów. Wspomagające procesy, odpowiedzialne za strategiczną
działalność organizacji to: zarządzanie zasobami ludzkimi, zarządzanie zasobami informacyjnymi, zarządzanie zasobami finansowymi i materialnymi,
wdrażanie programów środowiskowych, zarządzanie relacjami zewnętrznymi,
zarządzanie doskonaleniem i zmianą.
Inną klasyfikację procesów w organizacji prezentuje Grajewski (2007),
wyróżniając: procesy główne, procesy pomocnicze i procesy zabezpieczające. Głównymi procesami są: rozwój produktu, obsługa klienta, strategia
i zarządzanie, zarządzanie zaopatrzeniem, planowanie, proces produkcji,
rozwój kardy, zarządzanie finansami. Procesami pomocniczymi są remonty,
inwestycje, zarządzanie środkami trwałymi. Procesami zabezpieczającymi są
zabezpieczenie jakości i controlling operacyjny.
W niniejszym artykule procesy biznesowe są identyfikowane w celu zdefiniowania całościowej struktury procesowej organizacji i wykazania, w jakim
stopniu poszczególne procesy biznesowe mogą i powinny być wspierane
przez systemy informatyczne. W tym celu procesy z obu przedstawionych
wyżej klasyfikacji zostały porównane, a wynikiem jest klasyfikacja biorącą
pod uwagę wszystkie procesy, jakie mogą wystąpić w organizacji i jakie mogą
być wspomagane systemami informatycznymi. Procesy biznesowe, które
mają taki sam lub zbliżony charakter, zostały zastąpione jednym pojęciem.
W rezultacie otrzymujemy jedenaście procesów biznesowych:
– strategia i zarządzanie,
– zarządzanie zasobami informacyjnymi,
– zarządzanie zasobami ludzkimi,
– zarządzanie zasobami finansowymi i materialnymi,
– zarządzanie relacjami zewnętrznymi,
– zarządzanie doskonaleniem i zmianą,
– planowanie, rozwój produktów i usług,
– proces produkcji,
– zarządzanie zaopatrzeniem,
– marketing,
– sprzedaż.
Zaprezentowana klasyfikacja procesów stanowi podstawę dalszych rozważań zaprezentowanych w artykule.
vol. 10, nr 3 (38), 2012
13
Ewa Ziemba, Iwona Obłąk
4. Wyniki badań empirycznych
– identyfikacja systemów informatycznych
na potrzeby organizacji zorientowanej procesowo
4.1. Systemy informatyczne wspomagające
etapy zarządzania procesami biznesowymi
Jak zauważają Davenport i Short (1990), mimo iż procesy biznesowe
i systemy informatyczne tworzą wzajemne relacje, w rzeczywistości związki
między nimi nie zostały jeszcze w pełni wykorzystane. Z jednej strony
oczekuje się, że zarządzanie organizacją będzie miało wpływ na budowę
systemów informatycznych w kontekście procesów biznesowych. Z drugiej
jednak strony szybko postępująca komputeryzacja i eksploatacja nowych
technologii informatycznych dostarcza możliwości, które również wpływają
na rozwój procesów biznesowych. Tak więc zarówno procesy biznesowe
wprowadzają zmiany w systemach informatycznych, jak i systemy informatyczne usprawniają funkcjonowanie procesów biznesowych. Wpisuje się to
w fazę doskonalenia procesów biznesowych, która – napędzana ciągłymi
zmianami – w długofalowej perspektywie nigdy się nie skończy.
Organizacje zorientowane procesowo powinny w głównej mierze skoncentrować się na systemach dedykowanych do wspierania procesów biznesowych,
takich jak systemy zarządzania procesami biznesowymi (Business Proces
Management Systems – systemy BPM) (Winn i Thwe Oo 2011). Systemy
BPM stanowią nową klasę systemów informatycznych, które wykorzystują
bazy danych oraz inne systemy informatyczne do realizacji procesów biznesowych. Systemy BPM integrują technologię informatyczną z zarządzaniem
procesami biznesowymi, wspomagając użytkowników we wdrożeniu sekwencji działań składających się na określony proces. Systemy te stosowane są do
definiowania i modelowania głównych procesów organizacji, które są realizowane przekrojowo, przechodząc przez poszczególne działy funkcjonalne organizacji. Systemy BPM swoim zakresem działania obejmują całość organizacji.
W ramach systemów BPM, które w całości koordynują przebieg procesu,
włączane są również procesy działów funkcyjnych, które są wspierane przez
systemy informatyczne dostosowane do profilu ich działalności, takie jak:
systemy zarządzania zasobami przedsiębiorstwa (Enterprise Resource Planning – ERP), systemy planowania zasobów produkcyjnych (Manufacturing
Resource Planning II – MRPII), systemy zarządzania relacjami z klientami
(Customer Relationship Management – CRM), systemy zarządzania łańcuchem dostaw (Supply Chain Management – SCM), systemy zarządzania
jakością (Quality Management System – QMS), systemy komputerowego
wspomagania projektowania (Computer Aided Design – CAD), systemy
realizacji produkcji ((Manufacturing Execution System – MES) oraz system
zaawansowanego planowania i harmonogramowania produkcji (Advanced
Planning and Scheduling Tools – APS). Wymienione systemy swoim zakresem obejmują procesy w określonym obszarze funkcyjnym organizacji.
14
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
Systemy ERP składają się z modułów, z których każdy odpowiedzialny
jest za inny obszar funkcjonalny, np. zarządzanie finansami, zarządzanie
kadrami, zarządzanie magazynem, zarządzanie planowaniem. Moduły są
zintegrowane i zapewniają wzajemny przepływ danych między sobą, co
umożliwia realizację procesów biznesowych, np. począwszy od planowania
produktu, zakupu części, kontrolowania stanów magazynowych, dostarczenia
produktu, po monitorowanie złożonych zamówień (Umble, Haft i Umble
2003). Systemy ERP odpowiadają za skuteczne planowanie wszystkich zasobów organizacji (Feng 2000). Systemy CRM są systemami dedykowanymi
do zarządzania kontaktami z istniejącymi oraz potencjalnymi klientami
(Richards i Jones2008). Systemy SCM wspomagają zarządzanie łańcuchem
dostaw, zezwalając na koordynowanie współpracy między organizacjami,
dostawcami, producentami, dystrybutorami i partnerami biznesowymi (Ketchen i Giunipero 2004). Systemy QMS zarządzają jakością przez kontrolę
procesów w celu sprawdzania ich skuteczności i efektywności działania
(Van der Wiele, Dale i Williams 2000). Systemy CAD wykorzystują technologię informatyczną w procesie projektowania produktów i tworzenia
dokumentacji projektowej. Pozwalają na wykonanie rysunków, obliczeń
i przeprowadzenie symulacji zachowań konstruowanych elementów, tym
samym umożliwiając inżynierom i architektom tworzenie rozbudowanych
trójwymiarowych modeli produktów (Hammond 1986; Hirz, Harrich i Rossbacher 2011). Systemy MES i APS obsługują warstwy planowania i sterowania wykonawczego procesu produkcji. Stanowią łącze między systemami
ERP i MRP II a linią produkcyjną, tworząc zintegrowane rozwiązanie,
obsługujące komputerowo wspomagane planowanie i sterowanie procesów
produkcyjnych (Klonowski 2004).
Warto również nadmienić, że poza wymienionymi systemami istnieją
takie systemy, jak: Business Intelligence (BI), Business Activity Monitoring
(BAM), Enterprise Application Integration (EAI) oraz Business Service
Management (BSM). Systemy BI zostały stworzone, aby gromadzić, przechowywać, analizować i udostępniać dane w celu wspierania procesów decyzyjnych oraz wspomagania w podejmowaniu decyzji biznesowych (Olszak
i Ziemba 2007; Januszewski 2008). Systemy BAM monitorują bieżącą
aktywność organizacji, wyznaczając wskaźniki i punkty kontrolne, których
przekroczenie jest komunikowane użytkownikowi systemu. Nieustanne
monitorowanie i kontrolowanie statusu wykonywanych procesów wpływa
na redukcję ryzyka, wzrost rentowności oraz optymalizację wydajności organizacji (Dresner 2003: 4–7; Gartner Research 2005). Systemy EAI integrują istniejące systemy organizacji w jedną wspólną aplikację (Urlich 2001;
Mantzana i Themistocleous 2006). Systemy BSM wspomagają zarządzanie
zależnościami między klientami biznesowymi a celami organizacji.
Obecnie na rynku są również dostępne systemy klasy Business Process
Intelligence (BPI), stanowiące połączenie systemów BI i systemów BPM.
Reprezentują one nowe podejście do systemów BI, łącząc analizę danych
vol. 10, nr 3 (38), 2012
15
Ewa Ziemba, Iwona Obłąk
z podejściem procesowym (Kimball i Ross 2002). Zaprezentowany rodzaj
korelacji oraz tworzenie hybrydowych systemów staje się popularne ze
względu na korzyści.
Wymienione systemy nie wyczerpują listy systemów informatycznych prezentowanych w literaturze i dostępnych na rynku, jednak są najbardziej
istotne z punktu widzenia organizacji zorientowanej procesowo (Sattarova
2009). Systemy informatyczne są bezpośrednio powiązane z fazami cyklu
życia BPM. Systemy CAD oraz systemy BI w znacznej części wspierają
fazę odkrywania i modelowania, jak to zostało zaprezentowane na rysunku
3. Systemy BI uczestniczą również w fazie walidacji i symulacji. Systemy
EAI, integrujące systemy organizacji, występują w trzech fazach: walidacja i symulacja, wdrożenie i wykonanie oraz monitorowanie i zarządzanie
wydajnością. Systemy ERP, MRP II, CRM, SCM, MES, APS wspomagają
realizację dwóch faz cyklu BPM: wdrożenie i wykonanie oraz monitorowanie
i zarządzanie wydajnością. Systemy QMS, odpowiedzialne za zarządzanie
jakością zawierają się w fazie udoskonalania. Systemy BAM wspierają realizację faz monitorowania i zarządzania jakością. Systemy BSM w głównej
mierze obsługują fazy monitorowania i zarządzania wydajnością, jak też
fazę udoskonalania. Cały cykl życia BPM, obejmując wszystkie jego fazy
jest zarządzany przez systemy BPM.
QMS, BSM
Ulepszanie
ERP, MRPII, CRM,
SCM, BI, BAM, EAI,
BSM, MES, APS
CAD, BI
Monitorowanie
i zarządzanie
wydajnością
Wdrożenie
i wykonanie
ERP, MRPII, CRM,
SCM, EAI,
MES, APS
BPM
Odkrywanie
i modelowanie
Walidacja
i symulacja
BI, EAI
Rys. 3. Systemy informatyczne wspierające cykl życia BPM. Źródło: opracowanie własne.
16
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
4.2. Systemy informatyczne
wspomagające procesy biznesowe
Systemy BPM są niezbędne w organizacjach zorientowanych procesowo,
a zakres ich funkcjonalności powinien być dostosowany do profilu organizacji, a szczególnie procesów, które są w niej realizowane. Procesy biznesowe
w organizacji i systemy informatyczne je wspierające są zaprezentowane
w tabeli 1.
Procesy biznesowe w organizacji
Systemy informatyczne
Strategia i zarządzanie
BAM, BI
Zarządzanie zasobami informacyjnymi
BAM, EAI
Zarządzanie zasobami ludzkimi
ERP
Zarządzanie zasobami finansowymi i materialnymi
ERP
Zarządzanie relacjami zewnętrznymi
BSM, EAI
Zarządzanie doskonaleniem i zmianą
QMS
Planowanie
BI, ERP
Rozwój produktów i usług
BI, CAD
Proces produkcji
ERP, MRP II, MES, APS
Zarządzanie zaopatrzeniem
SCM
Marketing i sprzedaż
CRM, BI, ERP
Tab. 1. Systemy informatyczne wspierające procesy biznesowe organizacji. Źródło:
opracowanie własne.
Jednym z najważniejszych procesów organizacji jest tworzenie strategii
i zarządzanie. Wspierane jest to przez bieżące analizy i raporty dostarczane
przez systemy BI, stanowiące podstawę planowania strategicznego. Jednym
z głównych założeń systemów BI jest wspomaganie procesów podejmowania
decyzji, co idealnie wpasowuje się w ten proces. Systemy BI są także obecne
w dwóch innych procesach odpowiedzialnych za planowanie i rozwój produktów i usług. W obu procesach systemy BI dostarczają raportów, symulacji i prognoz, na podstawie których podejmowane są decyzje co do dalszych działań.
Systemy BAM odpowiedzialne za analizę wskaźników bieżącej działalności i dostarczanie aktualnej informacji, kreują całościowy obraz kondycji
organizacji. Wraz z systemami EAI wspierają proces zarządzania zasobami
informacyjnymi. W tym procesie systemy EAI scalają napływające z różnych
systemów informatycznych informacje w czytelny obraz oraz kontrolują prawidłowy przepływ procesu. Kontrola wskaźników udostępnianych dzięki systemom BAM wykorzystywana jest również w procesie strategii i zarządzania.
vol. 10, nr 3 (38), 2012
17
Ewa Ziemba, Iwona Obłąk
Systemy ERP, a zwłaszcza ich moduł kadrowy wspiera proces zarządzania
zasobami ludzkimi i kapitałem ludzkim. Moduł kadrowy utrzymuje wszystkie
informacje dotyczące pracowników istotne z punktu widzenia organizacji,
takie jak: dane kontaktowe, informacje o wynagrodzeniach, oceny wydajności i zakresy kompetencji pracowników. Zarządza procesem rekrutacji,
zaczynając od definiowania potrzeb odnośnie zatrudnienia, a kończąc na
planowaniu potrzeb szkoleniowych poszczególnych pracowników.
Moduł finansowy systemów ERP odpowiedzialny jest za proces zarządzania zasobami finansowymi. Jest on uważany za kluczowy ze względu na
rejestrowanie danych finansowych organizacji. Moduł finansowy gromadzi
informacje finansowe dotyczące wszystkich działów organizacji i przedstawia
sytuację finansową w postaci raportów i sprawozdań.
Proces zarządzania relacjami zewnętrznymi realizowany jest przy wsparciu systemów BSM i EAI. Systemy BSM koordynują proces zarządzania
relacjami z kontrahentami na zewnątrz i wewnątrz organizacji, wpływają
na jakość obsługi i kontrolują przepływ usług. Systemy EAI wspomagają
proces zarządzania relacjami zewnętrznymi, utrzymując spójność informacji
między innymi systemami informatycznymi organizacji.
Proces zarządzania doskonaleniem i zmianą jest obsługiwany przez systemy QMS, które utrzymują standardy jakości. Systemy QMS zapewniają
spójność w zakresie stosowanych metod, materiałów, sprzętu i współpracy
między działami funkcjonalnymi organizacji.
Proces planowania wspierany jest również przez moduł planowania
systemu ERP. Tutaj całkowicie kontrolowany jest przebieg procesu, optymalizując wykorzystanie zdolności produkcyjnych, części, komponentów
i zasobów materialnych z wykorzystaniem danych historycznych produkcji
i prognozowania sprzedaży.
Proces rozwoju produktu i usług, poza wsparciem systemów BI, jest zarządzany z wykorzystaniem systemów CAD. Umożliwiają one projektowanie
oraz tworzenie wirtualnego obrazu produktu, ułatwiając wybór odpowiedniej
wersji. Systemy BI pozwalają dokonać analizy sprzedaży obecnie istniejących
produktów i usług i na tej podstawie wyciągnąć wnioski, jakie produkt lub
usługi powinny być rozwijane w przyszłości.
Moduł produkcyjny systemów ERP, systemy MRP II oraz systemy MES
i APS odpowiadają za zarządzanie procesem produkcji. Systemy MES i APS
integrują procesy produkcyjne bezpośrednio związane z linią produkcyjną
z informacjami zarządczymi w systemach ERP i MRP II.
Systemy SCM odpowiadają za procesy zarządzania zaopatrzeniem, obsługują proces zarządzania łańcuchem dostaw od zakupu aż po dostarczenie
produktu.
Systemy CRM, które są odpowiedzialne za zarządzanie kontaktami z klientami, wspierają proces marketingu i sprzedaży. Wspomagają pozyskiwanie
klientów, zawieranie transakcji, śledzenie realizacji zamówienia oraz utrzymywanie relacji z klientami, co stanowi całościowy proces obsługi klienta.
18
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
Dodatkowo niektóre systemy CRM posiadają funkcjonalność umożliwiającą
realizowanie celów marketingowych, wspierając tym samym proces marketingu
i sprzedaży. Funkcjonalność pozwala na prowadzenie kampanii marketingowych dla różnych segmentów klientów, śledzenie kluczowych wskaźników, rozpoznawanie trendów i budowanie na tej podstawie celów sprzedażowych. Tak
rozbudowane systemy CRM mają wbudowane narzędzia analityczne systemów
BI umożliwiające prognozowanie przyszłej sprzedaży. Realizacja sprzedaży
wspierana jest przez moduł systemu ERP odpowiedzialny za przygotowanie
oferty, realizację zamówień, wystawianie faktur oraz obsługę płatności. Bardzo
często sprzedaż powiązana jest z obrotem towarów w magazynie, dlatego
jednocześnie łączy się z modułem zarządzania magazynem systemu ERP.
4.3. Wdrożenie systemów informatycznych
na potrzeby organizacji zorientowanej procesowo
Aby zwiększyć konkurencyjność organizacji, zarządzanie procesami musi
być wspomagane przez systemy informatyczne (Olszak i Ziemba 2010b).
Bez informatycznego wspomagania trudno jest śledzić przebieg procesu
i bardzo łatwo można przeoczyć ewentualne odstępstwa od wyznaczonych
norm. Dużym wyzwaniem dla organizacji zorientowanych procesowo jest
wdrożenie systemów informatycznych wspomagających poszczególne procesy
biznesowe oraz poszczególne etapy cyklu życia tych procesów.
Twórcy systemów informatycznych doskonale zdają sobie sprawę, na jakie
newralgiczne aspekty procesów i zarządzania procesami należy zwrócić szczególną uwagę. Dlatego też wdrożenie systemów informatycznych pozwala
na korzystanie z doświadczeń producentów systemów informatycznych,
ponieważ wraz z gotowym systemem przekazują wiedzę i doświadczenie
w postaci konkretnych rozwiązań. Ponadto, planując wdrożenie systemu
informatycznego, najpierw wykonuje się analizę biznesową, podczas której
definiuje się wszystkie procesy biznesowe występujące w organizacji.
Tak więc już na tym etapie organizacja ma możliwość przyjrzenia się
procesom, co stanowi pierwszą fazę cyklu życia BPM – odkrywanie i modelowane. Następnie modelowane procesy walidowane są pod kątem funkcjonalności wybranego systemu informatycznego i dokonuje się ewentualnych
dopasowań systemu do potrzeb organizacji tak, aby jak najlepiej odwzorowywał poszczególne procesy proces. W tej fazie wprowadzane są również
usprawnienia procesów, które można uzyskać dzięki wykorzystaniu systemu
informatycznego. Jest to faza druga cyklu życia BPM – walidacja i symulacja. Kolejno przechodzimy do fazy trzeciej – wdrożenie i wykonanie, gdy
wdrażana jest pilotażowa wersja systemu informatycznego, a tym samym
procesów biznesowych, które obsługuje. Następnie system informatyczny jest
testowany przez użytkowników, gdzie wykonują oni swoje dotychczasowe
obowiązki, ale z wykorzystaniem systemu informatycznego i zdefiniowanych procesów. Na tym etapie zgłaszane są wszystkie nieprawidłowości lub
ewentualne usprawnienia. Stanowi to fazę czwartą cyklu życia BPM – monivol. 10, nr 3 (38), 2012
19
Ewa Ziemba, Iwona Obłąk
torowanie i zarządzanie wydajnością. Po wstępnych testach i zgłoszonych
uwagach system informatyczny jest dopracowywany i wdrażany w ostatecznej
formie. Działający system jest objęty usługą powdrożeniową, która obejmuje
modyfikacje systemu na życzenie użytkownika w przypadku zgłoszenia takiej
potrzeby. Jest to już ostatnia faza cyklu życia BMN – ulepszanie.
Gdy podczas przepływu procesu zostaną dostrzeżone obszary, które
można wykonać bardziej efektywnie, istnieje możliwość ich poprawy. Jak
więc można zauważyć, samo wdrożenie systemu informatycznego idealnie
wpasowuje się w cykl życia BPM, co jest szczególnie istotne dla organizacji
zarządzanych procesowo i stanowi argument przemawiający za przydatnością tych systemów. Ponadto systemy informatyczne pomagają kontrolować
takie aspekty, jak:
– śledzenie przebiegu procesu,
– widoczność wszystkich uczestników procesu,
– monitorowanie wydajności procesu w czasie rzeczywistym,
– przepływ informacji między pracownikami,
– koordynację wprowadzanych zmian w procesie.
Przykładem systemów BPM wprowadzających takie rozwiązania jest
oprogramowanie IBM Business Process Manager, SAP NetWeaver BPM,
Oracle BPM Suite 11g. Są to przykłady zaprezentowane w rankingu systemów BPM w raporcie Gartnera (Garnter Research 2010), gdzie łącznie
wymienionych jest około 27 rozwiązań. Świadczy to o dużym potencjale
tych rozwiązań, które są wykorzystywane na równi z systemami ERP i BI.
Dla porównania w rankingu systemów ERP (Computerwold Polska 2011a)
wyróżnia się około 54 rozwiązań, natomiast w rankingu systemów BI (Computerwold Polska 2011b) wyróżnia się około 29 rozwiązań.
5. Podsumowanie
Podejście procesowe staje się metodą zarządzania współczesną organizacją. Dzięki wsparciu koncepcji, metod, narzędzi i technologii informatycznych jest coraz bardziej dostępna i łatwiejsza do zastosowania. Dodatkowo systemy informatyczne tworzone są w sposób wymuszający realizację
określonych procesów biznesowych. Wdrożenie systemu informatycznego
skutkuje zdefiniowaniem procesów biznesowych i podążaniem zgodnie
z cyklem życia BPM.
Systemy informatyczne nie tylko wspierają cykl życia zarządzania procesami biznesowymi, ale również ukierunkowują działanie działów funkcyjnych organizacji, wprowadzając realizację zadań przez procesy. Łączą
tym samym orientację funkcjonalną organizacji z orientacją procesową. Jest
to o tyle korzystne, że organizacja nie wymaga diametralnej reorganizacji
swojej struktury, aby mogła funkcjonować bardziej efektywnie. Wystarczy
zastosowanie podejścia procesowego i wdrożenie systemu wspomagającego
zarządzanie procesami, czyli systemu BPM.
20
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
Technologie informatyczne rozwijają się w kierunku złożonych rozwiązań,
gdzie w jednym systemie informatycznym (Business Performance Management) zawarte są funkcje wchodzące w skład takich systemów jak: BI, BAM,
BPM, BSM, EAI (Olszak i Ziemba 2010a; Eckerson 2004; Spangenberg
1994; Melchert i Winter 2004; Miranda 2004). Dlatego wkrótce wdrożenie
jednego systemu informatycznego będzie obsługiwało większość procesów
biznesowych organizacji. Internet również przyczynia się do rozwoju podejścia procesowego za pomocą technologii Web 2.0 pozwalającej wyjść poza
ramy organizacji i wymianę doświadczeń z użytkownikami podobnych procesów (Kania 2010).
Mimo że na polskim rynku systemy BPM nie są jeszcze tak znane jak
ERP, to – w ślad doświadczeń organizacji amerykańskich – z pewnością staną
się równie popularne i szeroko wykorzystywane. Podążając za tym trendem,
artykuł stanowi wstęp do dalszych badań dotyczących systemów zarządzania
procesami biznesowymi w organizacjach zorientowanych procesowo.
Informacje o autorkach
Dr hab. prof. UE Ewa Ziemba – Katedra Informatyki Ekonomicznej, Uniwersytet
Ekonomiczny w Katowicach. E-mail: [email protected].
Mgr Iwona Obłąk – Bytomska Spółka Informatyczna COIG-4 Sp. z o.o. E-mail:
[email protected].
Bibliografia
APQC’s International Benchmarking Clearinghouse 1996. Process classification framework,
Arthur Andersen & Co, http://www.numa.org.br/download/Desenv_Produto/framewrk.pdf, odczyt: 12.04.2012.
Bitkowska, A. 2009. Zarządzanie procesami biznesowymi w przedsiębiorstwie, Warszawa:
Wyższa Szkoła Finansów i Zarządzania.
Brilman, J. 2002. Nowoczesne koncepcje i metody zarządzania, Warszawa: Wydawnictwo
Naukowe PWN.
Cieśliński, W.B. 2011. Doskonalenie procesowej orientacji przedsiębiorstw, Wrocław: Uniwersytet Ekonomiczny we Wrocławiu.
Computerwold Polska 2011a. Aplikacje biznesowe, kompendium ERP. Computerworld
Polska, czerwiec, s. 28–32.
Computerwold Polska 2011b. Aplikacje biznesowe, kompendium analityki biznesowej.
Computerworld Polska, październik, s. 16–19.
Davenport, T. 1993. Process Innovation: Reengineering Work through Information Technology, Boston: Harvard Business School Press.
Davenport, T.H. i J.E. Short 1990. The New Industrial Engineering, Information Technology and Business Process Redesign. Sloan Management Review, nr 4 (31), s. 11–27.
Debevoise, T. 2005. Business Process Management with a Business Rules Approach, Virginia: Business Knowledge Architects.
Dresner, H. 2003. Business Activity Monitoring: BAM Architecture, Gartner Symposium
ITXpo, Cannes: Gartner Group, s. 4–7.
Durlik, I. 1998. Restrukturyzacja procesów gospodarczych, reengineering teoria i praktyka,
Warszawa: Placet.
vol. 10, nr 3 (38), 2012
21
Ewa Ziemba, Iwona Obłąk
Eckerson, W. 2004. Best Practices in Business Performance Management: Business and
Technical Strategies. TDWI Report Series. A 101communications Publication, marzec,
http://www.olap.it/Articoli/2004_Best_Practices_Business_Report.pdf, odczyt:
12.04.2012.
Feng, S.C. 2000. Manufacturing Planning and Execution Software Interfaces. Journal of
Manufacturing Systems, nr 19, s. 1–17.
Gartner Research 2005. Selection Requirements for Business Activity Monitoring Tools,
Gartner Research, ID Number: G00126563.
Gartner Research 2010. Magic Quadrant for Business Process Management Suites, Garnter Research, ID Number: G00205212.
Gartner Research 2011. Hype Cycle for Business Process Management, Gartner Research,
ID Number: G00214214.
Grajewski, P. 2007. Organizacja procesowa, Projektowanie i konfiguracja, Warszawa: Polskie Wydawnictwo Ekonomiczne.
Hammer, M. i J. Champy 1994. Reengineering the Corporation: A Manifesto for Business
Revolution, New York: Harper Business.
Hammond, P.H. 1986. Developments in Computer-aided Control System Design. Computer-Aided Design, nr 10 (18), s. 552–557.
Harrington, J. 1991. Business Process Improvement: The Breakthrough Strategy for Total
Quality, Productivity and Competitiveness, New York: McGraw Hill.
Hernaus, T. 2008. Process-based Organization Design Model: Theoretical Review and
Model Conceptualization. Working Paper Series, nr 6.
Hirz, M., Harrich, A. i P. Rossbacher 2011. Advanced Computer Aided Design Methods
for Integrated Virtual Product Development Processes. Computer Aided Design and
Applications, nr 6 (8), s. 901–913.
InterSystems Corporation 2004. Ensemble Whitepapers: Enabling the Real-time Enterprise
Business Activity Monitoring with Ensemble, http://www.intersystems.com/ensemble/
whitepapers/pdf/RealTime_BAM_WP.pdf, odczyt: 12.04.2012.
Januszewski, A. 2008. Funkcjonalność informatycznych systemów zarządzania. Tom 2. Systemy Business Intelligence, Warszawa: Polskie Wydawnictwo Ekonomiczne.
Jeston, J. i J. Nelis 2008. Business Process Management: Practical Guidelines to Successful Implementation, 2nd edition, Elsevier.
Johansson, H.J., McHugh, P., Pendlebury, A.J. i W.A. Wheeler 1993. Business Process
Reengineering: Breakpoint Strategies for Market Dominance, Chichester: John Wiley
& Sons.
Kania, K. (red.) 2010. Technologie informatyczne Firmy 2.0, Katowice: Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach.
Kasprzak, T. (red.) 2000. Integracja i architektury systemów informacyjnych przedsiębiorstw,
Warszawa: Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego.
Keen, M., Ackerman, G., Azaz, I., Haas, M., Johnson, R., Kim, J. i P. Robertson 2006.
Patterns: SOA Foundation – Business Process Management Scenario, IBM Red-Books
2006.
Ketchen, Jr. D.J. i L.C. Giunipero 2004. The Intersection of Strategic Management and
Supply Chain Management. Industrial Marketing Management, nr 33, s. 51–56, DOI:
10.1016/j.indmarman.2003.08.010.
Kimball, R. i M. Ross 2002. The Data Warehouse Toolkit: The Complete Guide to Dimensional Modelling, New York: Wiley Computer Publishing.
Kirchmer, M. 2009. High Performance through Process Excellence: From Strategy to Operations, Springer.
Klonowski, Z.J. 2004. Systemy informatyczne zarządzania przedsiębiorstwem, modele rozwoju
i własności funkcjonalne, Wrocław: Oficyna Wydawnicza Politechniki Wrocławskiej.
22
Problemy Zarządzania
Systemy informatyczne w organizacjach zorientowanych procesowo
Lindsay, A., Downs, D. i K. Lunn 2003. Business Processes – Attempts to Find a Definition. Information and Software Technology, nr 45, s. 1015–1019, DOI: 10.1016/
S0950-5849(03)00129-0.
Mantzana, V. i M. Themistocleous 2006. Benefits and Barriers Related to EAI Adoption:
The Case of a Healthcare Organization, European Conference on Information Systems,
http://is2.lse.ac.uk/asp/aspecis/20060174.pdf, odczyt: 12.04.2012.
McCormack, K.P. 1999. The Development of a Measure of Business Process Orientation,
http://www.prosci.com/mccormack.htm, odczyt: 12.04.2012.
Melchert, F. i R. Winter 2004. The Enabling Role of Information Technology for Business
Performance Management. Decision Support in an Uncertain and Complex World, The
IFIP TC8/WG8.3 International Conference, http://web.iwi.unisg.ch/org/iwi/iwi_pub.
nsf/0/F3D68C655A0F3195C12570A30051E3F6/$file/DSS2004.pdf, odczyt: 12.04.2012.
Miranda, S. 2004. Beyond BI: Benefiting from Corporate Performance Management
Solutions. Financial Executive, nr 2 (20), s. 58–61.
Muehlen, M.Z. i M. Rosemann 2004. Multi-paradigm Process Management. Workshops
– 5th Workshop on Business Process Modelling, Development and Support, s. 169–175,
http://pdf.aminer.org/000/074/466/multi_paradigm_process_management.pdf, odczyt:
12.04.2012.
Olszak, C.M. i E. Ziemba 2007. Approach to Building and Implementing Business Intelligence Systems. Interdisciplinary Journal of Information, Knowledge, and Management,
nr 2, http://www.ijikm.org/Volume2/IJIKMv2p135-148Olszak184.pdf, odczyt:
12.04.2012.
Olszak, C.M. i E. Ziemba 2010a. Business Performance Management for Competitive
Advantage in the Information Economy. Journal of Internet Banking and Commerce,
nr 3 (15), s. 93–104.
Olszak, C.M. i E. Ziemba (red.) 2010b. Kierunki rozwoju społeczeństwa informacyjnego
i gospodarki opartej na wiedzy w świetle śląskich uwarunkowań regionalnych, Katowice:
Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach.
Perechuda, K. 2000. Zarządzanie przedsiębiorstwem przyszłości – koncepcje, modele, metody,
Warszawa: Placet.
Pourshahid, A., Amyot, D., Peyton, L., Ghanavati, S., Chen, P., Weiss, M. i A.J. Forster
2009. Business Process Management with the User Requirements Notation. Electronic Commerce Research, nr 4 (9), s. 269–316, DOI: 10.1007/s10660-009-9039-z.
Repa, V. 2011. Business Process Modelling Notation from the Methodical Perspective, ServiceWave 2010 Workshops, Berlin–Heidelberg: Springer-Verlag, s. 160–171, DOI:
10.1007/978-3-642-22760-8_18.
Richards, K.A. i E. Jones 2008. Customer Relationship Management: Finding Value
Drivers. Industrial Marketing Management, nr 2 (37), s. 120–130, DOI: 10.1016/j.
indmarman.2006.08.005.
Rudden, J. 2007. Making the Case for BPM: A Benefits Checklist. BPTrends, http://www.
bptrends.com/publicationfiles/01-07-ART-MakingtheCaseforBPM-BenefitsChecklistRudden.pdf, odczyt: 12.04.2012.
Sattarova, F.Y. 2009. Model of Business Service Management with Security Approach.
International Journal of Advanced Science and Technology, nr 9, s. 39–50, DOI:
10.1.1.178.2022.
Schumm, D., Leymann, F. i A. Streule 2010. Process Views to Support Compliance Management in Business Processes, E-commerce and Web Technologies: 11th International
Conference, Springer, DOI: 10.1007/978-3-642-15208-5_12.
Silver, B. 2006. Associates: The 2006 BPMS Report: Understanding and Evaluating BPM
Suite, Published in collaboration with BPMInstitute.org.
Smith, H. i P. Finger 2003. Business Process Management: The Third Wave, Meghan-Kiffer Press.
vol. 10, nr 3 (38), 2012
23
Ewa Ziemba, Iwona Obłąk
Spangenberg, H. 1994. Understanding and Implementing Performance Management, Juta
& Company.
Umble, E.J., Haft, R.R. i M.M. Umble 2003. Enterprise Resource Planning: Implementation Procedures and Critical Success Factors. European Journal of Operational
Research, nr 2 (146), s. 241–257.
Ulrich, W. 2001. Enterprise Application Integration. Cutter IT Journal, nr 8, s. 2–36.
Van Der Aalst, W.M.P., Hofstede, A.H.M.T. i M. Weske 2003. Business Process Management: A Survey, w: BPM’03 Proceedings of the 2003 international conference on Business process management, s. 1–12. Berlin: Springer-Verlag.
Van der Wiele, T., Dale, B. i R. Williams 2000. Business Improvement through Quality
Management Systems. Management Decision, nr 1 (38), s. 19–23.
Van Looy, A., De Backer, M. i G. Poels 2010. Which Maturity Is Being Measured? A Classification of Business Process Maturity Models, Eindhoven: SIKS/BENAIS Conference
on Enterprice Information Systems.
Vonderheide-Liem, D.N. i B. Pate 2004. Applying Quality Methodologies to Improve Healthcare: Six Sigma, Lean Thinking, Balanced Scorecard, and More, HCPro Inc..
Weske, M. 2007. Business Process Management: Concepts, Languages, Architectures, Berlin: Springer.
Winn, S. i M. Thwe Oo 2011. Multi-agent Model for Automation of Business Process
Management System Based on Service Oriented Architecture. Engineering and Technology, nr 74, s. 670–675.
Zairi, M. 1997. Business Process Management. Journal MCB University Press, nr 1,
s. 64–80, DOI: 10.1108/14637159710161585.
24
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 25 – 40
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.2
Kryteria wyboru metod
zarządzania projektami informatycznymi
Witold Chmielarz
Zasadniczym celem niniejszego artykułu jest identyfikacja metod zarządzania projektami informatycznymi wśród tradycyjnych i nowoczesnych. W ostatnich latach podejście do zarządzania projektami systemów informatycznych
ulega szybkim i wielokierunkowym przemianom. Klasyczna teoria projektowania i obecna pragmatyka coraz bardziej się rozmijają. Wydaje się, że zastosowanie lekkich metod projektowania przynajmniej częściowo minimalizuje
powstające różnice. Przeprowadzona analiza stara się wyjaśnić zaistniałe w tym
zakresie wątpliwości oraz pokazuje, jak wybrać właściwą metodę dla określonego przypadku zarządzania projektem.
1. Wprowadzenie
Zarządzanie projektami informatycznymi jest istotną, wiodącą częścią
zarządzania projektami i najczęściej utożsamiane jest z analizą i projektowaniem systemów informatycznych oraz tzw. inżynierią oprogramowania.
Kategorią najszerszą – z teoretycznego punktu widzenia – jest tu zarządzanie
projektami utożsamiane z określoną dziedziną naukową, opartą na rozwiązaniach teoretycznych problemów praktycznych wynikających „z konieczności zaspokojenia zanalizowanych wymogów zleceniodawcy przy pomocy
dostępnych umiejętności, wiedzy, metod, technik i narzędzi realizacyjnych”
(Mingus 2009: 21).
Jest to więc nauka o skutecznym osiąganiu zakładanych celów przy
pomocy racjonalnego użycia zasobów (ludzkich, finansowych, materialnych
itp. i relacji między nimi) w zakładanym czasie. Podmiotem zarządzania
projektami jest niewątpliwie projekt, który może dotyczyć unikalnych przedsięwzięć realizowanych w różnych branżach, sektorach, w różnym czasie,
zakresie, za pomocą różnych środków czy zespołów, w określonej strukturze organizacyjnej, instytucjonalnej itd. Na rozwój tej dziedziny naukowej
największy jednak wpływ miały projekty informatyczne – ze względu na
ich wielkość, złożoność, innowacyjność, ryzyko, wysokie koszty realizacji
i związaną z tym konieczność zarządzania nie tylko wymienionymi elementami, ale również relacjami pomiędzy nimi. Zarządzanie projektami
informatycznymi jest pojęciem najszerszym, obejmującym wszystkie aspekty
vol. 10, nr 3 (38), 2012
25
Witold Chmielarz
tworzenia, wdrożenia i wykorzystania systemów informacyjnych wspomagających zarządzanie, zarówno od strony praktycznej, jak i teoretycznej.
Inżynieria systemów informatycznych koncentruje się na technologicznych
aspektach tych procesów. Analiza i projektowanie systemów informatycznych – złożony proces organizacyjny – skupiony jest na pierwszych, głównie informacyjnych, ale kto wie, czy nie najważniejszych fazach cyklu życia
systemu informatycznego. Cykl życia systemu informatycznego jest tu, jak
się wydaje, kategorią kluczową, występującą we wszystkich rozpatrywanych
obszarach metodycznych.
Cykl życia systemu informatycznego jest w nich traktowany jako sekwencja etapów (faz) czynności wzorowanych na życiu organizmów, którego
ostatecznym celem jest budowa, wdrożenie, modyfikacje i wycofanie (lub
zastąpienie) systemu informatycznego, począwszy od pierwszego pomysłu na
ten temat (narodziny) po jego likwidację (śmierć). Idea cyklu życia (projektu,
systemu, procesów inżynierii) jest w tych wszystkich koncepcjach tożsama,
różnice występują w liczbie i nazewnictwie etapów (faz), ich kolejności
logicznej lub zrównolegleniu i następstwie oraz relacjach z otoczeniem,
szczególnie z użytkownikiem finalnym. Różnice te nasiliły się w ostatnim
dziesięcioleciu, wraz z momentem rozpoczęcia szerokiego stosowania tzw.
metodyk lekkich (zwinnych – agile). Identyfikacja tych różnic wraz z wynikającymi z nich konsekwencjami jest głównym celem niniejszego artykułu.
2. Ogólna charakterystyka
metod ciężkich (tradycyjnych)
projektowania systemów informatycznych
W cyklu życia systemu informatycznego wyróżnia się przeważnie poszczególne etapy (fazy), z których część może występować sekwencyjnie lub równolegle, jednokrotnie bądź wielokrotnie. W tworzeniu modeli cyklu życia
projektu wyróżnia się metodyki:
– ciężkie (klasyczne, tradycyjne), takie jak kaskadowa (liniowa), przyrostowa, ewolucyjna, baz danych, prototypowa, spiralna;
– lekkie (nowoczesne, zwinne – agile), takie jak XP (eXtreme Programming),
Scrum, Feature Driven Development (FDD), Dynamic System Development Method (DSDM) czy Adaptive Software Development (ASD)1.
W kanonicznej (podstawowej, funkcjonującej jako punkt odniesienia)
wersji projektowania systemów informatycznych cykl życia składa się z następujących etapów2:
– inicjacji, wstępnego rozpoznania systemu (wykonalności, strategia rozwoju organizacji, identyfikacja systemu, analiza możliwości informatyzacji, postawienie problemu) – polegającego na: identyfikacji celu, problemów, stanu obecnego i perspektyw (w tym ryzyka wykonalności) rozwoju
systemu informacyjnego lub jego zmian;
26
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
– analizy informacyjnej systemu – na którą składa się identyfikacja otoczenia, łączności z otoczeniem, podsystemów, składowych systemu oraz
obecnych i przyszłych warunków jego działania;
– projektowania (technicznego) systemu – koncentrującego się na uszczegółowieniu założeń analitycznych, stworzeniu modelu logicznego i fizycznego przyszłego systemu lub ewentualnych zmian w funkcjonowaniu
obecnego systemu;
– oprogramowania systemu (kodowania, implementacji) – polegającego na
oprogramowaniu modelu fizycznego, konstrukcji programu lub zestawu
współpracujących ze sobą programów (systemu informatycznego);
– testowania – czyli sprawdzenia pod względem semantycznym, technicznym i merytorycznym prawidłowości funkcjonowania systemu;
– wdrożenia (zastosowania, aplikacji) – tj. uruchomienia (instalacji) i zainstalowania systemu u użytkownika końcowego, załadowania systemu parametrami niezbędnymi do jego funkcjonowania, podłączenia do aktualnych źródeł danych, ostatecznego szkolenia użytkownika końcowego;
– eksploatacji (realizacji) – sprowadzającej się do uruchomienia użytkowego, monitoringu, oceny i modyfikacji systemu;
– wycofania (zakończenia działalności) systemu – po badaniu opłacalności
opracowania procedury przejścia na nowy system informatyczny zachowujący maksymalnie możliwą ilość pozytywnych cech starego systemu.
Etapy i fazy modelu kanonicznego występują w różnych postaciach,
wariantach i rozwinięciach zarówno w metodach tradycyjnych, jak i nowoczesnych. Podstawowa równica pomiędzy nimi polega – zgodnie z jednym
podejściem (Chmielarz 2010: 359–402) – w zasadzie na tym, że:
– w metodach tradycyjnych realizowane są kolejne etapy cyklu życia, w tym
planowanie funkcjonalności (zakresu) wraz z niezbędnymi dla nich zasobami (materiałowymi, ludzkimi, informacyjnymi) oraz przypisanym im
budżetem;
– w metodach nowoczesnych następuje koncentracja na funkcjonalnościach,
w trakcie realizacji których na bieżąco ustalane są (na ogół w porozumieniu z użytkownikiem) zasoby i budżet niezbędne do ich realizacji.
Inni autorzy twierdzą (Mannaro 2008), że różnice te wyrażają się w podejściu przez metodyki tradycyjne i nowoczesne do problematyki zarządzania
zmianą. W metodyce tradycyjnej wyraża się ono (na ogół) przyjęciem ukrytego
założenia, że możliwe jest osiągnięcia założonego celu w trakcie jednego
podejścia, którego parametry są ustalane a priori na początku cyklu. Dlatego
metodyka ta jest najlepsza w tych projektach, które są stabilne, tzn. takie,
w których nie są przewidywane zmiany wymagań czy technologii w trakcie realizacji projektu. Alternatywnie, nowoczesne metodyki są najbardziej
odpowiednie dla projektów, w których przewiduje się wiele zmian podczas
realizacji. Nie skupiają się one na rozpoznaniu wymagań i planowaniu działań,
głownie na początku projektu dla całego jego przebiegu, ale na rozpoznaniu
wymagań i potrzebnych zasobów w trakcie realizacji zadań szczegółowych.
vol. 10, nr 3 (38), 2012
27
Witold Chmielarz
Niemniej jednak kanon postaci cyklu życia projektowania systemów
informatycznych wywodzi się z historycznego rozwoju metod zarządzania
projektem informatycznym (szkół strukturalnych, operacyjnych, obiektowych
i społecznych) z jednej strony i rozwoju technologii systemów z drugiej.
Były to procesy długotrwałe, dynamiczne i radykalne – dlatego w teorii
lepiej i bardziej szczegółowo są zaprezentowane i opisane tradycyjne metody
projektowania.
Najbardziej znanym, najczęściej używanym i najbardziej charakterystycznym z modeli postępowania w metodach tradycyjnych był model kaskadowy
(rysunek 1). Przyjmowano w nim następujące założenia:
– na początku każdego projektu istnieje stabilny zestaw potrzeb i wymagań
informacyjnych użytkownika i celów, do których on dąży;
– potrzeby nie zmieniają się w trakcie życia systemu;
– proces budowy systemu odbywa się stopniowo, dopiero po skończeniu
jednego etapu zaczynany jest następny;
– każdy kolejny etap oznacza uszczegółowienie i przybliżenie do rzeczywistości;
– powoduje to powrót do poprzednich etapów w momencie, gdy zostanie
wykryty błąd i powstanie konieczność jego korekty.
Niestety w rzeczywistości już założenie pierwsze na ogół się nie sprawdza (użytkownicy nie mają sprecyzowanych na wstępie potrzeb), może więc
szybko nastąpić rozminięcie się z potrzebami użytkownika. Ponadto jest
to bardzo droga kombinacja, ponieważ w przypadku realizacji przez firmę
informatyczną tylko jednego projektu w danym czasie oznacza konieczność
utrzymywania ekipy realizacyjnej częściowo bezrobotnej podczas realizacji
następnych etapów. Ponadto w rzeczywistości często występuje nakładanie
się poszczególnych etapów na siebie. W tej sytuacji istnieją liczne modyfikacje tego podejścia.
Model kaskadowy nie jest jedynym, a tylko najprostszym modelem realizacji cyklu życia projektu. Nie uwzględnia wielu problemów, np. zarządzania ryzykiem. Jego zaletą, dzięki której jest lubiany i akceptowany przez
użytkowników, jest prostota rozwiązań i fakt, że stał się podstawą innych
metodyk, np. ewolucyjnej czy przyrostowej.
Założenia modelu ewolucyjnego były następujące:
– cały system jest dzielony na moduły;
– każdy z nich odbywa przejście przez kolejne fazy cyklu budowy systemu;
– na końcu działań projektowych przystępuje się do specjalnego etapu
polegającego na integracji całego systemu i przeprowadzeniu testów;
– w systemie podzielonym na części, których realizacja jest przesunięta
w czasie, łatwiej nadążać za zmieniającym się celem działania;
– ponieważ każdy moduł stanowi początkowo organicznie odrębną część,
należy zwrócić uwagę na niebezpieczeństwo związane z koniecznością
integracji modułów w całość (bardzo często staje się to główną przyczyną
niepowodzeń realizacji projektu).
28
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
Wycofanie
Proces weryfikacji systemu
Eksploatacja
Postępy prac
Wdrożenie
Testy
Oprogramowanie
Projekt
Analiza
Rozpoznanie
Czas
Rys. 1. Schemat ideowy modelu kaskadowego. Źródło: opracowanie własne.
Jest to rozwiązanie tańsze w realizacji od poprzedniego, ponieważ może
– po przesunięciu realizacji poszczególnych modułów w czasie – być obsługiwane przez mniejszą liczbę personelu. Kiedy analitycy kończą pracę nad
jednym modułem, przechodzą do następnego, a ich miejsce zajmują programiści. Model ewolucyjny niestety nie zawsze spełniał pokładane w nim
nadzieje. Poszczególne podsystemy – dla dużych projektów budowane przez
różne zespoły – nawet pomimo tworzenia specjalnych procedur integracyjnych, nie zawsze w pełni dawały się zintegrować ze względu np. na różną
wizualizację mechanizmów funkcjonowania. Brakowało w nich wyraźnie
spójnych założeń dla całego systemu informatycznego. Dlatego właśnie
model kaskadowy ewoluował dalej – do stworzenia modelu przyrostowego.
Model przyrostowy charakteryzował się następującymi założeniami.
– przeprowadzane jest rozpoznanie i analiza dla całości systemu, dzięki
której powstaje całościowa koncepcja wstępna systemu, poparta ogólną
analizą całego systemu;
– następnie system podzielony na moduły realizacyjne jest projektowany,
programowany i testowany kolejno dla każdego z nich przez dziedzinowe
zespoły robocze wykonujące projekty techniczne dla każdego modułu
i je testujące;
– spójność systemu zapewniają pierwotne założenia systemu oraz wspólne
końcowe etapy instalacji i wdrożenia, w których przeprowadzana jest też
pełna integracja systemu.
Jest to procedura, podobnie jak poprzednia, najlepiej sprawdzająca się
przy ograniczonych środkach, którymi dysponuje zespół realizujący system.
Każdy z podsystemów może być realizowany oddzielnie, cały zespół pracuje
jedynie na początku, podczas tworzenia całościowej koncepcji rozwiązania
systemu, oraz na końcu, w trakcie integracji poszczególnych podsystemów
vol. 10, nr 3 (38), 2012
29
Witold Chmielarz
w jedną organiczną całość. Procedura przyrostowa jest lepsza od ewolucyjnej,
ponieważ mechanizmy integracyjne działają zarówno na początku, jak i na
końcu procesu tworzenia systemu. Na początku cyklu, oprócz rozpoznania
i analizy, tworzone są także wspólne normatywy i zasady wykonania projektu
każdego modułu. Ułatwia to późniejszą integrację na etapach końcowych.
W cyklu ewolucyjnym oraz przyrostowym można też w ograniczony sposób
reagować na zmiany wymagań użytkownika.
Zupełnie odrębną systematykę zakłada model tworzenia struktury baz
danych (Freya). W cyklu życia opartego na tworzeniu struktury bazy danych
wyróżnia się na ogół następujące fazy:
– rozpoznania i analizy – gdzie następuje rozpoznanie i zebranie potrzeb
informacyjnych użytkowników;
– projektu technicznego, składającego się z dwóch etapów, dotyczących
tworzenia projektu logicznego, czyli opisu modelu danych i przyszłych
procesów w systemie, oraz projektu fizycznego, czyli projektu struktury
bazy danych (zbiorów i relacji pomiędzy nimi), wzorców dokumentów,
technologii przetwarzania, specyfikacji wewnętrznych itp.;
– oprogramowania i testowania – polegającego na stworzeniu bazy danych
i oprogramowanie zastosowań (aplikacji) opartych na danych zawartych
w bazie danych oraz testowaniu oprogramowania;
– wdrożenia – zainstalowania oprogramowania w określonej platformie
i konfiguracji sprzętowej i wprowadzenia parametrów określonych przez
użytkownika w celu kastomizacji i przygotowania systemu do eksploatacji;
– eksploatacji użytkowej i kontroli – polegającej na roboczym użytkowaniu systemu oraz zapewnieniu poprawności z ustalonymi normatywami
i wymogami użytkownika;
– potencjalnych modyfikacji i adaptacji – czyli udoskonalenia funkcjonowania w wyniku pojawienia się nowych potrzeb; w razie potrzeby powrót
do etapów początkowych.
Zasadnicza idea tego cyklu życia polega na stworzeniu na początku
projektu struktury bazy danych systemu i oprogramowania bazy danych, co
umożliwia rejestrację podstawowych faktów z życia organizacji, a następnie
obudowanie bazy danych oprogramowaniem aplikacyjnym, które wykorzystuje dla różnych aplikacji te same dane zawarte w bazie danych do obsługi
sprzedaży, dostaw, kontaktów z kontrahentami itp. W ten sposób powstawało i jest wykorzystywanych do dziś wiele złożonych systemów opartych
na bazie danych. Jest to jednak metoda, gdzie użytkownik końcowy rezultaty działania projektanta i programisty ogląda dopiero po uruchomieniu
bazy danych oraz pierwszych aplikacji. Dopiero wtedy może też sprawdzić
ich zgodność z założeniami ustalanymi z zespołem projektowym. Znacznie
szybciej uwidacznia się to podczas zastosowania modelu prototypowego.
Istotą modelu prototypowego jest oprogramowanie na początku działań
projektowych – schematu działania systemu, najlepiej razem z przyszłym
użytkownikiem. Cel takiego postępowania jest następujący:
30
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
– redukcja czasu oczekiwania na rezultaty programowe i wykazanie się
wobec użytkownika końcowego uchwytnymi (dla niego) efektami realizacyjnymi;
– szybkie „sprzężenie” użytkownika z zespołem projektowym;
– ograniczenie liczby błędów oraz iteracyjnych (potencjalnych) rozmów
z użytkownikiem, np. na temat wizualizacji systemu;
– większe zaangażowanie użytkownika w analizę i projekt.
Model ten składa się z następujących etapów:
– rozpoznania i analizy potrzeb użytkownika;
– projektu technicznego wraz z generacją oprogramowania – w trakcie tego
etapu powstaje prototyp, który następnie jest sukcesywnie poprawiany
w interakcji z użytkownikiem;
– po testach kolejnych wersji prototypu i jego udoskonaleniach oraz instalacji system jest przekształcany w wersję ostateczną, która przekazywana
jest do eksploatacji i – w miarę potrzeb – modyfikowana z użyciem
narzędzia, za pomocą którego została stworzona.
Sprawna realizacji systemu prototypowego wymaga zastosowania dobrego
oprogramowania klasy CASE (Computer Aided System Engineering), co
niestety powoduje, że jego bezpośrednie i pełne zastosowanie bywa ograniczone poprzez własności tego narzędzia. A dodatkowo zwiększa koszty
projektu. Dlatego, pomimo niewątpliwych zalet tego podejścia, wielu projektantów i programistów woli stosować jedno z podejść klasycznych.
Najbardziej rozwiniętą formą tradycyjnego modelu cyklu życia jest natomiast model spiralny. Fazy realizacji modelu spiralnego są następujące:
– ustalenie celów działania – dotyczy definicji konkretnego celu systemu
oraz uzasadniania koncepcji i ustalania planów jego realizacji; budowa
modelu rozpoczyna się od inicjacji i definiowania projektu (ustalenia
wstępnych wymagań), a następnie polega na analizie wstępnej ryzyka
realizacji projektu; na tej podstawie buduje się pierwszy prototyp i tworzy
konceptualny plan (harmonogram) całości projektu;
– rozpoznanie i redukcja zagrożeń – po kolejnej fazie analizy ryzyka
pierwszego prototypu (identyfikacja najważniejszych zagrożeń, źródeł
i sposobów zapobiegania zagrożeniom) oraz zbadania ewentualnych alternatyw budowany jest następny prototyp projektu i tworzy się wymagania
dotyczące ograniczeń i zasobów projektu;
– tworzenie i zatwierdzanie – w tej fazie następuje proces rozwoju kolejnej
części produktu, oparty na najbardziej odpowiednim modelu, wybranym
na podstawie oceny zagrożeń; kolejno powstaje plan realizacji projektu
i odbywa się kolejny etap zakończony planem całości projektu;
– ocena i planowanie – to faza, w której recenzowany jest postęp prac oraz
planowana jest kolejna bądź ostateczna faza projektu; ostatni obieg cyklu
przynosi projekt szczegółowy, testy i realizację projektu oraz jego zamkniecie.
Model ten różni się od pozostałych wielokrotnym powtarzaniem poszczególnych faz podstawowego modelu cyklu życia oraz – po każdym „podcyklu”
vol. 10, nr 3 (38), 2012
31
Witold Chmielarz
– następuje dalsze uszczegółowienie modelu oraz analiza ryzyka zakończonej
sukcesem wykonalności całego systemu w danym momencie rozwoju. Jest
to najbardziej skomplikowany i najdroższy w realizacji model cyklu życia
systemu informatycznego, stosowany do rozwiązywania najbardziej skomplikowanych i trudnych problemów tworzenia systemów, np. militarnych.
Tak jak inne modele klasyczne oparte na prototypowaniu i analizie ryzyka
najbardziej zbliżony jest do podejścia nowoczesnego.
Grupa metodyk tradycyjnych istnieje od dawna. Reżim, który nakładają
na rozwój projektu, dyscyplinuje w pewnym sensie sposób postępowania
w trakcie realizacji projektu. Nie daje to jednak gwarancji, że projekt zakończy się sukcesem. Metody te są tak bardzo „sztywne” i ustrukturyzowane,
że przestrzeganie wszystkich kroków, formuł i procedur znacząco spowalnia cały proces rozwoju projektu. Charakteryzują się one następującymi
cechami:
– Przewidywalne i powtarzalne podeście do procesu rozwoju projektu. W klasycznych metodykach zakłada się zwiększającą się szczegółowość w miarę
realizacji poszczególnych faz i etapów rozwoju projektu i obejmowanie całego okresu od początku do końca projektu. Do analiz przeprowadzanych na bardzo niskim stopniu abstrakcji stosuje się na ogół
deterministyczne techniki szczegółowe. Wynik uzyskany za ich pomocą
jest prawdziwy dopóki przynajmniej jedno z założeń początkowych nie
zostanie zmienione. Zakłada się więc deterministyczny, niezmieniany,
nieadaptowany i mało elastyczny harmonogram, budżet i zasoby oraz
budowany na tej podstawie pełen podział zadań dla każdego zespołu
tworzącego produkt lub usługę.
– Obszerna dokumentacja. Tradycyjne podeście do realizacji projektu
zakłada, że dokumentacja jest tworzona po każdej fazie, każdym etapie cyklu życia projektu. W najbardziej konwencjonalnej formie modelu
kaskadowego przyjmuje się, że zakres oraz wymagania dotyczące użytkownika są zbierane i ustalane w pierwszej fazie cyklu, a następnie na
ich podstawie tworzony jest produkt lub realizowana usługa. Nie zmienia
się tych założeń do końca cyklu życia projektu; część zebranych i przekształconych w zalecenia wykonawcze informacji i dokumentów wymaga
przez to zmian w trakcie realizacji projektu.
– Zorientowanie na proces. Celem klasycznych metodyk jest w zasadzie określenie procesu czy procesów, które będą uniwersalne i powtarzalne, czyli
będą funkcjonowały w prawidłowy sposób i będą przydatne dla każdego,
kto będzie ich używał, w każdej sytuacji, w której wydadzą się przydatne.
Każdy proces składający się z zadań/czynności powinien być wykonywany
według określonych z góry procedur przez określoną, przypisaną do niego
i odpowiedzialną za niego grupę pracowników/wykonawcę.
– Zorientowanie na narzędzia i techniki wspomagające realizację. Do wykonania każdego określonego w projekcie zadania powinny być dostarczone
odpowiednie narzędzia wspomagające zarządzania.
32
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
3. Przegląd lekkich (nowoczesnych) metod
projektowania systemów informatycznych
Na drugim biegunie znajdują się metody lekkie (zwinne – agile) projektowania. Ich zasadniczym celem jest maksymalne zwiększenie wartości
produktu w porównaniu z jego aktualnym stanem, przy założonych kosztach i w określonym czasie. W Manifeście rozwoju zwinnego oprogramowania
(Beck i in. 2010) zwraca się uwagę na konieczność cenienia sobie bardziej
ludzi i interakcji pomiędzy nimi niż procesów i narzędzi, działający rezultat
projektu ponad obszerną dokumentację, współpracę z klientem ponad formalne ustalenia oraz reagowanie na zmiany ponad podążanie za planem.
Odpowiada to postulatom wymienionych dotychczas zmian, które wynikają
z ewolucji poglądów na same projekty i zarządzanie nimi. Głównym czynnikiem różniącym metody zwinne od tradycyjnych jest uznanie ludzi jako podstawowego czynnika sukcesu projektu, który połączony jest z intensywnym
naciskiem na skuteczność i uwzględnienie zmian (Kendall i Kendall 1999).
Jest też to swoista odpowiedź na wyzwania biznesowe powstałe z wyniku
ukształtowania się szybko zmieniających się globalnych rynków.
Poniżej przestawione są założenia metodyk zwinnych, które traktować
można również jako główne różnice pomiędzy tradycyjnymi metodykami
zarządzania projektami (Awad 2005; Koszlajda 2010):
– Zorientowanie na interesariuszy projektu. Jest to według tych metodyk
najważniejszy czynnik związany z rozwojem projektu (co zgadza się
z obserwacjami m.in. Standish Group) – najważniejszym zadaniem dla
kierowników zespołów „zwinnych” projektów jest to, żeby kłaść większy
nacisk na ludzi wraz z ich umiejętnościami, takimi jak: ambicje, zdolności, oraz na wzajemną komunikację (Highsmith i Cockburn 2004). Jeżeli
ludzie zaangażowani w projekt nie są, wtedy żaden proces nie naprawi
ich nieadekwatności.
– Adaptacyjność (nieosiągalna idée fixe metod tradycyjnych). W tym podejściu kładzie się nacisk na zarządzanie zmianą. Sprzyja to przekazaniu
użytkownikowi własnej wiedzy większej niż minimalna zakładana projektem (Sully 1993). Zarządzanie zmianą zakłada ciągłą reakcję na ciągłe
zmiany zachodzące w projekcie. Najtrudniejsze do oceny i reakcji są
zewnętrzne zmiany środowiskowe. Ponieważ nie jest możliwa ich eliminacja, należy dążyć do minimalizacji kosztów z nimi związanych.
– Zgodność z rzeczywistością. Zwraca się bardziej uwagę na zgodność
otrzymanych rezultatów z uzyskanymi wynikami projektu niż na zgodność z wynikami początkowo zakładanymi (zgodność nie z planem, ale
z założeniami biznesowymi).
– Elastyczność planowania. Podstawowym problemem planowania projektu jest brak możliwości przewidzenia implikacji rozwoju planów
przedsięwzięć innowacyjnych (wszystkie projekty powinny należeć do
tej kategorii), ponieważ środowisko, w którym powstają, jest wysoce
vol. 10, nr 3 (38), 2012
33
Witold Chmielarz
–
–
–
–
–
34
dynamiczne. W „zwinnych” projektach wykonawcy muszą zastanowić
się, jak mogą uniknąć nieodwracalności swoich decyzji wymuszonych
przyzwyczajeniem do praktyki szczegółowego projektowania tradycyjnego, które prowadzi do daleko posuniętej szczegółowości. Zamiast
próbować podjąć właściwe decyzje na początku każdego cyklu (projektowanie tradycyjne), lepiej je podjąć w taki sposób, żeby w następnych
etapach można było je odwrócić.
Oparcie się na procesach empirycznych. W metodach tradycyjnych procesy
występują jako deterministyczne i liniowe, w metodach „zwinnych” jako
proces empiryczny (probabilistyczny, źle lub słabo ustrukturalizowany)
bądź nieliniowy. Proces deterministyczny to taki, w którym od rozpoczęcia do zakończenia można za każdym razem spodziewać się takich
samych wyników. Projektów, poprzez cechę wyjątkowości, jednorazowości
itp., nie można zdefiniować jako procesów deterministycznych, ponieważ
w czasie ich realizacji może się rozwijać i produkt, i zespół projektowy.
Jest bardzo mało prawdopodobne, aby jakikolwiek zestaw predefiniowanych kroków doprowadził do pożądanego, przewidywalnego wyniku,
ponieważ zmieniają się wymagania technologiczne oraz ludzie wewnątrz
zespołu projektowego.
Wykorzystanie podejścia zdecentralizowanego. Zdecentralizowany styl
zarządzania może znacząco wpłynąć na projekt, ponieważ może on
zaoszczędzić więcej czasu niż podeście autokratyczne. W metodykach
lekkich deleguje się część zadań związanych z podejmowaniem decyzji
do wszystkich członków zespołu.
Prostota. W projektowaniu prowadzonym metodykami lekkimi zawsze
wybierana jest najprostsza droga prowadząca do celu. Zakłada się łatwe
zmiany modelowe, które dostosowywane są do bieżących potrzeb i mogą
następować w różnych terminach. Nie wytwarza się większej funkcjonalności niż ta, która jest w danym momencie konieczna, ani dokumentacji
próbującej przewidzieć przyszłość projektu. To zmniejsza koncentrację na
znalezienie informacji potrzebnych do tych predykcji (Gibson i Hughes
1994).
Oparcie się na współpracy z odbiorcą (użytkownikiem) i współpracy
wewnętrznej. Klient projektu powinien ściśle współpracować z zespołem projektowym, zapewniając mu wszelkie potrzebne informacje, oraz
zgłaszać bieżące uwagi i komentarze do projektu. Ze względu na decentralizację zespół wykonawczy w metodykach „zwinnych” powinien się
w sposób ciągły komunikować ze sobą.
Funkcjonowanie poprzez małe, samoorganizujące się zespoły. W zespołach
takich obowiązki i zadania przekazywane są do zespołu jako całości, a zespół, rozdzielając je, zapewnia najlepszy sposób ich realizacji.
W małych zespołach najlepiej sprawdza się idea ciągłej komunikacji.
Struktura procesu i konkretne praktyki tworzą minimalne, elastyczne
ramy strukturalne dla zespołów samoorganizujących. Odpowiednie
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
ich wykorzystanie znacznie zmniejsza ryzyko związane z czynnikiem
ludzkim.
Jako przykład metodyki projektowania lekkiego przedstawiono metodykę
Scrum. Jest to iteracyjna metodyka oparta na zarządzaniu zmianą, koncentrująca się na ciągłych, twardych negocjacjach pomiędzy graczami: użytkownikiem maksymalnie możliwego elastycznego systemu informatycznego
a zespołem projektowym. Nazwa nawiązuje do sytuacji występującej podczas
gry w rugby. Termin scrum (młyn) oznacza w niej rzut wolny, w którym
spleceni ze sobą gracze przeciwnych drużyn przepychają się (negocjują)
nad piłką (celem) (Jaszkiewicz 1997). Scrum jest jednocześnie metodyką
prototypowo-przyrostową – wartość dodana projektu powstaje w wyniku
zastosowania w kolejnych iteracjach faz cyklu życia systemu określonych
narzędzi (przeciwdziałających potencjalnemu ryzyku realizacyjnemu), wynikających z wypracowanych dobrych praktyk dla małych i średnich, ale za
to złożonych projektów (Rising i Janoff 2000: 26–32).
Podstawowe używane w metodzie Scrum praktyki projektowania można
sprowadzić do następujących:
– tworzenie rejestru zamówień (product backlog) – czyli listy wszystkich
wymagań użytkownika: funkcji i ustalonych z realizatorem zmian wraz
z priorytetami, czekających na realizację (odpowiedzialny użytkownik
końcowy – właściciel produktu, product owner);
– cykl pracy – przebieg (sprint) – etap pracy zespołu projektowego (od jednego do sześciu tygodni, z zaleceniem regularności i jednolitości długości
trwania każdej iteracji, np. miesiąc); w każdym cyklu jest dostarczana
użytkownikowi do przetestowania i oceny następna działająca wersja
prototypu produktu;
– planowanie cyklu pracy – przebiegu (sprint planning meeting) – składa
się z dwóch części: analizy i projektu realizacji; w pierwszej wraz ze
wszystkimi użytkownikami zespół projektowy ustala kompletny (w danym
momencie) zbiór celów i funkcji systemu, w drugiej zaś kierownik projektu (scrum master) z zespołem uzgadnia najlepszy sposób realizacji
produktu podczas danego przebiegu;
– tworzenie rejestru zamówień dotyczącego konkretnego przebiegu (sprint
backlog) – listy nowych lub zmienionych funkcjonalności przypisanej do
kolejnego przebiegu; w momencie jej realizacji powstaje nowa wersja
prototypu;
– weryfikacja postępu prac (daily scrum meeting) – odbywa się w trakcie
obowiązkowych codziennych spotkań zespołu projektowego; polega na
identyfikacji niezbędnych zmian i określenia warunków ich realizacji
przez zespół (na zasadach samorealizacji).
Cykl życia w metodzie Scrum (rysunek 2) przebiega według następującego schematu:
– rozpoznanie ogólnych wymagań i wstępna analiza informacyjna całości
systemu;
vol. 10, nr 3 (38), 2012
35
Witold Chmielarz
–
–
–
–
rozpoznanie i analiza dla kolejnego, bieżącego przebiegu;
planowanie przebiegu (analiza i projekt techniczny);
bieżąca weryfikacja założeń w trakcie codziennych spotkań;
realizacja systemu i generacja oprogramowania kolejnego prototypu –
konstruowanie i zastosowanie;
– testowanie systemu po kolejnym przebiegu;
– eksploatacja i potencjalne przyszłe modyfikacje systemu.
Rozpoznanie ogólnych wymagań użytkownika
(Product Backlog)
Rozpoznanie wymagań użytkownika
dla kolejnego przebiegu (Sprint Backlog)
Analiza informacyjna danego przebiegu
Bieżąca
weryfikacja
kolejnego
prototypu
(Daily Scrum
Meeting)
Projekt techniczny
i jego ewentualna modyfikacja
– jeśli potrzebna po bieżącej weryfikacji
Planowanie przebiegu (Sprint Planning Meeting)
Realizacja systemu i generacja oprogramowania
kolejnego prototypu – konstruowanie, zastosowanie
(Sprint Product)
Testowanie systemu po kolejnym przebiegu
przez użytkownika, weryfikacja – jeśli potrzebna
Eksploatacja i potencjalne przyszłe modyfikacje systemu
Rys. 2. Cykl życia systemu informatycznego w metodyce Scrum. Źródło: opracowanie
własne na podstawie K. Schwaber i M. Beedle 2001. Agile Software Development with
Scrum, Prentice Hall; K. Schwaber 2005. Sprawne zarządzanie projektami metodą Scrum,
Warszawa: Promise.
Przed każdym przebiegiem odbywa się spotkanie zespołu realizacyjnego
z użytkownikami, identyfikujące priorytetowe zadania (określenie zakresu,
zawartości i intencji użytkownika) oraz konwertujące je w funkcjonalności
przyszłego systemu. Na tej podstawie tworzony jest plan wykonania oprogramowania w bieżącej iteracji (priorytety, podział obowiązków, szczegółowe
działania). Natomiast na początku każdego dnia przebiegu (w niektórych
interpretacjach tej metodyki – na zakończenie dnia) w trakcie spotkania
zamkniętego zespołu projektowego odbywa się bieżąca weryfikacja realizacji
36
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
zadań (stan wykonania, problemy ogólne i szczegółowe realizacji oraz jednostkowe sposoby ich rozwiązania). Ma na celu koordynacje i synchronizację
dziennej pracy członków zespołu. Po każdej iteracji odbywa się natomiast
spotkanie z użytkownikiem w celu prezentacji produktu kolejnej iteracji
i określenia, czy realizuje on kierunek zmian przez niego oczekiwany. Ma
ono pomóc klientowi w określeniu, czy i co w następnej kolejności powinno
być wykonywane. Na podstawie wniosków z tego spotkania produkt zostaje
przekazany do testowania i użytkowania lub, w kolejnej iteracji, do dalszych
modyfikacji.
4. Kryteria wyboru pomiędzy metodykami
tradycyjnymi i nowoczesnymi
Przeprowadzona powyżej analiza wykazała, że istnieje wiele metodyk
zarządzania projektami i nie ma jednej właściwej dla wszystkich przypadków metodyki uniwersalnej. Metodyki są tylko pewnym zbiorem wzorców,
zasad oraz formuł, które pomagają w uniknięciu błędów, lecz zupełnie ich
nie usuwają. Pomimo to konsekwentnie wdrożona metodyka daje poczucie kontroli nad przedsięwzięciem, utrzymywania pełnego zaangażowania
wszystkich zainteresowanych stron oraz uzasadnia poczucie bezpieczeństwa
realizacji strategii biznesu sponsora.
W związku z powyższym każdy projekt informatyczny wymaga zdefiniowania metodyki, według której będzie prowadzony. W najbardziej ogólnym
sposób – opierając się na wcześniej zdefiniowanych cechach charakterystycznych metodyk tradycyjnych i nowoczesnych – możemy stwierdzić, że
wybór ten określa szereg czynników związanych z konkretnym projektem
(jego wielkością, branżą, w której jest realizowany, czynnikiem ludzkim
w projekcie i dodatkowymi wymogami realizacyjnymi itd.).
Niemniej jednak wstępną listę kryteriów pomocniczych wyboru można
oszacować na podstawie takich zmiennych, jak:
– Rodzaj i harmonogram finansowania prac zawarty w umowie z klientem.
Jeżeli zakłada się wykładniczy, to powinny to być metodyki zwinne.
W tych metodykach przyjmuje się, że czynnikami ważniejszymi niż negocjowanie kontraktów są zaufanie i współpraca partnerów biznesowych
(przynajmniej deklaratywnie). W trakcie podpisywania umowy i wstępnego ustalania harmonogramu albo przyjmuje się realizację budżetu od
początku korzystną dla klienta (powoli rosnącą na początku projektu,
wykładniczo wraz z przekazywaniem uzgodnionych, przyjmowanych przez
użytkownika produktów), albo na kontraktach o niewielkim stopniu
ryzyka dla realizatora projektu (np. umowy z refundowanym kosztem
według cen stałych). Jeżeli natomiast zakłada się logarytmiczną funkcję
realizacji budżetu (wysoką w stadiach początkowych, stabilizującą się
w późniejszych fazach projektu), to – zwłaszcza dla firm o ugruntowanej
pozycji na rynku – opłaca się przyjąć jedną z metodyk klasycznych.
vol. 10, nr 3 (38), 2012
37
Witold Chmielarz
– Typ budżetu. Nierównomiernie rozłożony w czasie budżet projektu, wymuszający różną intensywność prac oraz wysoki stopień niepewności, wskazuje na efektywniejsze użycie metodyki zwinnej. Zaś budżet finansujący
projekt w sposób równomierny i stały w czasie sugeruje wykorzystanie
metodyki klasycznej.
– Charakter ustaleń harmonogramu. Narzucone w harmonogramie sztywne
założenia czasowe w stosunku do zaplanowanych zadań przemawiają na
korzyść zastosowania metodyk klasycznych. Przybliżone lub relatywne
terminy realizacji sugerują użycie metod zwinnych.
– Ilość i poziom wymaganej dokumentacji oraz poziom jakości oprogramowania. Spełnienie złożonych wymagań związanych z formalnymi standardami dokumentacji, licencjami czy certyfikacji wskazuje na konieczność
zastosowania klasycznej metodyki zarządzania projektem. Natomiast projekt, w którym nacisk kładziony jest na jakość oprogramowania i możliwości jego rozwoju, jest zgodny z filozofią metodyk zwinnych.
– Podejście do ryzyka projektowego – niskie ryzyko projektowe obsługują
lepiej metodyki zwinne. Wysokie ryzyko w projekcie wymusza stosowanie
metodyk klasycznych, w których zakłada się tworzenie planów minimalizacji ryzyka lub sytuacji awaryjnych.
– Komunikacja z klientem. Metodyki zwinne zakładają ciągłą oraz bezpośrednią komunikację z klientem. Zmniejszane są więc wszelkie czynniki
związane z niezrozumieniem realizowanych zadań. W metodykach klasycznych preferuje się rzadszy kontakt z klientem, co prowadzi bardzo
często do nieporozumień w momencie prezentacji i przekazania zrealizowanego systemu.
– Struktura organizacyjna konieczna do realizacji projektu. Przedsiębiorstwa
o strukturze hierarchicznej lub pokrewnych, zawierające w swoich strukturach ściśle wyspecjalizowane jednostki, będą preferować metodyki klasyczne. Przedsiębiorstwa o strukturze np. macierzowej, projektowej lub
innej, w której mogą sobie pozwolić na delegowanie zadań projektowych
do mniejszych zespołów, w których nie ma ściśle zdefiniowanej hierarchii
organizacyjnej, powinny zdecydować się na wybór metodyki klasycznej.
– Sektor/branża realizacji projektu związana często ze strukturami organizacyjnymi też znacząco wpływa na realizację projektu. Branże, które
na wejściu mają niewielką liczbę surowców i materiałów, a na wyjściu
gotowych produktów, lepiej nadają się do użycia w trakcie projektowania
systemu metod klasycznych.
– Wielkość projektu. Część środowisk programistycznych związanych z wdrożeniami wielkich systemów uważa, że metody klasyczne lepiej nadają się
do realizacji tego typu projektów. W metodykach zwinnych (a zwłaszcza
omawianej Scrum) trudno przy wielkich projektach, nawet powtarzalnych,
skoordynować działania wielu małych grup realizujących projekt.
– Rodzaj systemu, dla którego projekt jest realizowany. Systemy eksperckie
lub oparte na bazie wiedzy wymagają bardzo często dużej wiedzy o reali38
Problemy Zarządzania
Kryteria wyboru metod zarządzania projektami informatycznymi
zowanym zagadnieniu. Jeśli są to systemy z założenia konstruowane jako
samouczące, zaleca się stosowanie metodyk nowoczesnych, w przeciwnym
przypadku – dla systemów opartych na ustalonych wzorcach postępowania – metodyk klasycznych.
– Czynniki psychologiczne, np. doświadczenie zespołu realizacyjnego w stosowaniu metodyk zwinnych lub klasycznych, zaufanie organizacji, w której projekt jest realizowany do zespołu projektowego, wysoki stopień
wykorzystania w zespołach mieszanych specjalistów ze strony przyszłego
użytkownika itp.
Powyższa lista czynników nie jest ani kompletna, ani wystarczająca. Bardzo trudno jest bowiem ex ante ocenić, która ze znanych metodyk w przedstawionym układzie jest najlepsza dla realizowanego projektu. Tak więc coraz
więcej organizacji utrzymujących się z realizacji projektów jest zainteresowanych zarządzaniem przez projekt, polegającym w praktyce (upraszczając
sytuację) głównie na równoległym prowadzeniu jak największej liczby projektów. Umożliwia to nie tylko porównanie ich cech charakterystycznych
(harmonogramów, kosztów, zasobów) realizowanych dla różnej wielkości
firm, w wielu branżach, w wielu lokalizacjach, ale również skuteczności
metody prowadzenia projektów, aż do zaproponowania własnej. Pozwala
to również przecież na wielowymiarową ocenę (w tym porównawczą, efektywności itd.) prowadzonych projektów i dostarcza kierownikom projektów
wzorców dobrych praktyk zarządzania oraz ocenę efektywności poszczególnych jednostek organizacyjnych prowadzących projekty.
Analizy wykonania projektów dostarczają też przesłanek do współdzielenia
zasobów projektów (w tym technologii, know-how itp.), rozliczenia czasu
i kompetencji wykonawców oraz wyceny generowanych w projekcie produktów
lub usług. Zarządzanie przez projekty jest stylem zarządzania doskonalącym
przedsiębiorczość i będącym swoistym „złotym środkiem” pomiędzy rzeczywistymi potrzebami firmy zleceniodawcy (określonej przez jej specyfikę) a wiedzą
(teoretyczną i praktyczną) i metodami zarządzania projektami (Stabryła 2006).
Ta pragmatyka podejścia umożliwia tworzenie wzorców postępowania podczas
realizacji poszczególnych rodzajów projektów, co ułatwia tworzenie strategii
nie tylko organizacji utrzymujących się z tworzenia i wdrażania projektów
(i coraz częściej – nie tylko informatycznych) oraz niewątpliwie w ostatecznym
rozrachunku wybór metodyk zarządzania projektem.
Informacje o autorze
Prof. dr hab. Witold Chmielarz – Katedra Systemów Informacyjnych Zarządzania,
Wydział Zarządzania Uniwersytetu Warszawskiego. E-mail: [email protected].
Przypisy
1
Więcej na ten temat np. w: Chmielarz 2010: 359–402.
2
Patrz też: Chmielarz i Klincewicz 2010: 238–252.
vol. 10, nr 3 (38), 2012
39
Witold Chmielarz
Bibliografia
Awad, M.A. 2005. A Comparison between Agile and Traditional Software Development
Methodologies, The University of Western Australia, http://www.scribd.com/doc/55475190/A-ion-Between-Agile-and-Traditional-SW-Development-Methodologies, odczyt:
marzec 2012.
Beck, K. i in. 2010. Manifesto for Agile Software Development, Agile Alliance, 2001,
Retrieved 14 June 2010, http://www.pmbriefcase.com/methodologies/50-softwaredevelopment/55-agile-software, odczyt: kwiecień 2012.
Chmielarz, W. 2010. Projektowanie systemów informatycznych, w: J. Zawiła-Niedźwiecki,
K. Rostek i A. Gąsiorkiewicz (red.) Informatyka gospodarcza, t. 1, s. 359–402. Warszawa: C.H. Beck.
Chmielarz, W. i K. Klincewicz 2010. Zarządzanie w kontekście zmian, w: J. Bogdanienko
(red.) Organizacja i zarządzanie w zarysie, s. 238–252. Warszawa: Wydawnictwo
Naukowe WZ UW, Dom Wydawniczy Elipsa.
Gibson, M. i G. Hughes 1994. Systems Analysis and Design. A Comprehensive Methodology with CASE, Boyd & Fraser.
Highsmith, J. i A. Cockburn 2004. Agile Software Development: The Business of Innovation. IEEE Computer, nr 6 (36), http://www.jimhighsmith.com/articles/IEEEArticle1Final.pdf, odczyt: kwiecień 2012, DOI: 10.1109/2.947100.
Jaszkiewicz, A. 1997. Inżynieria oprogramowania, Gliwice: Helion.
Kendall, K. i J. Kendall 1999. Systems Analysis and Design, Upper Saddle River: Prentice
Hall.
Koszlajda, A. 2010. Zarządzanie projektami IT. Przewodnik po metodykach, Gliwice: Helion.
Mannaro, K. 2008. Adopting Agile Methodologies in Distributed Software Development,
Wydział Inżynierii Elektrycznej i Elektroniki Uniwersytetu Cagliari, http://www.diee.
unica.it/DRIEI/tesi/19_mannaro.pdf.
Mingus, N. 2009. Zarzadzanie projektami, Gliwice: Helion.
Project Management Institute 2004. A Guide to the Project Management Body of Knowledge (PMBOK Guide), Third Edition.
Rising, L. i N.S. Janoff 2000. The Scrum Software Development Process for Small Teams.
IEEE Software, nr 17, s. 26–32, DOI: 10.1109/52.854065.
Schwaber, K. 2005. Sprawne zarządzanie projektami metodą Scrum, Warszawa: Promise.
Schwaber, K. i M. Beedle 2001. Agile Software Development with Scrum, New Jersey:
Prentice Hall.
Stabryła, A. 2006. Zarządzanie projektami ekonomicznymi i organizacyjnymi, Warszawa:
Wydawnictwo Naukowe PWN.
Sully, P. 1993. Modelling the World with Objects, New Jersey: Prentice Hall.
40
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 41 – 53
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.3
Ryzyko w projektach wdrożeniowych
zintegrowanych systemów informatycznych
– próba klasyfikacji pod kątem barier
i działań nim obarczonych
Tomasz Parys
Zasadniczym celem niniejszego opracowania jest ukazanie miejsca, jakie
zajmuje ryzyko w projekcie wdrożeniowym zintegrowanego systemu informatycznego. Przybliżono podstawowe zagadnienia związane ze specyfiką projektu
wdrożeniowego, podano definicję ryzyka oraz omówiono jego podział i obszary
występowania, a także kluczowe jego czynniki. Zasadniczą część artykułu stanowi prezentacja autorskiej koncepcji klasyfikacji ryzyka oraz opis poszczególnych kategorii w kontekście działań nim obarczonych.
1. Wprowadzenie
Decyzja o informatyzacji jest wielkim wydarzeniem w działalności każdego przedsiębiorstwa. Związana jest zazwyczaj z wielkimi nadziejami,
którym towarzyszą nie mniejsze obawy. Informatyzacja to z jednej strony
ogromne koszty, z drugiej zaś konieczność przeprowadzenia wielu zmian
zarówno w sferze organizacji działania, jak i metod działalności biznesowej.
Każde wdrożenie, jako przedsięwzięcie informatyczne wywołujące zmiany
w przedsiębiorstwie, jest obarczone ryzykiem niepowodzenia. W niniejszym opracowaniu po syntetycznym przedstawieniu zagadnień związanych
w definicją ryzyka oraz jego cechami podjęto próbę klasyfikacji działań
wdrożeniowych i związanego z nimi ryzyka wraz zakresem oddziaływania
na projekt wdrożeniowy.
2. Specyfika projektu wdrożeniowego
Projekt informatyczny można zdefiniować jako „przedsięwzięcie o charakterze tymczasowym, nastawione na stworzenie unikalnego produktu lub
usług, (...) które wykorzystując narzędzia informatyczne bazujące na technologii komputerowej, przyczynią się do poprawy funkcjonowania organizacji
w zakresie ich zastosowania” (Szyjewski 2001b). Rozwijając powyższą definicję, należy zauważyć, że projekt jest zdarzeniem jednorazowym, realizowanym
w przedsiębiorstwie po raz pierwszy i jest nastawiony na określony cel. Cel
vol. 10, nr 3 (38), 2012
41
Tomasz Parys
ten bardzo często wynika z ogólnej koncepcji funkcjonowania organizacji. Jest
zatem sformułowany albo w strategii, albo też stanowi część definicji celów
przedsięwzięcia informatycznego. Każdy projekt ma wewnętrzną organizację,
która jest dla niego specyficzna i nie jest ujęta w strukturach organizacyjnych firmy. Projekt jest złożony, co oznacza, iż składa się on z elementów,
które można wyodrębnić, a które wzajemnie tworzą jedną całość. Działania
w nim wykonywane są wyraźnie wyodrębnione spośród innych. Oznacza
to, że projekt nie jest powiązany z żadnym (ani rutynowym, ani bieżącym,
tj. operacyjnym) działaniem przedsiębiorstwa. Jest on także ograniczony, co
głównie związane jest z ograniczeniami zasobów, jakie są niezbędne do jego
przeprowadzenia (finanse, czas, specjaliści). Każdy projekt jest także przedsięwzięciem ryzykownym, ponieważ podczas całego czasu swojego trwania
jest narażony na ryzyko niepowodzenia. Projekt wdrożeniowy realizowany
jest na wielu płaszczyznach i swoim zakresem obejmuje zazwyczaj kilka
obszarów jednocześnie. Działania wykonywane w ramach projektu poza
kwestiami czysto technicznymi dotykają także sfery aktywności biznesowej,
oddziałują na pracowników oraz na otoczenie socjologiczne przedsięwzięcia.
Ze względu na fakt, iż wiele działań w projekcie wykonywanych jest po raz
pierwszy lub w nowych, nieznanych warunkach, pojawia się niepewność. Dotyczy
ona zarówno wykonywania działań, jak i ich skutków. W takiej sytuacji pojawia
się ryzyko, że podejmowane działania mogą zakończyć się niepowodzeniem lub
ich wykonanie zostanie zakłócone. W praktyce niepewność i ryzyko są ze sobą
ściśle powiązane (Szyjewski 2004). Dzieje się tak dlatego, ponieważ działania
obarczone ryzykiem dotyczą nieprzewidywalnej przyszłości (Pritchard 2002).
Niestety, tylko nieliczne projekty wdrożeniowe kończą się sukcesem.
Sukces projektu wdrożeniowego pozostaje w ścisłej zależności z wielkością
systemu, który objęty jest danym przedsięwzięciem. Im większy projekt,
tym mniejsze prawdopodobieństwo, że zakończy się sukcesem, natomiast
znacznie większe, iż projekt taki zostanie przerwany (Stanik i Szewczuk
2001). Prawdopodobieństwo niepowodzenia projektu wdrożeniowego wzrasta wraz z rozmiarem systemu, co jest związane ze specyfiką przebiegu
przedsięwzięć informatycznych. Szczególny wpływ ma tutaj stosunkowo duża
trudność określenia sytuacji niekorzystnych, które mogą zakłócać przebieg
prac. Nieodłącznym elementem każdego przedsięwzięcia informatycznego
są niepewność, pojawiające się bariery i wynikające z nich zagrożenia, które
określane są wspólnym mianem ryzyka przedsięwzięcia.
Rysunek 1 przedstawia, jak rozkładał się odsetek projektów wdrożeniowych zakończonych sukcesem w odniesieniu do tych stwarzających problemy
oraz zakończonych porażką na przestrzeni lat 1994–2009.
Analizując zobrazowane na wykresie dane, można sformułować dwa
następujące wnioski:
– na przestrzeni wielu lat objętych zakresem analizy (1994–2009) zdecydowana większość projektów generowała problemy lub zakończyła się
porażką;
42
Problemy Zarządzania
Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych...
Rok
– odsetek projektów zakończonych sukcesem pozostawał na poziomie
poniżej 35% (jedynie w 2006 r. osiągnął ten poziom);
– zależności pomiędzy wymienionymi kategoriami projektów pozostawały
w bardzo podobnych relacjach – zmiany zazwyczaj nie przekraczały 5%;
– pomimo stosowania coraz doskonalszych metod i narzędzi zarządzania
projektami, odsetek projektów generujących problemy w ich realizacji
lub zakończonych porażką pozostaje bardzo duży (68% w 2009 r.).
Wynika z tego, że ryzyko niepowodzenia projektu wdrożeniowego (lub
zakłóceń w jego przebiegu) jest wysokie i należy podejmować próby zidentyfikowania go, określenia jego rozmiaru, sklasyfikowania i zarządzania nim.
2009
32
44
24
2006
35
46
19
2004
29
53
18
2002
34
51
15
2000
28
49
23
1998
26
46
28
1996
27
33
40
1994
16
53
31
0
10
20
sukces
30
40
50
60
trudności
70
80
90
100%
porażka
Rys. 1. Odsetek projektów zakończonych sukcesem, porażką oraz sprawiających trudności.
Źródło: http://www.projectsmart.co.uk/the-curious-case-of-the-chaos-report-2009.html,
odczyt: grudzień 2011.
3. Ryzyko – definicja, podział,
obszary występowania
Literatura przedmiotu dostarcza wiele definicji ryzyka, z których następujące wydają się najpełniejsze i najlepiej oddające specyfikę zjawiska (Stanik
i Szewczuk 2001; Duncan 1996):
1. Ryzyko to „możliwość klęski (niepowodzenia) przedsięwzięcia, możliwość wystąpienia niechcianej sytuacji, której urzeczywistnienie wpłynie
na obniżenie poziomu sukcesu przedsięwzięcia informatycznego (łącznie
z całkowitym brakiem sukcesu czyli klęską)”.
2. Ryzyko jest „szansą jakiegoś wydarzenia, którego urzeczywistnienie będzie
miało wpływ na realizację zamierzonego celu”.
3. Ryzyko jest „możliwością doświadczenia niepowodzenia”.
vol. 10, nr 3 (38), 2012
43
Tomasz Parys
4. Ryzyko jest „zobiektywizowaną niepewnością wystąpienia niepożądanego
zdarzenia” (Woodward, Hemel i Hedley 1979)1.
Literatura przedmiotu podaje wiele klasyfikacji ryzyka oraz metod jego
oceny. W zależności od przyjętego kryterium można wskazać wiele klasyfikacji. Jako ilustrację problemu przedstawiono w pracy syntetyczną klasyfikację ryzyka.
Najogólniejszą klasyfikacją ryzyka jest jego podział na podstawie kryterium typu. Według niego podział ryzyka kształtuje się następująco:
– ryzyko typowe – występuje przy realizacji każdego projektu informatycznego, niezależnie od dziedziny, jakiej dotyczy; jego wystąpienie wynika
ze specyfiki i charakteru przedsięwzięcia informatycznego;
– ryzyko specyficzne – ściśle związane ze specyfiką dziedziny, jakiej dotyczy
wdrażany w ramach projektu system informatyczny; ryzyko tego typu występuje w przypadku każdego konkretnego przedsięwzięcia realizowanego
np. na indywidualne zamówienie, na podstawie specjalnej lub niestandardowej metodyki czy też przy zastosowaniu specjalnych narzędzi; pojawia
się ono zawsze wtedy, gdy działanie nacechowane jest indywidualnością.
Stosując kryterium poziomu informacji, można dokonać następującego
podziału ryzyka (Kaczmarek 2002; Stanik i Szewczuk 2001):
– ryzyko znane (know risk) – ryzyko można zaklasyfikować do tej grupy,
jeżeli na podstawie analizy projektu, potencjalnych źródeł wystąpienia
ryzyka, przeprowadzenia symulacji możliwe jest jego zidentyfikowanie
oraz określenie z pewną dokładnością konkretnych zdarzeń, jakie mogą
zaistnieć;
– ryzyko przewidywalne (predictable risk) – ryzyko należy do tej grupy wtedy,
gdy na podstawie wiedzy osób zaangażowanych w projekt (kierownik
projektu, konsultanci, informatycy) można wyznaczyć źródła wystąpienia
potencjalnego ryzyka oraz oszacować poziom zagrożenia dla projektu
spowodowanego wystąpieniem tego ryzyka;
– ryzyko nieprzewidywalne (unpredictable risk) – występuje wtedy, kiedy
nie można przewidzieć zarówno wystąpienia niepożądanych zdarzeń,
jak i ich skutków; można o nim mówić zawsze wtedy, gdy wdrożenie
dotyczy nowego systemu oraz kiedy brak jest doświadczeń wdrożeniowych w danym obszarze; ryzyko takie jest nieodłączną częścią każdego
projektu wdrożeniowego.
Skutki związane z występującym ryzykiem mają miejsce praktycznie we
wszystkich obszarach związanych z realizowanym projektem. Do takich
obszarów należą szczególnie:
– przygotowany harmonogram przedsięwzięcia, czyli wszystkie rozłożone
w czasie działania podejmowane przy realizacji projektu – skutki w tym
obszarze objawiają się najczęściej opóźnieniami w terminach realizacji
poszczególnych działań;
– budżet projektu, czyli wymiar finansowy całego projektu – skutki w tym
obszarze są powiązane z harmonogramem; wszelkie opóźnienia w realiza44
Problemy Zarządzania
Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych...
cji projektu znajdują swoje odzwierciedlenie w zwiększonych wydatkach,
co jest jednoznaczne ze wzrostem kosztów realizacji całego projektu;
– zasoby przedsiębiorstwa, tj. ludzie, materiały, środki techniczne – zakłócenia w realizacji projektu wpływają na zmianę tych zasobów, powodując
zmiany w ich wykorzystaniu, czego efektem może być ich niepełne lub
niezgodne z planem wykorzystanie;
– jakość wykonywanych przez dostawcę prac oraz wartość końcową produktu
(wdrożonego rozwiązania), która jest szczególnie ważna dla odbiorców
– użytkowników końcowych.
Skutki zaistnienia ryzyka można podzielić według kryterium ich wystąpienia na wewnętrzne oraz zewnętrzne. Skutki wewnętrzne pojawiają się
w obszarze związanym bezpośrednio z realizowanym przedsięwzięciem
i dotykają głównie firmy klienta (nabywcy). Natomiast skutki zewnętrzne
są związane z całym otoczeniem projektu, tj. dotyczą nie tylko nabywcy, lecz
także firmy dostawcy (producenta) zaangażowanego w całe przedsięwzięcie
(Szyjewski 2004).
Wiedza o samym ryzyku oraz o miejscach (obszarach) wystąpienia jego
skutków znacznie ułatwia przeciwdziałanie im, jak również podjęcie kroków
mających na celu zminimalizowanie ich rozmiarów. Aby jednak możliwa była
pełna identyfikacja ryzyka, należy zwrócić uwagę na dodatkowe jego cechy,
które obok niepewności i skutków pozwalają znacznie lepiej je określić. Do
cech tych należą (Szyjewski 2004):
– zakres – określenie obszaru, zakresu działań, opis czynności projektu,
jak również określenie przedziału czasowego, którego dotyczyć będzie
ryzyko;
– zagrożenie – definicja sytuacji, która może mieć niekorzystny wpływ
na wykonywane czynności, zadania i w efekcie na przebieg projektu
jako całości; można je wszystkie rozpatrywać oddzielnie, łączyć w grupy
w oparciu o różne klasyfikacje i kryteria; wszystkie one pozostają w ścisłym związku z czynnikami ryzyka;
– czynniki ryzyka – określone stany wejściowe dla poszczególnych działań
czy procesów, które są determinantą wystąpienia w ich trakcie określonych zagrożeń, które mogą być pomocne w ocenie ryzyka;
– rozłożenie w czasie – ryzyko wystąpienia konkretnej bariery czy też związanego z nią zagrożenia jest zazwyczaj powiązane z określonym przedziałem czasowym, w którym projekt jest realizowany.
Obecność ryzyka w każdym projekcie jest nieunikniona. Występuje ono
w każdym projekcie informatycznym, niezależnie od jego wielkości i zakresu
działalności przedsiębiorstwa, jaki obejmuje. Pojawia się ono na wszystkich
płaszczyznach realizacji projektu. Projekt wprowadza zmiany w dotychczasowym funkcjonowaniu organizacji. W zależności od ich zmiany i charakteru
ryzyko może być mniejsze lub większe, ale ono zawsze występuje (Szyjewski
2001b). Ryzyko dla powodzenia projektu zależy od płaszczyzny wystąpienia
określonej bariery i wynikających z niej zagrożeń.
vol. 10, nr 3 (38), 2012
45
Tomasz Parys
W pewnych obszarach prawdopodobieństwo wystąpienia ryzyka jest tak
niskie, że można przyjąć, że ryzyko w tym obszarze nie występuje, w innych
zaś jest wysokie, co powoduje, że obszary te nazywane są obszarami ryzyka.
Obszarami ryzyka nazywamy zatem te płaszczyzny związane z realizacją
projektów informatycznych, na które ryzyko ma bezpośredni wpływ lub
z którymi jest ono związane. W celu usystematyzowania wiedzy na temat
barier i wynikających z nich zagrożeń skutkujących wstąpieniem ryzyka niepowodzenia projektu wdrożeniowego należy zawsze określić obszary ryzyka,
w których ono występuje.
Podobnie jak w przypadku samego ryzyka, także obszary związane z jego
wystąpieniem można podzielić według wielu różnych klasyfikacji. Najogólniej
obszary ryzyka można podzielić w następujący sposób:
– środowisko wykonawcze – związane ze stroną techniczną prowadzonego
przedsięwzięcia, dotyczy głownie samego projektu, używanych narzędzi,
stosowanej metodyki itd.;
– środowisko użytkownika – dotyczy przyszłych użytkowników systemu
zarówno pracowników funkcyjnych, jak i informatyków firmy klienta
odpowiedzialnych za konserwację i utrzymanie systemu w ruchu; zawiera
w sobie poziom przygotowania merytorycznego użytkownika, nastawienia
do przedsięwzięcia itp.;
– środowisko przedsięwzięcia – zakres działań związany z samym projektem, jego wielkością, organizacją, jak również z zespołem wdrożeniowym
zaangażowanym w realizację tego przedsięwzięcia.
Literatura przedmiotu przytacza wiele różnych klasyfikacji obszarów
ryzyka. Na przykład firma ORACLE® w swojej metodyce o nazwie CDM
(Customer Development Method) wyróżnia następujące obszary ryzyka2:
– zakres prac projektowych – wszelkie działania wykonywane w czasie realizacji projektu wdrożeniowego;
– działania klienta – całość zachowań firmy klienta, zarówno użytkowników
końcowych, jak i członków zespołu wdrożeniowego;
– aspekty techniczne – wszystkie zdarzenia, które mają miejsce zarówno
w systemie, jak i narzędziach wspomagających prace wdrożeniowe;
– zasoby firmy wraz z logistyką – ryzyko związane z dostępnością zasobów,
ich właściwym wykorzystaniem oraz możliwościami elastycznego przeplanowania ich użycia;
– otoczenie rynkowe – wszystko to, co dzieje się poza stronami umowy,
tj. dostawcą (producentem) rozwiązania a klientem – firmą wdrażającą
dane rozwiązanie u siebie;
– partnerzy umowy i przebieg projektu – ogół działań wykonywanych
w ramach podpisanej umowy i wynikających z realizowanego w jej ramach
projektu.
46
Problemy Zarządzania
Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych...
4. Podstawowe czynniki ryzyka
w projekcie wdrożeniowym
Jak widać na podstawie przytoczonych powyżej klasyfikacji, określenie
obszarów ryzyka może być bardzo różne. Poszczególne podziały różnią się
od siebie w zasadzie tylko stopniem szczegółowości, przy czym wszystkie
one obejmują opisane powyżej obszary realizacji projektu wdrożeniowego.
Pojawienie się ryzyka niepowodzenia projektu wdrożeniowego, będące
rezultatem wystąpienia określonego zdarzenia, którego genezą jest istnienie
określonej bariery, jest uwarunkowane wieloma dodatkowymi elementami
– zagrożeniami. Te wynikające z barier zagrożenia, charakteryzujące się
określoną prawidłowością występowania, zachodzą w „określonej sytuacji
odniesienia, która ma wpływ na wzrost (...) określonego zagrożenia związanego z ryzykiem” (Stanik i Szewczuk 2001). Tak właśnie definiowany jest
czynnik ryzyka, którego określenie stanowi kolejny krok w definiowaniu
ryzyka niepowodzenia projektu wdrożeniowego. Czynniki ryzyka można
– podobnie jak jego obszary – podzielić według wielu różnych kryteriów
ułatwiających ich klasyfikację.
Przyjmując jako kryterium miejsce powstawania, czynniki ryzyka można
podzielić na zewnętrzne, umiejscowione poza zespołem wdrożeniowym, oraz
wewnętrzne, występujące w nim samym. Rozszerzając tę klasyfikację, można
wyróżnić następujące, typowe grupy czynników ryzyka:
– czynniki powiązane z istniejącą strukturą organizacyjną przedsiębiorstwa
i obowiązującymi procedurami wewnętrznymi;
– czynniki związane z użytkownikami systemu – wszystkimi ludźmi, którzy
w dowolnym stopniu będą w swojej pracy wykorzystywać system;
– czynniki powiązane z wiedzą i doświadczeniem osób zaangażowanych
w projekt (menedżerów, konsultantów, informatyków itd.);
– czynniki związane z systemem informatycznym, jego specyfiką oraz złożonością;
– czynniki łączące z elementami biznesowymi oraz wewnętrznymi uwarunkowaniami o charakterze formalno-prawnym;
– czynniki związane z przebiegiem samego projektu wdrożeniowego –
zwłaszcza zaś z zaplanowanym i przyjętym harmonogramem zarówno
w wymiarze czasu jego realizacji, jak i bezpośrednio z tym związanych
kosztów jego prowadzenia.
Czynniki ryzyka wpływają na przebieg całego przedsięwzięcia informatycznego. Widać je we wszystkich wymiarach prowadzonych działań – od
harmonogramu przez koszt realizacji, aż po ewentualne kary związane z brakiem wypełnienia zapisów kontraktu. Wyznaczenie czynników ryzyka jest
zagadnieniem bardzo istotnym głównie ze względu na fakt, iż wystąpienie
niektórych z nich może powodować, że zagrożona będzie realizacja całego
projektu, a tym samym funkcjonowanie systemu w organizacji z wszelkimi
negatywnymi następstwami tego właśnie niepowodzenia.
vol. 10, nr 3 (38), 2012
47
Tomasz Parys
W przypadku wdrożeń systemów zintegrowanych projekty mają bardzo
duży zakres, zaś czynniki ryzyka są następujące (Szyjewski 2001b):
– błędna ocena sytuacji początkowej, prowadząca w późniejszym czasie
do zagrożenia powodzenia projektu wdrożeniowego;
– brak ekspertów, których wiedza jest niezbędna w rozwiązywaniu sytuacji
kryzysowych – dodatkowo szybki rozwój technologii informatycznych
powoduje pojawianie się nowych narzędzi programowych i nowego
sprzętu, w których obsłudze i zastosowaniach brakuje doświadczenia;
– napięty lub długi harmonogram, w przypadku którego ryzyko wynika
z dynamicznej ewolucji technologii informatycznych i wymuszanych przez
nią zmian otoczenia – długie harmonogramy, z natury rzeczy, realizację
celu odsuwają w przyszłość, co powoduje niską dynamikę prac (szczególnie na początku);
– niestabilny skład (duża fluktuacja) lub duża liczebność zespołu wdrożeniowego – taka sytuacja powoduje spadek wydajności spowodowany
brakiem współpracy oraz opóźnieniami związanymi z koniecznością
wprowadzenia nowych osób do pracy w zespole wdrożeniowym;
– korzystanie z usług firm zewnętrznych (np. podwykonawcy) – wsparcie
ze strony takich firm jest zjawiskiem jak najbardziej pozytywnym, jednak
w przypadku korzystania z tego typu usług nie ma możliwości pełnego
nadzoru nad poczynaniami takich firm;
– bardzo wysokie wymagania dotyczące zarówno efektywności (mocy)
obliczeniowej systemu, jak i jego niezawodności – jest to obarczone
dużym ryzykiem, ponieważ wszelkie założenia odnośnie tych wielkości
mają charakter szacunków i przybliżeń; nie można ich przewidzieć przed
zakończeniem projektu;
– zmienność wymagań w trakcie trwania projektu – nowe wymagania
powstają na skutek zmiany otoczenia lub oczekiwań klienta; nie mogą
być one jednak z różnych względów zrealizowane.
5. Klasyfikacja, opis ryzyka, bariery
i działania nim obarczone
Podsumowaniem rozważań o ryzyku, jakie występuje podczas każdego
przedsięwzięcia informatycznego, i przejściem do jego klasyfikacji jest określenie jego rozmiarów, z którymi należy się liczyć.
Ze względu na przytoczony wcześniej podział na ryzyko typowe i specyficzne, co jest odzwierciedleniem charakterystyki prowadzonych projektów,
konieczne jest zwymiarowanie tego właśnie ryzyka oraz jego reprezentacja
w określonej skali. Tylko wtedy, kiedy ryzyko zostanie zwymiarowane i przedstawione w wielkościach, które pozwolą na porównanie go w różnych obszarach, będzie można dobrze zanalizować ewentualne skutki jego wystąpienia
i zaplanować środki zaradcze. Zwymiarowanie jego wielkości i przedstawienie
go w postaci zrozumiałej dla szerokiego grona osób zainteresowanych ryzykiem
48
Problemy Zarządzania
Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych...
jest bardzo istotne, ponieważ ma duże znaczenie dla prawidłowego zrozumienia skali zagrożenia dla powodzenia projektu wdrożeniowego. Z prezentacją
rozmiarów ryzyka ściśle związany jest sposób mierzenia ryzyka i określania
wartości, która będzie informacją na temat rozmiaru zagrożenia. Identyfikacja ryzyka polega na określeniu, jakie zdarzenia mogą być niekorzystne dla
realizowanego projektu. Rozpoznane ryzyko powinno zostać udokumentowane
poprzez jego opisanie w rozbiciu na warunki jego zaistnienia, przejawy oraz
przewidywane skutki dla realizacji projektu wdrożeniowego.
Ryzyko można przedstawiać na wiele różnych sposobów, przy czym najczęściej stosowane są:
– opis słowny – ryzyko opisywane jest przy użyciu powszechnie stosowanych
określeń skali występowania w notacji „bardzo małe”, „małe”, „średnie” itd.;
– wartość liczbowa – ryzyko opisywane jest przez nadanie mu określonej
wartości liczbowej zawierającej się w danym przedziale; opisane w tej
notacji ryzyko jest stosunkowo proste do identyfikacji, gdyż posiłkując
się wartością liczbową, można je umieścić na osi liczbowej i w ten sposób porównać jego wielkość z ryzykiem np. z innego obszaru czy też
projektu wdrożeniowego; dodatkowym atutem tej reprezentacji jest fakt,
iż umożliwia ona rozpatrywanie ryzyka w określonej skali zagrożenia
przedsięwzięcia, tj. od pełnego sukcesu po całkowitą katastrofę; zaletą
tej metody jest przedstawienie ryzyka za pomocą jednej zrozumiałej
liczby, przez co interpretacja skali zjawiska jest bardzo prosta, szczególnie
w kontekście dokonywania zestawień i porównań;
– punkt, obszar, odcinek umieszczony w układzie współrzędnych opisanych
osiami niepewności, na których odłożone są wielkości prawdopodobieństwa wystąpienia zagrożenia i jego skutków – metoda taka daje dużo
informacji o samym ryzyku i pozwala je stosunkowo dobrze zinterpretować, nie ułatwia jednak prostego porównywania z innymi wartościami.
Ryzyko w projekcie wdrożeniowym materializuje się w postaci barier
wdrożeniowych, które przejawiają się konkretnymi sytuacjami lub działaniami mającymi negatywny wpływ na przebieg wdrożenia. W praktyce zatem
należy stworzyć kategorie opisujące rozmiar tego ryzyka oraz przypisać do
nich poszczególne działania i grupy działań będące przejawem barier oraz
określić prawdopodobieństwo ich wystąpienia.
5.1. Kategorie ryzyka
W wyniku prowadzonych badań zdefiniowano kilka kategorii3 ryzyka,
stosując notację słowną. Przyjęto 9 kategorii ryzyka, do których przyporządkowano szacunkowe wartości liczbowe wyrażone w procentach (tabela 1).
Na takie rozwiązanie zdecydowano się, gdyż :
– pozwoli ono syntetycznie pogrupować występujące działania oraz ryzyko
z nimi związane;
– w ramach jednej kategorii umożliwi ono wewnętrznie ustrukturyzowanie
poszczególnych działań (tabela 2).
vol. 10, nr 3 (38), 2012
49
Tomasz Parys
Lp.
Opis słowny rozmiaru ryzyka
Rozmiar wyrażony w procentach
1.
Brak
0
2.
Znikome
10
3.
Bardzo małe
20
4.
Małe
30
5.
Średnie
40
6.
Znaczące
40–60
7.
Duże
60–80
8.
Bardzo duże
80–90
9.
Pewne
90–100
Tab. 1. Klasyfikacja przyjętego ryzyka. Źródło: opracowanie własne.
Lp.
1.
2.
3.
50
Kategoria
ryzyka
Działania zaklasyfikowane do kategorii ryzyka
Brak
Ryzyko nie występuje. Do tej kategorii należą działania najprostsze,
o bardzo małym zakresie, nie wymagające zaangażowania dużych
zasobów. Przykładem jest zakup oprogramowania lub inna
czynność zaopatrzeniowa. Ewentualne opóźnienia wynikające
z tych czynności nie mają wpływu na przebieg całego procesu
wdrożeniowego.
Znikome
Ryzyko występuje w stopniu minimalnym. Do tej kategorii należą
te działania, których poziom trudności jest niski, nie wymagają
zaangażowania dużych zasobów, jednak są związane z szerszym
zakresem działania (obejmują do 10 stanowisk roboczych).
Ewentualne problemy związane z tymi działaniami mają typowy
charakter oraz dają się łatwo usunąć. Przykładem może być
instalacja prostej aplikacji na kilku stanowiskach. Na poziomie
takich czynności nie występuje opór ludzi, ponieważ materia
działania jest im dobrze znana, a przyczynami ich złej pracy są
zazwyczaj zwykłe błędy i pomyłki.
Bardzo
małe
Ryzyko związane z czynnościami zaliczanymi do tej grupy, podobnie
jak poprzednio, jest nieduże, jednak wzrasta wraz z zakresem
działania (zakres do 30 stanowisk). Przykładem takich działań
może być instalacja systemu operacyjnego oraz niezbędnych usług
w połączeniu w komunikacją między stanowiskami (np. opierając
się na grupach roboczych).
Problemy Zarządzania
Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych...
Cd. tab. 2
Lp.
4.
5.
6.
7.
8.
Kategoria
ryzyka
Działania zaklasyfikowane do kategorii ryzyka
Małe
Ryzyko w tej
Działania w
z technologią
działań mogą
wymaganego
o niewielkich
Średnie
Do tej grupy zaklasyfikowane zostały wszystkie czynności
związane z funkcjonowaniem infrastruktury sieciowej, jeżeli łączy
się to z koniecznością dokonywania zmian i związanego z nimi
szkolenia użytkowników. Takim ryzykiem obarczone są także
działania związane z koniecznymi aktualizacjami oprogramowania
w systemach sieciowych do 100 użytkowników.
Znaczące
Ryzykiem tej wielkości obarczone są działania dotyczące
zagadnień wychodzących poza jeden obszar funkcjonalny, związane
z funkcjonowaniem infrastruktury sieciowej. Takim ryzykiem
obarczone są także braki funkcjonalności systemu na poziomie
kilku stanowisk roboczych. Do tej kategorii zaklasyfikować można
także działania związane z wymianą i/lub rozbudową, względnie
z wprowadzeniem nowego narzędzia. Dodatkowo połączone jest to
z koniecznością szkoleń oraz zmianami w organizacji. Opór ludzi
na poziomie tych działań jest także obarczony takim ryzykiem.
Przykładem może być rozbudowa sieci oraz włączenie do systemu
nowych działów funkcjonalnych przedsiębiorstwa. Działania te
nabierają szczególnego znaczenia w przypadku przedsiębiorstwa
wielooddziałowego rozproszonego geograficznie i związanej z tym
koniczności integracji.
Duże
Do kategorii tej należą działania wykonywane na płaszczyźnie
całego przedsiębiorstwa, tj. kiedy dotyczą (w różnym stopniu)
wszystkich działów funkcjonalnych przedsiębiorstwa. Ta kategoria
ryzyka dotyczy szczególnie działań związanych z oporem ludzi
wobec zmian (np. restrukturyzacja), brakiem komunikacji lub
wadliwą komunikacją. Dużym ryzykiem obarczone są także
problemy wynikające z braku szkoleń lub niewystarczającej ich
liczby oraz poziomu, tj. głównie działania będące wynikiem braku
wiedzy oraz niekompetencji. Do tej kategorii należą także błędy
działania systemu wynikające z braków funkcjonalności na poziomie
firmy (np. w module finansowym czy też raportowania). Dużym
ryzykiem obarczone są także działania osób nieposiadających
wystarczającej wiedzy merytorycznej (brak ekspertów).
Bardzo
duże
Działania podejmowane w ramach zespołu wdrożeniowego
(zarówno konsultantów, użytkowników, informatyków, jak też
kierujących projektem). Działania tych ludzi mają bezpośredni
wpływ na przebieg procesu wdrożeniowego, tj. przestrzeganie
harmonogramu, a tym samym przydzielonych zasobów. Wszelkie
decyzje, sposób i atmosfera ich podejmowania mają bezpośrednie
przełożenie na przebieg wdrożenia oraz jego efekt.
vol. 10, nr 3 (38), 2012
grupie jest związane z wielkością przedsięwzięcia.
tej grupie dotyczą przedsięwzięć związanych
sieciową i zapewnieniem komunikacji. Przykładem
być zarówno budowa infrastruktury, jak i instalacja
oprogramowania. Dotyczy działań w sieciach
rozmiarach (do 100 użytkowników).
51
Tomasz Parys
Cd. tab. 2
Lp.
9.
Kategoria
ryzyka
Pewne
Działania zaklasyfikowane do kategorii ryzyka
Działania zarządu, kierownictwa i innych decydentów najwyższego
szczebla. Jeżeli na tym poziomie wystąpią zakłócenia i bariery,
niepowodzenie projektu jest pewne. Od działań z tego zakresu
nie ma bowiem odwrotu, a to dlatego, że mają one kluczowy
charakter i determinują wszystkie inne. Na tym etapie ciężko
jest barierom przeciwdziałać, jako że jest to najwyższy poziom
decyzyjny. Przykładem jest brak zgody zarządu na dodatkowe
zakupy, np. sprzętu lub licencji systemu. Do tej kategorii zaliczyć
należy także zbyt napięty lub zbyt długi harmonogram. W tym
drugim przypadku, w dobie dynamicznego rozwoju techniki
i technologii, pojawia się ryzyko niedopasowania zastosowanych
rozwiązań (zawartych w projekcie) do aktualnych wymogów.
Dodatkowo przyjęty na początku cel może z upływem czasu ulec
zupełnej zmianie.
Tab. 2. Opis przyjętych kategorii ryzyka. Źródło: opracowanie własne.
Przedstawione kategorie ryzyka oraz obszary działań do nich zaliczone
traktować należy w kategorii modelowych wytycznych, które pozwolą opisać
i pogrupować konkretne działania. Mogą być one rozbudowywane o konkretne rzeczywiste działania, tak aby dobrze poznać ryzyko i ułatwić zarządzanie nim.
6. Podsumowanie
W czasie prowadzonych badań okazało się, że problemy, jakie występują
w czasie wdrożenia pod kątem występowania ryzyka, wykazały pewną prawidłowość. Można je najogólniej zaklasyfikować do trzech grup: techniczne
(sprzęt), systemowe (działanie systemu) oraz ludzkie (działania ludzi). Problemy techniczne charakteryzują się największym stopniem powtarzalności
oraz stosunkowo wysoką przewidywalnością. Ich wystąpienie jest związane
z najmniejszym ryzykiem dla przebiegu projektu wdrożeniowego. Problemy wynikające z funkcjonowania systemu zintegrowanego, jak np. braki
funkcjonalności czy źle zdefiniowane interfejsy, także dają się w pewnym
stopniu przewidzieć. I choć występują one mniej regularnie niż problemy
techniczne, to ich usunięcie następuje zazwyczaj wskutek zastosowania typowych, znanych zabiegów. Ryzyko wystąpienia takich zdarzeń jest jednak
wyższe. Problemy, z którymi związane jest największe ryzyko, są generowane
przez ludzi (głównie przez użytkowników). Te problemy występują zazwyczaj
nieoczekiwanie, natomiast te, które można przewidzieć, pojawiają się bez
żadnej regularności i mają najróżniejsze przyczyny. Dodatkowo występują
one z różnym natężeniem oraz nie wykazują żadnych, nawet najmniejszych
prawidłowości.
52
Problemy Zarządzania
Ryzyko w projektach wdrożeniowych zintegrowanych systemów informatycznych...
Informacje o autorze
Dr Tomasz Parys – Katedra Systemów Informacyjnych Zarządzania, Wydział
Zarządzania Uniwersytetu Warszawskiego. E-mail: [email protected].
Przypisy
1
W literaturze przedmiotu ta definicja ryzyka jest najczęściej stosowana. Por. Szyjewski 2001a.
2
Opracowano na podstawie materiałów dostępnych na stronie http://www.postjobfree.
com/resume/yyttq, odczyt: listopad 2011.
3
Kategorie zdefiniowane zostały na potrzeby dużych systemów zintegrowanych. Dla
przedsięwzięć mniejszych kategorie należy przedefiniować, choć ich układ będzie
podobny.
Bibliografia
Duncan, W.R. 1996. A Guide to the Project Management Body of Knowledge, Sylva: Project
Management Institute.
Kaczmarek, T. 2002. Zarządzanie ryzykiem, Gdańsk: ODDK.
Kubiak, B.F. i A. Korowicki (red) 2001. Human Computer Interaction 2001, Gdańsk:
Wydawnictwo Akwila – Roman Młodkowski.
Pritchard, C.L. 2002. Zarządzanie ryzykiem w projektach. Teoria i praktyka, Warszawa:
WIG-PRESS.
Szyjewski, Z. 2001a. Projektowanie systemów informatycznych, Warszawa: Wydawnictwo
Naukowe PWN.
Szyjewski, Z. 2001b. Zarządzanie projektami informatycznymi, Warszawa: Placet.
Szyjewski, Z. 2004. Metodyki zarządzania projektami informatycznymi, Warszawa: Placet.
Stanik, J. i J. Szewczuk 2001. Szacowanie ryzyka przedsięwzięć informatycznych cz. I
– wprowadzenie do oceny ryzyka przedsięwzięć informatycznych, w: B.F. Kubiak
i A. Korowicki (red) Human Computer Interaction 2001, Gdańsk: Wydawnictwo Akwila
– Roman Młodkowski.
Woodward, M.R., Hemel, M.A. i D. Hedley 1979. A Measure to Control Flow Complexity in Program Text. IEEE Transactions on Software Engineering, nr 5.
vol. 10, nr 3 (38), 2012
53
Problemy Zarządzania, vol. 10, nr 3 (38): 54 – 66
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.4
Analiza wyzwań związanych
z zarządzaniem przestrzenią elektroniczną
przez współczesne organizacje gospodarcze
Janusz Wielki
Niniejszy artykuł dotyczy kwestii zarządzania przestrzenią elektroniczną
w kontekście rosnącego wykorzystywania Internetu przez współczesne organizacje gospodarcze. Składa się on z czterech części. W pierwszej z nich przedstawiony został krótki zarys podstawowych aspektów związanych z przestrzenią
elektroniczną i zarządzaniem nią. Dwie następne części są kluczowe z punktu
widzenia niniejszego artykułu. W pierwszej z nich przeprowadzono analizę
działań związanych z zabezpieczeniem i ochroną aktywności organizacji on-line, jako kluczowego elementu zarządzania przestrzenią elektroniczną.
Następnie zaprezentowano możliwości aktywnego oddziaływania przedsiębiorstw
na e-przestrzeń, jako elementu dopełniającego zarządzaniem nią. Końcowa,
czwarta cześć artykułu zawiera najważniejsze wnioski, konkluzje i zalecenia.
1. Wprowadzenie
Problem wpływu Internetu na funkcjonowanie organizacji gospodarczych
jest zagadnieniem coraz bardziej istotnym zarówno z punktu widzenia każdej
z nich, jak i z perspektywy całej współczesnej gospodarki. Niezwykle szybko
rosnąca rola i oddziaływanie Internetu na praktycznie każdy sektor gospodarki powoduje konieczność jak najlepszego rozumienia przez podmioty
w niej funkcjonujące istoty zagadnienia i całej jego złożoności. Aby skutecznie rywalizować w nowej, postindustrialnej rzeczywistości gospodarczej,
w której coraz większą rolę odgrywa globalna infrastruktura sieciowa, jaką
jest Internet, organizacje muszą umieć się w niej poruszać tak, aby z jednej
strony wykorzystywać wyłaniające się szanse i często niedostępne wcześniej
możliwości, a z drugiej minimalizować lub też całkowicie eliminować nowe
i nieznane im wcześniej zagrożenia.
W tej sytuacji coraz bardziej istotnym elementem aktywności każdego
przedsiębiorstwa staje się umiejętność zarządzania przestrzenią elektroniczną,
w której odbywa się funkcjonowanie wszelkich podmiotów korzystających
z Internetu i do której przenosi się w szybkim tempie coraz większa cześć współczesnej działalności gospodarczej, oraz włączanie tego typu działań do zakresu
rutynowych aktywności każdej firmy. Dlatego też każda organizacja powinna
54
Problemy Zarządzania
Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną...
podejmować odpowiednie całościowe działania związane z szeroko pojętym
zarządzaniem nią, tj. planowaniem i organizowaniem działalności on-line, kierowaniem ludźmi w niej działającymi oraz kontrolowaniem zarówno poszczególnych elementów, jak i całości swej aktywności w środowisku elektronicznym.
W tym kontekście wskazać można dwa zasadnicze aspekty, które powinny
być brane pod uwagę:
– zabezpieczenie i szeroko pojęta ochrona działalności on-line (działania
prewencyjno-zabezpieczające),
– wykorzystanie możliwości aktywnego oddziaływania na nią (działania
proaktywne).
2. Działania związane z zabezpieczeniem
i ochroną aktywności organizacji on-line
Niewątpliwie pierwszym krokiem, jaki powinien być podjęty w kontekście działań związanych z obydwoma powyższymi obszarami, jest powołanie
ciała sterującego-nadzorująco (np. komitetu sterującego), którego zadaniem będzie czuwanie nad całością zagadnień związanych z zarządzaniem
przestrzenią elektroniczną w kontekście realizacji celów organizacyjnych.
Ze względu na specyfikę jej ewolucji i oddziaływania na organizację jego
skład powinien obejmować przedstawiciela kierownictwa przedsiębiorstwa
oraz kierownictw działów IT i marketingu. Wynika to z faktu, iż aspekty
te nie mogą być w dzisiejszych warunkach traktowane (jak to się wciąż
często zdarza) jako zagadnienie czysto techniczne. Stąd wynika z jednej
strony konieczność zaangażowania kierownictw działów, które kwestie te
w największym stopniu dotykają. Z drugiej natomiast strony szeroko pojęte
zagadnienia związane z zarządzaniem przestrzenią elektroniczną, w tym
bezpieczeństwem on-line, są na tyle w dzisiejszych warunkach gospodarczych
istotne, iż decyzje z nimi związane nie mogą być pozostawione wyłącznie
w zakresie odpowiedzialności osób znajdujących się na średnich czy też
niskich szczeblach hierarchii organizacyjnej. Toteż coraz częstsze są przypadki firm, w których aspekty związane z cyberbezpieczeństwem (cybersecurity) traktowane są jako element strategii biznesowej, w które bezpośrednio
zaangażowana jest najwyższa kadra zarządzająca (Kaplan i in. 2011).
Jeśli chodzi o pierwszy z wymienionych wcześniej aspektów związanych
z zarządzaniem przestrzenią elektroniczną, tj. działania odnoszące się do
zabezpieczenia i szeroko pojętej ochrony działalności on-line, to wyodrębnić
należy dwa zasadnicze ich obszary, których aktywność ciała nadzorująco-sterującego powinna dotyczyć, tj. wewnątrzkorporacyjny oraz zewnętrzny
(rysunek 1).
W pierwszym przypadku niewątpliwie kluczowym aspektem jest zdefiniowanie polityki bezpieczeństwa on-line na poziomie zarówno ogólnokorporacyjnym, jak i indywidualnym. Wiąże się to z takimi działaniami jak precyzyjne
określenie zasad korzystania przez pracowników z przestrzeni elektroniczvol. 10, nr 3 (38), 2012
55
Janusz Wielki
nej, łącznie z wykorzystywanymi przez nich tam narzędziami, oraz zakresu
monitorowania ich aktywności on-line. Ze względu na dużą dynamikę zmian
zachodzących w środowisku pracy organizacji i w ich otoczeniu konieczne
jest stałe dostosowywanie istniejących rozwiązań do zmieniającej się sytuacji.
W tym kontekście należy zauważyć dwa narastające wyzwania, jakie stają
przed organizacjami. Z jednej strony są to media społecznościowe (social
media) i korzystanie z nich przez pracowników (Deloitte 2011). Z drugiej
strony jest to natomiast zjawisko „konsumeryzmu IT” (consumerization-of-IT), którego przejawem jest nasilający się trend – określanym mianem
bring-your-own-device (BYOD) (Faas 2012) – do wykorzystywania w środowisku pracy własnych narzędzi mobilnych takich jak smartfony czy tablety
(Stackpole 2011; Marciniak 2011).
Podjęcie decyzji o zarządzaniu
przestrzenią elektroniczną
Powołanie do życia ciała
sterująco-nadzorującego
Obszar zewnętrzny
Wyznaczenie osób
odpowiedzialnych
za jej realizację oraz
określenie zakresu ich
odpowiedzialności
Uszczegółowienie
działań w wymiarze
organizacyjnym
i technicznym
Określenie polityki
monitorowania PE,
zarządzania wiedzą
o niej i reagowania
na zdarzenia w niej
zachodzące
Wyznaczenie osób
odpowiedzialnych
za jej realizację oraz
określenie zakresu ich
odpowiedzialności
Określenie polityki
w zakresie aktywnego
oddziaływania na PE
Działania proaktywne
Określenie polityki
bezpieczeństwa
on-line na poziomie
ogólnokorporacyjnym
i indywidualnym
Działania prewencyjno-zabezpieczające
Obszar wewnątrzorganizacyjny
Wyznaczenie osób
odpowiedzialnych
za jej realizację oraz
określenie zakresu ich
odpowiedzialności
Uszczegółowienie
działań w wymiarze
organizacyjnym
i technicznym
Uszczegółowienie
działań w wymiarze
organizacyjnym
i technicznym
Implementacja całości zaplanowanych działań
Rys. 1. Całościowe spojrzenie na zarządzanie przestrzenią elektroniczną przez organizacje.
Źródło: opracowanie własne.
56
Problemy Zarządzania
Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną...
Powyższe kwestie dotyczą pracowników funkcjonujących w obszarze
„fizycznej” infrastruktury organizacji, ale również realizujących swe zadania
w ramach telepracy czy też jako tzw. wolni strzelcy (freelancers). Zauważyć
należy, iż ta druga grupa staje się coraz bardziej istotna ze względu na
coraz powszechniejsze wykorzystanie tego typu pracowników przez przedsiębiorstwa (Raszkowska 2011). Jednocześnie istotnym elementem tych
działań są kwestie związane z nadzorowaniem właściwego funkcjonowania
i zabezpieczenia infrastruktury IT organizacji w kontekście bezpieczeństwa ogólnokorporacyjnego w przestrzeni elektronicznej. Jak istotne są to
kwestie, przekonało się już wiele firm, łącznie z największymi, takimi jak
Sony, w przypadku której z pozoru banalne zaniedbania w tym obszarze
doprowadziły do znaczących strat finansowych (Urbanowicz 2011; Williams 2011).
Stąd też kolejnym elementem działań powinno być wyznaczenie osób
odpowiedzialnych za realizację zadań w wyżej wymienionych obszarach
i określenie zakresów ich odpowiedzialności, jak również ustalenie sposobów
oraz częstotliwości przekazywania informacji zwrotnych dotyczących podejmowanych przez nie działań i ewentualnie występujących problemów. Trzeci
poziom aktywności w tym obszarze to ich uszczegółowienie w wymiarze
organizacyjnym, jak również w odniesieniu do wykorzystywanych narzędzi
i technologii (rysunek 1).
Drugi, zewnętrzny obszar działań, jeśli chodzi o zabezpieczenie i ochronę
działalności on-line, związany jest bezpośrednio z przestrzenią elektroniczną
i jej oddziaływaniem. Podobnie jak w poprzednim przypadku, podstawowym
zadaniem komitetu sterującego jest określenie polityki organizacji związanej z jej monitorowaniem, zarządzaniem wiedzą o niej oraz sposobami
reagowania na określone wydarzenia w niej zachodzące. W tym kontekście
kolejnym elementem działań jest również ustalenie osób odpowiedzialnych
za realizację poszczególnych zadań i zakresu ich odpowiedzialności, ale też,
jeśli to konieczne, powołanie do życia międzydziałowych zespołów eksperckich i ustalenie zakresu ich odpowiedzialności, jak również zdefiniowanie
sposobów oraz częstotliwości przekazywania informacji zwrotnych w kontekście podejmowanych działań oraz występujących problemów. Podobnie jak
w poprzednim przypadku, trzeci poziom działań w tym obszarze związany
jest z ich uszczegółowieniem w wymiarze organizacyjnym i technicznym.
W tym kontekście istotna jest odpowiedź na takie kluczowe pytania jak:
1. Które podmioty (i ich aktywność) powinny być monitorowane?
2. Jak mogą one oddziaływać na organizację i jej funkcjonowanie?
3. Jakie obszary przestrzeni elektronicznej powinny być monitorowane?
4. Jakie środki techniczne powinny być do tego celu wykorzystywane?
5. Kto powinien być odpowiedzialny za proces monitorowania przestrzeni
elektronicznej, podejmowanie decyzji w kwestii reagowania na zachodzące tam zdarzenia oraz samą reakcję i wykorzystywane do tego celu
środki techniczne?
vol. 10, nr 3 (38), 2012
57
Janusz Wielki
6. Jakie działania w stosunku do podmiotów działających w przestrzeni
elektronicznej będących interesariuszami organizacji, lub też uważającymi
się za nich, mogą być podejmowane i są akceptowane przez organizację
w ramach zarządzania nimi?
Jeśli chodzi o pierwsze pytanie, to niewątpliwie kluczowym elementem
działań jest z tej perspektywy przeprowadzenie przez organizację segmentacji
podmiotów funkcjonujących w przestrzeni elektronicznej z punktu widzenia
ich potencjalnego oddziaływania na nią. Pozwoli to na wyodrębnienie tych
firm, grup, osób prywatnych czy też określonych miejsc on-line, których
aktywność powinna być monitorowana z punktu widzenia zapobiegania
występowaniu niekorzystnych dla niej zdarzeń lub też, jeśli jest to niemożliwe, odpowiednio szybkiego reagowania na nie. Dotyczy to tak kwestii
różnego typu potencjalnego oddziaływania fizycznego na infrastrukturę
organizacji, jak również wpływu na jej szeroko pojęte aspekty wizerunkowe
(Garnajewa i Namiestnikow 2012).
W tym kontekście wskazać można trzy podstawowe segmenty podmiotów operujących on-line (Wileki 2007: 324). Jeśli chodzi o pierwszy z nich,
tj. znane i identyfikowalne podmioty funkcjonujące w przestrzeni elektronicznej i oddziaływujące na organizację, to kwestia ich wyodrębnienia powinna
być relatywnie prosta, z uwagi na fakt, iż dotyczy ona generalnie rzecz
biorąc „klasycznych” interesariuszy organizacji zarówno zewnętrznych, jak
i wewnętrznych. Jednak w nowych warunkach dynamicznie rozwijającej się
gospodarki postindustrialnej wraz z jej coraz istotniejszą częścią osadzoną
i rozwijającą się on-line, nie jest to już tak oczywiste jak wcześniej, a wynika
to z kilku istotnych kwestii.
Po pierwsze podmioty typowo należące do tej grupy, takie jak dostawcy,
partnerzy biznesowi czy też konkurenci, a nawet klienci, w rosnącym stopniu
funkcjonują w coraz bardziej skomplikowanych i różnorodnych powiązaniach sieciowych, stąd też coraz trudniej jest jednoznacznie określić, do
jakich konkretnych grup należy ich zaliczyć, aby następnie monitorować ich
aktywność i gromadzić wiedzę o nich, a tym samym odpowiednio szybko
i skutecznie ją wykorzystywać.
Po drugie do omawianej tu grupy należy zaliczyć podmioty, które dopiero
wraz z rozwojem gospodarki elektronicznej ujawniły się jako interesariusze
organizacji. Dotyczy to z jednej strony np. wpływowych lokalnych i globalnych blogerów, ale przede wszystkim największych wyszukiwarek internetowych, których skala oddziaływania na gospodarkę i pojedynczą organizację
jest coraz bardziej znacząca i wielowymiarowa (Wielki 2008). Jednocześnie
z punktu widzenia coraz większej części przedsiębiorstw podmiotami, które
w ich kontekście powinny być zaliczone do tej grupy, są takie globalane
serwisy jak Wikipedia czy WikiLeaks.
Jeśli chodzi o drugą grupę to jest ona najtrudniejsza z punktu widzenia jej
identyfikacji przez organizacje oraz zarządzania wiedzą o nich w kontekście
funkcjonowania w przestrzeni elektronicznej. Obejmuje ona wszelkie te pod58
Problemy Zarządzania
Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną...
mioty – zarówno nieznane, jak i trudno identyfikowalne – które wywierają
na nią realny i odczuwalny wpływ. W jej ramach wyróżnić można dwa zbiory
podmiotów, których aktywność powinna być monitorowana, a zgromadzona
wiedza odpowiednio wykorzystywana.
Pierwszy z nich jest związany z kwestiami fizycznego bezpieczeństwa
infrastruktury IT organizacji, a co za tym idzie jej samej, ale również jej klientów oraz partnerów biznesowych. Zagadnienia te nabierają coraz większego
znaczenia w kontekście dynamicznego rozwoju gospodarki elektronicznej,
a jednocześnie stają się coraz bardziej skomplikowane i trudne z uwagi
na fakt stosowania przez podmioty należące do tej grupy coraz bardziej
wyrafinowanych technologii i metod działania (Ponemon Institute 2012).
Drugi zbiór podmiotów należących do analizowanej grupy to osoby
fizyczne lub firmy wykorzystujące narzędzia internetowe do oddziaływania
na wiarygodność czy też reputację organizacji. Sięgając po wszelkie dostępne
w danym momencie, a nieustannie rozwijające się narzędzia oparte na technologiach internetowych i mobilnych, potrafią one niezwykle skutecznie
wpływać na samą organizację, jak również jej bezpośrednich interesariuszy.
Ostatnia, trzecia grupa obejmuje podmioty co prawda funkcjonujące
w przestrzeni elektronicznej i realizujące tam swoje cele, jednak uznawane
za neutralne z punktu widzenia danej organizacji i podejmowanych przez
nią działań. Mogą to być takie, których istnienia jest ona świadoma, jak
również te całkowicie jej nieznane. Warto jednocześnie w tym kontekście
zauważyć, iż ze względu na dużą dynamikę zmian zachodzących w przestrzeni
elektronicznej, podmioty należące do tej grupy mogą praktycznie z dnia na
dzień stać się interesariuszami organizacji. Dotyczy to tak firm działających
wcześniej w zupełnie innym obszarze gospodarki, ale również osób fizycznych
organizujących się ad hoc w określone grupy interesów (np. motywowanych
politycznie różnego typu haktywistów – hacktivists) (Symantec 2012).
W kontekście przeprowadzonej segmentacji podmiotów funkcjonujących w przestrzeni elektronicznej, ze względu na kwestie ich potencjalnego
oddziaływania na organizację, kolejnym elementem działań powinna być
ich analiza z punktu widzenia różnych typów możliwych ich wpływów na
nią (fizyczny/niefizyczny, bezpośredni/pośredni, ukierunkowany na zasoby
materialne/niematerialne) (Wielki 2007: 325–326). Wiąże się to z odpowiedzią na drugie z powyżej sformułowanych pytań.
Kolejny element aktywności związanej z działaniami prewencyjno-zabezpieczającymi w obszarze zewnętrznym wiąże się z możliwościami zarządzania zidentyfikowanymi grupami interesariuszy organizacji funkcjonującymi
w przestrzeni elektronicznej w kontekście realizacji przez nią swych celów.
W odniesieniu do tego poziomu niezbędne jest uszczegółowienie kwestii
organizacyjno-technicznych związanych z zagadnieniami zawartymi w trzech
kolejnych pytaniach, tj. 3, 4 oraz 5.
Z jednej strony jest to kwestia doprecyzowania, jakie obszary przestrzeni
elektronicznej i aktywność jakich podmiotów w nich operujących powinny
vol. 10, nr 3 (38), 2012
59
Janusz Wielki
być szczególnie monitorowane. Chociaż z punktu widzenia organizacji wykorzystujących Internet w swej działalności potencjalnie wszystko, co się w niej
dzieje, jest dla firmy istotne, jednak dla każdej z nich istnieją takie miejsca
on-line, które są szczególnie drażliwe w kontekście realizacji jej celów biznesowych. Są to często różnorakiego typu fora dyskusyjne, blogi, profile
na różnego rodzajach portalach społecznościowych czy też inne obszary,
w których kształtowane są opinie o firmie oraz jej działalności. Ich monitorowanie dostarczać może informacji o bieżących, banalnych i całkiem
typowych zdarzeniach, wymagających rutynowej reakcji (np. wyjaśnienia
pewnych kwestii na forum dyskusyjnym, blogu firmowym czy na portalu
społecznościowym), sytuacjach nietypowych i nieoczekiwanych z punktu
widzenia organizacji (Gazeta.pl 2010), ale również takich, które potencjalnie dotyczyć mogą rodzących się bardziej zorganizowanych akcji skierowanych przeciw firmie (Grynkiewicz 2010) czy też wyłaniających się zagrożeń
w określonym sektorze. Jeśli chodzi o tę ostatnią kwestię, to z punktu
widzenia organizacji takich jak banki niezwykle istotne jest monitorowanie
określonych miejsc w przestrzeni elektronicznej w kontekście odpowiednio
szybkiego pozyskiwania informacji krytycznych z punktu widzenia bezpieczeństwa ich klientów i odpowiednio szybkiego ich ostrzegania, jak również
przygotowania własnego do ujawniających się zagrożeń.
Drugie zagadnienie to kwestia środków technicznych wspomagających
zarządzanie przestrzenią elektroniczną i podmiotami w niej funkcjonującymi, jakie wykorzystywać będzie organizacja. Dotyczy to narzędzi i rozwiązań wspomagających monitorowanie określonych obszarów przestrzeni
elektronicznej, zarządzanie wiedzą o niej oraz reagowania na zachodzące
tam zdarzenia. Jeśli chodzi o pierwszy aspekt, to istnieje całe spektrum
możliwości w tym względzie. Z jednej strony jest to kwestia ręcznej kontroli
określonych miejsc w przestrzeni elektronicznej (serwisów internetowych,
blogów, portali społecznościowych itd.) prowadzonej przez odpowiedzialne
za to osoby (np. monitorowania i korygowania wpisów dotyczących własnej
firmy pojawiających się w Wikipedii tak jak robi to IBM) (Friedman 2006:
134). Odnosi się to również do przeszukiwania zawartości tzw. Internetu
głębokiego (invisible Web, deep Web), z wykorzystaniem do tego celu specjalistycznych wyszukiwarek (Unold 2011: 152–153). Jednocześnie dostępnych jest coraz więcej narzędzi wspomagających monitorowanie przestrzeni
elektronicznej. Są to z jednej strony darmowe rozwiązania takie jak Google
Alerts, umożliwiające automatyczne prowadzenie tych procesów pod kątem
pojawiania się w niej wybranego przez użytkownika tematu czy też tematów. Z drugiej strony dostępne są płatne specjalistyczne serwisy wspomagające monitorowanie i raportowanie w odniesieniu do całej przestrzeni
elektronicznej lub też określonych miejsc on-line, np. portali społecznościowych, pod kątem zdefiniowanych słów kluczowych. Przykładami tego
typu produktów są takie serwisy jak NewsPoint i NewsPoint Social Media
(NewsPoint 2011).
60
Problemy Zarządzania
Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną...
Jednocześnie same narzędzia monitorowania to zdecydowanie za mało,
zważywszy na ilość danych i informacji, jakie są generowane w przestrzeni
elektronicznej. Aby skutecznie zarządzać nią i operującymi tam interesariuszami organizacji, niezbędne jest posiadanie rozwiązań analitycznych przetwarzających dostarczone dane i łatwo integrowalnych z systemami dostarczającymi wygenerowanych informacji i wiedzy wszelkim odpowiedzialnym
za kwestie zarządzania przestrzenią elektroniczną podmiotom w organizacji,
tak aby mogły one podejmować szybko i sprawnie niezbędne decyzje oraz
działania. Stąd też rozwój rozwiązań takich jak Buzzient Enterprise, dostarczających różnego typu możliwości analitycznych. Może być bezpośrednia
integracja z różnego typu systemami CRM, zasilanie systemów klasy business intelligence lub też analiza i wizualizacja danych za pomocą aplikacji
webowych (Buzzient 2011). Jeśli chodzi natomiast o platformę integrującą
informacje i wiedzę dotyczące przestrzeni elektronicznej i podmiotach w niej
funkcjonujących oraz aplikacje wspierające zarządzanie nią, to niewątpliwie
przydatnym rozwiązaniem w tym kontekście są takie systemy jak portale
korporacyjne.
Generalnie rzecz biorąc, rozwiązania wspierające zarządzanie przestrzenią elektroniczną powinny łączyć w sobie elementy takie jak (Wielki i Ziemba
2008: 149–152):
– systemy oparte na wykorzystaniu technologii internetowych i mobilnych,
wspierające szeroko pojęte procesy komunikacji, umożliwiające dzielenie
się informacją i wiedzą czy też wymianę opinii dotyczących przestrzeni
elektronicznej i podmiotów tam funkcjonujących;
– systemy pracy grupowej, zapewniające wymianę informacji i wiedzy
wewnątrz organizacji, istotnych z punktu widzenia zarządzania przestrzenią elektroniczną, stymulujące i wspomagające organizowanie współpracy
wewnątrzorganizacyjnej;
– system zarządzania dokumentami, pozwalający na przechowywanie,
klasyfikację i wyszukiwanie dokumentów dotyczących poszczególnych
podmiotów funkcjonujących w przestrzeni elektronicznej;
– systemy przepływu pracy, wspierające wszelkiego typu procesy przebiegające wewnątrz organizacji, jak również w ramach jej powiązań sieciowych,
związane z zarządzaniem przestrzenią elektroniczną;
– systemy business intelligence, umożliwiające analizę zgromadzonych
danych związanych z przestrzenią elektroniczną i podmiotami tam operującymi;
– rozwiązania klasy Web mining, umożliwiające automatyczne odkrywanie
informacji i wiedzy na podstawie dokumentów umieszczonych na witrynach WWW oraz dające możliwość analizy zachowań użytkowników na
stronach WWW;
– systemy szkoleń elektronicznych, wspierające rozwój umiejętności i kwalifikacji, jak również pozyskiwanie i poszerzanie wiedzy pracowników
niezbędnej w kontekście zarządzania przestrzenią elektroniczną;
vol. 10, nr 3 (38), 2012
61
Janusz Wielki
– technologie wyszukiwania informacji i wiedzy, takie jak narzędzia kategoryzacji i taksonomii, ontologie czy też wyszukiwarki;
– intranet lub inna sieć wewnątrzorganizacyjna dająca pracownikom dostęp
do informacji i wiedzy dotyczącej przestrzeni elektronicznej i podmiotów
w niej funkcjonujących.
Jednocześnie, oprócz omówionych powyżej narzędzi i rozwiązań technicznych, istotnym elementem z punktu widzenia zarządzania przestrzenią
elektroniczną jest – podobnie jak w obszarze wewnętrznym – uszczegółowienie działań w wymiarze organizacyjnym.
Ostatnie ze sformułowanych wcześniej pytań wiąże się z określeniem,
jakie typy aktywności w przestrzeni elektronicznej w stosunku interesariuszy organizacji, w ramach działań prewencyjno-zabezpieczających, są
dopuszczalne i akceptowalne, a jakie absolutnie nie. Jest to kwestia związana z wymiarem normatywnym zarządzania interesariuszami (Donaldson
i Preston 1995: 71, 81–82), która powinna być zdefiniowana na poziomie
komitetu sterującego.
3. Działania związane z aktywnym wpływem
organizacji na przestrzeń elektroniczną
Jednocześnie, poza podejmowaniem działań prewencyjno-zabezpieczających w odniesieniu do swojej obecności i funkcjonowania w przestrzeni
elektronicznej, każda organizacja ma cały szereg możliwości aktywnego
oddziaływania na nią i kształtowania jej na pięciu zasadniczych poziomach:
własnym, sektorowym, krajowym, regionalnym i globalnym.
Jeśli chodzi o pierwszy z nich, jest to kwestia wprowadzania własnych
rozwiązań, systemów czy produktów, ale również tworzenia i implementacji
własnych polityk czy regulaminów dotyczących różnych aspektów funkcjonowania on-line (np. privacy policies). Inne kluczowe możliwości oddziaływania
na przestrzeń elektroniczną na poziomie własnym to podejmowanie działań
prawnych skierowanych przeciwko innym podmiotom tam funkcjonującym,
szczególnie takim, które w sposób istotny tworzą lub też oddziałują na jej
kształt i ład w niej panujący (np. Google).
Jeżeli chodzi o możliwości związane z poziomem sektorowym, to dotyczą
one przede wszystkim takich aspektów, jak tworzenie rozwiązań sprzyjających
i stymulujących rozwój danej branży (np. SET – system płatności on-line)
czy też podejmowanie różnego typu działań prawnych (np. działania branży
muzycznej przeciwko użytkownikom ściągających pliki mp3, działania branży
wydawniczej przeciwko Google Books).
Z kolei w kontekście oddziaływania na poziomie krajowym najważniejsze
jego elementy obejmują: tworzenie własnych produktów i rozwiązań ukierunkowanych lokalnie, udział we wszelkiego rodzaju ciałach pracujących nad
określonymi rozwiązaniami istotnymi dla jej kształtu i funkcjonowania czy
też opiniującymi je, podejmowanie działań lub też organizowanie różnego
62
Problemy Zarządzania
Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną...
typu akcji skierowanych przeciw określonym rozwiązaniom mogącym, z ich
punktu widzenia, w istotny sposób niekorzystnie wpływać na jej funkcjonowanie na poziomie lokalnym oraz podejmowanie działań prawnych skierowanych przeciwko innym podmiotom działającym na poziomie krajowym.
Jeśli chodzi natomiast o poziom regionalny, najważniejsze możliwości
oddziaływania organizacji to: bezpośredni udział w pracach różnych ciał
(np. grup roboczych) lub też poprzez organizacje je reprezentujące w tworzeniu i opiniowaniu kluczowych aktów prawnych wpływających na funkcjonowanie przestrzeni elektronicznej (np. takich jak na terenie UE dyrektywy
unijne), podejmowanie określonych działań prawnych czy też lobbowanie
na rzecz określonych rozwiązań pożądanych z ich punktu widzenia (dotyczy
to szczególnie większych firm).
W przypadku poziomu globalnego możliwości oddziaływania na tym
poziomie dotyczą dwóch zasadniczych aspektów. Pierwszy z nich związany
jest z udziałem firm w pracach organizacji czuwających nad całościowym
rozwojem Internetu (np. The Internet Society, W3C), a co za tym idzie
przestrzeni elektronicznej, oraz wypracowywujących rozwiązania sprzyjające
temu. Drugi natomiast odnosi się do udziału organizacji wraz z innymi
podmiotami w tworzeniu produktów oddziaływujących na nią w wymiarze
globalnym (Wielki 2011: 110–118).
Podobnie jak w przypadku działań prewencyjno-zabezpieczających, podstawowym zadaniem komitetu sterującego w tym obszarze jest zdefiniowanie
polityki przedsiębiorstwa w odniesieniu do tej kwestii. Dlatego też w tym
kontekście niezbędna jest odpowiedź na dwa kluczowe pytania:
– czy organizacja zamierza w ogóle podejmować aktywność w tym obszarze;
– jeżeli tak, to na którym bądź też których z pięciu możliwych poziomów
będzie ona prowadzona.
W tym kontekście niezbędne jest przeprowadzenie analizy istniejących
możliwości oraz kierunkowy wybór metod działań, jakie wykorzystywać
będzie organizacja. Kolejnym elementem jest ustalenie osób odpowiedzialnych za realizację poszczególnych zadań oraz określenie zakresów odpowiedzialności w tej mierze. Tak jak w poprzednich przypadkach, istotnym
aspektem jest zdefiniowanie sposobów oraz częstotliwości przekazywania
informacji zwrotnych w odniesieniu do podejmowanych działań, a także
wyłaniających się problemów. Trzeci poziom działań to ich uszczegółowienie
zarówno w wymiarze organizacyjnym, jak i technicznym (rysunek 1).
Jednocześnie całość działań związanych z aktywnym oddziaływaniem na
przestrzeń elektroniczną i operujących tam interesariuszy wiąże się ściśle
ze wspomnianym wcześniej wymiarem normatywnym zarządzania interesariuszami, czyli określenia norm, jakie będą leżeć u ich podstaw i jasno
wskazywać, jakiego rodzaju typy działań są dopuszczalne w ramach polityki
organizacji, a jakie nie. Odnosi się to w dużej mierze do podejmowanych
przez firmę szeroko pojętych działań marketingowych, ale również innego
typu, takich jak np. prawne czy nawet hakerskie. W pierwszym przypadku
vol. 10, nr 3 (38), 2012
63
Janusz Wielki
jest to kwestia akceptowalności działań takich jak wykorzystanie wynajętych
osób w celu podszywania się na forach dyskusyjnych czy portalach społecznościowych pod zadowolonych klientów własnej firmy (Lemański 2011:
14–15), generowanie fałszywych opinii o konkurentach (Gaudin 2011), próby
manipulowania wynikami wyszukiwania przy użyciu zabronionych technik
optymalizacyjnych (Grynkiewicz 2012) czy też generowaniem tzw. fałszywych
kliknięć (Elgin i in. 2006).
Z drugiej strony są to kwestie przyzwolenia na aktywne działania, jakie
miały miejsce w branży muzycznej na początku nowego millenium, jak
pokazowe wytaczanie procesów sądowych skierowanych przeciwko własnym interesariuszom, sięganie po takie rozwiązania jak finansowanie firm
softwarowych w celu tworzenia przez nie oprogramowania mogącego uszkodzić komputery oraz łącza internetowe osób ściągających pliki mp3 czy też
wykorzystanie wyspecjalizowanych wirusów komputerowych w celu losowego
usuwania tego typu plików z dysków twardych (Wielki 2004: 921). Odnosi
się to również do kwestii dopuszczalności takich działań jak ataki DDoS
(Distributed Denial of Service) na firmy konkurencyjne, które stają się coraz
częściej faktem w różnych branżach (Garnajewa i Namiestnikow 2012).
4. Zakończenie
Organizacje decydujące się na wykorzystanie Internetu w swej działalności biznesowej coraz powszechniej zaczynają mieć świadomość, iż środowisko
elektroniczne, do którego wkraczają nie jest tylko źródłem różnorakich
możliwości rozwoju, ale również generuje cały szereg nowych, a często
nieznanych wcześniej, ale nieustannie ewoluujących wyzwań związanych
zarówno z własnymi pracownikami, jak i wszelkiego typu interesariuszami
zewnętrznymi. Stąd też, aby móc jak najskuteczniej wykorzystywać pojawiające się liczne, obecne i przyszłe szanse związane z aspektami marketingowymi, implementacją nowych modeli biznesowych i całym szeregiem innych
kwestii związanych z praktycznie wszystkimi sferami funkcjonowania firmy,
przedsiębiorstwa muszą nauczyć się całościowo spoglądać na swą obecność
w przestrzeni elektronicznej. Oznacza to w praktyce konieczność uważnego
projektowania własnej aktywności w niej i ciągłego oraz jak najbardziej
efektywnego zarządzania nią w kontekście realizacji celów biznesowych.
Odnosi się to zarówno do kwestii zabezpieczenia i ochrony działalności
on-line w wymiarze wewnętrznym, jak i zewnętrznym, jak również wykorzystania możliwości związanych z aktywnym oddziaływaniem na przestrzeń
elektroniczną w celu kształtowania jej rozwoju, aby był on jak najbardziej
przyjazny i sprzyjający organizacji z punktu widzenia realizowanych przez
nią celów.
Obydwa wspomniane powyżej obszary wymagają dobrze przemyślanych
i zorganizowanych działań związanych z zarządzaniem w szeroko rozumianym sensie, przestrzenią elektroniczną, biorąc przy tym pod uwagę wszelkie
64
Problemy Zarządzania
Analiza wyzwań związanych z zarządzaniem przestrzenią elektroniczną...
kwestie zarówno organizacyjne, jak też techniczne, oraz konieczność szerokiego zaangażowania kadry zarządzającej oraz pozostałych pracowników.
Koncentrując się wyłącznie na wykorzystaniu nowych możliwości pojawiających się wraz z rozwojem Internetu i przestrzeni elektronicznej bez
odpowiedniego przygotowania własnej obecności on-line i zarządzania nią,
organizacje ryzykują, iż podejście takie doprowadzić może do zupełnie
innych rezultatów od tych oczekiwanych. Odnosi się to do wszelkiego typu
przedsiębiorstw wykorzystujących w różnorodnym zakresie i skali tą globalną strukturę sieciową, w oczywisty sposób najbardziej tych, dla których
środowisko elektroniczne staje się podstawowym obszarem prowadzenia
działalności biznesowej.
Informacje o autorze
Dr inż. Janusz Wielki – Wydział Ekonomii i Zarządzania, Politechnika Opolska.
E-mail: [email protected].
Bibliografia
Buzzient 2011. Social Media Analytics, http://www.buzzient.com.
Deloitte 2011. Raising the Bar 2011 TMT Global Security Study – Key Findings, http://
www.deloitte.com/assets/DcomCroatia/Local%20Assets/Documents/2011/TMT_2011_
Global_Security_Survey_hr.pdf.
Donaldson, T. i L. Preston 1995. The Stakeholder Theory of the Corporation: Concepts,
Evidence, and Implications. Academy of Management Review, nr 1 (20), DOI:
10.2307/258887.
Elgin, B. i in. 2006. Click Fraud: The Dark Side of Online Advertising. BusinessWeek,
http://www.businessweek.com/magazine/content/06_40/b4003001.htm.
Faas, R. 2012. How Mobile, BYOD and Younger Workers are Reinventing IT. Computerworld, http://www.computerworld.com/s/article/print/9224568/How_mobile_BYOD_
and_younger_workers_are_reinventing_IT?taxonomyName=IT%20Ind.
Friedman, T. 2006. Świat jest płaski, Poznań: Dom Wydawniczy Rebis.
Garnajewa, M. i J. Namiestnikow 2012. Ataki DDoS w drugiej połowie 2011 roku, http://
www.viruslist.pl/ news.html?newsid=700.
Gaudin, S. 2011. Caught! Facebook Admits Running Anti-Google Campaign. Computerworld, http://www.computerworld.com/s/article/9216656/Caught_Facebook_admits_
running_anti_Google_campaign.
Gazeta.pl 2010. HTC pyta – fani odpowiadają, http://technologie.gazeta.pl/internet/
2029022,104530,7793096,HTC_pyta ___fani_odpowiadaja.html?logo_druk=.
Grynkiewicz, T. 2010. Antypampersowa kampania na Facebooku i nie tylko. Gazeta
Wyborcza, http://wyborcza.biz/biznes/2029020,100896,7885824.html.
Grynkiewicz, T. 2012. Nokaut znokautowany: dotkliwa kara Google’a dla polskich porównywarek. Gazeta Wyborcza, http://wyborcza.biz/biznes/2029020,100896,11530949.html/.
Hamblen, M. 2012. Consumerization Trend Creates IT Worries, Worker Benefits. Computerworld, http://www.computerworld.com/s/article/print/9227238/Consumerization_
trend_creates_IT_worries_worker_ benefits?taxonomyName=Mobile+a/.
Kaplan, J. i in. 2011. Meeting the Cybersecurity Challenge. McKinsey Quarterly, https://
www.mckinseyquarterly.com/ article_print.aspx?L2=13&L3=112&ar=2821.
vol. 10, nr 3 (38), 2012
65
Janusz Wielki
Lemański, A. 2011. Opinia światłowodem się niesie. Czyli rozważania o etycznych aspektach internetowego public relations. Computerworld Polska, 24 maja.
Marciniak, M. 2011. Smartfony w firmach. Computerworld Polska, 23 sierpnia.
NewsPoint 2011. Monitorowanie mediów, http://www.newspoint.pl/o-nas/newspoint-monitoring-mediow.
Ponemon Institute 2012. The Impact of Cybercrime on Business, http://www.checkpoint.
com/products/downloads/whitepapers/ponemon-cybercrime-2012.pdf.
Raszkowska, G. 2011. Freelancera zatrudnię od zaraz. Rzeczpospolita, http://www.rp.pl/
artykul/661807.html?print=tak.
Stackpole, B. 2011. iPads run amok: Does your company need a tablet policy? Computerworld, http://www.computerworld.com/s/article/9216208/iPads_run_amok_Does_
your_company_need_a_tablet_policy_.
Symantec 2012. 2011 Internet Security Threat Report, http://www.symantec.com/content/
en/us/enterprise/other_resources/b-istr_main_report_2011_21239364.en-us.pdf.
Unold, J. 2011. Cyberspace Information Retrieval and Processing with the Use of the
Deep Web, w: A. Korowicki i B. Kubiak (red.). Information Management, Prace
i Materiały Wydziału Zarządzania Uniwersytetu Gdańskiego, nr 3. Gdańsk: Wydział
Zarządzania Uniwersytetu Gdańskiego, Fundacja Rozwoju Uniwersytetu Gdańskiego.
Urbanowicz, J. 2011. Sony ujawnia szczegóły włamania, http://technologie.gazeta.pl/internet/1,104665,9543776,Sony_ujawnia_szczegoly_wlamania.html/.
Wielki, J. 2004. Social and Ethical Implications of the Virtualization of the Business
Environment in the Music Sector, w: T. Bynum i in. (red.) Proceedings of the Seventh
International Conference on Challenges for Citizen of the Information Society ETHICOMP 2004, Volume 2, Syros: University of Aegean.
Wielki, J. 2007. Social and Ethical Aspects Connected with e-Space Development. Journal of Information, Communication and Ethics in Society, nr 4 (5), DOI:
10.1108/14779960710846173.
Wielki, J. 2008. Search Engines as a New Type of Stakeholder of Contemporary Organizations, w: H. Dudycz, M. Dyczkowski i J. Korczak (red.) Advanced Information
Technologies for Management – AITM 2008, Wroclaw University of Economics –
Research Papers, nr 35. Wrocław: Publishing House of the Wroclaw University of
Economics.
Wielki, J. 2011. Analiza możliwości oddziaływania organizacji na kształt i funkcjonowanie przestrzeni elektronicznej, w: W. Chmielarz, J. Kisielnicki i O. Szumski (red.)
Informatyka 4 przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa
informacyjnego, Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego.
Wielki, J. i E. Ziemba 2008. The Use of Corporate Portals in Managing Knowledge on
Entities Operating in the Electronic Space, w: S. Wrycza (red.) Proceedings of BIR’2008
– The Seventh International Conference On Perspectives In Business Informatics
Research, Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego.
Williams, M. 2011. PlayStation Network hack will cost Sony $170M, http://www.networkworld.com/news/2011/052311-playstation-network-hack-will-cost.html.
66
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 67 – 82
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.5
Innowacyjne modele e-biznesu
– perspektywy rozwojowe
Włodzimierz Szpringer
W przypadku innowacyjnych modeli e-biznesu Internet jest czymś, co umożliwia takim firmom istnienie (np. wyszukiwarki). W innym sensie innowacyjne
są te wszystkie modele, które wykorzystując postęp technologii ICT, odpowiadają na potrzeby klientów i dzięki temu zdobywają przewagę konkurencyjną.
Innowacyjne modele e-biznesu kojarzą strategię biznesu, organizację oraz technologię. Istotna jest całościowa wizja modelu. Należy podkreślić ścisły związek
innowacji w sferze usług oraz technologii. Innowacje w sferze usług były dotychczas często badane jakby w oderwaniu od technologii, co w obliczu dynamiki
zmian rynku, biznesu i klientów może prowadzić do mylących wniosków.
A zatem nowa usługa w środowisku nowych technologii może prowadzić do
ukształtowania się nowych modeli e-biznesu. W dobie globalizacji i dynamicznych zmian na rynku kluczowe cechy modeli e-biznesu jest ich innowacyjność,
elastyczność, otwartość i generowanie wartości dla interesariuszy. W polu widzenia jest również innowacyjne podejście do finansowania, znaczenia serwisów
społecznościowych, wciągających użytkowników do współtworzenia dóbr i usług,
usługi mobilne, cloud computing, dwu- lub wielostronne modele biznesowe.
Istotne jest także uwzględnianie konwergencji urządzeń i cyfryzacji contentu,
które prowadzą do wytworzenia się nowego sektora: telekomunikacji, usług IT,
mediów i sektora rozrywki (TIME-Sector – Telecommunications, IT, Media,
Entertainment). Łańcuch wartości jest kluczowym pojęciem, które określa
architekturę modeli biznesowych.
Należy podzielić pogląd, iż wyznacznikiem postępu cywilizacyjnego jest
symbioza wartości oraz postępu (Zając 2003). Jeżeli spróbujemy rozdzielić etapy rozwoju człowieka pod kątem przemian cywilizacyjnych, można
przyjąć, iż obecnie znajdujemy się na początku rodzącej się czwartej fali
rozwoju. Symbolem współczesnych przemian nie jest już zwykły komputer podłączony do Internetu, lecz biocybernetyka, inżynieria genetyczna
i nanotechnologia. Skrót NBIC (nano-bio-info-cogno) możemy określić jako
połączenie nanotechnologii, biotechnologii, informatyki oraz nauk kognitywnych (NSF/DOC 2002).
vol. 10, nr 3 (38), 2012
67
Włodzimierz Szpringer
Pod koniec ubiegłego stulecia rozpoczęły się prace nad stworzeniem
nowego protokołu internetowego, który sprostałby problemom związanym
z szybko kurczącą się liczbą dostępnych adresów. Kiedy protokół IPv4
był tworzony, nikt nie przypuszczał, że 4-miliardowa przestrzeń adresowa
32-bitowych wersji czwartej protokółu może kiedykolwiek się wyczerpać.
Powstały w 1996 r. protokół IP w wersji szóstej, operując 128-bitową przestrzenią adresową, oferuje nam 296 razy więcej dostępnych adresów w porównaniu ze swoim poprzednikiem1.
Podziału modeli biznesu można dokonać, uwzględniając kilka kryteriów:
– ze względu na rolę Internetu,
– ze względu na rodzaj działalności (np. pośrednictwo),
– ze względu na grupę docelową (B2B, B2C).
Podstawowym kryterium podziału modeli e-biznesu jest sposób wykorzystania Internetu do prowadzenia działalności gospodarczej. W ramach
tego podziału wyróżniamy następujące kategorie (por. Modele biznesu,
www.cambridgepython.pl):
– modele przeniesione – rodzaje biznesów przeniesione ze świata rzeczywistego,
– modele innowacyjne – rodzaje biznesów, które nie mogłyby istnieć bez
Internetu.
W przypadku modeli przeniesionych Internet jest wykorzystywany przede
wszystkim do ułatwienia i usprawnienia procesów biznesowych. Przykładem
mogą być sklepy internetowe, które dzięki Internetowi są czynne 24 godziny
na dobę, oferują często większy wybór towarów. W przypadku modeli
innowacyjnych Internet jest czymś, co umożliwia takim firmom istnienie.
Przykładem mogą być wyszukiwarki, które znajdują potrzebne informacje
w Internecie. W innym sensie innowacyjne są te wszystkie modele, które
wykorzystując postęp technologiczny, odpowiadają na potrzeby klientów
i dzięki temu zdobywają przewagę konkurencyjną.
Innowacyjne modele e-biznesu bazują najczęściej na technologii ICT.
Kojarzą one strategię biznesu, organizację oraz technologię. Istotna jest
całościowa wizja modelu, np. w świetle niektórych źródeł e-aukcja to nie
model, a mechanizm cenowy (pricing mechanism), a serwis społecznościowy
to nie model, lecz forma relacji z klientami (customer relationship). Podobnie podział zysków (revenue sharing) w kontekście partnerstwa na platformie sieciowej sam w sobie nie jest modelem e-biznesu. Należy dążyć do
ich formalizacji i modularyzacji (building blocks), by mogły być testowane
i poszerzane na inne obszary. Takie modele mogą być źródłem przewagi
konkurencyjnej na rynku (Osterwalder, Pigneur i Tucci 2005).
Należy podkreślić ścisły związek innowacji w sferze usług oraz technologii. Innowacje w sferze usług były dotychczas często badane jakby w oderwaniu od technologii, co w obliczu dynamiki zmian rynku, biznesu i klientów
może prowadzić do mylących wniosków. Nowa usługa (new service concept)
powinna być najpierw badana pod kątem dostępnych opcji w technologii
68
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
(new technology options), zmian potrzeb klienta (new client interface) oraz
metod dostawy usługi (new service delivery systems). A zatem nowa usługa
w środowisku nowych technologii może prowadzić do ukształtowania się
nowych modeli e-biznesu (Bouwman, de Vos i Hacker 2008).
W dobie globalizacji i dynamicznych zmian na rynku kluczowe cechy
modeli e-biznesu to ich innowacyjność, elastyczność, otwartość i generowanie
wartości dla interesariuszy. W polu widzenia jest również innowacyjne podejście do finansowania, znaczenia serwisów społecznościowych, wciągających
użytkowników do współtworzenia dóbr i usług. Istotne jest także uwzględnianie
konwergencji urządzeń i cyfryzacji contentu, które prowadzą do wytworzenia
się nowego sektora: telekomunikacji, usług IT, mediów i sektora rozrywki –
(TIME-Sector – Telecommunications, IT, Media, Entertainment).
Łańcuch wartości jest kluczowym pojęciem, które określa architekturę
modeli biznesowych. Można go przedstawić jako całość złożoną z następujących elementów (Bieger, Knyphausen-Aufsaß i Krys 2011):
– koncepcja wartości (usługi) dla klienta (ang. Value Proposition, niem.
Leistungskonzept),
– koncepcja generowania wartości (ang. Value Creation, niem. Wertschöpfungskonzept),
– koncepcja kanałów komunikacji i transferu wartości (ang. Value Communication + Value Transfer, niem. Kanäle),
– koncepcja rozwoju wartości (ang. Value Development, niem. Entwicklungskonzept),
– koncepcja podziału wartości (ang. Value Dissemination, niem. Wertverteilung),
– koncepcja źródeł zysku (ang. Value Capture, niem. Ertragskonzept).
Analiza sposobu prowadzenia działalności z wykorzystaniem serwisów
internetowych oraz technologii komputerowych i sieciowych (ICT) pozwala
na zdefiniowanie najważniejszych sposobów osiągania zysków, czyli określenie modeli biznesowych, w jakich funkcjonują firmy. Każda firma oferująca
usługi e-commerce wykorzystuje w swoim działaniu jakiś model biznesowy.
Model taki odpowiada na pytania: w jaki sposób firma zamierza generować
przychód, dlaczego klienci płacą i zamierzają nadal płacić za wykorzystywanie
serwisu komercyjnego. Brak jasno określonego modelu biznesowego jest
jedną z najczęstszych barier, poza kosztami, w działalności e-biznesowej2.
Model biznesowy – to układ czterech zazębiających się elementów:
– źródło wartości dla klienta (customer value),
– formuła generowania zysków (profit formula),
– kluczowe zasoby (key resources),
– kluczowe procesy (key processes).
Pojęcie modelu biznesowego wiąże się zatem z odpowiedzią na kilka
pytań3:
– Kto jest klientem organizacji?
– Co jest źródłem wartości dla klienta?
vol. 10, nr 3 (38), 2012
69
Włodzimierz Szpringer
– W jaki sposób są generowane zyski z działalności, którą prowadzi firma?
– Co leży u podstaw logiki ekonomicznej, która wyjaśnia, w jaki sposób
firma dostarcza wartość klientom po odpowiednim koszcie?
Początkowo modele te sprowadzały się do przeniesienia procesów fizycznych do przestrzeni wirtualnej. Wraz z rozwojem Internetu coraz ważniejsze
stają się zmiany jakościowe, wynikające z nowych narzędzi opartych na
technologiach ICT (np. problem wykorzystania aktywności użytkowników
w serwisach społecznościowych).
Można przyjąć podział łańcucha wartości w Internecie na pięć kluczowych rynków:
– prawa do treści,
– usługi on-line,
– technologie i usługi dostępowe,
– łączność,
– interfejsy użytkownika (obejmujące zarówno oprogramowanie, jak
i sprzęt).
Można zdefiniować cztery podstawowe typy modeli biznesowych (wytwórców, dystrybutorów, właścicieli i pośredników). Następnie, biorąc pod uwagę
rodzaj aktywów zaangażowanych (finansowych, materialnych, niematerialnych lub ludzkich), definiuje się kolejno 16 modeli specjalistycznych. Wiele
osób przypisuje sukces firm, takich jak: eBay, Dell i Amazon, nie tylko
sposobom używania nowych technologii, ale też kreowaniu całkiem nowych
modeli biznesowych w ogóle. Okazuje się, iż sprzedaż praw do użytkowania
aktywów jest bardziej opłacalna i bardziej ceniona na rynku niż sprzedaż
praw własności tych aktywów (Weill i in. 2005).
Punktem wyjścia klasyfikacji modeli biznesowych w Internecie jest
podział na 4 ośrodki ciążenia (Wirtz 2011: 681 i nast.; Bächle i Lehmann
2010: 12 i nast.):
– zawartość lub treść (content),
– handel (commerce),
– kontekst (context),
– wymiana informacji (connection).
Segment zawartości obejmuje treści cyfrowe, np. wiadomości on-line,
ściąganie muzyki czy filmów. W tym segmencie są obecne firmy tradycyjnych
wydawców i mediów RTV oraz liczne nowe firmy typu Host-Service-Providers (YouTube) oraz serwisy Peer-to-Peer (Napster). W tym niezwykle
rozbudowanym i zróżnicowanym segmencie mamy do czynienia z różnymi
działami (e-information, e-entertainment, e-infotainment, e-education).
Segment handlu dotyczy nawiązywania kontaktów i pomocy w negocjowaniu
i zawieraniu umów (e-attraction, e-bargaining, e-transaction, e-retailing, e-payment, e-delivery). Działają tutaj platformy handlowe (Covinsit), e-sklepy i e-malle
(Amazon), a także domy aukcyjne (e-Bay) oraz sami wytwórcy dóbr i usług.
Segment kontekstu obejmuje oferty klasyfikacji i systematyzacji informacji pod kątem potrzeb danego klienta, np. w zależności od lokalizacji czy
70
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
napływu newsów (np. Google Finance, Yahoo! Finance). Ale kluczowi gracze
na tym rynku to operatorzy wyszukiwarek i katalogów (Google, Microsoft
Bing, Yahoo!), którzy oferują wyszukiwanie proste i zaawansowane (general
search, special search, meta search, desktop rerach), a także indeksowanie
zasobów Internetu pod kątem potrzeb użytkownika (e-bookmarking).
Segment wymiany informacji to – oprócz dostępu do sieci – także serwisy
społecznościowe i wiele usług dodanych (My Space, Facebook, Twitter).
Mogą to być różne usługi wymiany informacji, np. opinii o produktach
i usługach, hobbystycznych czy innych (customer networks, customer messages,
customer exchange, customer opinions).
Koncepcja Web 2.0 pozwala na dalsze, szczegółowe podziały zastosowań technologii w życiu zawodowym i społecznym, np. Blogs – RSS, File
Exchange & Sharing, Wikis, Podcasts, Mash-ups, Tagging, Social Networking,
Aggregation and Comparisons, C&C Commerce.
Powstają więc nowe możliwości integracji wokół łańcucha wartości i tworzenia wielofunkcyjnych konglomeratów (Time Warner, News Corp.) lub
skupienia się na wybranym modelu biznesowym (content, commerce, context,
connection)4.
Bardziej innowacyjne modele, takie jak elektroniczne rynki czy integratorzy łańcucha wartości, łączą ze sobą sprzedawców i klientów, umożliwiając
obniżenie kosztów oraz udoskonalając przepływ informacji pomiędzy podmiotami na rynku. Prześledzenie aktualnych trendów rozwoju najnowocześniejszych serwisów pokazuje, że modele ewoluują w kierunku wirtualnych
rynków czy sieci powiązań, w których producenci i konsumenci poszukują
i łączą się dynamicznie, często w krótkotrwałych związkach, na czas realizacji transakcji bądź dla osiągnięcia innych zamierzonych celów. Dotyczy to
także relacji pomiędzy pozostałymi podmiotami e-biznesu: producentami,
dostawcami czy kooperantami.
Zdecydowanie zwiększa się również różnorodność i skala podejmowanych
działań gospodarczych w cyberprzestrzeni, co powoduje znaczne skomplikowanie modeli, według których funkcjonują przedsiębiorstwa. Te nowe
modele e-biznesowe wymagają rozwoju szerokiej gamy wspomagających
je technologii informatycznych i komunikacyjnych (sieciowych), takich jak:
CRM, narzędzia do pracy grupowej, technologie bezprzewodowe, narzędzia
do automatyzacji procesów biznesowych czy technologie zapewniające bezpieczeństwo transakcji w sieci5.
W dobie globalizacji i dynamicznych zmian na rynku kluczowe cechy
modeli e-biznesu to ich innowacyjność, elastyczność, otwartość i generowanie wartości dla interesariuszy. W polu widzenia jest również innowacyjne
podejście do finansowania, znaczenia serwisów społecznościowych, wciągających użytkowników we współtworzenie dóbr i usług. Istotne jest także
uwzględnianie konwergencji urządzeń i cyfryzacji contentu, które prowadzi do
wytworzenia się nowego sektora – TIME-Sector: (telekomunikacji, usług IT,
mediów i sektora rozrywki (Telecommunications, IT, Media, Entertainment).
vol. 10, nr 3 (38), 2012
71
Włodzimierz Szpringer
Poza najczęściej badanymi modelami dodatkowo wyróżnia się metamodele, które mogą być wykorzystane wraz z modelami podstawowymi,
np. podział zysków (użytkownicy są materialnie motywowani do tworzenia własnych aplikacji w sieci generujących zyski, np. na bazie oceny ich
indywidualnych kwalifikacji i predyspozycji czy popularności tworzonego
przez nich contentu wśród internautów). Taki metamodel jest znany w wielu
wariantach (revenue share, re-sale-re-use, affiliate, white label). Dodatkowe
korzyści można uzyskiwać dzięki umiejętności pełnego korzystania z efektów
sieciowych (Osterwalder, Pigneur i Tucci 2005).
Internet rozwija się dynamicznie, stając się z każdą chwilą coraz bardziej
zasobochłonny, wymagając zwiększania przepustowości i elastyczności infrastruktury. Stosunek wykorzystania infrastruktury do osiąganych przychodów
pokazuje, że obecnie odpowiedzialni za jej rozwój nie zawsze mają motywację, by prowadzić dalsze inwestycje. Powstaje więc problem opracowania
modelu zapewniającego stabilny rozwój Internetu.
Można rozważyć trzy modele finansowania inwestycji w infrastrukturę
Internetu:
1. Model klasyczny – funkcjonujący obecnie, w którym za dodatkową przepustowość płaci klient, czyli odbiorca usług.
2. Model oparty na dostawcach usług – model zakładający obciążenie kosztem modernizacji łącza dostawców usług internetowych.
3. Model hybrydowy – bazujący na podziale opłat pomiędzy klienta
(odbiorcę usług) a dostawców usług internetowych6.
W świetle badań serwisów społecznościowych można mówić o różnych
stopniach aktywności (partycypacji) uczestników: od całkowitej bierności,
polegającej tylko na czytaniu contentu, poprzez komentarze aż po aspiracje do przywództwa w kreacji contentu lub tworzeniu produktu finalnego.
Można mówić o stopniowym przechodzeniu od kultury kreacji contentu
(creation of content), poprzez krytyczne komentarze i rankingi (accreditation
of relevance) aż po dzielenie się własną twórczością o wartości dodanej dla
całej wirtualnej społeczności (value-added distribution). Powstało pojęcie
„nanokonkurencji”, czyli wytwarzania artefaktów, które są nieistotne lub
niezauważalne na poziomie indywidualnego użytkownika, lecz kreują wartość
dla wirtualnej społeczności jako całości (Surowiecki 2004; Bauwens 2006;
Reichwald i Piller 2006; Oreilly 2007).
W różnych dziedzinach (także w Internecie) rozwijają się alternatywne
wobec prawa systemy normatywne. Opierając się często na presji społecznej
czy środowiskowej, spełniają one skutecznie trzy funkcje przypisywane legislacji: kreowania reguł gry, rozstrzygania sporów i egzekucji norm. Powstają
zatem porządki normatywne będące quasi-prawem, które można określić
mianem: Order without Law lub Order despite Law (Ellickson 1991).
Można wskazać sześć rodzajów platform biznesowych, które rewolucjonizują małe i średnie firmy typu start-up, zwłaszcza w sferze usług (Mettler
i Williams 2011).
72
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
1. Dostawcy usług rozproszonego finansowania (crowd financing). Dawniej
małe firmy musiały szukać źródeł finansowania w bankach, firmach typu
venture capital, a także u rodziny i znajomych. Obecnie powstały nowe
platformy kojarzące środki z wielu źródeł, a także szukające kooperantów
mających podobne cele biznesowe. Wiąże się z tym także doradztwo
i mentoring, jak również odkrywanie nowych rynków oraz klientów. Platformy tego rodzaju – to m.in: AngelList, Kickstarter, Kivaa, TechStars,
Vencorps, Y Combinator.
2. Dostawcy cyfrowych programów użytkowych (digital utilities). Obecnie
przedsiębiorcy mogą tanio kupić lub uzyskać bezpłatnie praktycznie
dowolne narzędzie z dziedziny technologii ICT, które jest potrzebne
do prowadzenia biznesu (komunikacja, przetwarzanie, archiwizowanie
danych, prowadzenie call centers, dostęp do praktycznie nieograniczonej
pojemności i szybkości operacji komputerowych w Internecie w ramach
Grid Computing, Cloud Computing, wraz z zapewnieniem bezpieczeństwa, tajemnicy handlowej i ochrony prywatności (Trusted Computing).
Do platform tego rodzaju można zaliczyć m.in. platformy: Skype, Linux,
Google Apps, Amazon Cloud, FreshBooks.
3. Dostawcy profesjonalnych usług zorganizowanych elektronicznych rynków
(marketplaces). Outsourcing nie jest już obecnie przywilejem wielkich
korporacji chcących oszczędzać koszty. Także małe i średnie firmy mogą
na dogodnych warunkach korzystać z elastycznych, skrojonych na miarę
usług takich rynków, które oferują także wyszukiwanie talentów (kooperantów i pracowników). Oferują próbki działalności dotychczas nieznanych kooperantów i ich oceny (rating) z wszelkich możliwych sektorów:
od rachunkowości do projektowania stron WWW. Dotyczy to np. monitorowania zadań w toku realizacji, billingów, płatności, podatków itp. Platformy te wspierają całość procesów kontraktowania w sieci, badań marketingowych, back-office, projektowania, rozwoju i dostarczania produktów
w sieci. Do tego typu platform można zaliczyć m.in: Elance, Guru.com,
oDesk, Brickwork India, DoMyStuff.com, RentACoder, Mechanical Turk.
4. Platformy pozwalające na mikroprodukcję w ramach małej lub średniej
firmy (micro-manufacturing). Dotychczas tylko wielkie korporacje były
zdolne projektować, produkować i dostarczać na masowy rynek dobra
fizyczne. Obecnie urządzenia do produkcji wielu dóbr są dostępne na
dogodnych warunkach i w niskich cenach. Stają się one zatem dostępne
także dla małych firm, które kontraktują z dostawcami usług (3D-printing) w wielu krajach, np. Chinach czy Indiach, bez posiadania – w sensie
fizycznym – fabryki czy laboratorium badań i rozwoju. Takie platformy
to np. Alibaba.com, Ponoko, MakerBot Industries, Quirky.com.
5. Platformy, które można określić mianem kuźni innowacji (Innovation
marketplaces). Rosnąca ranga własności intelektualnej i przemysłowej
w skojarzeniu z możliwościami nowych technologii i Internetu napędza
tworzenie nowych rynków on-line, ułatwiających licencjonowanie patenvol. 10, nr 3 (38), 2012
73
Włodzimierz Szpringer
towe i transfer technologii między zainteresowanymi firmami, sektorami
oraz regionami. Także małe firmy mogą uzyskać tą drogą przewagę konkurencyjną i korzyści ekonomiczne. Bez własnej placówki badawczo-rozwojowej firmy małe lub średnie mogą kupić na rynku przodujące
technologie, co bywa nawet tańsze od ich samodzielnego rozwijania. Te
firmy, o ile są dostatecznie innowacyjne, mogą w dalszym ciągu rozwijać
zakupione technologie i udostępniać je innym. Do tego typu platform
można zaliczyć m.in: InnoCentive, NineSigma, yet2.com.
6. Platformy handlu elektronicznego (e-commerce platforms). Dotychczas
tylko duże firmy handlowe mogły się zdecydować na masową sprzedaż.
Małe firmy były poddane licznym ograniczeniom, np. opłatom wymaganym za przyjęcie towaru na półkę przez dużego detalistę. Obecnie
powstają globalne sieci małych firm handlowych, wraz z „długim ogonem”
(the long tail) firm i usług niszowych. Mali wytwórcy oraz sprzedawcy
wykorzystują także możliwości serwisów społecznościowych, dzięki którym docierają do klientów. Tego typu platformy, z których korzystają
małe firmy, to np. Google Adwords, Facebook, Salesforce.com, eBay,
Etsy, Amazon AppStore.
Rozwijają się badania nad rolą modelu biznesowego w przechwytywaniu
wartości z nowych technologii. Udany model biznesowy powinien wykazywać
zdolność odblokowywania ukrytych (potencjalnych) wartości z technologii,
ale to może również ograniczać późniejsze wyszukiwanie i projektowanie
nowych modeli alternatywnych – powiązanych z innymi technologiami.
Nowe technologie mogą znaleźć zastosowanie w istniejącym modelu biznesowym i kulturze organizacyjnej w firmie lub można upatrywać szansy
raczej w skonstruowaniu całkiem nowego modelu biznesowego. Często
proces badania adekwatności relacji: technologia–model biznesowy musi
się odbywać w warunkach separacji od reszty firmy, czyli w drodze założenia spółki specjalnego przeznaczenia (spin-off). Wiele spośród pomysłów,
które wchodzą w rachubę, musi obejmować zmianę paradygmatu w celu
dostarczenia wartości. Często zmienia się bowiem percepcja „architektury
przychodów” w łańcuchu wartości.
Gospodarka oparta na usługach oraz rozwój Internetu powodują przekształcenia w modelach biznesowych producentów oprogramowania komputerowego. Dostawcy software’u ewoluują w istocie w kierunku dostawców
usług (service-oriented architecture paradigm). Mamy do czynienia z rozwojem
usług w sieci oferowanych przez znaczną liczbę niewielkich, wyspecjalizowanych dostawców, którzy skupiają się na pewnych modułach, dających
znaczne możliwości integracji i kreacji wartości dla użytkowników dzięki
kooperacji. Osiąganiu tego celu pomagają kompleksowe i łatwo dostępne
platformy, które można traktować w kategoriach mechanizmu koordynacji
(service value networks – SVNs)7.
Liczne przedsiębiorstwa działają na zasadzie „dwustronnych platform”.
Firmy te służą różnym grupom klientów, które są współzależne w jakiś
74
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
sposób. Celem platformy jest tworzenie wspólnego (rzeczywistego lub wirtualnego) miejsca kontaktów i ułatwienie interakcji między członkami różnych
grup klientów. Platformy odgrywają ważną rolę w całej gospodarce poprzez
minimalizację kosztów transakcyjnych pomiędzy podmiotami, które mogą
równocześnie z nich korzystać8.
Powstają nowe wyzwania dla praw własności intelektualnej. Systemy
współtworzenia wartości przez klientów można podzielić na takie, w których
klienci ze sobą współpracują lub między sobą konkurują. Systemy takie są
w ramach prawa konkurencji określane jako rynki dwu- lub wielostronne
(two-, multi-sided markets), których cechą jest współpraca między konkurentami9.
W istocie wszystkie rynki mają dwie strony, czyli kupującego i sprzedającego. A zatem nie każdy rozumie, o co chodzi w przypadku rynków
dwustronnych. Wyzwania rynków dwustronnych wynikają stąd, że istnieją
(z definicji) powiązania dwóch lub więcej różnych grup odbiorców, których
wymagania są ze sobą powiązane na zasadzie pozytywnych efektów zewnętrznych. Efekty te są zazwyczaj określane jako pośrednie efekty sieci, w odróżnieniu od bardziej standardowych efektów sieciowych realizujących się
wśród tej samej grupy klientów (Evans i Schmalensee 2007; Ordover 2007).
Jeżeli istnieją pośrednie skutki sieci, strategia biznesowa, która stymuluje
popyt po stronie A platformy, gdy będzie właściwie wdrażana, stymuluje
popyt po stronie B platformy, która z kolei tworzy pozytywne sprzężenia
zwrotne, i tak dalej. Z powodu tej zależności przedsiębiorca musi rozwiązać
dwa problemy: po pierwsze, jak sprawić, by obie strony zostały w systemie
(keep both sides on board) oraz po drugie, jak powinna wyglądać struktura
cen dla obu stron. Jednym z narzędzi realizacji strategii udostępniania aktywów niematerialnych mogą być transakcje wiązane, których ocena bywa
ambiwalentna (z jednej strony kooperanci czy konsumenci dostają produkt pakietowy, który odpowiada ich życzeniom, z drugiej strony mogą tym
samym zostać odcięci od innowacji, które jeszcze lepiej zaspokajałyby ich
potrzeby, czyli zawężają swoje pole wyboru w przyszłości) (Rochet i Tirole
2002; Evans 2003).
System operacyjny można traktować jako bramkę do klienta (gateway),
która pozwala użytkownikom korzystać ze wszystkich dostępnych aplikacji
i programów użytkowych. Istnieje wiele przesłanek wyboru systemu operacyjnego: od łatwości czy prostoty użytkowania do interoperacyjności czyli możliwości współpracy z innymi platformami. W niektórych sytuacjach system
operacyjny może być powiązany z określonym rodzajem sprzętu (hardware’u)
i ograniczony tylko do niego. Wówczas posiadany przez użytkownika sprzęt
determinuje jednoznacznie wybór systemu operacyjnego. Taka zamknięta
platforma daje wszelako ograniczone możliwości konfiguracji hardware’u.
Właściciel platformy, który sprzedaje software chroniony prawem autorskim i powiązany z hardwarem, zamyka tym samym użytkownikom pole
wyboru platformy technologicznej. Im bardziej właściciel platformy okopuje
vol. 10, nr 3 (38), 2012
75
Włodzimierz Szpringer
się na swoich pozycjach, tym bardziej zamyka klientom pole wyboru, podwyższa barierę wejścia, a także pozbawia się innowacji ze strony pełnych
inicjatyw i pomysłów małych lub średnich innowatorów.
Przykładem może być sprawa Apple, Inc. v. PsyStar Corp.10, której kluczowy problem polega na kombinacjach systemu operacyjnego Mac OS X
z różnymi wariantami hardware’u, które są sprzedawane bezpośrednio końcowym użytkownikom. Skoro Apple samodzielnie dystrybuuje kopie systemu
operacyjnego, argumentując celowością późniejszych aktualizacji (upgrade),
to także w drodze kontraktowej wyklucza jego powielanie lub instalowanie
na innym sprzęcie – nieautoryzowanym przez Apple (Herrel 2011).
Szerokopasmowy Internet pozwala się zrealizować koncepcji, że komunikacja elektroniczna jest zbyt tania, by opłacalny był pomiar i egzekwowanie
opłat innych niż zryczałtowane (bandwith too cheap to meter). Przykładem
jest serwis YouTube, który rewolucjonizuje, a być może nawet zniszczy tradycyjną telewizję.
Podobnie Skype wpływa na zmiany w telefonii głosowej, a oferujący ją
operatorzy telekomunikacyjni poszukują nowych źródeł łańcucha wartości.
Także gromadzenie ogromnych ilości danych staje się zbyt tanie, by je mierzyć, a początkiem tego procesu było wprowadzenie usług Gmail w 2004 r.
W krótkim czasie standardowe możliwości archiwizacji wzrosły 1000-krotnie,
co umożliwiło rozwój takich serwisów, jak Flickr czy MySpace (Anderson
2007, 2008; de Waal 2010; Duncan 2009). Przed erą iPoda użytkownicy nie
przypuszczali, że będzie można nosić w kieszeni całe kolekcje muzyczne.
Firma Apple wyprzedziła marzenia ludzi w tej mierze, by przenośna pamięć
ułatwiała korzystanie z ogromnych baz danych11.
W okresie poprzedzającym cloud computing rozwijał się intensywnie outsourcing sprzętu, oprogramowania i kadry IT. W tych ramach powstały takie
pojęcia jak usługi sieciowe (Web Services), Application Software Providing
(ASP), Simple Object Access Protocol (SOAP), Enterprise Ressources Planning (ERP). Outsourcing pozwalał firmom na zaniechanie konstruowania
własnej infrastruktury IT. Operator IT dostarczał sprzęt, software i serwis,
w tym szereg usług o wartości dodanej (updates, backups, help desk), które
zapewniały ciągłość świadczenia usług i wymagany poziom bezpieczeństwa
na podstawie umowy o outsourcing usług (Service Level Agreement – SLA)
(Londhoff 2002).
Cloud computing, czyli przetwarzanie „w chmurze”, jest następcą koncepcji Grid Computing oraz outsourcingu. Polega bowiem na wykorzystaniu
mocy obliczeniowych wielu rozproszonych komputerów, a software jest ściągany z otoczenia. Software jest usługą, podobnie jak dostawy wody, gazu
czy prądu. W ramach cloud computing można rozróżnić cztery rodzaje
usług: Software-as-a-Service (SaaS), Storage-as-a-Service, Platform-as-a-Service (PaaS), Infrastructure-as-a-Service (IaaS)12, a także High-Performance-Computing-as-a-Service Przykładem usług platformy jest stawianie
76
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
do dyspozycji firmy całych, kompleksowych aplikacji, np. oprogramowania
Customer Relationship Management (CRM) (Weichert 2010).
Definicja cloud computing nawiązuje do infrastruktury zorientowanej na
usługi – Application Service Providing (ASP). Klient płaci tylko za korzystanie z oprogramowania przez określony czas (np. Google App Engine).
Koncepcja cloud computing idzie jeszcze dalej: oferuje nie tylko licencje na
używanie software’u, ale też przestrzeń na archiwa i bazy danych13.
W toku pracy w trybie cloud computing niezbędne są określone wymogi
techniczne. Praca w sieci powinna być tylko tak długa, jak to konieczne,
gdyż zbędne moce obliczeniowe powinny być dostępne dla innych. Musi
być zapewniona integralność i ochrona informacji. W przeciwnym wypadku
firmy bałyby się ujawnienia danych poufnych, np. tajemnic handlowych.
Dlatego kwestie bezpieczeństwa, archiwizacji danych są przedmiotem
odrębnych porozumień Security-Service-Level-Agreements (SSLA). Mają
one najczęściej charakter prawny tzw. ogólnych warunków umów (wzorców umownych). W sumie umowa w zakresie cloud computing obejmuje
problemy gwarancji, odpowiedzialności, praw autorskich, serwisu i szkoleń
oraz stanowi miks umów najmu, dzierżawy, pożyczki, a także umów-zleceń
i umów o dzieło14.
Korzyści z cloud computing dla konsumentów są jasne: ryzyko operacyjne związane z oprogramowaniem podlega cesji na osobę trzecią. Aktualizacja programów na poszczególnych komputerach nie jest wymagana.
Opłaty licencyjne są niższe niż w przypadku licencji na rzecz indywidualnych
użytkowników. Zmniejsza się także wysiłek i maleją nakłady na utrzymanie
sprzętu i oprogramowania. Problemem przestaje być skalowalność, czyli
adaptacja własnej infrastruktury IT do nowych potrzeb. A zatem firma
może obniżyć koszty15.
Istotną część wszystkich zasobów informacji i wiedzy stanowią zasoby
tworzone lub finansowane przez podmioty publiczne. Takie dobra należy
uznać za dobra wspólne (otwartość ma zapewniać maksymalizację korzyści
płynących z ich wykorzystania). Przez otwartość rozumie się dostępność
zasobów oraz faktyczną i prawną możliwość ponownego ich wykorzystania (re-use). Internet ma zapewnić szeroką możliwość udostępniania tych
zasobów. Otwarcie zasobów publicznych może zaowocować kreowaniem
różnego rodzaju wartości dodanej przez podmioty trzecie. Efektem miałby
więc być rozwój nauki i kultury oraz usług świadczonych w oparciu o te
zasoby. Powstaje zatem pole dla nowych modeli e-biznesu, opartych na idei
re-use (Chowney 2011; Digital Agenda… 2011; Gray 2011).
Informacje o autorze
Prof. dr hab. Włodzimierz Szpringer – Szkoła Główna Handlowa i Uniwersytet
Warszawski. E-mail: [email protected].
vol. 10, nr 3 (38), 2012
77
Włodzimierz Szpringer
Przypisy
1
W ramach Internetu Przyszłości warto wspomnieć o pojęciach z nim związanych:
– Internet Osób (ang. Internet of People),
– Internet Mediów (ang. Internet of Media),
– Internet Energii (ang. Internet of Energy),
– Internet Usług (ang. Internet of Services),
– Internet Rzeczy (ang. Internet of Things).
Por. J. Zawiła-Niedźwiecki, K. Rostek i A. Gąsiorkiewicz 2010.
2
Model e-biznesu określa sposób, w jaki każda firma, która posługuje się w swojej
działalności Internetem, chce zapewnić sobie zyski z działalności w sieci. Na taki
model składa się zespół działań związanych bezpośrednio z siecią i wykraczający
poza ten obszar. Model biznesowy powinien określać: korzyści oferowane klientom,
zakres oferty, politykę cenową, źródła przychodów, działania (funkcje) powiązane,
sposoby realizacji modelu, podstawowe umiejętności firmy oraz sposoby ochrony
trwałości przewagi konkurencyjnej na rynku. Przedsiębiorstwo może również osiągać
przewagę konkurencyjną na rynku dzięki stworzeniu i wykorzystywaniu innowacyjnego
modelu biznesowego.
3
O koncepcjach Christensena, Johnsona, Kagermana i Megretty por. w Wielki 2011:
204 i nast.
4
Rozwój Internetu kojarzy firmy i użytkowników w sieć wzajemnych powiązań (sieć
wiedzy) tworzących nowego typu infrastrukturę dla modeli biznesowych. Aby właściwie wykorzystać te możliwości, należy uwzględnić charakter nowych zjawisk, takich
jak:
– blogosfera, (możliwość uzyskiwania niezależnych opinii oraz kontaktowania się
z klientami),
– zbiorowa inteligencja, (kumulacja wiedzy i możliwości wielu użytkowników,
np. sprzętowych i programowych (Grid Computing, Cloud Computing), oraz dzielenia się wiedzą (crowdsourcing),
– nowe publiczne platformy (istotne części infrastruktury można uzyskać, nie ponosząc kosztów, np. w efekcie dostępności wolnego oprogramowania),
– innowacje emergencji (efektem współpracy w sieci jest emergencja, czyli powstawanie nowych cech, struktur i funkcji, których brakowało pojedynczym węzłom
sieci).
W Wikinomii wyróżnia się 7 modeli współpracy, które wywołują zmiany w modelach
biznesowych:
– pionierzy partnerstwa (zdobycie doświadczeń zawodowych i kontaktów społecznych,
realizacja życiowych pasji),
– ideagora (rynek myśli, idei, pomysłów, innowacji i osób o unikalnych kwalifikacjach),
– prosumpcja (dopuszczenie klientów do wspólnego projektowania produktów, skojarzenie produkcji i konsumpcji),
– nowi aleksandryjczycy (cyfrowa biblioteka budowana na wzór Biblioteki Aleksandryjskiej, digitalizacja i otwarty dostęp do wiedzy, nauki, kultury),
– platformy uczestnictwa, (udostępnianie infrastruktury dla wspólnot złożonych z wielu
uczestników, którzy prowadzą interesy oraz dodają wartość do zastanych rozwiązań),
– globalne hale produkcyjne, (specjalizacja i kooperacja wirtualna, podział ryzyka
w budowaniu innowacyjnych produktów, kreowaniu nowych rynków),
– wikinomiczne miejsca pracy (odejście od zamkniętych, hierarchicznych, sztywnych
organizacji, na rzecz samoorganizujących się, rozproszonych osób i grup opartych
na współpracy w sieci).
Por. Ziemba 2011: 214 i nast.
78
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
5
Definicje e-biznesu najczęściej kładą nacisk na prowadzenie działalności gospodarczej
w Iternecie. Przykładem może służyć definicja C. Combe: „Biznes elektroniczny
(electronic business, e-business) może być definiowany jako wykorzystanie Internetu
do powiązania oraz ułatwiania prowadzenia przedsięwzięć biznesowych, handlu elektronicznego, komunikacji i współpracy wewnątrz firmy oraz z jej klientami, dostawcami i innymi partnerami biznesowymi. Firmy e-biznesowe wykorzystują Internet,
intranet, ekstranet i innego rodzaju sieci do wspierania swoich procesów gospodarczych (handlowych)”. Por. Nojszewski 2006.
6
Ciekawy wydaje się model 3., rozkładający obciążenie rozbudowy infrastruktury
pomiędzy głównych beneficjentów zwiększonej przepustowości. Oferuje on najwyższą
premię ARPU za łącze wśród badanych modeli (nawet dwa razy większą od pozostałych opcji), co pozwala przypuszczać, że umożliwi najszybszą modernizację infrastruktury, najbardziej efektywnie budując platformę pod dalszy rozwój rynku internetowego. Por. UKE 2010.
7
Prawidłowo zdefiniowane interfejsy oraz standaryzacja pozwalają na uzyskanie
z poszczególnych usług całej kompozycji usług o skojarzonej wartości dodanej, optymalnie dostosowanej do potrzeb użytkownika. Przykładem tego procesu może być
poszukiwanie optymalnych modeli biznesowych w serwisach oferujących utwory
muzyczne, odnotowujących spadek dochodów w wyniku piractwa, czy w sektorze
telekomunikacji, który doświadcza spadku dochodów z telefonii głosowej.
8
Strategie tych firm mają istotny wpływ na pośrednie efekty sieciowe między obiema
stronami platformy. Na gruncie teorii maksymalizacji zysku dwustronna platforma
może pociągać za sobą ceny poniżej kosztów wyceny rynkowej dla jednego zestawu
klientów w długim okresie. Rodzi to aspekty antymonopolowe związane z definicją
rynku, analizą karteli lub indywidualnych zachowań rynkowych.
9
Na przykład platforma e-aukcji łączy dwie grupy użytkowników o odmiennych potrzebach, które są zaspokajane w wyniku wymiany. W modelu tym wzrost liczebności
członków jednej grupy prowadzi do zmniejszenia ich korzyści, gdyż zwiększa się
konkurencyjność. Z kolei wzrost liczebności drugiej (komplementarnej) grupy prowadzi do wzrostu korzyści, gdyż zwiększa się liczba osób, z którymi potencjalnie
można kontraktować. Por. Doligalski 2011: 77 i nast.
10
Sprawa Apple, Inc. v. PsyStar Corp. świadczy o napięciach między prawami autorskimi
podlegającymi ochronie a potrzebą otwartego dostępu, które próbuje się rozwiązywać,
stosując swoisty miks prawa autorskiego i prawa umów. Sądy powinny poszukiwać
delikatnej równowagi, gdyż sprawy toczące się na tle praw autorskich dotykają zagadnienia otwartych lub zamkniętych platform technologicznych. Należy mieć na uwadze,
że otwarte platformy bardziej sprzyjają innowacjom i wymagają pogodzenia celów
ochrony i otwartego dostępu, a szczególnie optymalizowania rozstrzygnięć przy rozpatrywaniu nadużycia praw autorskich (copyright misuse).
11
Rozpoczął się proces przechodzenia od tradycyjnych mediów, udostępniających content za darmo dzięki wpływom z reklam, do modeli darmowego contentu dla przeważającej większości użytkowników (freemium) w zamian za sprzedaż pewnej grupie
osób treści wysokiej jakości (premium), udostępniania contentu szybciej wraz z gwarancją dostępności w okresach szczytowego obciążenia sieci (priority pricing) czy
świadczenia usług dodanych. Rozwinęła się także idea free-sample model, polegająca
na powiązaniu muzyki z promocją koncertów czy płyt lub fragmentów tekstów jako
zachęty do dokonania zakupów książek. Wszystko to staje się możliwe dzięki konwergencji mediów i cyfryzacji contentu. W świecie cyfrowym (world of bits), inaczej
niż to było w świecie analogowym (world of atoms), produkcja, agregacja i dystrybucja contentu zbliża się bowiem do zera.
vol. 10, nr 3 (38), 2012
79
Włodzimierz Szpringer
12
Należy wskazać na cechy modelu IaaS opracowanego przez Amazon jako kalkulatora
czy „maszyny wirtualnej”, której istota polega na tym, że czas obliczeniowy przez
pewien czas jest dostępny dla użytkownika (zazwyczaj przedsiębiorstwa) na całym
świecie. Amazon stworzył ten instrument do zarządzania globalną mocą obliczeniową
do własnych celów, aby na wypadek spiętrzenia, np. świątecznych zakupów, poradzić
sobie na własnym serwerze. IaaS oferowany jest firmom w celu łagodzenia godzin
szczytu, z korzyścią dla wydajności komputera. Por. Spies 2009.
13
Ponadto, inaczej niż przy ASP, usługi nie płyną z jednego serwera, lecz wielu serwerów i komputerów należących do różnych właścicieli. Centrum „chmury” dysponuje
wszelako ich mocami obliczeniowymi, tak jak gdyby było ich właścicielem. Centrum
to zapewnia użytkownikowi uzgodniony w umowie poziom usług (Service Level Agreement – SLA), a pochodzenie tych usług nie jest dla niego istotne. Umowa z centrum
„chmury”, czyli dostawcą usług IT, jest podobna do umowy outsourcingowo-hostingowej. Por. Söbbing 2009; Gerlach 2011; Grünwald i Döpkens 2011.
14
Wiele firm oferuje użytkownikom outsourcing oprogramowania na swoich komputerach, dzięki czemu użytkownik może z nich korzystać praktycznie zawsze i wszędzie
– Software as a Service (SaaS) Przykładem jest Google Docs dla Word i Excel Word
lub SlideRocket dla programu PowerPoint. Rozwinięciem SaS jest platforma jako
usługa (PaaS), np. Microsoft Azure. PaaS oferuje twórcom oprogramowania oraz
użytkownikom tworzenie własnych aplikacji. Istnieje również pojęcie: infrastruktura
jako usługa (IaaS).
15
Pozostają wszelako wątpliwości związane z wyborem prawa właściwego dla kontraktów oraz dla zdarzeń pozaumownych, np. dotyczących odpowiedzialności odszkodowawczej za utratę danych czy przerwy w dostępie do danych i oprogramowania. Inne
uwagi dotyczą niejasności w ochronie prywatności oraz tajemnicy handlowej w kraju
świadczenia usługi, skoro i dane osobowe i biznesowe mogą być archiwizowana na
całym świecie.
Bibliografia
Anderson, Ch. 2007. Online, There Really Is Such a Thing as a Free Lunch, http://www.
economist.com/node/10094757.
Anderson, Ch. 2008. Free! Why $0.00 Is the Future of Business, http://www.wired.com/
techbiz/it/magazine/16-03/ff_free.
Bächle, M. i F.R. Lehmann 2010. E-Business. Grundlagen elektronischer Geschäftsprozesse
im Web 2.0, München: Oldenbourg Verlag.
Bauwens, M. 2006. The Political Economy of Peer Production, http://www.informatik.
uni-leipzig.de/~graebe/Texte/Bauwens-06.pdf.
Bieger, T., zu Knyphausen-Aufsaß, D. i Ch. Krys 2011. Innovative Geschäftsmodelle.
Konzeptionelle Grundlagen, Gestaltungsfelder und unternehmerische Praxis, Berlin–
–Heidelberg: Springer Verlag.
Bouwman, H., de Vos, H. i T. Hacker (Eds.) 2008. Mobile Service Innovation and Business Models, Berlin–Heidelberg: Springer Verlag.
Chowney, V. 2011. EU Open Data Strategy Could Be Worth $40bn a Year, http://econsultancy.com/uk/blog/8492-eu-open-data-strategy-could-be-worth-40bn-a-year.
Digital Agenda: Turning Government Data into Gold 2011. http://europa.eu/rapid/pressReleasesAction.do?reference=IP/11/1524.
Doligalski, T. 2011. Współtworzenie wartości z klientami zorientowane na innych klientów. e-Mentor, nr 1.
Duncan, E. 2009. Who Pays the Price of a Free-for-All? http://www.guardian.co.uk/
books/2009/jun/28/review-free-chris-anderson.
80
Problemy Zarządzania
Innowacyjne modele e-biznesu – perspektywy rozwojowe
Ellickson, R.C. 1991. Order Without Law: How Neighbors Settle Disputes, Cambridge:
Harvard University Press, http://econfaculty.gmu.edu/bcaplan/ellick.htm.
Evans, D. 2003. The Antitrust Economics of Multi-Sided Platform Markets. Yale Journal
of Regulation, nr 20.
Evans, D. i R. Schmalensee 2007. The Industrial Organization of Markets with Two-Sided
Platforms, https://www.competitionpolicyinternational.com/the-industrial-organizationof-markets-with-two-sided-platforms.
Gerlach, C. 2011. Vertraulichkeit und Geheimhaltung bei SaaS und Cloud Computing,
http://itrecht.blogg.de/eintrag.php?id=50.
Gray, J. 2011. European Commission launches Open Data Strategy for Europe, Open
Knowledge Foundation; http://blog.okfn.org/2011/12/12/european-commissionlaunches-open-data-strategy-for-europe.
Grünwald, A. i H.R. Döpkens 2011. Cloud Control? Regulierung von Cloud Computing
Angeboten. Multimedia und Recht, nr 5.
Herrel, J.P. 2011. The Copyright Misuse Doctrine’s Role in Open and Closed Technology
Platforms. Berkeley Technology Law Journal, nr 1 (26).
Londhoff, J. 2002. Identification innovativer Geschäftsmodelle für Web-Services unter besonderer Beachtung von ASP-Lösungen und B&B Brokerage, Norderstedt: GRIN-Verlag.
Mettler, A. i A.D. Williams 2011. The Rise of the Micro-Multinational: How Freelancers
and Technology-Savvy Start-Ups Are Driving Growth, Jobs and Innovation, Lisbon:
Lisbon Council Policy Brief, http://www.lisboncouncil.net/publication/publication/67the-rise-of-the-micro-multinational-how-freelancers-and-technology-savvy-start-upsare-driving-growth-jobs-and-innovation.html.
Nojszewski, D. 2006. Przegląd modeli e-biznesowych (cz. 1). e-Mentor, nr 5, http://www.e-mentor.edu.pl/artykul/index/numer/17/id/375.
NSF/DOC 2002. Converging Technologies for Improving Human Performance: Nanotechnology, Biotechnology, Information Technology and Cognitive Science, National Science
Foundation/Department of Commerce, sponsored report.
Ordover, J. 2007. Comments on Evans & Schmalensee’s The Industrial Organization of
Markets with Two-Sided Platforms. Competition Policy International, nr 1 (3), https://
www.competitionpolicyinternational.com/comments-on-evans--schmalensees-theindustrial-organization-of-markets-with-two-sided-platforms.
Oreilly, T. 2007. What is Web 2.0. Design Patterns and Business Models for the Next Generation of Software, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1008839.
Osterwalder, A., Pigneur, Y. i Ch.L. Tucci 2005. Clarifying Business Models: Origins,
Present and Future of the Concept. Communications of the Association for Information Systems, nr 15 (May), http://www.softwarepublico.gov.br/5cqualibr/6-publicacoes-e-artigos/view/vetor-ecossistema/sobre-modelo-de-neg-cios/Claryfing-Busines-Model.
pdf.
Reichwald, R. i F. Piller 2006. Interaktive Wertschöpfung. Open Innovation, Individualisierung und neue Formen der Arbeitsteilung, Wiesbaden: Gabler.
Rochet, J. i J. Tirole 2002. Cooperation among Competitors. The Economics of Payment
Cards Associations. Rand Journal of Economics, nr 4 (33).
Söbbing, T. 2009. Cloud Computing von der juristischen Seite, http://www.computerwoche.
de/management/compliance-recht/1904060/index6.html.
Spies, R. 2009. USA: Cloud Computing – Schwarze Löcher im Datenschutzrecht. Multimedia und Recht, nr 5, http://rsw.beck.de/cms/main?sessionid=9870BEFD2437430
38999508C13594662&docid=281111&docClass=NEWS&site=MMR&from=mmr.10.
Surowiecki, J. 2004. The Wisdom of Crowds. Why the Many are Smarter Than the Few
and how Collective Wisdom Shapes Business, Economies, Societies and Nations, Boston:
Doubleday.
vol. 10, nr 3 (38), 2012
81
Włodzimierz Szpringer
UKE 2010. Łańcuch wartości w Internecie i potencjalne modele funkcjonowania rynku,
Warszawa: Urząd Komunikacji Elektronicznej.
Waal, M. de 2010. Freeconomics: The Art of Making Money by Giving Things Away for
Free, http://memeburn.com/2010/04/freeconomics-the-art-of-making-money-by-givingthings-away-for-free.
Weichert, T. 2010. Cloud Computing und Datenschutz, https://www.datenschutzzentrum.
de/cloud-computing.
Weill, P.T., Malone, W., D’Urso, V.T., Herman, G. i S. Woerner 2005. Do Some Business
Models Perform Better than Others? A Study of the 1000 Largest US Firms, Sloan
School of Management, Massachusetts Institute of Technology MIT Center for Coordination Science Working Paper No. 226, http://ccs.mit.edu/papers/pdf/wp226.pdf.
Wielki, J. 2011. Analiza rozwoju modeli biznesowych opartych na wykorzystaniu internetu.
Problemy Zarządzania Zeszyt Specjalny, 2011, s. 204 i nast.
Wirtz, B.W. 2011. Medien- und Internetmanagement, Wiesbaden: Gabler.
Zając, A. 2003. Wyzwania aksjologiczne wobec zarysowującej się fali przemian cywilizacyjnych – rewolucja biotechnologiczna NBIC, Edukacja Jutra, IX Tatrzańskie Seminarium
Naukowe.
Ziemba, E. 2011. Wikinomia nowym modus operandi współczesnej organizacji. Problemy
Zarządzania Zeszyt Specjalny, 2011, s. 214 i nast.
82
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 83 – 103
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.6
Rozwój systemów crowdfundingu
– modele, oczekiwania i uwarunkowania
Dariusz T. Dziuba
Przedmiotem rozważań tego artykułu jest crowdfunding, a zwłaszcza ekonomiczne i prawne uwarunkowania jego rozwoju. Crowdfunding traktowany
jest jako perspektywiczna metoda gromadzenia środków finansowych od rzeszy
internautów, w tym inwestorów, i zarządzania nimi, rozdysponowywania, według
różnych modeli. Oszacowano segment rynkowy związany z crowdfundingiem –
według jego rozmiarów, struktury (lokalizacji wdrożeń) i wartości. Dokonano
analizy tej koncepcji i jej oddziaływań według poszczególnych modeli: donacyjnego, sponsorskiego, pożyczkowego i inwestycyjnego. Platformę ASSOB.com.au
potraktowano jako studium przypadku inwestycyjnego modelu akcyjnego.
Uwypuklono korzyści ekonomiczne (oczekiwania) wiążące się z analizowaną
koncepcją, a także uwarunkowania ekonomiczne (głównie natury kosztowej)
i bariery prawne, które utrudniają, a niekiedy uniemożliwiają realizację takich
przedsięwzięć biznesowych i systemów informatycznych.
1. Wstęp
Dynamiczny rozwój Internetu, koncepcji Web 2.0, systemów (mikro-)
płatności i sieci społecznych spowodował materializację licznych koncepcji,
wykorzystywanych w różnych typach platform elektronicznych. Są to m.in.
crowdsourcing1, crowdfunding, crowdvoting itp.
Przedmiotem rozważań tej pracy jest crowdfunding2, jako perspektywiczna metoda pozyskiwania środków finansowych od rzeszy internautów,
w tym inwestorów, i zarządzania nimi, rozdysponowywania, według różnych
modeli. Dokonano analizy tej koncepcji, jej oddziaływań i uwarunkowań, jak
i oszacowania segmentu rynkowego związanego z crowdfundingiem – jego
struktury, lokalizacji i wartości. Zaprezentowano:
– sposoby definiowania crowdfundingu, jego istotę, w tym podobieństwa
i różnice z koncepcją crowdsourcingu;
– typologie modeli crowdfundingu i strategii nagradzania (proponowane
typologie odnoszą się również do rozdzielania typów platform elektronicznych);
– oszacowania rynku – jego rozmiarów, wartości i struktury (według
poszczególnych modeli i lokalizacji platform);
vol. 10, nr 3 (38), 2012
83
Dariusz T. Dziuba
– analizę rynku wraz ze studiami przypadku modeli donacyjnego, pożyczkowego i inwestycyjnego, w tym platformy ASSOB.com.au jako przykładu
inwestycyjnego modelu akcyjnego;
– korzyści ekonomiczne (oczekiwania) wiążące się z analizowaną koncepcją;
– uwypuklając też uwarunkowania ekonomiczne (głównie natury kosztowej)
i bariery prawne, które utrudniają, a niekiedy uniemożliwiają realizację
takich przedsięwzięć biznesowych i wdrażanie systemów informatycznych.
Wykazano dynamiczny rozwój platform crowdfundingu, rozwój całego
rynku i według poszczególnych segmentów (modeli). Korzyści z takich przedsięwzięć mogą uzyskiwać wszyscy uczestnicy danego rynku elektronicznego,
choć z drugiej strony rozwój warunkowany jest barierami ekonomicznymi
i prawnymi.
2. Istota crowdfundingu
Termin „crowdfunding” jest neologizmem, złączeniem słów „crowd”
i „funding”, czyli gromadzeniem środków finansowych z (internetowego)
tłumu. Motywacją takiego działania może być, z punktu widzenia donatora
filantropia, również pozyskiwanie nagród rzeczowych, finansowych, a nawet
udziałów i akcji w przedsięwzięciach o charakterze inwestycyjnym.
Sam termin zaproponował najprawdopodobniej (Burkett 2011: 70; Drummond 2011: 16) Michael Sullivan w 2006 r. na forum blogu fundavlog,
pisząc m.in.: „gromadzenie środków finansowych z tłumu jest bazą, od której
wszystko inne zależy i jest tworzone. Zatem crowdfunding jest właściwym
określeniem, bym mógł wyjaśnić istotę fundavlog”3.
W szerszym ujęciu crowdfunding (internetowy) można interpretować jako
niemal dowolną formę gromadzenia środków finansowych poprzez sieć komputerową. Natomiast węższy sposób definiowania4 uwypukla proces, w którym np. przedsiębiorcy, artyści czy organizacje non profit zbierają środki
finansowe na potrzeby ich projektów, przedsięwzięć, czy organizacji, bazując
na wsparciu wielu osób (z internetowego „tłumu”), które wspólnie ofiarowują pieniądze na takie projekty, przedsięwzięcia itp. bądź inwestują w nie.
Crowdfunding był realizowany już od wielu lat, jeszcze przed zaistnieniem
samego terminu. Jednym z pionierów był brytyjski zespół rockowy Marillion
(Frey 2012), który w roku 1997 wyruszył w tournée po USA, pozyskując wcześniej od fanów, z kampanii internetowej kwotę 60 tysięcy USD. Również inne
zespoły muzyczne czy producenci filmowi gromadzili tak środki finansowe.
Właściwy rozwój analizowanej koncepcji datuje się dopiero od lat
2005–2008, gdy zaczęły być implementowane takie platformy internetowe
jak: Kickstarter.com, Zopa.com, IndieGoGo.com, Kiva.org i inne, wdrażane
w kilku ostatnich latach.
Rozpatrując koncepcję crowdfundingu, stwierdzamy, że wywodzi się ona
z crowdsourcingu, jest silnie z nią powiązana. Obie idee zaistniały niemal
równocześnie – w roku 2006, termin crowdfunding wprowadził Michael
84
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
Sullivan, a crowdsourcing – Jeff Howe (2006b). Według Howe (2006a)
crowdsourcing to czynność podejmowania pracy, tradycyjnie realizowanej
przez określonego pracownika (agenta), i zlecania jej na zewnątrz do niezdefiniowanej, najczęściej dużej grupy osób w formie otwartego zgłoszenia.
Lp.
Crowdfunding
Crowdsourcing
1
Oferta przedsięwzięcia na
platformie; otwarte zgłoszenie
kierowane do internetowego
„tłumu”
Oferta przedsięwzięcia na platformie;
otwarte zgłoszenie kierowane do
internetowego „tłumu”
2
Przesyłanie środków finansowych
do organizatora
Przesyłanie efektów pracy do
organizatora; przekaz informacji/
/wiedzy/projektów
3
Filantropia bądź nagradzanie;
nagrody rzeczowe lub finansowe;
w systemach inwestycyjnych
udziały, akcje
Gratyfikacje finansowe lub inne
motywacje (np. w systemach opartych
na wolontariacie)
Tab. 1. Crowdfunding a crowdsourcing – podobieństwa i różnice. Źródło: opracowanie
własne.
Obie koncepcje, jak wskazano w tabeli 1, rozpoczynane są od otwartego
zgłoszenia, kierowanego do tysięcy, milionów uczestników poprzez sieć internetową. W przypadku crowdfundingu uczestnicy platform animowani są do
przesyłania środków finansowych, a w przypadku crowdsourcingu – realizacji
pracy; przy czym praca może być realizowana też poprzez transfer informacji, wiedzy, idei, pomysłów itp. Zwrotnie transferowane są – w przypadku
crowdsourcingu – gratyfikacje finansowe, niekiedy nagrody rzeczowe, bądź
użytkownicy (jako wolontariat) oferują swą pracę z innych pobudek. Większość systemów crowdfundingu zwykle nie nagradza uczestników; drobne
nagrody rzeczowe spotykamy w przedsięwzięciach sponsorskich, a udziały
finansowe – w systemach o charakterze inwestycyjnym. Z kolei w systemach
pożyczek społecznych uczestnicy wpłacają określone kwoty pieniężne, aby
móc je w późniejszym terminie zagospodarować.
Reasumując, zbieżność obu koncepcji wynika z metod komunikacji,
dostępu do rozproszonych, zwykle niezidentyfikowanych masowych grup
uczestników (internetowego „tłumu”). Odmienność tych idei płynie z celu
działalności uczestników i koncentrowania się na określonych metodach
nagradzania i motywowania.
Uogólniając, można zatem sformułować następującą definicję crowdfundingu:
– to proces realizowany w środowisku internetowym, aktywizowany poprzez
otwarte zgłoszenie oferty (celu przedsięwzięcia, projektu), polegający na
gromadzeniu wolnych środków finansowych spośród potencjalnie ogromnej liczby rozproszonych uczestników (ich „tłumu”);
vol. 10, nr 3 (38), 2012
85
Dariusz T. Dziuba
– gromadzenie zasobów finansowych może być dokonywane w formie bezzwrotnej donacji wynikającej z celów charytatywnych, motywów filantropijnych albo płatności w oczekiwaniu na nagrodę rzeczową bądź
na potrzeby możliwości pożyczania zasobów w przyszłości, albo – jak
w przypadku systemów inwestycyjnych – inwestycji w określone przedsięwzięcia (firmy, zwłaszcza we wstępnej fazie rozwoju) w oczekiwaniu
na gratyfikacje finansowe i udziały w zyskach czy akcje;
– zakres korzyści wynika z zastosowanego modelu crowdfundingu i stosowanej strategii nagradzania uczestników.
Koncepcja ta realizowana jest poprzez elektroniczne platformy, których
funkcją jest m.in. prezentowanie ofert przedsięwzięć, kontrola ich realizacji,
tworzenie interakcji pomiędzy uczestnikami rynku, dostarczanie systemów
płatności i nagradzanie uczestników.
3. Modele crowdfundingu
– typologia i charakterystyka
W praktyce gospodarczej crowdfunding może być realizowany w różnych
formach (modelach). Do dalszych rozważań można zaproponować następującą typologię, wydzielając cztery podstawowe modele (wraz z siedmioma
modyfikacjami) crowdfundingu i równocześnie platform elektronicznych
realizujących takie podejścia5:
1. Model donacyjny (donations model), zwany charytatywnym, w tym:
1a. Model bez nagradzania uczestników (non-rewards model);
1b. Model z nagradzaniem uczestników (reward-based model), zwany
sponsorskim.
2. Model pożyczkowy (lending model), w tym:
2a. Model mikropożyczek (microfinance, P2P microfinance);
2b. Model pożyczek społecznych (social lending, P2P lending).
3. Model inwestycyjny, w tym:
3a. Model kolektywnego współfinansowania firm (collective investment);
3b. Model inwestycyjny – funduszu inwestycyjnego (investment fund);
3c. Model inwestycyjny – akcyjny (securities model).
4. Rozwiązania mieszane (mixed solutions).
Ad. 1. Model donacyjny jest najbardziej rozpowszechniony. Jego istotą jest
tworzenie platformy (strony internetowej) do komunikacji z tłumem uczestników i zgłaszania oferty przedsięwzięcia, np. zbiórki środków finansowych
na określony, filantropijny cel. W tradycyjnym ujęciu (model 1a), uczestnicy
nie są nagradzani. Takimi platformami są m.in. JustGiving.com, FirstGiving.
com czy Philanthroper.org6. Modyfikacją jest model z gratyfikowaniem niefinansowym uczestników, nazywany niekiedy sponsorskim (1b). Darczyńcom
za okazaną hojność oferowane są nagrody rzeczowe, np. płyty DVD, T-shirty,
książki, bilety na imprezy kulturalne, premiery filmów (gdy zostaną zrealizo86
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
wane) itp. Systemy sponsorskie koncentrują się zwykle na wspieraniu kreatywnych projektów lub jednostek. Tak funkcjonują m.in. platformy Kickstarter.
com, Rockethub.com czy Indiegogo.com. Uczestnicy z sieciowego „tłumu”
lokują swoje środki finansowe w danym projekcie (np. działalności muzycznej, produkcji filmu, organizacji koncertu, pomyśle książki), chcąc je wesprzeć. Gromadzenie funduszy na dane przedsięwzięcie jest ściśle określone
czasowo, zwykle trwa kilka tygodni do kilku miesięcy. Istnieją przy tym różne
strategie wynagradzania darczyńców-sponsorów (por. dalsze rozważania).
Ad. 2. Popularny jest również model pożyczkowy, umożliwiający bezpośrednie pożyczanie środków finansowych, z pominięciem tradycyjnych
instytucji finansowych, np. banków. Mogą to być systemy zarówno mikropożyczek (model 2a), jak i pożyczek społecznych (2b). Mikropożyczki to pomoc
finansowa, zwykle dla najuboższych, oferowana w niewielkich kwotach,
gromadzonych i rozdysponowywanych np. poprzez platformy non profit:
Kiva.org (kwoty po 25 USD) czy Zidisha.org. Pożyczki społeczne dotyczą zaś wyższych kwot7. W takich systemach uczestnicy gromadzą wolne
środki finansowe, a później są one pożyczane na określonych regulaminami
warunkach. Ilustracją są m.in. platformy: Zopa.com, Kokos.pl, Finansowo.pl.
Pożyczki mogą być udzielane na cele konsumpcyjne, ale też biznesowe.
Ad. 3. Coraz częściej są wykorzystywane platformy o charakterze inwestycyjnym, w których uczestnicy (drobni inwestorzy z internetowego „tłumu”)
lokują swoje wolne środki finansowe w danych przedsięwzięciach w oczekiwaniu na korzyści finansowe. Szereg rozwiązań przewidziano do wspomagania start-upów bądź firm we wczesnej fazie rozwoju.
W wersji modelu kolektywnego współfinansowania przedsięwzięć (3a)
biorą udział różne grupy uczestników, w tym aniołowie biznesu (business
angels), tj. osoby fizyczne, które inwestują w rozwój danej firmy, w dane
przedsięwzięcie; są to jednak relatywnie niewielkie środki finansowe. Przykładowo InvestFashion.com umożliwia inwestowanie na rynku mody kwotami od 25 USD. W zamian inwestorzy oczekują np. tantiem, udziałów
w przyszłych zyskach, sprzedaży itp. Inwestycje aniołów biznesu (i według
kolejnych modeli) wymagają wysokich stóp zwrotu, gdyż narażone są na
duże ryzyko.
Fundusz inwestycyjny (3b) można zdefiniować jako formę wspólnego
inwestowania, której istotą jest zbiorowe lokowanie środków finansowych
– crowdfunding z założenia jest działaniem „tłumu” uczestników internetowych. Dlatego też wydzielono odrębny model. W niektórych przypadkach podmiot tworzący platformę elektroniczną może być zorganizowany
jako fundusz inwestycyjny. Mogą to być np. fundusze venture capital, czyli
podmioty prawne, najczęściej spółki z o.o., dysponujące zgromadzonym
majątkiem. Funduszem inwestycyjnym bazującym na idei crowdfundingu
jest np. EquitySplash.com – z siedzibą główną na Florydzie (USA). Innym
przykładem jest Thrillcapital.com. Istnienie takich podmiotów jest silnie
uzależnione od uwarunkowań prawnych na danym rynku.
vol. 10, nr 3 (38), 2012
87
Dariusz T. Dziuba
Internetowi fundatorzy, wspomagając daną firmę, w zamian za okazaną pomoc finansową uczestniczą w jej zyskach, mogą otrzymywać udziały
w podziale dochodów (modele 3a i 3b), jak również papiery wartościowe
(Fundinglaunchpad 2012: 5) – są to świadectwa udziałowe, dłużne papiery
wartościowe.
Gratyfikacje w formie akcji pozwalają wydzielić odrębny model – akcyjny
(3c), nazywany equity-based. Model ten implikuje sprzedaż akcji i przekazywanie praw własności do internetowych inwestorów. Przykładem jest platforma ASSOB.com umożliwiająca inwestowanie w akcje danego podmiotu.
Modele inwestycyjne wyodrębniane są zatem według kilku, wzajemnie
nakładających się na siebie kryteriów podziału, w tym:
– zakresu korzyści możliwych do uzyskania przez inwestorów,
– wartości inwestowanych środków finansowych,
– formy organizacyjnej przedsięwzięcia (tu: wydzielamy fundusze inwestycyjne),
– stosowanych technologii.
Zakres korzyści dla inwestorów jest dość szeroki, od nagród finansowych, stałych bądź proporcjonalnych (w kolektywnym współfinansowaniu
firmy), do uzyskiwania produktów danej firmy, upustów w jej zakupie, także
udziałów w przyszłej sprzedaży, zyskach i emitowanych akcjach (fundusz
inwestycyjny, model akcyjny8). Według wartości inwestowanych środków
można mówić o środkach relatywnie niewielkich, jak w przypadku działań
aniołów biznesu, wyższych, np. w funduszach venture capital, i najwyższych –
w modelu akcyjnym. Najbardziej złożone technologicznie platformy zwykle
obsługują model akcyjny.
Ad. 4. W praktyce spotykamy również rozwiązania mieszane. Na
przykład francuska platforma FinanceUtile.com łączy funkcje udzielania
pożyczek z modelem inwestycyjnym (kupno udziałów w przedsięwzięciu),
podobnie kanadyjski system P2Pfinancial.ca. Ewenementem jest platforma
Rockthepost.com (USA), na której realizowane są zarówno model donacyjny, również sponsorski, tj. z nagradzaniem uczestników, jak i odrębne
formy inwestowania (w zamian za zyski z przyszłej sprzedaży, także udziały
w przedsięwzięciu).
4. Strategie nagradzania w modelu sponsorskim
Platformy crowdfundingu można dodatkowo wydzielać na podstawie
kryterium stosowanych metod i strategii nagradzania uczestników rynku.
Realizowane są trzy modele:
– „wszystko albo nic” (All-or-Nothing),
– „wszystko” (Keep it All)
– i rozwiązania pośrednie, np. „wszystko i więcej” (All & MoreTM).
Model „wszystko albo nic” polega na tym, że gdy projekt nie zostanie
zrealizowany, zainwestowane środki finansowe wracają do fundatora (choć
88
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
pomniejszone o prowizje uprzednich transferów w systemach mikropłatności). Oferent przedsięwzięcia nie otrzymuje żadnych, tj. dotąd zgromadzonych środków. Tak funkcjonuje m.in. system Kickstarter.com czy rodzimy
PolakPotrafi.pl.
Przeciwne rozwiązanie zastosowano na platformie IndieGoGo.com.
W tym podejściu oferent-przedsiębiorca zabiera środki, tj. „wszystko”, nawet
jeśli zgromadzono ich zbyt mało, ale z drugiej strony ponosi koszt wyższych
prowizji, gdy nie zrealizował celów.
Inną strategią, realizowaną np. w systemie RocketHub.com, jest „wszystko
i więcej”. Oferenci projektów mogą zatrzymać dotąd uzyskane środki finansowe, nawet jeśli nie zgromadzono ich w 100%. Oznacza to, że wszystko
tracą fundatorzy, sponsorzy, a kwota ta jest profitem oferentów i platformy.
RocketHub dodatkowo wynagradza przedsiębiorców, jeśli zrealizowali swoje
cele, tzn. zgromadzili zakładaną kwotę na projekt i w wyznaczonym czasie
– wówczas platforma premiuje ich m.in. upustami w prowizjach.
Oceniając rynek wdrożeń systemów sponsorskich, można powiedzieć, że
większość takich platform funkcjonuje według modelu „wszystko albo nic”.
Z innymi modelami nagradzania wiąże się dla „sponsora” większe ryzyko.
Największą platformą funkcjonującą według modelu sponsorskiego
(i „wszystko albo nic”) jest Kickstarter.com. Według szczegółowych danych
za rok 2011 (pochodzących z witryny: http://www.kickstarter.com) oferowano
27 086 projektów; sfinalizowano w tym 11 836 (tj. ze współczynnikiem sukcesu 46%); pozyskano kwotę około 99,344 mln USD, a liczba uczestników
wyniosła około 30,59 mln; wartość zgromadzonych środków finansowych
wzrosła z 27,6 mln w roku 2010 do ponad 99 mln w roku 2011, czyli ponad
trzykrotnie.
Jak wskazano, nie wszystkie projekty są finalizowane, tj. zrealizowane
w wyznaczonym terminie i pozyskują zakładaną kwotę. Stwierdzane jest to
również na innych platformach. Przykładowo w roku 2010 w Rockethub.
com jedynie około 20% projektów dla małych przedsięwzięć biznesowych
było sfinalizowanych, zaś w IndieGoGo.com – tylko 10% (dane za rok 2010
na podstawie Lensonsky 2011). Według późniejszych danych za I kwartał
2011 r. w IndieGoGo zrealizowano jedynie 400 projektów na łączną liczbę
22 tysięcy (Gough 2011), czyli wskaźnik sukcesu wyniósł niecałe 2%.
5. Szacowanie rozmiarów rynku,
jego struktury i wartości
Można szacować wielkość rynku crowdfundingu, jego strukturę i wybrane
na nim tendencje, biorąc pod uwagę reprezentatywną grupę systemów. Cennym źródłem informacji o takich przedsięwzięciach jest witryna crowdcourcing.org, udostępniająca katalog platform elektronicznych segregowanych
według różnych rodzajów, relatywnie często aktualizowany. Przede wszystkim
gromadzone są tu informacje o typowych systemach crowdsourcingu, ale
vol. 10, nr 3 (38), 2012
89
Dariusz T. Dziuba
również crowdfundingu. Badanie zrealizowano dnia 4 maja 2012 r. – wówczas
strona crowdsourcing.org zawierała łączne zestawienie 1864 witryn. Badanie
polegało na identyfikacji systemów crowdfundingu i sklasyfikowaniu ich
do odrębnych modeli. Zliczano liczby poszczególnych systemów i udziały
procentowe. Na podstawie uzyskanego zbioru danych rozdzielano platformy
na grupy względem ich lokalizacji (wdrożeń), według krajów i kontynentów.
Odrębne grupowania w bazie crowdsourcing.org prezentują niekiedy różniące się od siebie dane, zatem wydzielenia systemów dokonano, bazując
na pierwotnym zbiorze danych i szczegółowej ocenie informacji z witryn.
Zidentyfikowano 443 systemy crowdfundingu, w tym następujące ich
rodzaje (modele):
– 302 platformy o funkcjach donacyjnych (filantropijnych i sponsorskich),
w tym 228 donacyjnych i 74 sponsorskie;
– 61 systemów pożyczkowych, w tym 43 pożyczek społecznych i 18 mikropożyczek;
– 80 platform o charakterze inwestycyjnym, w tym 8 według modelu akcyjnego.
W łącznej liczbie platform crowdfundingu systemy donacyjne stanowią
grupę dominującą, o udziale 68% (traktowane łącznie ze sponsorskimi)
i ponad 51% (bez modelu sponsorskiego). Systemy z nagradzaniem niefinansowym uczestników (74) stanowią udział około 17% w łącznej liczbie
badanych platform. Drugą według liczebności są systemy inwestycyjne, tworzące grupę około 18%. W ramach tego modelu zidentyfikowano jedynie
8 platform akcyjnych, stanowiących 10% w łącznej liczbie platform inwestycyjnych i niecałe 2% w ogólnej liczbie platform crowdfundingu. Najmniej liczna jest grupa platform pożyczkowych (61), z udziałem ponad 13%
w łącznej liczbie analizowanych systemów. Systemy mikropożyczek to około
30% liczby platform pożyczkowych9.
Dodatkowo przeprowadzono badanie struktury rynkowej według lokalizacji platform. Witryna crowdsourcing.org nie zawsze udostępniała kompletne
informacje pozwalające na jednoznaczną lokalizację; brano tu pod uwagę
miejsce wdrożenia, siedzibę główną firmy, jak też oddziaływania rynkowe.
Wyselekcjonowano grupę 21 platform międzynarodowych lub funkcjonujących poprzez sieci social networks typu Facebook i Twitter, w których
nie można było jednoznacznie ustalić lokalizacji. Analizowano zatem dalej
grupę 422 systemów.
Wdrożeń dokonano w 43 krajach na różnych kontynentach, tj. w skali
globalnej. Najwięcej platform crowdfundingu jest zlokalizowanych w USA
– 180, czyli około 43% globalnej liczby. Drugą grupę stanowią systemy
z Wielkiej Brytanii (40 wdrożeń), tj. z udziałem 9,5%, trzecią – z Francji
(25 implementacji), czwartą – z Holandii (24), z kolei równoliczne (po 19)
z Niemiec i Brazylii, następnie z Hiszpanii (17), Kanady (14) i Australii (11).
Pozostałe wdrożenia mają charakter jednostkowy, np. Szwajcaria i Chiny
(po 5), Nowa Zelandia, Indie i Włochy (po 4), Dania, Czechy, Szwecja,
90
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
Portugalia, Japonia, Argentyna (po 3), Finlandia, Belgia, Izrael, Węgry,
Rosja i Meksyk (po 2), Łotwa, Estonia, Irlandia, Norwegia, Austria, Grecja, Cypr, Luksemburg, Rumunia, Hongkong, Filipiny, Turcja, Indonezja,
RPA, Uganda, Kenia, Chile i Kolumbia (po 1 platformie). Spośród badanych zidentyfikowano 3 takie platformy w Polsce: PolakPotrafi.pl, Pozycz.
pl, Kokos.pl10.
Ponadto przeprowadzono badanie liczby i udziałów wdrożeń według kontynentów oraz grup krajów. Najwięcej implementacji miało miejsce w Ameryce Północnej (USA, Kanada), łącznie 194, czyli około 46%. Niewiele mniej
dokonano w Europie – 166 (udział około 40%). Kolejne wyliczenia są następujące: Ameryka Południowa i Łacińska (26; około 6%), Azja (18; około
4%), Australia i Oceania (13; około 3%), Afryka (3; około 1%). W USA
i Europie wdrożono łącznie 346 platform, tj. około 82% globalnej liczby.
W pierwszych miesiącach roku 2012 (nie podano dokładnej daty) platforma Pleasefund.us przeprowadziła analizę lokalizacji systemów crowdfundingu. W katalogu crowdsourcing.org wyodrębniono 344 platformy
jako crowdfundingowe. Do dalszych badań zakwalifikowano 336 systemów11. Systemy crowdfundingu były wówczas realizowane w 34 krajach
świata. Stwierdzono (Pleasefund 2012), że większość platform miała swoje
lokalizacje w USA – 138 wdrożeń, czyli około 41% analizowanej grupy.
Wdrożenia w innych krajach były rozproszone, np. w Wielkiej Brytanii –
32 systemy (tj. 9,5%), Holandii – 24 (7,1%), Francji – 22 (6,5%), Brazylii
– 21 (6,3%), Niemczech – 16 (4,8%), Hiszpanii – 13 (3,9%), Kanadzie
– 12 (3,6%), Australii – 7 (2,1%), Szwajcarii – 4 (1,2%). W siedmiu
lokalizacjach wskazano po 3 wdrożenia, tj. we Włoszech, w Polsce, Portugalii, Szwecji, Indiach, Japonii, Nowej Zelandii (udziały po 0,9%). Po
dwa wdrożenia miały miejsce w: Belgii, Czechach, Danii, Irlandii, Chinach
i RPA (udziały po około 0,6%). Po jednym wdrożeniu (tj. po około 0,3%)
stwierdzono w: Argentynie, Chile, Zambii, Izraelu, Filipinach, Hongkongu,
Rosji, Austrii, Estonii, Finlandii, Rumunii i na Łotwie12. Czyli niemal 85%
wdrożeń miało miejsce w USA i Europie (traktowanych łącznie), a 15%
w „reszcie świata”.
Dane te, jak sądzę można uogólnić. Mianowicie w ciągu kilku miesięcy
2012 r. (pomiędzy początkiem roku a badaniami z dnia 4 maja) wzrosła
liczba lokalizacji rynków systemów z 34 do 43. Coraz więcej krajów wdraża
platformy crowdsourcingu, zatem o kilka punktów procentowych zmniejszył
się łączny udział USA i Europy w globalnej liczbie implementacji. Istotnie
wzrastają jednak liczby wdrożeń i ich udziały procentowe, np. w USA, Wielkiej Brytanii, Francji, Hiszpanii, Niemczech i innych krajach europejskich.
Ponadto większości wdrożeń w innych krajach w skali świata dokonano
w kilku ostatnich latach, zwłaszcza w roku ubiegłym, co świadczy o bardzo
dynamicznym rozwoju analizowanej koncepcji.
Można również oceniać wartość analizowanego rynku. Raport The Daily
Crowdsource (2012) szacował wielkość rynku crowdfundigu na podstawie
vol. 10, nr 3 (38), 2012
91
Dariusz T. Dziuba
ewaluacji 14 największych platform elektronicznych. Rozpatrywano dwie
grupy systemów:
– donacyjne z wynagradzaniem uczestników; łącznie osiem, w tym np. Kickstarter.com, RocketHub.com, WeFund.com;
– o charakterze inwestycyjnym, w których inwestorzy uzyskują aukcje lub
udziały w przedsięwzięciu (łącznie 6 platform); wszystkie analizowane
platformy inwestycyjne wdrożono w Europie.
Zgodnie z tymi badaniami (King 2012) w roku 2011 z przedsięwzięć
donacyjnych wynagradzających uczestników uzyskano kwotę około 102 mln
USD, w tym 85,5 mln USD na sfinalizowane projekty, tzn. projekty zrealizowane w wyznaczonym czasie i na zakładaną kwotę. Środki finansowe
zgromadzono dla ponad 31 tys. projektów, co stanowiło istotny wzrost
wobec roku 2010 (12 tys. projektów). Na drugą grupę projektów, o charakterze inwestycyjnym, w roku 2011 zgromadzono kwotę 20,5 mln USD,
tj. niemal pięciokrotnie więcej niż w roku poprzednim. Łącznie na obie
grupy projektów uzyskano w roku 2011 wpłaty około 123 mln USD, w relacji
do 32 mln USD za rok 2010, co świadczy o dynamicznym rozwoju w tym
segmencie rynkowym. W ciągu badanego roku wartość rynku wzrosła niemal czterokrotnie, co stanowi o dynamicznych zmianach. Według autorów
raportu (Daily Crowdsource 2012) stwierdzono 266% wzrost zaoferowanych
kwot, także 263% wzrost kwot na projekty sfinalizowane, wobec danych
z roku 2010.
Z kolei w raporcie Mymicroinvest (2011) z 19 października 2011 r. oceniano m.in. wielkość tego rynku w Europie. Wykazano, iż 10 największych
platform crowdfundingu pozyskało środki finansowe rzędu 100 mln EUR
w ciągu dziewięciu miesięcy 2011 r.
Przedstawione dane mają charakter cząstkowy – oceniano jedynie
wybrane systemy. Kolejne rozważania wskażą, że wartość środków finansowych zgromadzonych poprzez wszystkie typy platform crowdfundingu jest
znacząca, liczona w skali świata nawet na co najmniej kilkadziesiąt miliardów
USD, z największym udziałem platform donacyjnych.
6. Studia przypadku
– crowdfunding donacyjny i pożyczkowy
Dominującą grupą platform są systemy donacyjne, w tym sponsorskie. Są
to m.in.: Kickstarter.com (USA), IndieGoGo.com (USA), Artisteconnect.
com (Filipiny), Mycause.com.au (Australia), Fondomat.com (Czechy), NewJelly.com (Norwegia). Typowe systemy donacyjne mają charakter uniwersalny, ale powstaje coraz więcej platform, które specjalizują się w wybranych
dziedzinach. Na przykład Myfootballclub.co.uk wspiera drużynę piłkarską,
JustinWilsonplc.com – wyścigi Formuły 1, RacingShares.co.uk – wyścigi
konne, ActBlue.com – Partię Demokratów w USA, Cinecrowd.nl – produkcję filmową, liczne systemy sponsorują projekty muzyczne itp.
92
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
W tabeli 2 zestawiono statystyki wybranych dziewiętnastu platform
(12 donacyjnych i 7 sponsorskich), dla których uzyskano statystyki; wierszy
nie numerowano z uwagi na selektywny dostęp do danych.
Platforma
Rok utworzenia
Zgromadzone środki
(w mln USD)
Model donacyjny, bez nagradzania uczestników
JustGiving.com
2000
(*) około 1245,000
FirstGiving.com
2003
ponad 1000,000
NetworkforGood.org
2001
około 661,000
ActBlue.com
2006
241,472
Fundly.com
2011
około 204,000
uk.Virginmoneygiving.com
2008
(*) ponad 161,700
Everydayhero.co.uk
2005
(*) 116,746
Razoo.com
2010
około 92,000
Givezooks.com
2008
61,582
Missionfish.org.uk
2000
(*) 55,924
Akvo.org
2007
(**) 51,150
…
…
Givology.org
2008
…
około 0,099
Model sponsorski, z nagradzaniem uczestników
Kickstarter.com
…
2008
…
ponad 200,000
…
Indiegogo.com
2008
ponad 1,500
Voordekunst.nl
2010
(**) 1,081
Startnext.de
2010
(**) 0,860
TheCosmonaut.org
2010
(**) 0,611
Wefund.com
2011
(*) 0,563
…
PolakPotrafi.pl
…
2011
…
(***) min. 0,010
(*) GBP/USD; (**) EUR/USD; (***) PLN/USD; GBP = 1,6170 USD; EUR = 1,3217 USD;
PLN = 0,315199 USD; kursy NBP z dn. 30.04.2012r.; Kickstarter.com – dane za rok 2011;
PolakPotrafi.pl – dane z sierpnia 2011.
Tab. 2. Statystyki platform modelu donacyjnego i sponsorskiego (z dn. 30.04.2012). Źródło:
opracowanie własne na podstawie danych z witryn analizowanych platform; Indiegogo.
com na podstawie D. Tulchin i S. Yi-Han Lin 2012. Capital Sources for Social Enterprises.
Emerging Topics Paper Series. Working Paper, nr 16, Social Enterprise Associates (www.
socialenterprise.net), s. 6; Kickstarter.com na podstawie http://mashable.com/2012/05/01;
PolakPotrafi.pl na podstawie crowdfunding.pl 2011; przeliczenia kursów własne.
vol. 10, nr 3 (38), 2012
93
Dariusz T. Dziuba
Łącznie zestawione platformy donacyjne zgromadziły niemalże 4 mld
USD. Największe kwoty uzyskano na JustGiving.com i FirstGiving.com,
w każdym przypadku ponad 1 mld USD, następnie w NetworkforGood.org,
ActBlue.com i Fundly.com; najdłużej funkcjonujące na rynku elektronicznym platformy donacyjne pozyskiwały zwykle kwoty największe. Spośród
analizowanych najmniej środków finansowych zebrała platforma Givology.
org (99 tys. USD), organizująca kwesty wśród studentów.
Biorąc pod uwagę zestawione platformy modelu sponsorskiego, to zgromadziły one „tylko” ponad 200 tys. USD. Gros funduszy zebrano w Kickstarter.com, a kolejny system, Indiegogo.com pozyskał dotąd wielokrotnie mniej
środków – powodem jest bazowanie na odmiennej strategii nagradzania.
Dla celów ilustracyjnych umieszczono na wykazie też rodzimą platformę
PolakPotrafi.pl, na której do sierpnia 2011 r. (dane Crowdfunding.pl 2011)
sfinalizowano 6 projektów, o łącznej wartości 31 368 PLN.
Nie jest możliwe precyzyjne określenie wartości środków finansowych
zgromadzonych w skali globalnej poprzez platformy donacyjne. Bazując na
selektywnych danych z tabeli 2 oraz uprzednich badaniach i rozważaniach,
można oszacować wartość tych środków nawet na kilkadziesiąt miliardów
USD. Znacząco mniej zgromadziły platformy sponsorskie – co można oszacować na 2–3 mld USD w skali światowej. Raptowny rozwój badanych
systemów nastąpił zwłaszcza w latach 2011–2012.
Inną grupą systemów są serwisy pożyczkowe, zarówno według modelu
mikrokredytów, jak i pożyczek społecznych. Są to m.in.: Zopa.com (Wielka
Brytania), Kiva.org (USA), LendingClub.com (USA), Prosper.com (USA),
SomoLend.com (USA), Qufang.cn (Chiny), Ortagiz.com (Turcja), Lainaaja.
fi (Finlandia), Igrin.com (Australia), Cashare.ch (Szwajcaria), Fynanz.com,
Maneo.jp (Japonia), Rangde.org (Indie), a w Polsce np. Kokos.pl, Finansowo.pl, Sekrata.pl, Pozycz.pl czy, będące w zaniku, Monetto.pl.
Tabela 3 zestawia podstawowe statystyki dla piętnastu wybranych platform pożyczkowych (9 społecznych i 6 mikropożyczek), które udostępniały
takie informacje.
Spośród badanych według modelu pożyczek społecznych najwięcej środków finansowych użyczono w systemach LendingClub.com (ponad 620 mln
USD), Prosper.com czy brytyjskim Zopa.com – uznawanym za pioniera tej
technologii. Dla celów porównawczych umieszczono też dane o największej rodzimej tego typu platformie – Kokos.pl. W jej przypadku udzielone
pożyczki są niemal 30-krotnie niższe niż w LendingClub.com, 15-krotnie
niż w Prosper.com; niemiecki system Smava.de, który niedawno otworzył
również filię w Polsce, udzielił pożyczek na kwotę niemal trzykrotnie większą niż Kokos.pl.
W grupie systemów mikropożyczek dominują najbardziej znane: Kiva.org
(ponad 300 mln USD) i Zidisha.org (ponad 200 mln USD). Na indyjskiej
platformie Rangde.org udzielono jedynie ponad 1 mln USD pożyczek, czyli
niemal 225 razy mniej niż w Kiva.org.
94
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
Według zestawionych w tabeli 3 danych łączna wartość udzielonych pożyczek wynosi ponad 2 mld USD (ponad 1,5 mld w pożyczkach społecznych
i ponad 0,5 mld w mikrokredytach). Wielkość globalnego analizowanego
segmentu można szacować na kwotę co najmniej dwu-trzykrotnie większą.
Dynamika obserwowanych zmian wskazuje, że niesprawdzalna zapewne
okaże się prognoza rynku pożyczek crowdfundingowych według Gartnera
(Mymicroinvest 2011) – 3,3 mld USD w roku 2013.
Wyszczególnienie
Rok
utworzenia
platformy
Liczba
uczestników
(w tys.)
Udzielone pożyczki/
mikro-kredyty
(w mln USD)
Model pożyczek społecznych
LendingClub.com
2007
b.d.
Prosper.com
2006
1310,0
około 334,000
Zopa.com
2005
500,0
(*) 266,800
LendingKarma.com
2009
b.d.
111,645
Smava.de
2007
21,0
(**) 62,100
Maneo.jp
2009
22,5
(***) 37,138
Ratesetter.com
2010
21,2
(*) 35,605
Kokos.pl
2008
189,4
(****) 21,299
…
…
…
2009
b.d.
(**) 1,453
…
Comunitae.com
622,023
Model mikropożyczek
Kiva.org
2005
755,0
około 306,000
Zidisha.org
2009
b.d.
206,080
Myc4.com
2011
19,1
(**) 20,395
Vittana.org
2009
2,7
13,116
Babyloan.org.fr
2008
16,9
(**) 4,474
Rangde.org
2008
13,3
(*****) 1,370
b.d. – brak danych; (*) GBP/USD; (**) EUR/USD; (***) JPY/USD; (****) PLN/USD; (*****)
INR/USD; GBP = 1,6170 USD, EUR = 1,3217 USD; JPY = 0,012472 USD; PLN = 0,315199
USD; rupia indyjska INR = 0,0189 USD; kursy NBP z dn. 30.04.2012 r.
Tab. 3. Statystyki serwisów pożyczkowych (30.04.2012). Źródło: opracowanie własne na
podstawie analizowanych witryn internetowych; serwisy Smava i Ratesetter na podstawie
Mymicroinvest, CrowdFunding Market Analysis, Mymicroinvest.com, z: crowdsourcing.org,
11.01.2012; przeliczenia kursów własne.
vol. 10, nr 3 (38), 2012
95
Dariusz T. Dziuba
7. Crowdfunding inwestycyjny.
ASSOB jako studium przypadku
Trzecia grupa analizowanych systemów, to serwisy inwestycyjne. Dominują modele 3a i 3b, czyli kolektywnego współfinansowania przedsięwzięć
i (rzadziej) fundusze venture capital. Są to m.in. następujące platformy:
SociosInversores.es (Hiszpania), Micro-Ventures.com (Luksemburg),
Launch-capital.com (USA), Devexo.com, Helpedia.de i Mashup-finance.
de (Niemcy), TheCrowdAngel.com (Hiszpania), Crowdinvest.co.za (RPA),
Share2start.com (Holandia), EarlyShares.com (USA), Respekt.net (Austria),
Anaxago.com (Francja) i StartersFund.com, jako pierwsza pan-europejska
sieć equity-based.
Przykładowo Kopernik.info (USA) umożliwia wspieranie innowacyjnych
projektów na potrzeby krajów rozwijających; według oferty z dnia 27 kwietnia
2012 r. zgłoszonej na witrynie platformy (www.kopernik.info) na realizację
projektu „Barefoot Power” inwestor może przekazać dowolną kwotę bądź
wykupić następujące udziały13: 1 jednostkę za kwotę 14,85 USD; 2 jednostki
– 29,70 USD; 3 jednostki – 59,40 USD; 40 jednostek – 594,00 USD.
Z kolei wdrożenia inwestycyjnych platform akcyjnych są, jak dotąd, nieliczne. To m.in.: ASSOB.com.au (Australia), Crowdcube.com i Herofunding.
eu (Wielka Brytania), Symbid.com (Holandia), Seedrs.com (Wielka Brytania). Grecki system Startersfund.com łączy dodatkowo funkcje inkubatora przedsiębiorczości. Po zmianach legislacyjnych, na etapach wdrażania
i testowania są liczne systemy amerykańskie, np. American-Stock-Portal.
com, the California Stock Exchange (calstockexchange.com).
Platformy inwestycyjne rzadko udostępniają zagregowane statystyki, np.
o liczbie inwestorów, zakresie inwestowanych kwot czy zgromadzonym kapitale. Udało się pozyskać wybrane dane o 12 systemach, w tym 5 z modelu
aukcyjnego (ASSOB, Crowdcube, Herofunding, Symbid, Seedrs), co zestawiono tabelarycznie (tabela 4).
Spośród badanych największe wartości zgromadzonego kapitału uzyskano
w systemach: australijskim ASSOB.com.au, francuskim Wiseed.com i SeedUps.
com (na rynku Wielkiej Brytanii i Irlandii), w każdym przypadku ponad 50 mln
USD. Inwestorzy mogą lokować w start-upy różne zakresy środków, najmniejsze
w przypadku Seedrs.com, Investfashion.com, a najwyższe (miliony USD) np.
w ASSOB.com.au, Crowdcube.com, Symbid.com i Herofunding.eu. Ciekawym
przykładem jest szwajcarska platforma C-crowd.com, spełniająca różne funkcje – donacyjne, a także inwestowania w firmy i wspomagania przedsięwzięć
studenckich. Minimalne kwoty udziałów zależą więc od celu działalności.
Na chwilę obecną wartość zgromadzonego kapitału w całym segmencie
crowdfundingu inwestycyjnego można szacować na 2–3 mld USD.
Australijska platforma ASSOB.com.au, osiągająca ponad 120 mln USD
zgromadzonego kapitału, udostępnia również inne szczegółowe informacje
(z dn. 12.04.2012 r.):
96
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
–
–
–
–
–
–
łączna liczba przedsięwzięć na platformie – 2329,
łączna liczba inwestorów indywidualnych – 2005,
przeciętna inwestycja na 1 inwestora – 38023 AUD,
liczba firm, które pozyskały kapitał – 176,
przeciętnie uzyskiwany kapitał – 503 305 AUD,
największe uzyskane środki – 3 540 000 AUD.
Rok
utworzenia
Zgromadzony
kapitał
(w mln USD)
ASSOB.com.au
2007
(*) 123,384
250 tys.–5 mln AUD
Wiseed.com
2010
(**) 67,407
min. 100 EUR
SeedUps.com
2011
(**) 56,965
max. 250 tys. USD
Crowdcube.com
2010
(***) 4,528
200 tys.–10 mln USD
C-crowd.com
2010
(****) 0,805
min. 1000 CHF (inwestycje)
min. 50 CHF (donacje)
Innovestment.de
2011
(**) 0,629
Investfashion.
com
2010
b.d.
udziały po 25 USD
max. 75 tys. USD
Symbid.com
2010
b.d.
20 tys.–2,5 mln EUR
Herofunding.eu
2012
b.d.
20 tys.–2,5 mln EUR
Seedrs.com
2012
b.d.
10 GBP–100 tys. GBP
Seedmatch.de
2011
b.d.
250 EUR–100 tys. EUR
Investiere.ch
2007
b.d.
min. 6 (10) tys. CHF
Wyszczególnienie
Zakres inwestowanych kwot
na 1 projekt
max. do 100 tys. EUR
b.d. – brak danych, (*) AUD/USD; (**) EUR/USD; (***) GBP/USD; (****) CHF/USD;
AUD=1,0282 USD; GBP=1,6170 USD; EUR=1,3217 USD; CHF=1,10412 USD; kursy NBP
z dn. 25.04.2012 r.
Tab. 4. Statystyki platform crowdfundingu inwestycyjnego. Źródło: opracowanie i wyliczenia
własne na podstawie informacji z witryn analizowanych platform.
Mimo imponujących wskaźników rozwoju, zauważalny jest niewielki odsetek udanych przedsięwzięć – jedynie 7,5% podmiotów14 uzyskało zakładaną
wielkość kapitału. To istotnie mniej niż w przypadku platform donacyjnych
czy sponsorskich (por. wcześniejsze dane).
Proces uzyskiwania kapitału na platformie ASSOB jest skomplikowany
i uwarunkowany licznymi obostrzeniami prawnymi. Jest dość kosztowny
i długotrwały, choć zdecydowanie mniej niż w przypadku firm tradycyjnie
wchodzących na giełdę15.
Cała procedura jest kilkuetapowa16. Potencjalny przedsiębiorca ubiegający się o kapitał powinien spełniać określone wymogi prawne – musi być to
m.in. spółka handlowa i firma australijska, zatem nie podmiot zagraniczny17
vol. 10, nr 3 (38), 2012
97
Dariusz T. Dziuba
(chodzi tu o zgodność z literą ustawy Australian Corporations Act 2001).
Zobowiązany jest do przekazania szczegółowych informacji w formie dokumentów o danej firmie, jej sytuacji finansowej. Przekazywanie dokumentów
jest wymagane w całej procedurze, również po (ewentualnym) uzyskaniu
kapitału, np. o rozdysponowaniu środków.
Koszty ponoszone przez przedsiębiorcę wynikają ze złożenia w ASSOB
tzw. aplikacji, co wiąże się opłatą (application fee) w kwocie 990 AUD. Po
uzyskaniu zgody na aplikację pobierana jest kolejna opłata – tzw. wstępna
(admission fee), w wysokości 3960 AUD. Wstępna opłata obejmuje promocję firmy za pierwszy miesiąc. Z kolei za każdy miesiąc trwającej kampanii pobierane są kwoty 458 AUD. W przypadku uzyskania zakładanych
środków finansowych dochodzi również prowizja około 8% od całej kwoty
zgromadzonego kapitału (przed finalizacją transakcji). Dokładna wielkość
tej prowizji zależy od wkładu pracy sponsora, który również jest zatrudniany w przedsięwzięciu (stąd wyrażenie „około”)18. Przedsiębiorca ponosi
więc stałe opłaty około 5 tys. dolarów australijskich (4950) i comiesięcznie
458 AUD wraz z 8% prowizją; łączne opłaty wynoszą przeciętnie około
8 tys. AUD (w zależności od działań podejmowanych przez sponsorów)19.
Opłaty aplikacyjne i wstępne umożliwiają ASSOB m.in.: przeprowadzenie due dilligence, czyli szczegółowej analizy i ewaluacji firmy, tworzenie
niezbędnej (wymaganej prawem) dokumentacji. Na platformie stworzono
interaktywną przestrzeń do pozyskiwania indywidualnych inwestorów20. Do
uzyskania jest kapitał rzędu 250 tys.–5 mln AUD.
ASSOB umożliwia inwestowanie w akcje spółek (http://www.assob.com.
au). Nie jest to jednak ustabilizowany rynek kupna–sprzedaży papierów wartościowych, jak giełda. Platforma koncentruje się na pozyskiwaniu kapitału.
Dostarcza mechanizm, który przyspiesza sprzedaż lub transfer papierów
wartościowych. Firmy gromadzące kapitał listowane są na rynku pierwotnym
– na platformie ASSOB Primary Board. Wspomagana jest również, choć
w ograniczonym zakresie, sprzedaż akcji na rynku wtórnym – na platformie
ASSOB Secondary Sale.
8. Crowdfunding – uwarunkowania
ekonomiczne i prawne
Korzyści ekonomiczne z wykorzystywania crowdfundingu (i platform elektronicznych) mogą uzyskać wszystkie grupy uczestników takich przedsięwzięć:
donatorzy, inwestorzy, obdarowani, jak i same platformy, a także pośrednicy,
w tym np. reklamodawcy, dostawcy technologii, systemów zabezpieczeń czy
systemów mikropłatności. Zakres tych korzyści zależy jednak od stosowanego
modelu i specyfiki danej platformy. Najmniejsza wiązka korzyści wiąże się
z prostymi systemami donacyjnymi, nieco większa z modelem sponsorskim,
a (potencjalnie) największa z modelem inwestycyjnym. Choć, z drugiej strony,
im bardziej złożony model, tym bardziej ryzykowne przedsięwzięcie.
98
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
W systemach donacyjnych obdarowani mogą uzyskać niezbędne środki na
określony cel, donatorzy zaś mają satysfakcję za działania „płynące z odruchu
serca”. Platformy uzyskują np. niewielkie kwoty za pośrednictwo w transferze
płatności, także opłaty abonamentowe (rejestracyjne). W innych modelach
przedsiębiorcy mogą uzyskać kapitał i szansę na dynamiczny rozwój firmy. Donatorzy-inwestorzy mogą otrzymać nagrody rzeczowe, a w modelu inwestycyjnym
gratyfikacje finansowe, udziały w zyskach ze sprzedaży czy nawet akcje. Korzyści
pozyskują same platformy jako organizatorzy przedsięwzięć. Od uczestników
rynku (sponsorów, inwestorów, firm poszukujących kapitału) pobierają zwykle
opłaty rejestracyjne lub (miesięczne) abonamentowe. Prowizje są ustalane od
transferów finansowych, przetwarzania transakcji kart kredytowych. Najniższe kwoty i prowizje pobierane są w modelach donacyjnym i sponsorskim21.
Dużo wyższe opłaty i prowizje uzyskiwane są z modelu inwestycyjnego,
zwłaszcza akcyjnego, co wykazano na przykładzie ASSOB.com.au – łącznie
wskazano na kwotę 8 tys. USD, co jest kwotą relatywnie wysoką, jednak
znacząco niższą w porównaniu z płatnościami związanymi z tradycyjnym
wejściem spółek na giełdę. Uczestnicząc w rynku finansowym (kapitałowym),
przedsiębiorcy opłacają też podatki.
Uzyskiwanie korzyści (przez sponsorów-inwestorów i przedsiębiorców)
natrafia na liczne ograniczenia. Co najważniejsze, nie wszystkie realizowane
projekty gwarantują korzyści, nie wszystkie będą zrealizowane. W przypadku ASSOB wskaźnik sukcesu wyniósł jedynie około 7% łącznej liczby
przedsięwzięć. Znacząca ich liczba jest ryzykowna. Ponadto przedsiębiorcy
mogą być limitowani wielkością kapitału, który mogą pozyskać. Na przykład
w systemach kolektywnego inwestowania graniczną wartością jest zwykle
10 tys. USD, co może być niewystarczające do rozruchu średnich i większych przedsięwzięć.
Upowszechnianie przedsięwzięć w Internecie, otwarcie ich na „tłum”
stwarza ryzyko kopiowania tych projektów. Uzyskiwanie korzyści natrafia
też na szereg ograniczeń natury psychologicznej – przekonania darczyńców
(inwestorów) do korzystania z tej metody.
Co najistotniejsze, rozwój analizowanych systemów uwarunkowany jest
licznymi restrykcjami prawnymi. Szczególne uwarunkowania legislacyjne
dotyczą systemów inwestycyjnych, funkcjonujących zwłaszcza według modelu
akcyjnego. Regulatorzy określają, czy możliwe są takie rozwiązania, ilu inwestorów może być udziałowcami firmy, jakie kwoty mogą inwestować itp. Na
rynku elektronicznym funkcjonuje jak dotąd niewielka grupa takich platform,
m.in. Crowdcube.com (Wielka Brytania), Symbid.com (Holandia), ASSOB.
com (Australia). W USA do niedawna taka działalność była nielegalna.
Sytuacja raptownie zmieniła się w marcu 2012r, po uchwaleniu nowych
ustaw (JOBS Act 2012) w obu izbach Kongresu.
Nawet systemy donacyjne muszą spełniać określone wymogi prawne.
W Polsce jest to Ustawa o zbiórkach publicznych (aktualizowana od roku
1933), według której zakazane są wszelkie zbiórki „w interesie osobistym”,
vol. 10, nr 3 (38), 2012
99
Dariusz T. Dziuba
a na działalność wymagane są stosowne pozwolenia. Bariera legislacyjna
spowodowała szereg trudności w uruchamianiu niektórych systemów, a nawet
upadek kilku platform donacyjnych w Polsce.
9. Wnioski końcowe
Wykazano dynamiczny rozwój platform crowdfundingu i rozwój całego
segmentu rynkowego. Crowdfunding jest perspektywiczną metodą finansowania projektów lub przedsięwzięć biznesowych. Stał się źródłem pozyskiwania kapitału, alternatywnym wobec dotychczasowych (banków, giełd,
inkubatorów przedsiębiorczości itp.). Stwarza możliwość uzyskiwania różnorodnych korzyści ekonomicznych dla różnych, wszystkich podmiotów tego
rynku, choć z drugiej strony – jak wykazano – natrafia na liczne bariery
rozwojowe, głównie natury ekonomicznej i prawnej.
Tworzenie takich platform elektronicznych jest korzystne z ekonomicznego punktu widzenia – zapełniają one określone nisze rynkowe, zwiększają szybkości transferów finansowych, ich wolumeny i wartości, redukując
koszty transakcyjne. Implementacja platform nie zawsze jest jednak możliwa
i wskazana; wdrożenia to proces kosztowny, często długotrwały, a koszty
i ryzyko informatyczne zwykle wzrastają wraz z kolejnymi, bardziej złożonymi modelami crowdfundingu. Wdrażanie platform w środowisku Web
2.0 wymaga dostępu do określonych technologii, szczególnie przetwarzania
w chmurze i SaaS.
Informacje o autorze
Dr hab. prof. UW Dariusz T. Dziuba – Wydział Nauk Ekonomicznych,
Uniwersytet Warszawski. E-mail: [email protected].
Przypisy
1
Szerzej na temat crowdsourcingu m.in. w pracach autora: Dziuba 2011, 2012.
2
Określenie „crowdfunding” (podobnie jak „crowdsourcing” czy „outsourcing”) nie
ma odpowiednika w języku polskim. W niniejszych rozważaniach będzie stosowany
oryginalny termin.
3
Przekład własny na podstawie: Gotrendme 2012.
4
Opracowanie własne na podstawie: Burkett 2011: 66.
5
W dostępnej literaturze przedmiotu spotyka się węższe i niepełne typologie. Przykładowo raport UKIE wydzielał: model donacyjny (bez jego podziału), pożyczkowy
(bez jego rozdzielania) i dwa modele inwestycyjne (współfinansowania przedsięwzięć
i akcyjny). Zob. UKIE 2012: 2 i nast. Węższy sposób podziału systemów zastosowano
też w raporcie Fundinglaunchpad 2012: 5.
6
Niektóre nazwy domen wprost sugerują działalność filantropijną; oprócz wymienionych to m.in. Givealittle.co.nz, DreamBank.org, Fundraise.com, SaveTogether.org.
Na platformie DetroitSoup.com co miesiąc grupa około 100 donatorów płaci po
5 USD na kupno obiadów dla bezdomnych w Detroit.
100
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
7
Model pożyczkowy w przypadku niektórych systemów kłóci się z ideą crowdfundingu.
Mianowicie, crowdfunding z definicji wymaga internetowego „tłumu” uczestników.
Niektóre platformy pożyczkowe (typu P2P lending) niekoniecznie bazują na dostępie
do mas użytkowników, mogą to być małe, nawet zamknięte grupy fundatorów.
8
Do modelu akcyjnego można włączyć systemy bezpośredniej emisji akcji za pośrednictwem Internetu (Internet Direct Public Offering). Takie systemy wychodzą z nieco
innej perspektywy badawczej – procesu emisji akcji poprzez Internet na rynku pierwotnym, jak i systemów informatycznych to umożliwiających. Odwołują się jednak
do „tłumu” uczestników, tj. idei crowdfundingu. Przykładem podmiotu, który skutecznie dokonał internetowej emisji akcji, jest m.in. Google (2004). Pomysłodawcą
pierwszej emisji akcji w Internecie w roku 1995 był Andrew Klein – właściciel małego
browaru Spring Street Brewing Company, Inc. z Nowego Jorku. Szerzej ta problematyka została rozwinięta w pracy: Dziuba 2005.
9
Analiza zasobów sieci Internet wskazuje jednak, że nie wszystkie systemy – jako
crowdfundingowe – są zarejestrowane w katalogu crowdsourcing.org. Na przykład
można wyszukać informacje o licznych innych platformach donacyjnych, także (mniej
licznych) pożyczkowych. Zatem rzeczywiste udziały tych modeli mogą być o kilka
punktów procentowych wyższe, zwłaszcza dla systemów donacyjnych. W przypadku
serwisów pożyczkowych listę krajowych systemów można poszerzyć m.in. o następujące: Finansowo.pl, Sekrata.pl czy Dukato.pl.
10
Według informacji z sieci są również wdrożenia platform crowdfundingu w innych
krajach, m.in. w Monako (Fabriquedartistes.com), Korei Południowej (Fundu.co.kr,
MoneyAuction.co.kr, Popfunding.com), Islandii (Uppspretta.is), Haiti czy Singapurze
(Milaap.org).
11
Brak informacji o rezygnacji z 8 systemów; zapewne były to przedsięwzięcia międzynarodowe.
12
Wyliczenia udziałów procentowych od autora.
13
Ten model crowdfundingu inwestycyjnego nazywany jest udziałowym.
14
Ten wskaźnik może być wyższy, gdyż pewna grupa przedsięwzięć jest jeszcze w fazie
operacyjnej.
15
Tradycyjny proces wchodzenia na giełdę, emisji akcji na rynku pierwotnym (IPO –
Initial Public Offering) został porównany przez autora z koncepcją Internetowej
IPO. Zob. Dziuba 2005.
16
Przedstawiana na podstawie informacji z witryny http://www.assob.com.au.
17
Również inne platformy crowdfundingu funkcjonujące według modelu aukcyjnego
zezwalają na inwestycje wyłącznie podmiotom z danego kraju (np. Crowdcube.com
– rynek Wielkiej Brytanii, Symbid.com – Holandii).
18
Sponsorzy odpowiedzialni są m.in. za porady prawne, współtworzenie dokumentacji,
organizowanie spotkań z inwestorami i niezależne od platformy pozyskiwanie kapitału na dane przedsięwzięcie.
19
Możliwe jest uzyskiwanie grantów, np. 50% redukcji opłaty aplikacyjnej, też dotacji
w wysokości 5000 USD. Brak jednak informacji, ile firm z takich ulg korzystało.
20
Inwestorzy ponoszą niewielkie opłaty od przetwarzanych transakcji (podobnie jak
w systemie Symbid.com).
21
Przykładem jest system donacyjny JustGiving.com, który wymaga 15 GBP miesięcznej opłaty rejestracyjnej, także 5% prowizji od transakcji. Brytyjski system sponsorski WeSayWePay.com pobiera opłaty administracyjne w wysokości 3,4% + 20 p. od
transakcji, również 5% prowizji od każdego sfinalizowanego projektu.
vol. 10, nr 3 (38), 2012
101
Dariusz T. Dziuba
Bibliografia
ASSOB Raises $120 mil for Australian Businesses from 2000 Investors 2012. Alchemy
Equities, http://www.alchemyinnovation.com.au/, 11.04.2012.
Burkett, E. 2011. A Crowdfunding Exemption? Online Investment Crowdfunding and
U.S. Securities Regulation. Transactions: The Tennessee Journal of Business Law,
nr 1 (13), s. 63–106, http://trace.tennessee.edu/transactions.
Crowdfunding.pl 2011. Polak.Potrafi.pl – crowdfunding w Polsce, http://crowdfunding.pl,
21.08.2011.
Daily Crowdsource 2012. Crowd Census II: The Rise of Crowdfunding, The Daily Crowdsource Report, dailycrowdsource.com.
Drummond, M. 2011. Make it Rain. Inventor`s Digest, nr 8 (28), s. 16–19.
Dziuba, D.T. 2005. Some Thoughts about Internet Direct Public Offering, w: B.F. Kubiak,
A. Korowicki (red.) Information Management, Gdańsk: Wydawnictwo Uniwersytetu
Gdańskiego.
Dziuba, D.T. 2011. Crowdsourcing w strategii przedsiębiorstw usieciowionej gospodarki
informacyjnej, w: J. Kisielnicki, W. Chmielarz, O. Szumski (red.) Informatyka przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego,
Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego.
Dziuba, D.T. 2012. Rozwój systemów crowdsourcingu w gospodarce polskiej, w: N. Siemieniuk (red.) Technologie informacyjne w zarządzaniu organizacjami, Białystok:
Wydawnictwa Uniwersytetu w Białymstoku, w druku.
Frey, T. 2012. The Power of Crowds, A Study of Future Trends and Predictions, FuturistSpeaker.com, 27.01.2012.
Fundinglaunchpad 2012. White Paper, Consumer Interest in Investment Crowdfunding,
FundingLaunchpad.com, 29.03.2012.
Gotrendme 2012. What is Crowd Funding? http://gotrendme.blogspot.com/, January.
Gough, R.H. 2011. The Crowdfunding Revolution: Making Your Choice, http://www.gamasutra.com/, 5.05.2011.
Howe, J. 2006a. Crowdsourcing: A Definition, http://crowdsourcing.typepad.com.
Howe, J. 2006b. The Rise of Crowdsourcing. Wired, nr 6 (14), http://www.wired.com.
King, S. 2012. The Crowdfunding Market Nearly Quadrupled in a Year, http://isellerfinance.
worldpress.com/, 31.03.2012.
Lensonsky, R. 2011. Is Crowdfunding the Next Big Financing Think?, http://smallbusinesstrends.com, 5.01.2011.
Mymicroinvest 2011. Crowdfunding Market Analysis, Mymicroinvest.com, z: http://www.
slideshare.net.
Mymicroinvest 2012. Crowdfunding Market Analysis, Mymicroinvest.com, z: http://www.
crowdsourcing.org.
Pleasefund 2012. A very short introduction to crowdfunding with PleaseFund.us, http://
pleasefund.us.
Tulchin, D. i S. Yi-Han Lin 2012. Capital Sources for Social Enterprises. Emerging Topics
Paper Series, Working Paper nr 16, http://www.socialenterprise.net, March.
UKIE 2012. UKIE Crowd Funding Report: A Proposal to Facilitate Crowd Funding in the
UK, UKIE, The Association for UK Interactive Entertainment, February.
Strony internetowe
http://www.actblue.com/
http://www.akvo.org/
http://www.assob.com.au/
http://www.babyloan.org.fr/
http://www.c-crowd.com/
http://www.comunitae.com/
102
Problemy Zarządzania
Rozwój systemów crowdfundingu – modele, oczekiwania i uwarunkowania
http://www.crowdcube.com/
http://www.crowdsourcing.org.
http://www.everydayhero.co.uk/
http://www.firstgiving.com/
http://www.fundly.com/
http://www.givezooks.com/
http://www.givology.org/
http://www.herofunding.eu/
http://www.indiegogo.com/
http://www.innovestment.de/
http://www.investfashion.com/
http://www.investiere.ch/
http://www.justgiving.com/
http://www.kickstarter.com/
http://www.kiva.org/
http://www.kokos.pl/
http://www.kopernik.info/
http://www.lendingclub.com/
http://www.lendingkarma.com/
http://www.maneo.jp/
http://www.mashable.com/2012/05/01/
http://www.micro-ventures.com/
http://www.missionfish.org.uk/
http://www.myc4.com/
http://www.prosper.com/
http://www.rangde.org/
http://www.ratesetter.com/
http://www.razoo.com/
http://www.rockethube.com/
http://www.seedmatch.de/
http://www.seedrs.com/
http://www.seedups.com/
http://www.smava.de/
http://www.startnext.de/
http://www.symbid.com/
http://www.thecosmonaut.org/
http://www.uk.virginmoneygiving.com/
http://www.vittana.org/
http://www.voordekunst.nl/
http://www.wefund.com/
http://www.wesaywepay.com/
http://www.wiseed.com/
http://www.zidisha.org/
http://www.zopa.com/
vol. 10, nr 3 (38), 2012
103
Problemy Zarządzania, vol. 10, nr 3 (38): 104 – 123
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.7
Zastosowanie zbiorów przybliżonych
do wykrywania reguł zachowania
konsumentów na potrzeby
wieloagentowego modelu symulacyjnego
Małgorzata Łatuszyńska, Agata Wawrzyniak,
Barbara Wąsikowska, Fatimah Furaji
W artykule przedstawiono możliwość zastosowania teorii zbiorów przybliżonych w procedurze tworzenia wieloagentowego modelu zachowania konsumentów. Omówiono symulację wieloagentową, metody gromadzenia i przetwarzania danych na potrzeby modelowania wieloagentowego oraz teorię zbiorów
przybliżonych w kontekście wykrywania reguł zachowań konsumentów. Ponadto
zaprezentowano przykładowy model symulacyjny zachowania konsumentów
na rynku urządzeń elektrycznych, zbudowany z zastosowaniem proponowanej
procedury.
1. Wprowadzenie
Sukces firmy oraz satysfakcja jej klientów są bezpośrednio powiązane ze
zrozumieniem postępowania konsumenta. Skuteczność działania na rynku
zależy bowiem od umiejętności dostosowania się do oczekiwań i zachowań
konsumentów, a także antycypowania zmian w tym zakresie, gdyż zmiany te
wyznaczają przewidywane kierunki działań marketingowych firmy i wpływają
na wybór strategii1.
Jedną z metod pozwalających na prowadzenie badań dotyczących przewidywania zachowania konsumentów jest symulacja wieloagentowa. Ważnym
etapem w zastosowaniu tej metody jest budowa modelu symulacyjnego.
Wiarygodność modelu w dużym stopniu zależy od wierności odzwierciedlenia
reguł zachowania się konsumentów określonych na podstawie zgromadzonych danych. Do wykrycia owych reguł możliwe jest zastosowanie teorii
zbiorów przybliżonych.
Celem artykułu jest zaprezentowanie procedury wieloagentowego modelowania symulacyjnego, w której do wykrywania reguł zachowania konsumentów proponuje się wykorzystanie teorii zbiorów przybliżonych. W artykule
przedstawiono – na tle dotychczasowych kierunków zastosowań w badaniach
zachowań konsumentów – symulację wieloagentową, metody gromadzenia
i przetwarzania danych na potrzeby modelowania wieloagentowego oraz
104
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
teorię zbiorów przybliżonych. Ponadto zaprezentowano przykładowy model
symulacyjny zachowania konsumentów na rynku urządzeń elektrycznych
zbudowany z zastosowaniem proponowanej procedury.
2. Wieloagentowa symulacja
w badaniu zachowania konsumentów
Początki symulacji wieloagentowej (Multi Agent Based Simulation –
MABS) można wywieść od takich dyscyplin jak: systemy adaptacyjne (complex adaptive systems), teoria złożoności (complexity science) i teoria systemów
(system science).
W symulacji wieloagentowej badany układ jest modelowany jako zbiór
autonomicznych jednostek, zwanych agentami. W modelu wieloagentowym
opisuje się procesy decyzyjne w mikroskali, dla każdego agenta z osobna.
Z połączenia działań wielu agentów i ich interakcji ze sobą nawzajem oraz
ze środowiskiem, w którym funkcjonują, powstaje obraz badanego zjawiska
w makroskali (Siebers i Aickelin 2008).
Różne dyscypliny wypracowały własne sposoby pojmowania terminu
„agent”. Powszechnie akceptuje się, że agent jest umiejscowiony w pewnym
środowisku i jest zdolny do podejmowania autonomicznych akcji (Bieniasz
2006; Wooldridge 1999, 2002; Frank, Bittner i Raubal 2001). Niektórzy
autorzy uważają, że agentem jest każdy typ niezależnych komponentów
(program komputerowy, model, jednostka, konsument itd.) (Bonabeau
2002), przy czym zachowanie niezależnego komponentu może być opisywane w różny sposób – od prymitywnych reguł decyzyjnych po bardzo
skomplikowane adaptacyjne reguły sztucznej inteligencji. Inni utrzymują,
że zachowanie niezależnego komponentu musi być adaptacyjne, aby mógł
być nazwany agentem. Miano agenta jest zarezerwowane dla komponentów, które w pewnym sensie uczą się swojego środowiska i na skutek tego
uczenia zmieniają swoje zachowanie. J. Casti (1997) argumentuje, że agent
powinien zawierać zarówno reguły niższego rzędu, opisujące zachowanie, jak
i zbiór reguł wyższego rzędu, determinujących zasady zmiany reguł. Reguły
niższego rzędu opisują reakcję na środowisko, natomiast reguły wyższego
rzędu opisują zasady adaptacji.
Z praktycznego punktu widzenia można założyć, że agent posiada
następujące cechy (Macal i North 2006): (1) jest identyfikowalną jednostką
posiadającą pewien zbiór cech i reguł zarządzających jej zachowaniem się
i możliwościami decyzyjnymi; (2) jest umiejscowiony w środowisku, w którym
współdziała z innymi agentami; (3) jego działanie może być skierowane na
osiągnięcie określonego celu; (4) jest autonomiczny, może funkcjonować
niezależnie w swoim środowisku i w kontaktach z innymi agentami, przynajmniej w zakresie pewnych zdefiniowanych sytuacji; (5) jest elastyczny,
posiada zdolność do uczenia się i adaptacji. Założenia te w sposób szczególny
predestynują symulację wieloagentową do zastosowań w badaniu zachovol. 10, nr 3 (38), 2012
105
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
wania konsumentów, gdyż może ukazywać jak z działań wielu agentów,
identyfikujących konsumentów indywidualnych lub organizacyjnych, powstają
zagregowane zjawiska marketingowe.
W ostatnich kilkunastu latach opublikowano sporo opracowań naukowych przedstawiających przypadki wykorzystania symulacji wieloagentowej
w omawianym obszarze. Dotyczą one bardzo często zachowań konsumentów
w kontekście dyfuzji innowacji, np. Watts (2002), Shaikh i in. (2005), Watts
i Dodds (2007), Rahmandad i Sterman (2008), Toubia i in. (2008), Goldenberg i in. (2009) czy Delre i in. (2010). Inny kierunek zastosowań odnosi
się do badań związanych z przyjęciem produktu przez rynek (Goldenberg
i in. 2007, 2010). Wiele publikacji przedstawia użycie podejścia wieloagentowego w analizie wpływu pozycjonowania firm na zachowania konsumentów
(np. Buchta i Mazanec 2001; Wilkinson i Young 2002; Lusch i Tay 2002,
2004, 2005), niektóre zaś skupiają się na problemie moralnego zachowania
w marketingu relacyjnym (np. Midgley, Marks i Cooper 1997, 2006; Hill
i Watkins 2007, 2009a, 2009b).
Kolejna ważna płaszczyzna zastosowań podejścia wieloagentowego dotyczy badania trendów zakupowych na określonych rynkach poprzez symulację wyborów wielu indywidualnych konsumentów w celu określenia, jak
i dlaczego konsumenci wybierają dany produkt czy usługę. Zastosowania
tego typu omawiają: Collings i in. (1999), Brannon i in. (2001), Twomey
i Cadman (2002), Wohltorf i Albayrak (2003), Robertson (2003), Kyrylov
i Bonanni (2004), Schenk, Löffler i Rauh (2007), Ulbinaitė i Moullec (2010)
oraz Kuhn i in. (2010).
Niektóre opracowania ukazują bardziej ogólne rozważania na temat
podejścia wieloagentowego w badaniu zachowania konsumentów – np. Jager,
Janssen i Vlek (1999), Collings i in. (2000), Ben Said i in. (2002), Janssen
i in. (2003), Adjali, Dias i Hurling (2005), Jager (2006), Challet i Krauze
(2006), Rigopoulos i in. (2006) oraz Roozmanda i in. (2011). Opisują oni
wieloagentowe modele zachowania konsumentów wyprowadzone z teorii
marketingu i nauk behawioralnych, a następnie pokazują wyniki kilku eksperymentów symulacyjnych przeprowadzonych na podstawie danych rzeczywistych pochodzących z konkretnego rynku. Z kolei North i in. (2010)
przedstawiają makromodel pozwalający na symulację zachowań zakupowych
na poziomie gospodarstw domowych oraz zachowań biznesowych producentów i sprzedawców na rynku ogólnonarodowym.
Wśród innych opisywanych w literaturze, wartych przytoczenia zastosowań symulacji wieloagentowej do badania zachowania konsumentów można
wymienić modele: rzeczywistych supermarketów (Schwaiger i Stahmer 2003;
Venables i Bilge 1998), procesu podejmowania decyzji konsumenta o zakupie w kontekście efektu dominacji (decoy effect) (Zhang i Zhang 2007) czy
efektywności reklam (Cao 1999).
Mimo dość bogatego piśmiennictwa dotyczącego podejścia wieloagentowego w zastosowaniach marketingowych oraz stałego wzrostu jego popular106
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
ności (o którym może chociażby świadczyć fakt, iż tej tematyce poświęcono
cały numer renomowanego czasopisma „Journal of Product Innovation Management” w 2011 r.2), niektórzy badacze twierdzą (np. Rand i Rast 2011), że
rozwój zastosowań w omawianym obszarze jest ciągle zbyt powolny. Przyczynę
tego stanu rzeczy upatrują głównie w braku ogólnie akceptowanych standardów stosowania symulacji wieloagentowej w badaniach marketingowych.
3. Metody stosowane do pozyskiwania danych
o zachowaniach konsumentów
na potrzeby modelowania wieloagentowego
Posługiwanie się symulacją wieloagentową oznacza przestrzeganie pewnej określonej procedury modelowania (rysunek 1), zaczynającej się od
sformułowania problemu i określenia celu. Następny krok to zdefiniowanie
środowiska symulacyjnego w badanym obszarze (w tym przede wszystkim
agentów, przestrzeni i środowiska) oraz określenie granic systemu. Następny
krok procedury jest związany z zagadnieniem pozyskiwania danych wejściowych do modelu. Dla osoby przeprowadzającej badanie ta część procedury
badawczej, która dotyczy określenia metod i technik gromadzenia informacji, jest najważniejsza, ponieważ błędny wybór metody może uniemożliwić
osiągnięcie postawionych celów badania.
Metody pomiaru wyodrębnia się zgodnie z kryterium drogi przepływu
danych od ich źródła do odbiorcy i w związku z tym, biorąc pod uwagę
rodzaj źródeł informacji wykorzystywanych w badaniach, można rozróżnić
badania (Pfaff 2010; Kaczmarczyk 2003):
– pośrednie, inaczej nazywane wtórnymi, „zza biurka” (desk research),
– bezpośrednie, inaczej nazywane pierwotnymi, w terenie (field research).
Badania pośrednie polegają na gromadzeniu, analizie i interpretacji
informacji pochodzących ze źródeł wtórnych. Mogą to być zarówno źródła
informacji wtórnych wewnętrzne (powstające i znajdujące się w komórkach organizacyjnych podmiotu prowadzącego lub zlecającego badania), jak
i zewnętrzne (powstające i znajdujące się w różnego typu organizacjach, są to
opublikowane informacje pochodzące ze statystyki masowej organizacji rządowych, resortowych, branżowych, banków, stowarzyszeń, instytutów badawczych). Badania „zza biurka” są stosunkowo tanie, nie są czasochłonne,
wyniki analiz można zaś szybko zastosować w praktyce. Badania te mają
jednak pewne ograniczenia. Ich prowadzenie wiąże się z wyszukiwaniem
właściwych źródeł (występuje tu problem dostępności i wiarygodności) oraz
oceną aktualności i precyzyjności dostępnych informacji. Badania bezpośrednie (badania w terenie) polegają na gromadzeniu informacji w terenie,
czyli z pierwotnych źródeł informacji. W ich ramach badacz sam określa
rodzaj informacji, które są mu potrzebne do rozwiązania postawionego
problemu, oraz sposób ich pozyskania. Informacje pozyskane w ten sposób
odpowiadają dokładnie specyficznemu problemowi badawczemu.
vol. 10, nr 3 (38), 2012
107
Analiza
wyników
Przeprowadzenie symulacji
Sformułowanie założeń i konfiguracja modelu
analizowanego systemu
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
1. Sformułowanie problemu i określenie celu modelowania
2. Zdefiniowanie środowiska symulacyjnego w wbadanym obszarze
(przestrzeń, środowisko, agenci)
3. Określenie metod i technik gromadzenia informacji
4. Zebranie danych empirycznych
5. Budowa modelu wieloagentowego analizowanego systemu
5.1. Inicjalizacja populacji agentów
5.2. Stworzenie projektu graficznego (diagramy stanów)
i matematycznego (układy równań)
6. Uruchomienie modelu symulacyjnego
7. Testowanie i weryfikacja modelu
7.1. Kalibracja modelu wieloagentowego
7.2. Empiryczna weryfikacja danych wejściowych, opisowa weryfikacja
i predykcja danych wyjściowych
7.3. Ocena parametrów początkowych symulacji
8. Planowanie i przeprowadzenie eksperymentów symulacyjnych
(zmiany zachowania agentów)
9. Analiza i ocena wyników symulacji
10. Sformułowanie wniosków
Rys. 1. Procedura modelowania wieloagentowego. Źródło: opracowanie własne.
W literaturze i praktyce rozróżnia się trzy podstawowe rodzaje pomiarów:
pomiar wtórny oparty na źródłach wtórnych, a także pomiar pierwotny sondażowy (survey research) oraz pomiar w formie eksperymentu – oba oparte
na źródłach pierwotnych (obszerny przegląd metod gromadzenia danych ze
źródeł wtórnych i pierwotnych zawarty jest w pracach (Kaczmarczyk 2003;
Kędzior i in. 2005; Pfaff 2010). Należy w tym miejscu podkreślić, że istnieją
problemy, których rozwiązanie za pomocą danych pochodzących jedynie
ze źródeł wtórnych jest niemożliwe. Zazwyczaj dane te (o ile w ogóle są
dostępne) mają bardzo ogólną postać i rzadko mogą być wprost wykorzystane do rozwiązania konkretnych problemów badawczych. Powstaje w takiej
sytuacji potrzeba przeprowadzenia dwóch pozostałych rodzajów pomiaru
pierwotnego: sondażowego i eksperymentalnego.
Pomiary sondażowe dzieli się na pośrednie (bezosobowe) i bezpośrednie
(kryterium podziału jest tu sposób komunikowania się badacza z respon108
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
dentem). Metody pośrednich pomiarów sondażowych to wszelkiego rodzaju
ankiety wypełniane samodzielnie przez respondenta, bez pomocy ankietera
(ankieter może w nich brać udział w sposób pośredni). Metody bezpośrednich pomiarów sondażowych wymagają udziału ankietera i są to różnego
rodzaju wywiady, w tym także wywiady telefoniczne. Pomiary bezpośrednie realizowane są w różnych miejscach: w mieszkaniach respondentów,
w firmach, w centrach handlowych, w sklepach, na wystawach, na targach,
na konferencjach, na placach budów, w urzędach itp. Metody pomiaru
sondażowego różnią się między sobą stopniem anonimowości i kontroli
pomiaru. Z przeglądu literatury dokonanego przez autorki artykułu wynika,
że najczęściej stosowanymi metodami gromadzenia danych w badaniach
zachowania konsumentów są metody ankietowe, wywiady, obserwacje oraz
metody projekcyjne (Burns 2000; Lancaster 2005; Kaczmarczyk 2003).
Ankieta jest najbardziej powszechną i najczęściej stosowaną metodą gromadzenia danych w badaniach marketingowych i stanowi zbiór standaryzowanych technik badawczych, za pomocą których badacz otrzymuje informacje
w procesie wzajemnego komunikowania się z innymi osobami odpowiadającymi pisemnie na jego pytania. Narzędziem pomiarowym stosowanym
w metodzie jest zawsze kwestionariusz wypełniany przez respondenta. Metoda
ankietowa wykształciła wiele szczegółowych technik badawczych, które biorą
swoje nazwy od sposobu rozprowadzenia narzędzia pomiarowego wśród badanych (por. tabela 1). Do zasadniczych cech technik ankietowych zalicza się:
pisemną formę komunikacji, brak pośrednictwa ankietera (ankieter występuje
czasem w roli osoby rozprowadzającej kwestionariusze wśród badanych) oraz
samodzielne wypełnianie kwestionariusza ankietowego przez respondenta
(Kędzior i in. 2005). Ankiety, podobnie jak inne techniki badawcze, mają
swoje zalety i wady (tabela 1), a możliwości ich wykorzystania zależą od
wielu czynników. Wybór najlepszej metody dotarcia do respondentów zależy
w znacznym stopniu od rodzaju informacji, które chce zgromadzić badacz,
od liczby i rodzajów respondentów, którzy powinni wziąć udział w badaniu.
Na podstawie zebranych danych można przystąpić do konstruowania
modelu wieloagentowego analizowanego systemu. W badaniach zachowań
konsumentów, w których stosowane jest podejście wieloagentowe, dane
empiryczne dotyczące charakterystyk poszczególnych konsumentów i ich
wzajemnych interakcji są wykorzystywane do formułowania reguł zachowań agentów działających w symulowanym środowisku. Punktem wyjścia
w przeprowadzaniu symulacji wieloagentowych jest inicjalizacja pewnej
populacji agentów. Mogą oni reprezentować podmioty ekonomiczne oraz
inne społeczne zjawiska. Inicjalizacja polega na określeniu wartości atrybutów agentów (ich wewnętrznych stanów), reguł zachowań (również reguł
ewentualnych modyfikacji tych zachowań w trakcie symulacji, tzn. uczenia)
oraz zasad komunikacji miedzy nimi.
Niestety dane pochodzące z sondaży nie mogą dostarczyć bezpośrednich informacji możliwych do zastosowania w procesie tworzenia agentów.
vol. 10, nr 3 (38), 2012
109
110
Metody, zastosowania, Warszawa: Polskie Wydawnictwo Ekonomiczne, s. 87.
Tab. 1. Zalety i ograniczenia wybranych technik ankietowych. Źródło: opracowanie własne na podstawie Z. Kędzior i in. 2005. Badania rynku.
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
–
Ograniczenia
Ankieta pocztowa
– wysoki koszt
możliwość pomiaru dużej liczby respondentów
– niski odsetek zwrotów (30% – dobry, 15–20% – typowy, bywa
prosta organizacja pomiaru
poniżej 10%)
eliminacja wpływu ankietera na przebieg badania
możliwość stosowania, na które niechętnie respondent wypowiada – długi czas pomiaru
– niski stopień kontroli próby
się ustnie
– konieczność przygotowania list adresowych
unikanie zbyt pośpiesznego wypełniania kwestionariusza
– brak wpływu na kolejność udzielanych odpowiedzi i pomijanie
pytań
Ankieta audytoryjna
– konieczność dysponowania zespołem ankieterskim
duża zwrotność
– konieczność stosowania krótkich kwestionariuszy
krótki czas pomiaru
– konieczność zebrania wielu respondentów w jednym miejscu
niskie koszty
– małe poczucie anonimowości u respondenta
prosta organizacja pomiaru
wysoki stopień kontroli próby
możliwość prezentacji dodatkowych materiałów (np. wizualnych)
zestandaryzowane warunki prowadzenia pomiaru (np. sala
lekcyjna, konferencyjna)
Ankieta rozdawana
– wysokie koszty
duża zwrotność
– konieczność dysponowania zespołem ankieterskim
krótki czas pomiaru
– małe poczucie anonimowości u respondenta
wysoki stopień kontroli próby
Ankieta internetowa
– jawność kwestionariusza dla konkurencji
możliwość pomiaru dużej liczby respondentów
– niski stopień kontroli próby
niskie koszty
– brak możliwości przeprowadzenia badań
szybkość pomiaru
w niektórych grupach społeczeństwa (np. ludzie starsi)
duże poczucie anonimowości u respondenta
prosta organizacja pomiaru
Zalety
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
W takiej sytuacji zazwyczaj przeprowadzana jest analiza statystyczna surowych danych empirycznych i na tej podstawie możliwe jest stwierdzenie, czy
między zmiennymi zachodzi jakiś związek i czy jest on bardziej lub mniej ścisły. Analiza regresji i korelacji to jedna z najważniejszych i najszerzej stosowanych metod statystycznych. Stanowi ona narzędzie dokładnego określania
stopnia powiązania zmiennych ze sobą. Przy czym należy zwrócić uwagę, że
liczbowe stwierdzenie występowania zależności nie zawsze oznacza występowanie związku przyczynowo-skutkowego między badanymi zmiennymi
(np. przywoływane wielokrotnie w literaturze przedmiotu badania pozornej korelacji między liczbą zajętych gniazd bocianich a liczbą urodzeń na
danym obszarze). Współwystępowanie dwóch zjawisk może również wynikać
z bezpośredniego oddziaływania na nie jeszcze innego, trzeciego zjawiska.
Jak z tego wynika, zwykle stosowana analiza statystyczna nie pozwala
na pełne zbadanie zależności przyczynowo-skutkowych, które są niezbędne
w wykrywaniu reguł zachowań. Dlatego też w ostatnich latach poszukiwane są inne metody, które uzupełniłyby tę lukę. Jedną z nich jest metoda
zbiorów przybliżonych. Teoria zbiorów przybliżonych może być odpowiednim narzędziem do przetwarzania danych sondażowych w reguły decyzyjne
w odniesieniu do różnych typów zachowań konsumentów (Vindigni i in.
2002; Cui 2009).
Kolejny etap procedury modelowania wieloagentowego stanowi przeprowadzenie symulacji komputerowej, czyli uruchomienie modelu symulacyjnego. Wyniki symulacji (tzw. przebieg bazowy) ukazującej zachowanie się
badanego systemu w czasie są porównywane z dostępną wiedzą o systemie
i następuje ewentualna weryfikacja modelu. Model jest weryfikowany tak
długo, aż będzie w sposób zadawalający odzwierciedlał realne zachowanie
się systemu. Następnym etapem omawianej procedury jest symulacja efektów
potencjalnych zmian zachowania agentów (w tym kroku przeprowadzane są
eksperymenty symulacyjne). Następnie porównuje się wyniki przebiegu bazowego z wynikami przebiegów eksperymentalnych oraz dokonuje się analizy
i oceny wyników symulacji (najczęściej stosowane są w tym celu metody
statystyczne). Ostatnim krokiem procedury jest sformułowanie wniosków
wynikających z przeprowadzonego badania.
4. Zbiory przybliżone w badaniach
zachowań konsumentów
Teoria zbiorów przybliżonych – zapoczątkowana przez Zdzisława Pawlaka
w latach osiemdziesiątych ubiegłego wieku i rozwijana przez szereg lat przez jej
twórcę i wielu innych badaczy – stanowi teoretyczną podstawę różnych metod
i narzędzi informatycznych, które umożliwiają m.in. indukcję reguł decyzyjnych
czy też redukcję zbiorów danych. Teoria ta zyskała dużą popularność i jest
obecnie skutecznie wykorzystywana, m.in. w eksploracji danych i odkrywaniu
wiedzy, złożonych zadaniach klasyfikacji oraz w komputerowych systemach
vol. 10, nr 3 (38), 2012
111
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
wspomagania decyzji. Dziedziny, w których teoria ta została dotychczas zastosowana, to m.in. medycyna, farmakologia, biznes (bankowość, badania rynku),
rozpoznawanie mowy, obrazów, lingwistyka, sztuczna inteligencja.
Na popularność tej metody złożyło się wiele czynników. Przede wszystkim teoria zbiorów przybliżonych, wraz z algorytmami ją wykorzystującymi,
pozwala analizować duże zbiory danych, umożliwiając przy tym na redukcję
zbioru cech opisujących obiekty do niezbędnego minimum (tzw. redukt
zbioru atrybutów warunkowych), usuwając niespójność w danych, jeśli taka
ma miejsce, oraz generując z danych tzw. reguły minimalne, a więc symulując postępowanie eksperta z danej dziedziny, który zazwyczaj swą wiedzę potrafiłby najszybciej przedstawiać jako takie właśnie reguły (zapisy:
„Jeżeli... i ..., to...”).
Za zalety teorii zbiorów przybliżonych należy uznać to, że (Pawlak 2004):
– nie wymaga ona założeń odnośnie danych (np. prawdopodobieństwa czy
rozmytości),
– zawiera szybkie algorytmy analizy danych,
– ułatwia interpretację wyników,
– charakteryzuje się znaczną prostotą matematyczną.
Ze względu na powyższe cechy teoria ta może być również z powodzeniem wykorzystywana do badań marketingowych. W ostatnich kilkunastu latach opublikowano sporo opracowań naukowych przedstawiających
przypadki wykorzystania teorii zbiorów przybliżonych do analizy zachowań
konsumentów, np. Cui (2009), Huang (2010), Liou i Tzeng (2010), Ogino
i in. (2010), Shibata (2010), Furaiji i Wąsikowska (2012). Badania preferencji stanowią obecnie główny obszar zainteresowań badaczy z zakresu
ekonomii i zarządzania. Są one podstawową kategorią badawczą w modelowaniu zachowań konsumentów na rynku, uwzględniającą racjonalność
podejmowania decyzji.
W celu przeanalizowania danych metodą zbiorów przybliżonych dane
zebrane przez badacza, np. podczas badania ankietowego, należy zapisać w postaci tzw. pierwotnej tablicy informacyjnej. Tablicą informacyjną
nazywamy uporządkowaną piątkę T = (U, Q, D, V, f), gdzie D jest to
zbiór cech (atrybutów) decyzyjnych, U jest zbiorem obiektów (przykładów)
i jest zwany uniwersum, Q jest zbiorem cech (atrybutów warunkowych),
V = Uq ∈ Q i Vq jest zbiorem wszystkich możliwych wartości cech, natomiast f: U × Q → V jest funkcją informacyjną (Rutkowski 2005). Tablicowy sposób reprezentacji danych ma dwie zasadnicze cechy: uniwersalność,
co oznacza, że pozwala na gromadzenie i przechowywanie różnorodnych
danych, oraz efektywność, co oznacza, że umożliwia w łatwy sposób komputerową analizę tak zapisanych danych.
Zebrane w tablicy pierwotnej dane poddawane są następnie analizie
według następujących kroków:
– dyskretyzacja (kodowanie) danych,
– badanie istotności poszczególnych atrybutów warunkowych,
112
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
– redukcja przestrzeni atrybutów warunkowych (wykrycie atrybutów redundantnych),
– budowa bazy reguł,
– odrzucenie reguł sprzecznych,
– uproszczenie pozostałych reguł (czyli łączenie reguł podobnych),
– ocena jakości i dokładności otrzymanych reguł,
– zapis reguł w formie lingwistycznej (odkodowanej).
Zapis otrzymanych reguł w formie odkodowanej sprawia, że stają się
one zrozumiałe dla decydenta mającego podjąć na ich podstawie decyzje
dotyczące np. strategii marketingowej firmy. Metoda zbiorów przybliżonych
może być więc z powodzeniem stosowana w praktyce jako skuteczne narzędzie analiz tego typu danych. Stworzona baza reguł preferencji i zachowań
konsumentów może stanowić bazę reguł poszczególnych agentów w symulacji
wieloagentowej.
5. Przykład wieloagentowego modelu symulacyjnego
zbudowanego z wykorzystaniem teorii
zbiorów przybliżonych
Na potrzeby artykułu zbudowano model zachowania konsumentów na
rynku urządzeń elektrycznych i przeprowadzono na nim eksperymenty symulacyjne, realizując procedurę składająca się z następujących kroków:
1. Analiza danych historycznych dotyczących zachowania konsumentów
dokonujących zakupów urządzeń elektrycznych (metoda ankietowa
i analiza statystyczna).
2. Budowa bazy reguł zachowań konsumentów (teoria zbiorów przybliżonych).
3. Opracowanie modelu wieloagentowego i przeprowadzenie symulacji na
podstawie zgromadzonych danych i reguł zachowań.
Dane empiryczne, niezbędne do przeprowadzenia badań, zostały zebrane
metodą ankietową. Badanie ankietowe przeprowadzone w grudniu 2011 r.
w Basrze (jest to duże miasto położone w południowym Iraku) pozwoliło
zgromadzić 174 poprawnie wypełnionych kwestionariuszy ankietowych. Na
potrzeby badania z kwestionariusza wybrano 4 pytania dotyczące każdego
z respondentów. Trzy z nich odnoszą się do charakterystyki osób biorących
udział w badaniu i pozwalają na zdefiniowanie atrybutów warunkowych
(płeć, wiek, wykształcenie), natomiast czwarte pytanie dotuczy kwestii,
czy bezpieczeństwo urządzenia elektrycznego jest czynnikiem istotnym dla
respondenta podczas dokonywania zakupu (skala Likerta: 1 – ważne lub
bardzo ważne, 2 – obojętne, 3 – nieważne) i stanowi atrybut decyzyjny.
Uzyskane dane zostały ułożone w postaci tzw. pierwotnej tablicy informacyjnej (tabela 2).
W kolejnym kroku, zgodnie z teorią zbiorów przybliżonych, dane zebrane
w pierwotnej tablicy informacyjnej poddano dyskretyzacji oraz kodowaniu,
vol. 10, nr 3 (38), 2012
113
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
Lp.
Płeć
Wiek
Wykształcenie
Czy zapewnienie wysokich
standardów bezpieczeństwa
kupowanego przez mnie
sprzętu AGD jest dla mnie
ważne?
p1
kobieta
18–24
brak wykształcenia
nieważne
p2
mężczyzna powyżej 54 brak wykształcenia
obojętne
p3
mężczyzna powyżej 54
średnie
bardzo ważne
p4
mężczyzna
35–44
wyższe
bardzo ważne
p5
kobieta
45–54
średnie
bardzo ważne
p6
kobieta
18–24
wyższe
bardzo ważne
p7
kobieta
18–24
wyższe
bardzo ważne
p8
kobieta
18–24
średnie
bardzo ważne
p9
kobieta
25–34
wyższe
bardzo ważne
p10
kobieta
25–34
wyższe
bardzo ważne
p11
mężczyzna
25–34
wyższe
ważne
p12
mężczyzna powyżej 54
średnie
bardzo ważne
p13
kobieta
25–34
wyższe
bardzo ważne
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
p174
kobieta
35–44
średnie
bardzo ważne
Tab. 2. Fragment pierwotnej tablicy informacyjnej. Źródło: opracowanie własne.
w wyniku czego otrzymano wtórną tablicę informacyjną. Tak przygotowane
wstępnie dane poddano analizie metodą zbiorów przybliżonych, używając
do tego programu DAT (Data Analysis Toolbox) działającego w środowisku
MATLAB R2010a. W wyniku przeprowadzonych analiz otrzymano tablicę
decyzyjną zawierającą 42 reguły. W następnym kroku odrzucono reguły
sprzeczne i dokonano uproszczenia reguł podobnych. Ostatecznie w wyniku
przeprowadzonych analiz otrzymano 6 reguł, które zostały użyte w kolejnych
krokach modelowania (tabela 3).
W trzecim kroku przyjętej procedury badawczej zbudowano model wieloagentowy w pakiecie symulacyjnym Anylogic 6 i przeprowadzono eksperymenty, opierając się na zgromadzonych danych i regułach zachowań.
Symulacja bazowała na danych pochodzących z ankiet oraz regułach uzyskanych w poprzednim kroku. W modelu każdy konsument był agentem
114
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
Atrybuty warunkowe:
Płeć: M – mężczyzna, K – kobieta
Wiek: v1 = [18–24], v2 = [25–34], v3 = [35–44], v4 = [45–54], v5 = [55 i więcej]
Wykształcenie: v1 = bez wykształcenia, v2 = podstawowe, v3 = gimnazjalne,
v4 = średnie, v5 = wyższe
Atrybut decyzyjny:
A1 = nieważne, A2 = obojętne, A3 = ważne lub bardzo ważne
Reguły dla decyzji A1:
1. Jeżeli płeć = K i wiek = v1 i wykształcenie = v1 to d = A1
Opis słowny reguły: Dla kobiety w wieku poniżej 25 lat i bez wykształcenia
zapewnienie wysokich standardów bezpieczeństwa sprzętu
elektrycznego nie jest ważne.
2. Jeżeli płeć = M i wiek = v1 i wykształcenie = v1 to d = A1
Opis słowny reguły: Dla mężczyzny w wieku poniżej 25 lat i bez wykształcenia
zapewnienie wysokich standardów bezpieczeństwa sprzętu
elektrycznego nie jest ważne.
Reguły dla decyzji A2:
3. Jeżeli płeć = K i wiek = v4 i wykształcenie = v1 to d = A2
Opis słowny reguły: Dla kobiety w wieku pomiędzy 45 a 54 lat i bez wykształcenia
zapewnienie wysokich standardów bezpieczeństwa sprzętu
elektrycznego jest obojętne.
4. Jeżeli płeć = M i wiek = v5 i wykształcenie = v1 to d = A2
Opis słowny reguły: Dla mężczyzny w wieku powyżej 55 lat, nieposiadającego
wykształcenia zapewnienie wysokich standardów bezpieczeństwa
sprzętu elektrycznego jest obojętne.
Reguły dla decyzji A3:
5. Jeżeli płeć = K i wykształcenie ≠ v1 to d = A3
Opis słowny reguły: Dla kobiety posiadającej wykształcenie co najmniej podstawowe
zapewnienie wysokich standardów bezpieczeństwa sprzętu
elektrycznego jest ważne lub bardzo ważne.
6. Jeżeli płeć = M i wiek ≠ v1 i wykształcenie ≠ v1 to d = A3
Opis słowny reguły: Dla mężczyzny w wieku powyżej 24 lat, posiadającego
wykształcenie co najmniej podstawowe zapewnienie wysokich
standardów bezpieczeństwa sprzętu elektrycznego jest ważne
lub bardzo ważne.
Tab. 3. Atrybuty oraz wybrane reguły algorytmu decyzyjnego. Źródło: opracowanie własne.
(w symulacji przyjęto wielkość populacji na poziomie 1000 agentów). Założono, że każdy agent dokona zakupu sprzętu AGD, który ma zapewniony
wysoki standard bezpieczeństwa. W związku z tym każdy z agentów ma
określone następujące wartości atrybutów:
1. Płeć – kobieta, mężczyzna.
2. Wiek – 18–80 lat.
vol. 10, nr 3 (38), 2012
115
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
3. Wykształcenie – brak wykształcenia, podstawowe, gimnazjalne, średnie,
wyższe.
4. Czynnik bezpieczeństwa – zapewniony wysoki standard bezpieczeństwa.
Na etapie inicjalizacji agentów założono, że agenci nie korzystają
z danego produktu (są potencjalnymi konsumentami). Dzięki zastosowaniu
reguł uzyskanych w poprzednim kroku agentów podzielono na trzy grupy:
1. Potencjalni konsumenci zainteresowani zakupem (Phigh), którzy stanowili
86% wszystkich badanych konsumentów.
2. Potencjalni konsumenci o nieokreślonym stopniu zainteresowania zakupem (Pfair), którzy stanowili 20% wszystkich badanych konsumentów.
3. Potencjalni konsumenci słabo zainteresowani zakupem (Plow), którzy
stanowili 12% wszystkich badanych konsumentów.
Na rysunku 2. przedstawiono diagram stanów ilustrujący ten podział
agentów. Opierając się na regułach, przyjęto, że każdy potencjalny konsument na początku symulacji przyjmuje jeden z wymienionych stanów.
statechart
PotentialHigh
POTENTIAL
PotentialLow
gender
PotentialFair
Phigh
Pfair
age
Plow
education
safetyFactor
CONSUMER
Rys. 2. Diagram stanów konsumentów. Źródło: opracowanie własne.
Dodatkowo w przeprowadzonym eksperymencie założono, że czas
potrzebny konsumentowi na dokonanie zakupu od momentu podjęcia decyzji
do dokonania transakcji wynosi tydzień.
Rysunek 3 przedstawia cztery krzywe, które reprezentują wyniki symulacji dla 4 tygodni. Kropkowana krzywa reprezentuje potencjalnych konsumentów, którzy są bardzo zainteresowani zakupem sprzętu elektrycznego
spełniającego wysokie standardy bezpieczeństwa (Phigh); krzywa oznaczona
trójkątami reprezentuje liczbę potencjalnych konsumentów o nieokreślonym stopniu zainteresowania zakupem takiego sprzętu (Pfair); krzywa oznaczona kwadratami to potencjalni konsumenci słabo zainteresowani zakupem sprzętu elektrycznego o wysokich standardach bezpieczeństwa; krzywa
116
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
1000
800
600
400
200
0
May 31.2012
Jun 5.2012
potential_high
Jun 10.2012
potential_fair
Jun 15.2012
Jun 20.2012
potential_low
Jun 25.2012
consumers
Rys. 3. Symulacja zachowania konsumentów. Źródło: opracowanie własne.
1000
800
748
600
400
226
200
26
0
potential_low
consumers
0
potential_high
potential_fair
4a) Początek pierwszego tygodnia
1000
830
800
600
400
200
130
28
12
0
potential_high
potential_fair
potential_low
consumers
4b) Koniec czwartego tygodnia
Rys. 4. Liczba konsumentów w czasie symulacji modelu (czas symulacji 4 tygodnie).
Źródło: opracowanie własne.
pogrubiona reprezentuje liczbę konsumentów, którzy dokonali zakupów
(Consumers). Analiza tych krzywych pozwala na wyciągnięcie wniosku, że
największy odsetek konsumentów dokonujących zakupów stanowią potencjalni
konsumenci zainteresowanych zakupem (Phigh). Wynika to z tego, że reguły
vol. 10, nr 3 (38), 2012
117
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
wykryte za pomocą zbiorów przybliżonych wskazywały, że takiego rodzaju
decyzje podejmowała największa liczba respondentów (tzn. wszystkie kobiety
posiadające wykształcenie co najmniej podstawowe oraz wszyscy mężczyźni
w wieku powyżej 24 lat posiadający wykształcenie co najmniej podstawowe).
Rysunek 4. przedstawia wyniki przebiegu symulacyjnego dla 4 tygodni.
Również z tego wykresu można odczytać, że spośród trzech kategorii konsumentów konsumenci należący do kategorii zainteresowanych zakupem
przekształcają się w największym stopniu w konsumentów zdecydowanych na
zakup. Jest to wynikiem wysokiej wartości wskaźnika podejmowania decyzji
zakupowych na tydzień (0,86).
6. Wnioski
Przedstawione w artykule rozważania pozwalają na sformułowanie wniosku, że symulacja wieloagentowa jest metodą, która może być i jest stosowania z powodzeniem do badania zachowania konsumentów. Przemawiają
za tym m.in. następujące przesłanki (Rand i Rust 2011; Twomey i Cadman
2002): (1) pozwala na prowadzenie eksperymentów z uwzględnieniem niejednorodnej złożoności zarówno na poziomie indywidualnego konsumenta,
jak i złożonego środowiska marketingowego; (2) daje możliwość modelowania interakcji między konsumentami-agentami, co zwiększa wiarygodność wyników badań, bo modelowany rzeczywisty świat składa się jednostek
wchodzących ze sobą w interakcje.
Podstawową trudność w jej implementacji stanowi problem identyfikacji reguł zachowania konsumentów na potrzeby tworzenia modelu symulacyjnego. Problem ten, jak wykazano w artykule, można jednak rozwiązać
poprzez przeprowadzenie odpowiednio zorganizowanych badań ankietowych,
na podstawie których, posługując się teorią zbiorów przybliżonych, istnieje
możliwość wykrycia reguł zachowania się badanych grup konsumentów.
Na modelu symulacyjnym zbudowanym zgodnie z proponowana procedurą można, za pomocą komputera, przeprowadzać praktycznie nieograniczoną liczbę eksperymentów w krótkim czasie (bez szkody dla ludzi i środowiska), co umożliwia badanie wpływu wielu kombinacji reguł będących
bazą decyzji zakupowych konsumentów.
Informacje o autorkach
Dr hab. prof. US Małgorzata Łatuszyńska – Uniwersytet Szczeciński.
E-mail: [email protected].
Dr Agata Wawrzyniak – Uniwersytet Szczeciński. E-mail: [email protected].
Dr Barbara Wąsikowska – Uniwersytet Szczeciński.
E-mail: [email protected].
Mgr Fatimah Furaji – University of Basrah, Irak.
E-mail: [email protected].
118
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
Przypisy
1
Szerzej na ten temat w: Witek i Nermend 2008; Zeelenberg i Pieters 2004; Shah,
Roy i Tiwari 2006; Chaochang 2002.
2
Journal of Product Innovation Management 2011, Special Issue on Agent-based Modeling of Innovation Diffusion, nr 2 s. 152–168.
Bibliografia
Adjali, I., Dias, B. i R. Hurling 2005. Agent Based Modeling of Consumer Behavior,
Proceedings of the 2005 North American Association for Computational Social and
Organizational Science Annual Conference, Notre Dame: University of Notre Dame,
http://www.casos.cs.cmu.edu/events/conferences/2005/conference_papers.php, dostęp:
14.03.2012.
Ben Said, L., Bouron, T. i A. Drogoul 2002. Agent-based Interaction Analysis of Consumer Behavior, Proceedings of the First International Joint Conference on Autonomous
Agents and Multiagent Systems: part 1, New York: ACM, s. 184–190.
Bieniasz, S. 2006. Techniki symulacji agentowej w zastosowaniu do badania procesów cieplnych, Kraków: Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
AGH, s. 13–14, http://winntbg.bg.agh.edu.pl/rozprawy/9711/full9711.pdf, dostęp:
10.03.2012.
Bonabeau, E. 2002. Agent-based Modeling, Methods and Techniques for Simulating
Human Systems. Proceedings of the National Academy of Sciences of the United States of America, nr 3 (99), s. 7280–7287, http://www.pnas.org/content/99/suppl.3/7280.
full2002, DOI: 10.1073/pnas.082080899.
Brannon, E.L., Ulrich, P.V., Anderson, L.J. i A.B. Presley 2001. Agent-based Simulation
of the Consumer’s Apparel Purchase Decision. National Textile Center Annual Report,
http://www.ntcresearch.org/pdf-rpts/AnRp01/I98-A09-A1.pdf, dostęp: 14.03.2012.
Buchta, C. i J. Mazanec 2001. SIMSEG/ACM – A Simulation Environment for Artificial
Consumer Markets. Working Paper, nr 79, Vienna: Vienna University of Economics
and Business Administration, http://epub.wu.ac.at/254/1/document.pdf, dostęp:
14.03.2012.
Burns, R. 2000. Introduction to Research Methods, London: Sage, DOI:
10.1332/030557393782453916.
Cao, J. 1999. Evaluation of Advertising Effectiveness Using Agent-based Modelling and
Simulation, Proceedings of 2nd UK Workshop of SIG on Multi-Agent Systems
(UKMAS), Bristol, http://stuff.mit.edu/~caoj/pub/doc/jcao_c_adver.pdf, dostęp:
14.03.2012.
Casti, J. 1997. Would-be Worlds, How Simulation Is Changing The World of Science, New
York: Wiley.
Challet, D. i A. Krause 2006. What Questions to Ask in Order to Validate an Agent-based
Model. Report of the 56th European Study Group with Industry, s. J1–J9, http://www.
maths-in-industry.org/miis/107/1/Unilever-ABM-Report.pdf, dostęp: 14.03.2012.
Chaochang, C. 2002. A Case-based Customer Classification Approach for Direct Marketing. Expert Systems with Applications, nr 2 (22), s. 163–168.
Collings, D., Reeder, A.A., Adjali, I., Crocker, P. i M.H. Lyons 1999. Agent Based
Customer Modeling. Computing in Economics and Finance, nr 1352, http://econpapers.
repec.org/paper/scescecf9/1352.htm, dostęp: 14.03.2012.
Collings, D., Reeder, A.A., Adjali, I., Crocker, P. i M.H. Lyons 2000. Agent Based Customer Modeling: Individuals Who Learn from Their Environment, Proceedings of the
2000 Congress on Evolutionary Computation, La Jolla, s. 1492–1497, DOI: 10.1109/
CEC.2000.870830.
vol. 10, nr 3 (38), 2012
119
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
Cui, N. 2009. A Rough-set Based Approach to Predict Consumers’ Brand Preference. International Workshop on Intelligent Systems and Applications, Wuhan, DOI: 10.1109/
IWISA.2009.5072671.
Delre, S.A., Jager, W., Bijmolt, T.H.A. i M.A. Janssen 2010. Will It Spread or Not? The
Effects of Social Influences and Network Topology on Innovation Diffusion. Journal
of Product Innovation Management, nr 2 (27), s. 267–282, DOI: 10.1111/j.1540
-5885.2010.00714.x.
Frank, A.U., Bittner, S. i M. Raubal 2001. Spatial and Cognitive Simulation with Multi-agent Systems, w: D.R. Montello (red.) Spatial Information Theory – Foundations
of Geographic Information Science, s. 124–139. Berlin–Heidelberg: Springer Verlag,
DOI: 10.1007/3-540-45424-1_9.
Furaiji, F. i B. Wąsikowska 2012. Badanie preferencji zakupowych kobiet i mężczyzn
metodą zbiorów przybliżonych. Handel Wewnętrzny, w druku.
Goldenberg, J., Han, S., Lehmann, D.R. i J.W. Hong 2009. The Role of Hubs in the
Adoption Process. Journal of Marketing, nr 2 (73), s. 1–13, DOI: 10.1509/jmkg.73.2.1.
Goldenberg, J., Libai, B., Moldovan, S. i E. Muller 2007. The NPV of Bad News. International Journal of Research in Marketing, nr 24, s. 186–200, DOI: 10.1016/j.ijresmar.2007.02.003.
Goldenberg, J., Libai, B. i E. Muller 2010. The Chilling Effect of Network Externalities.
International Journal of Research in Marketing, nr 1 (27), s. 4–15, DOI: 10.1016/j.
ijresmar.2009.06.006.
Hill, R. i A. Watkins 2007. A Simulation of Moral Behavior within Marketing Exchange
Relationships. Journal of the Academy of Marketing Science, nr 35, s. 417–429, DOI:
10.1007/s11747-007-0025-5.
Hill, R. i A. Watkins 2009a. A Simulation of Business-to-Business Decision Making in
a Relationship Marketing Context. Industrial Marketing Management, nr 8 (28),
s. 994–1005.
Hill, R. i A. Watkins 2009b. The Profit Implications of Altruistic Versus Egoistic Orientations for Business-to-Business Exchanges. International Journal of Research in Marketing, nr 1 (26), s. 52–59, DOI: 10.1016/j.ijresmar.2008.07.007.
Hyuang, C. 2010. 4G Mobile Phone Consumer Preference Predictions by Using the Rough
Set Theory and Flow Graphs, Phuket: Technology Management for Global Economic
Growth (PICMET).
Jager, W. 2006. Simulating Consumer Behaviour: A Perspectiv, w: A. Faber, K. Frenken
i A.M. Idenburg (red.) Groningen Environmental Policy and Modeling in Evolutionary
Economics, s. 111–136. Netherlands: Environmental Assessment Agency, http://www.
rivm.nl/bibliotheek/rapporten/550033001.pdf, dostęp: 15.03.2012.
Jager, W., Janssen, M.A. i C.A.J. Vlek 1999. Consumats in a Commons Dilemma: Testing
the Behavioural Rules of Simulated Consumers, COV Report No. 99-01, University
of Groningen: Centre for Environment and Traffic Psychology, http://clivespash.org/
speer/simpaper.pdf, dostęp: 15.03.2012.
Janssen, M.A. i W. Jager 2003. Simulating Market Dynamics: The Interactions of Consumer Psychology and Structure of Social Networks. Artificial Life, nr 9, s. 343–356.
Journal of Product Innovation Management 2011, Special Issue on Agent-based Modeling
of Innovation Diffusion, nr 2 (28).
Kaczmarczyk, S. 2003. Badania marketingowe. Metody i techniki, Warszawa: Polskie
Wydawnictwo Ekonomiczne.
Kędzior, Z. i in. 2005. Badania rynku. Metody, zastosowania, Warszawa: Polskie Wydawnictwo Ekonomiczne.
Kuhn, J.R., Courtney, J.F., Morris, B. i E.R. Tatara 2010. Agent-based Analysis and
Simulation of the Consumer Airline Market Share for Frontier Airlines. Knowledge-Based Systems, nr 8 (23), s. 875–882, DOI: 10.1016/j.knosys.2010.06.002.
120
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
Kyrylov, V. i C. Bonanni 2004. Modeling Decision Making by Telecommunications Ser-vices
Providers in a Strategy Market Game, Proceedings of the Applied Telecommunication
Symposium (ATS’04), Arlington, http://www.dss.dpem.tuc.gr/pdf/A132-Vadim_modeling_telecommunication_final.pdf, dostęp: 14.03.2012.
Lancaster, G. 2005. Research Methods in Management. A Concise Introduction to Research
in Management and Business Consultancy, Jordan Hill, Oxford: Elsevier Butterworth-Heinemann Linacre House.
Liou, J. i G. Tzeng 2010. A Dominance-based Rough Set Approach to Customer Behavior in the Airline Market. Information Sciences, nr 11 (180), s. 2230–2238, DOI:
10.1016/j.ins.2010.01.025.
Lusch, R.F. i N. Tay 2002. Agent-based Modeling of Ambidextrous Organizations: Virtualizing Competitive Strategy. IEEE Transactions on Intelligent Systems, nr 5 (22),
s. 50–57.
Lusch, R.F. i N. Tay 2004. Agent-based Modeling: Gaining Insight into Firm and Industry Performance, w: Ch. Moorman i D.R. Lehman (red.) Assessing marketing strategy
performance, s. 213–227. Cambridge: Marketing Science Institute.
Lusch, R.F. i N. Tay 2005. A Preliminary Test of Hunt’s General Theory of Competition:
Using Artificial Adaptive Agents to Study Complex and Ill-defined Environments.
Journal of Business Research, nr 9 (58), s. 1155–1168, DOI: 10.1016/j.jbusres.2004.04.005.
Macal, Ch.M. i M.J. North 2006. Tutorial on Agent-based Modeling and Simulation, Part
2. How to Model with Agent, Proceedings of the 2006 Winter Simulation Conference,
Monterey, s. 73–83, http://www.informs-sim.org/wsc06papers/008.pdf, dostęp:
25.05.2012, DOI: 10.1109/WSC.2006.323040.
Marks, R.E., Midgley, D.F. i L.G. Cooper 1997. Breeding Competitive Strategies. Management Science, nr 3 (43), s. 257–275, DOI: 10.1287/mnsc.43.3.257.
Marks, R.E., Midgley, D.F. i L.G. Cooper 2006. Co-evolving Better Strategies in Oligopolistic Price Wars, w: J.P. Rennard (red.) Handbook of Research on Nature-Inspired
Computing for Economy and Management, s. 806–821. Hershey: Idea Group, DOI:
10.4018/978-1-59140-984-7.ch052.
North, M.J. i in. 2010. Multiscale Agent-based Consumer Market Modeling, http://www.
dis.anl.gov/pubs/Multiscale_Agent-Based_Consumer_Market_Modeling.pdf, dostęp:
23.04.2012, DOI: 10.1002/cplx.20304.
Ogino, A., Imamura, N. i T. Kato 2010. Modeling of Human Interest in Products by
Observing Behaviors of Customer in a Store, International Conference on Kansei
Engineering and Emotion Research, Paris.
Pawlak, Z. 2004. Zbiory przybliżone – nowa matematyczna metoda analizy danych. Miesięcznik Politechniki Warszawskiej, nr 5.
Pfaff, D. 2010. Badania rynku. Jak pozyskiwać najistotniejsze dla firmy informacje marketingowe, Warszawa: Wyd. BC.edu.
Rahmandad, H. i J. Sterman 2008. Heterogeneity and Network Structure in the Dynamics of Diffusion: Comparing Agent-based and Differential Equation Models, Management Science, nr 5 (54), s. 998–1014, DOI: 10.1287/mnsc.1070.0787.
Rand, W. i R.T. Rust 2011. Agent-based Modelling in Marketing: Guidelines for Rigor.
International Journal of Research in Marketing, nr 3 (28), s. 181–193, DOI: 10.1016/j.
ijresmar.2011.04.002.
Rigopoulos, G., Patlitzianas, K.D. i N.V. Karadimas 2006. Modeling Consumer Behaviour
Towards Payment System Selection Using Multiagent Based Simulation, IADIS Virtual
Multi Conference on Computer Science and Information Systems, http://www.iadis.
net/dl/final_uploads/200603C039.pdf, dostęp: 14.03.2012.
Robertson, D.A. 2003. Agent-based Models of a Banking Network as an Example of
a Turbulent Environment: the Deliberate vs. Emergent Strategy Debate Revisited.
Journal of Complexity in Organizations and Management, nr 2 (5), s. 56–71, DOI:
10.1207/S15327000EM050207.
vol. 10, nr 3 (38), 2012
121
Małgorzata Łatuszyńska, Agata Wawrzyniak, Barbara Wąsikowska, Fatimah Furaji
Roozmanda, O., Ghasem-Aghaeea, N., Hofstedeb, G.J., Nematbakhsha, M.A., Baraania, A.
i T. Verwaart 2011. Agent-based Modeling of Consumer Decision Making Process
Based on Power Distance and Personality. Knowledge-Based Systems, nr 7 (24),
s. 1075–1095, DOI: 10.1016/j.knosys.2011.05.001.
Rutkowski, L. 2005. Metody i techniki sztucznej inteligencji, Warszawa: Wyd. Naukowe
PWN.
Schenk, T.A., Löffler, G. i J. Rauh 2007. Agent-based Simulation of Consumer Behavior in Grocery Shopping on a Regional Level. Journal of Business Research, nr 60,
s. 894–903, DOI: 10.1016/j.jbusres.2007.02.005.
Schwaiger, A. i B. Stahmer 2003. SimMarket: Multiagent-based Customer Simulation
and Decision Support for Category Management. Lecture Notes in Artificial Intelligence, nr 2831, s. 74–84, DOI: 10.1007/978-3-540-39869-1_7.
Shah, S., Roy, R. i A. Tiwari 2006. Technology Selection for Human Behaviour Modelling
in Contact Centres, Cranfield: Cranfield University, s. 2–13.
Shaikh, N.I., Ragaswamy, A. i A. Balakrishnan 2005. Modelling the Diffusion of Innovations Using Small World Networks, Philadelphia: Penn State University.
Shibata, J. 2010. Analysis of Unplanned Purchase Rule Based on Rough Set, Los Angeles:
Computers and Industrial Engineering (CIE), DOI:10.1109/ICCIE.2010.5668266.
Siebers, P.O. i U. Aickelin 2008. Introduction to Multi-agent Ssimulation, w: F. Adam
i P. Humphreys (red.) Encyclopedia of Decision Making and Decision Support Technologies, s. 554–564. Pennsylvania: Idea Group Publishing, DOI: 10.4018/978-1-59904843-7.ch062.
Toubia, O., Goldenberg, J. i R. Garcia 2008. A New Approach to Modeling the Adoption of New Products: Aggregated Diffusion Models. MSI Reports: Working Papers
Series, nr 08-001, s. 65–76.
Twomey, P. i R. Cadman 2002. Agent-based Modelling of Customer Behaviour in the
Telecoms and Media Markets. Information, nr 1 (4), s. 56–63, http://www2.econ.
iastate.edu/tesfatsi/ACERetailCustomerModeling.pdf, dostęp: 14.03.2012, DOI:
10.1108/14636690210426640.
Ulbinaitė, A. i Y. Le Moullec 2010. Towards an ABM-based Framework for Investigating Consumer Behaviour in the Insurance Industry. Ekonomika, nr 2 (89), s. 97–101.
Venables, M. i U. Bilge 1998. Complex Adaptive Modelling at J Sainsbury: The SimStore
Supermarket Supply Chain Experiment, Warwick: Business Process Resource Centre,
Warwick University, http://www.psych.lse.ac.uk/complexity/Seminars/1998/report98mar.htm, dostęp: 14.03.2012.
Vindigni, G., Janssen, M.A. i W. Jager 2002. Organic Food Consumption. A Multitheoretical Framework of Consumer Decision Making. British Food Journal, nr 8
(104), s. 624–642, DOI: 10.1108/00070700210425949.
Watts, D.J. 2002. A Simple Model of Global Cascades on Random Networks. Proceeding of the National Academy of Sciences, nr 99, s. 5766–5771, DOI: 10.1073/
pnas.082090499.
Watts, D.J. i P.S. Dodds 2007. Influentials, Networks and Public Opinion Formation.
Journal of Consumer Research, nr 4 (34), s. 441–458, DOI: 10.1086/518527.
Wilkinson, I. i L. Young 2002. On Cooperating: Firms, Relations, Networks. Journal of
Business Research, nr 55, s. 123–132, DOI: 10.1016/S0148-2963(00)00147-8.
Witek, J. i K. Nermend (red.) 2008. Zachowania konsumenta w świetle badań ankietowych
i symulacyjnych, Szczecin: Uniwersytet Szczeciński, s. 5–7.
Wohltorf, J. i S. Albayrak 2003. An Agent-based Decision Support System for the Introduction of Next Generation Mobile Services, Berlin: DAI-Labor, http://citeseerx.ist.psu.
edu/viewdoc/summary?doi=10.1.1.202.9099, dostęp: 14.03.2012.
Wooldridge, M. 1999. Intelligent Agents, w: G. Weiss (red.) Multiagent Systems – A Modern
Approach to Distributed Artificial Intelligence, s. 27–77. Cambridge: MIT Press.
Wooldridge, M. 2002. An Introduction to Multi-agent Systems, New York: Wiley.
122
Problemy Zarządzania
Zastosowanie zbiorów przybliżonych do wykrywania reguł zachowania konsumentów...
Zeelenberg, M. i R. Pieters 2004. Beyond Valence in Customer Dissatisfaction: A Review
and New Findings on Behavioural Responses to Regret and Disappointment in
Failed Services. Journal of Business Research, nr 4 (57), s. 445–455, DOI: 10.1016/
S0148-2963(02)00278-3.
Zhang, T. i D. Zhang 2007. Agent-based Simulation of Consumer Purchase Decisionmaking and the Decoy Effect. Journal of Business Research, nr 60, s. 912–922, DOI:
10.1016/j.jbusres.2007.02.006.
vol. 10, nr 3 (38), 2012
123
Problemy Zarządzania, vol. 10, nr 3 (38): 124 – 147
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.8
Sieci neuronowe Kohonena
w przeprowadzaniu analiz danych.
Próba wykorzystania w eksploracji danych
dotyczących jednostek terytorialnych
Mirosława Lasek, Ada Myzik
W artykule przedstawiono wyniki analiz mających na celu wykrywanie zależności zawartych w nagromadzonych danych, ich graficznej reprezentacji i interpretacji za pomocą sieci neuronowych Kohonena. W celu ilustracji analiz
danych za pomocą sieci Kohonena posłużono się przykładami analizy danych
dotyczących jednostek terytorialnych: punktów gastronomicznych w województwach, podmiotów gospodarczych z różnych sekcji Polskiej Klasyfikacji
Działalności w podregionach oraz obiektów sportowych w powiatach. Analiza
została przeprowadzona od zbioru najprostszego do najbardziej złożonego, czyli
zawierającego najwięcej obserwacji i zmiennych. Na potrzeby analiz danych
i ich interpretacji wykorzystywano oprogramowanie firmy SAS Institute Inc.
1. Wstęp
Potrzeba analizy coraz bardziej złożonych zbiorów danych, o coraz większej liczbie obserwacji i zmiennych skłania do poszukiwania metod ich eksploracji wykraczających poza możliwości tradycyjnych metod statystycznych
czy ekonometrycznych. Jedną z takich metod jest analiza danych za pomocą
sztucznych sieci neuronowych Kohonena.
Działanie sztucznych sieci neuronowych, także sieci Kohonena, ma
w uproszczeniu odpowiadać działaniu biologicznych struktur nerwowych
złożonych z neuronów. Dają one możliwość tworzenia odwzorowań nieliniowych i wykorzystywania wielowymiarowych danych. Są metodą analizy
danych stosunkowo łatwą do zrozumienia i stosowania, chociaż jeszcze
niezbyt szeroko znaną i używaną. Na potrzeby analiz danych rozważono
możliwość zastosowania klasycznej sieci Kohonena i dwóch metod będących
jej modyfikacją: kwantowania wektorowego i uczenia wsadowego.
W artykule przedstawiono podstawy działania sieci Kohonena oraz próbę
analizy za ich pomocą trzech zbiorów danych, dotyczących jednostek terytorialnych: różnych punktów gastronomicznych w poszczególnych województwach, podmiotów gospodarczych w podziale na sekcje Polskiej Klasyfikacji Działalności w podregionach, różnego rodzaju obiektów sportowych
124
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
w powiatach. Wszystkie zbiory dla przeprowadzenia analizy zaczerpnięto
ze strony internetowej Głównego Urzędu Statystycznego. Przedstawiono
możliwość geograficznej reprezentacji oraz zestawiania wyników uzyskanych
na tzw. mapie topologicznej Kohonena z mapą geograficzną.
Dla każdego zbioru danych została wybrana odpowiednia struktura sieci
Kohonena i jej parametry, które pozwalają uzyskać najbardziej satysfakcjonujące wyniki. Wykorzystywano oprogramowanie SAS Enterprise Miner 6.2,
metodę SOM/Kohonen. Przedstawiono także mapy tworzone w programie
SAS Base 9.2, które przedstawiają mapy Polski odpowiadające wynikom
uzyskanym za pomocą sieci Kohonena i przedstawianym za pomocą mapy
topologicznej Kohonena.
2. Sieci neuronowe Kohonena
W roku 1982 w artykule zatytułowanym „Self-Organized Formation of
Topologically Correct Feature Maps” T. Kohonen zaproponował nowy algorytm sztucznych sieci neuronowych, który został nazwany sieciami Kohonena (Kohonen 1982: 59–69). Najkrócej można je scharakteryzować jako
sieci samouczące się z wbudowaną konkurencją i mechanizmem sąsiedztwa
(Lasek 2004: 17–37). Są to sieci złożone z dwóch warstw neuronów: warstwy
wejściowej i warstwy wyjściowej (rysunek 1).
Wagi połączeń
Neurony
Wektor wejściowy
X1
X2
Rys. 1. Struktura sieci neuronowej Kohonena. Źródło: S. Osowski 2006. Sieci neuronowe do
przetwarzania informacji, Warszawa: Oficyna Wydawnicza Politechniki Warszawskiej, s. 283.
Samouczenie polega na tym, że uczenie, zwane też trenowaniem sieci,
odbywa się w trybie „bez nauczyciela” (unsupervised learning; self-organizing),
vol. 10, nr 3 (38), 2012
125
Mirosława Lasek, Ada Myzik
co oznacza, że dla podawanych danych wejściowych do treningu nie jest
przedstawiana prawidłowa odpowiedź. Sieć nie jest zapoznawana z tym, jakie
sygnały wyjściowe powinny odpowiadać wprowadzanym sygnałom wejściowym. Konkurencja jest mechanizmem powodującym, że neurony uczą się
rozpoznawania sygnałów wejściowych i reagowania na sygnały wejściowe,
konkurując ze sobą. Neuron, który najsilniej zareaguje na dany sygnał wejściowy – im bardziej wagi neuronu są podobne do sygnałów wejściowych
(wartości wejściowych), tym silniejsza reakcja – „zwycięża” w konkurencji
rozpoznawania określonych sygnałów wejściowych. Inne neurony zostają zwycięzcami w rozpoznawaniu innych sygnałów (wartości) wejściowych. Sąsiedztwo jest tu rozumiane jako takie nauczanie sieci, że neurony sąsiadujące
z neuronem zwycięzcą w rozpoznawaniu określonych sygnałów uczą się wraz
z nim, chociaż mniej intensywnie. Takie trenowanie sieci powoduje, że sąsiadujące neurony będą reagowały na podobne sygnały (wartości) wejściowe.
Wynik trenowania sieci (neurony warstwy wyjściowej) jest przedstawiany na
wykresie nazywanym mapą Kohonena lub mapą topologiczną. Poszczególne
obserwacje nazywane są przypadkami wejściowymi lub uczącymi.
Struktura sieci Kohonena nie jest skomplikowana w porównaniu z innymi
rodzajami sieci neuronowych (Myzik 2012). Sieć Kohonena składa się
bowiem z warstwy wejściowej i wyjściowej, natomiast nie posiada żadnych
warstw ukrytych, tak jak inne rodzaje sieci. Wymagane jest, aby dane przedstawione na wejściu sieci zostały uprzednio znormalizowane lub wystandaryzowane. S. Osowski wskazuje na konieczność nadmiaru danych wejściowych,
aby metoda uczenia poprzez samoorganizację mogła wykryć istotne wzorce
zawarte w danych (Osowski 2006: 282). Warstwa wyjściowa złożona jest
z neuronów, które nazywane są też wektorami wagowymi lub kodowymi.
Na ogół neurony przedstawiane są w sposób, który ułatwia interpretację
wyników uczenia sieci (Myzik 2012: 8–12). Popularną metodą odwzorowania
na płaszczyźnie warstwy wyjściowej jest nadanie jej formy dwuwymiarowej
siatki składającej się z elementów (prostokątów, kółek – w zależności od
oprogramowania), które odpowiadają poszczególnym neuronom.
Sieć Kohonena jest zaliczana do tzw. sieci pełnych, gdyż każdy przypadek
uczący z warstwy wejściowej jest połączony z każdym neuronem z warstwy
wyjściowej i nie ma powiązań między elementami tej samej warstwy. Połączeniom są przyporządkowane wagi o wartościach z przedziału [0, 1] (Larose
2006: 168–169). Wagom są nadawane wartości początkowe za pomocą różnych algorytmów. Wartości te mogą być ustalone jako losowe lub wyznaczone
na podstawie algorytmu dwóch pierwszych głównych składowych.
Uczenie czy też trenowanie sieci Kohonena przebiega w sposób iteracyjny. Tzw. epoka uczenia (trenowania) sieci kończy się po zapoznaniu
sieci ze wszystkimi przypadkami uczącymi i składa się z wielu pojedynczych
kroków. Krok obejmuje analizę jednego przypadku uczącego, rywalizację
poszczególnych neuronów o tytuł neuronu wygrywającego, a następnie
modyfikację wektora wagowego zwycięskiego neuronu oraz neuronów z nim
126
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
sąsiadujących. Neuronem zwycięskim lub wygrywającym nazywany jest neuron, dla którego wartość funkcji decyzyjnej, a jest nią zazwyczaj odległość
euklidesowa pomiędzy wektorem wagowym a przypadkiem wejściowym,
przyjmuje najlepszą (w przypadku odległości euklidesowej – najmniejszą)
wartość. Następnie wagi neuronu wygrywającego i jego sąsiadów są modyfikowane, tak aby były jeszcze bardziej podobne do przypadku uczącego.
W procedurze modyfikacji stosowany jest tzw. współczynnik uczenia,
który maleje wraz ze wzrostem liczby kroków, aby zmiany na początku były
duże (gwałtowne), a w kolejnych krokach uczenia neuronów coraz mniejsze (Larose 2006: 169–170). Drugim współczynnikiem, którego wartość jest
zmniejszana wraz z kolejnymi krokami algorytmu, jest promień sąsiedztwa,
tak aby początkowo wartości wag neuronów sąsiadujących z neuronem zwycięzcą szybko (gwałtownie) się dostosowywały do zwycięzcy, a następnie stopniowo zmiany stawały się coraz mniejsze. Jednakże uwzględnienie podczas
modyfikacji wag neuronów zachodzenia sąsiedztwa powoduje, że neurony
położone obok siebie na mapie topologicznej są często do siebie podobne.
Cały algorytm trenowania sieci Kohonena można uporządkować w proces
złożony z następujących kroków (Larose 2006: 170; Myzik 2012: 10–11):
1) inicjalizacja początkowych wektorów wagowych, np. w sposób losowy
lub opierając się na dwóch pierwszych składowych głównych;
2) wybranie przypadku uczącego (obserwacji);
3) obliczenie wartości funkcji decyzyjnej dla wszystkich neuronów i wybranie
neuronu wygrywającego;
4) określenie neuronów sąsiadujących z neuronem zwycięskim na podstawie
wartości funkcji sąsiedztwa;
5) dostosowanie wag neuronów sąsiadujących przy wykorzystaniu współczynnika uczenia (tzw. adaptacja);
6) modyfikacja współczynnika uczenia i rozmiaru sąsiedztwa;
7) powrót do realizacji punktu 2, jeżeli nie zostały spełnione warunki zakończenia uczenia sieci.
Największą zaletą sieci neuronowych, także Kohonena, jest umożliwienie
przedstawiania zależności nieliniowych oraz rozwiązywanie problemów, dla
których nie umiemy dokładnie zdefiniować zależności przyczynowo-skutkowych.
R. Tadeusiewicz (2001: 48–49) zwraca uwagę, że sieć Kohonena potrafi
wykrywać powiązania, które zostałyby pominięte, gdyby zastosowano tradycyjną sieć i sposób uczenia (tj. uczenie z „nauczycielem”, gdy w danych
wejściowych do uczenia sieci zawarte są poprawne odpowiedzi).
R.S. Collica (2007: 212) w odniesieniu do praktycznej strony zastosowania
sieci Kohonena wśród zalet wymienia łatwość zrozumienia algorytmu, jego
logiczną strukturę, natomiast za główne zagrożenia stosowania algorytmu
uważa jego problemy w radzeniu sobie z brakującymi obserwacjami, duże
zapotrzebowanie na moc obliczeniową oraz zmienne rezultaty w zależności
od wielkości próby, która zostanie wykorzystana w badaniu.
vol. 10, nr 3 (38), 2012
127
Mirosława Lasek, Ada Myzik
W artykule M. Lasek jako podstawowe wady sieci Kohonena wymienia
się (Lasek 2004: 26–27):
– brak reguł budowy architektury sieci, takich jak określenie liczby neuronów czy wymiaru sieci, oraz trudności wyznaczania parametrów trenowania, takich jak wartości początkowe wag, współczynnik uczenia, promień
sąsiedztwa, porządek prezentowania danych w procesie uczenia, które
są znajdywane metodą prób i błędów; nieodpowiedni dobór parametrów
może być przyczyną braku sukcesu w trenowaniu sieci;
– wynik trenowania sieci zależy od porządku, w jaki pobierane są przykłady
do trenowania, ponieważ wagi neuronów są modyfikowane w sposób
wskazany przez algorytm po zaprezentowaniu każdego kolejnego przykładu;
– zbieżność procesu uczenia nie opiera się na kryterium optymalizacji, lecz
jest wymuszana zmniejszającym się współczynnikiem uczenia i zasięgiem
uczenia; dlatego też nie ma gwarancji, że sieć może nauczyć się prawidłowo rozpoznawać sygnały wejściowe oraz że będzie przedstawiać
w pełni złożoność problemu.
Aby przezwyciężyć wymienione powyżej wady, podjęto próby polepszenia
metody trenowania sieci Kohonena, m.in. poprzez włączenie algorytmu rozmytych k-średnich, gdzie „rozmytość” jest rozumiana zgodnie z teorią zbiorów rozmytych L.A. Zadeha (Lasek 22–24, 27). Dzięki włączeniu algorytmu
rozmytych k-średnich uzyskano szereg korzyści, jak np. większą odporność
wyników na początkowe wartości wprowadzanych parametrów, uniezależnienie
od kolejności wprowadzania przykładów do trenowania sieci, zmniejszenie
koniecznej liczby cykli trenowania (Lasek 2007: 113–134). Jednakże opisywana
wcześniej dla przypadku nierozmytej sieci Kohonena adaptacja sąsiedztwa
na mapie Kohonena nie ma już miejsca. Neurony reprezentujące podobne
obserwacje (dane wejściowe) nie muszą sąsiadować ze sobą na mapie topologicznej Kohonena. Zalety wizualne mapy zwykłych sieci Kohonena zostają
utracone przy wykorzystywaniu rozmytego algorytmu trenowania.
Uproszczoną wersją algorytmu Kohonena jest tzw. kwantowanie wektorowe (Vector Quantization – VQ). W przypadku tego algorytmu zbiór danych
zostaje podzielony na zdefiniowaną liczbę skupień, tak że każde z nich jest
reprezentowane przez jeden wektor wagowy. Kwantowanie wektorowe nie
wykorzystuje koncepcji sąsiedztwa. Modyfikowane są jedynie wagi neuronów zwycięzców. Przy zastosowaniu takiego algorytmu końcowe rezultaty są
w znacznej mierze uzależnione od początkowych wartości wektorów wagowych, a algorytm cechuje się skłonnością do wybierania minimów lokalnych
zamiast globalnych (Kohonen 2008: 310–311).
Inną modyfikacją algorytmu Kohonena jest tzw. uczenie wsadowe sieci.
W przeciwieństwie do oryginalnego algorytmu Kohonena, wektory wagowe
w przypadku uczenia wsadowego są dostosowywane po wczytaniu nie kolejno
rozpatrywanych obserwacji, ale całego zbioru danych. Po każdym przypadku
uczącym zapamiętywane są informacje o wektorze zwycięskim i parametrze
128
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
sąsiedztwa, a na koniec całej epoki uczenia na podstawie tych danych są
obliczane nowe wektory wagowe (Kohonen 1998: 3–4). Następnie przy zastosowaniu nowych wektorów wagowych ponownie analizowane są wszystkie
przypadki wejściowe, aż do spełnienia warunków zaprzestania uczenia sieci.
Obliczanie wektorów wagowych może się odbywać na podstawie wartości nieparametrycznej funkcji regresji (SAS 2010). Metoda ta jest szybsza w działaniu, bardziej stabilna i nie wymaga stosowania współczynnika uczenia.
Utrudnieniem stosowania algorytmu Kohonena może być pojawianie się,
i to już w trakcie uczenia, tzw. martwych neuronów, tj. takich, które nie
reprezentują żadnych danych wejściowych. Przyczyną ich pojawiania się może
być losowość wag początkowych lub zbyt mały rozmiar sąsiedztwa. Pojawianie się martwych neuronów na mapie topologicznej Kohonena zwiększa
tzw. błąd kwantyzacji, mierzony jako średnia wartość odległości wyliczanych
dla każdego przypadku wejściowego do najbardziej podobnego do niego
reprezentanta na mapie (można zastąpić średnią inną miarą, np. medianą)
i niekorzystnie wpływa na możliwości interpretowania wyników, gdyż dane
będą odzwierciedlone przez mniejszą liczbę neuronów (Osowski 2006: 286).
Nauczona sieć Kohonena może zostać zastosowana nie tylko do analizy
zależności występujących w zbiorze danych wejściowych, które są wykorzystywane do jej trenowania, czego próbę przedstawiamy w tym artykule, lecz
także przeznaczona do klasyfikowania nowych obiektów, tzn. takich, z którymi sieć nie była jeszcze zapoznawana. Jeżeli przedstawiona wyuczonej sieci
nowa obserwacja nie zostaje przydzielona do żadnej z grup, wskazuje to, że
jest odmienna od obserwacji, na których przeprowadzono jej trenowanie.
3. Budowa i wykorzystywane sieci Kohonena
przy zastosowaniu programu SAS Enterprise Miner
(procedura SOM/Kohonen)
SAS Enterprise Miner 6.2 jest komponentem pakietu SAS, opracowanym
specjalnie na potrzeby przeprowadzania eksploracji danych (Data Mining).
Jest wyposażony w intuicyjny, graficzny interfejs, ułatwiający i znacznie
przyspieszający budowę modeli eksploracji danych. Prostokąty odpowiednio
oznaczone (tekst i grafika), reprezentujące działania (tzw. węzły) dla przeprowadzania kolejnych kroków analizy danych, użytkownicy SAS Enterprise
Miner wprowadzają na diagram i łączą strzałkami wskazującymi kolejność
przetwarzania. Przetwarzanie odbywa się zgodnie z założeniami metodyki
SEMMA w toku realizacji pięciu kolejnych etapów: próbkowanie, eksploracja, modyfikacja, modelowanie i ocena (Sampling, Exploration, Modification,
Modeling, Assessment) (Lasek i Pęczkowski 2010: 117–133). Dla zbudowania
i wykorzystywania sieci neuronowych Kohonena trzeba wykorzystać węzeł
(narzędzie) SOM/Kohonen.
Możliwe jest zastosowanie różnych algorytmów tworzenia modelu sieci
Kohonena: kwantowania wektorowego (Kohonen VQ), samoorganizującej
vol. 10, nr 3 (38), 2012
129
Mirosława Lasek, Ada Myzik
się mapy Kohonena (Kohonen SOM) oraz uczenia wsadowego SOM (Batch
SOM) z możliwością wyboru wygładzania Nadaraya-Watsona (Nadaraya-Watson smoothing) i wygładzania lokalnego liniowego (local-linear smoothing).
Ponadto węzeł SOM/Kohonen umożliwia określenie wielu szczegółowych
parametrów (opcji programu), które umożliwiają dostosowanie modelu do
potrzeb analizowanych danych. Parametry te w programie SAS Enterprise
Miner 6.2 zostały podzielone na cztery podstawowe sekcje: Ogólne, Uczenie,
Ocena punktowa, Status. Szczegółowo są opisane w dokumentacji programu,
a także w pracy A. Myzik (2012: 18–24).
Podstawowe opcje określające sposób budowy modelu i jego wykorzystywania zawiera sekcja Uczenie. W tej sekcji można wyselekcjonować
zmienne do badania, określić metodę budowy sieci oraz wskazać sposób
standaryzacji lub zadecydować, że nie będzie przeprowadzana. Sekcja Uczenie zawiera aż dziesięć podsekcji: Segment, Opcje ziarna, Uczenie wsadowe
SOM, Opcje lokalne liniowe, Opcje Nadaraya-Watsona, Kohonen VQ, Kohonen, Opcje sąsiedztwa, Kodowanie zmiennych klasyfikujących i Braki danych.
Szkolenie sieci można przeprowadzić, przyjmując domyślne, proponowane
w programie wartości parametrów, jednakże w takim przypadku możemy
otrzymać rezultaty w znacznym stopniu odbiegające od oczekiwanych. Trzeba
też pamiętać, że wiele opcji jest dostępnych tylko dla konkretnych metod
(Kohonen VQ, Kohonen SOM lub Batch SOM), dlatego podstawową rolę
odgrywa wybór metody.
W programie SAS Enterprise Miner stosowane są pojęcia krok oraz
iteracja. Termin „krok” oznacza działanie polegające na zapoznaniu sieci
z jednym przypadkiem wejściowym (obserwacją) i zaktualizowaniu na tej
podstawie wektorów wagowych. „Iteracja”, podobnie jak epoka, jest odnoszona do zapoznania sieci z całym dostępnym zbiorem danych.
Metodą domyślną wskazywaną w programie jest wsadowe SOM (Batch
SOM). W przypadku uczenia wsadowego dla właściwego zbudowania modelu
istotne jest wskazanie właściwej liczby kolumn i wierszy (podsekcja Segment),
które definiują rozmiar mapy topologicznej Kohonena oraz określenie rozmiaru sąsiedztwa (podsekcja Opcje sąsiedztwa). Rozmiar mapy topologicznej
i rozmiar sąsiedztwa powinny zostać utrzymane w odpowiedniej proporcji,
tak że np. dwukrotne zwiększenie liczby kolumn i wierszy powinno narzucać dwukrotne zwiększenie rozmiaru sąsiedztwa. Zachowanie tej proporcji
jest istotne, ponieważ od tych wartości zależy poziom wygładzania. Dla
przyjęcia odpowiednich wartości najczęściej niezbędne jest przeprowadzenie
wielu prób.
R. Matignon wskazuje, że jeżeli przyjmiemy zbyt małą mapę topologiczną, to nie uzyskamy dobrego odwzorowania nieliniowości zawartych
w danych, natomiast zbyt duży rozmiar spowoduje wydłużenie czasu uczenia
sieci, wymaga większej mocy obliczeniowej komputera oraz może powodować występowanie pustych segmentów na mapie. Stwierdza, że lepiej sprawdzają się większe mapy, o ile każdemu skupieniu odpowiada wystarczająco
130
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
duża liczba przypadków wejściowych (Matignon 2007: 230). W dokumentacji
programu SAS Enterprise Miner 6.2 wskazuje się, że powinno ich być pięć
lub dziesięć. Tylko dla przypadku uczenia wsadowego jest możliwe wskazanie
opcji wygładzania i wyznaczanie ich parametrów. Program SAS Enterprise
Miner 6.2 umożliwia zastosowanie opcji wygładzania lokalnego liniowego
i wygładzania Nadaraya-Watsona, które regulują formę funkcji sąsiedztwa.
Ich wykorzystanie daje możliwość odpowiedniego dostosowania parametru
sąsiedztwa i obszaru wokół neuronu wygrywającego (Matignon 2007: 235).
Wygładzanie Nadaraya-Watsona zmniejsza prawdopodobieństwo, że algorytm
zatrzyma się w minimum lokalnym. Wygładzanie lokalne liniowe natomiast
umożliwia wyeliminowanie tzw. efektu granicznego (border effect) (Matignon
2007: 230), powodującego, że wektory wagowe z obrzeży mapy topologicznej
są ściągane do jej centrum.
Wybór metody Kohonen SOM wymaga spełnienia tych samych zasad
dotyczących liczby wierszy oraz kolumn mapy i rozmiaru sąsiedztwa, jak
w przypadku metody wsadowej Batch SOM. W przypadku Kohonen SOM
trzeba dodatkowo ustalić właściwy poziom współczynnika uczenia (poziom
domyślny wskazywany w programie wynosi 0,9). R. Matignon proponuje
wybranie wysokiej początkowej wartości, zwłaszcza w przypadku gdy początkowe wektory wagowe zostały wyznaczone w sposób losowy. Natomiast,
jeżeli wektory wagowe zostały ustalone w oparciu o wcześniejsze analizy
przed przystąpieniem do uczenia sieci, stwierdza, że zasadne może być
przyjęcie niższej wstępnej wartości współczynnika uczenia. Niezbędne jest
też przyjęcie odpowiednich kryteriów zakończenia uczenia lub pozostawienie wartości domyślnych. Program daje możliwość wskazania końcowego
poziomu współczynnika uczenia, maksymalnej liczby kroków, maksymalnej
liczby iteracji i kryterium zbieżności.
Jeżeli zostanie wybrana metoda VQ, wymagane jest określenie maksymalnej liczby skupień oraz współczynnika uczenia. Zasada wyboru parametru uczenia jest taka sama jak w przypadku SOM Kohonen. Jednak dla
kwantowania wektorowego już wartość 0,5 może być uznana za wystarczająco wysoki poziom początkowy. Liczba skupień może przyjmować dowolne
wartości dodatnie, a jedyną wskazówkę doboru właściwej ich liczby może
dać metoda prób i błędów.
Należy podkreślić, że bardzo istotny wpływ na działanie algorytmu ma
właściwy dobór parametrów sąsiedztwa. Nie dotyczy to metody Kohonen
VQ, ponieważ nie stosuje się tu koncepcji sąsiedztwa.
Podstawowym atrybutem sąsiedztwa jest jego docelowy rozmiar, który
w programie jest jako domyślny, przyjęty według wzoru: max(5, max(liczba
wierszy, liczba kolumn)/2. Parametr ten może przyjmować dowolną wartość ze zbioru liczb całkowitych dodatnich. Jednakowoż istotnym ograniczeniem możliwej do przyjęcia wartości jest zależność pomiędzy docelowym rozmiarem sąsiedztwa a liczbą wierszy i kolumn mapy topologicznej.
W dokumentacji programu SAS podaje się, że wybór końcowej wielkości
vol. 10, nr 3 (38), 2012
131
Mirosława Lasek, Ada Myzik
sąsiedztwa odgrywa decydującą rolę w trenowaniu mapy samoorganizującej.
Drugim istotnym parametrem jest parametr, który określa postać sąsiedztwa, w programie nazywany kształtem jądra. Może ono przyjmować następujące formy: jednostajne, Epanechnikov, dwuwagowe (biweight), trójkątne
(triweight). Kolejny istotny parametr nosi nazwę metryki jądra i przedstawia
miarę odległości neuronów. Na podstawie metryki jądra dostosowywane są
poszczególne wektory wagowe do neuronu zwycięskiego oraz określana jest
odległość poszczególnych ziaren. Stosowanymi metrykami są m.in. odległość maksymalna, miejska, euklidesowa. Dodatkowe parametry sąsiedztwa
stanowią wartości, które pozwalają regulować przebieg budowy mapy, np.
regulować tempo zmniejszania parametru sąsiedztwa do końcowej wartości.
4. Zastosowanie sieci Kohonena
na potrzeby analizy danych
o punktach gastronomicznych w województwach
Dane o punktach gastronomicznych w województwach pobrano ze strony
internetowej Głównego Urzędu Statystycznego (dane z 2009 r.). Zbiór
danych składa się z szesnastu obserwacji i czterech zmiennych, które zostaną
wykorzystane do podziału obserwacji na skupienia. Każda obserwacja (przypadek wejściowy) przedstawia informacje dotyczące jednego województwa
na temat liczebności punktów gastronomicznych czterech typów: restauracji,
barów, stołówek, pozostałych. Ten zbiór danych wybrano ze względu na jego
prostotę, co powoduje, że stanowi dobrą ilustrację sposobu działania metody
SOM/Kohonen oraz dobrą podstawę dla przeprowadzenia analizy wpływu
zmiany parametrów modelu na wyniki. Ponadto analiza przeprowadzona
dla mało złożonego zbioru może być pomocna przy budowie modelu, gdy
będą wykorzystywane bardziej złożone dane.
Już wstępna analiza danych wskazuje wyróżniającą się obserwację dla
województwa mazowieckiego. Niezależnie od tego, jaką wybierzemy metodę
badania (jaki model sieci Kohonena), poszczególne parametry, architekturę
sieci, algorytm (Kohonen VQ, czy też samoorganizująca się mapę Kohonena),
obserwacja dla województwa mazowieckiego tworzy odrębne skupienie.
Ponadto ten jednoelementowy segment jest zawsze znacząco oddalony od
pozostałych skupień. W Mazowieckiem jest ponad dwukrotnie więcej punktów gastronomicznych niż w jakimkolwiek innym województwie. Odmienność
tego przypadku wejściowego od pozostałych powoduje w budowanej mapie
topologicznej powstawanie pustych skupień i wybór wektorów wzorcowych
o ujemnych wartościach. Na podobne zjawisko wskazuje G. Tarczyński
w pracy, w której analizował jednostki terytorialne (powiaty) pod względem rozwoju gospodarczego (Tarczyński 2011: 90–94). W dalszej analizie
tymczasowo usunięto, zgodnie z sugestią G. Tarczyńskiego, obserwację dla
województwa mazowieckiego, aby sprawdzić, czy sieć stanie się wówczas
bardziej wrażliwa na subtelniejsze zależności.
132
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
W przypadku analizowanego zbioru danych potwierdziła się zależność
wskazywana przez S. Osowskiego, orzekająca, że sieć Kohonena wymaga
nadmiaru danych do wykrywania wzorców w nich zawartych (Osowski 2010:
282).
Dla analizowanego przez nas niewielkiego zbioru danych, niezależnie
od dobieranej konfiguracji, mapa samoorganizująca się nie sprawdza się
najlepiej. Wiele skupień zawiera po jednej obserwacji. Ograniczanie liczby
grup przekłada się na gorsze odwzorowanie zróżnicowania segmentów
mapy, a ponadto pojawia się problem martwych neuronów. Lepsze efekty
pozwala uzyskać kwantowanie wektorowe – zgodnie z terminologią przyjętą w oprogramowaniu SAS Enterprise Miner: metoda Kohonen VQ. Założono utworzenie sześciu skupień. Mniejsza liczba sprawia, że skupienia nie
różnią się co do rodzaju punktów gastronomicznych, a jedynie co do ich
liczby. Przyjęcie większej liczby powoduje z kolei nadmierne rozdrobnienie
zbioru danych i powstawanie licznych pustych segmentów. Jako metodę
standaryzacji danych przyjęto przeprowadzenie normalizacji. Początkowe
wartości neuronów wybrano, opierając się na metodzie składowych głównych. Podstawowa analiza wykazała, że dwie pierwsze składowe główne
wyjaśniają niemal 97% zmienności, wykres osypiska także sugeruje wybór
dwóch składowych. Pozostałe parametry zostały przyjęte jako domyślne,
zgodnie z sugestią wykorzystywanego zaprogramowanego algorytmu.
Metoda Kohonen VQ dzieli zbiór danych na siedem skupień, jeżeli
uwzględnimy wyodrębnione wcześniej województwo mazowieckie. Rysunek
2 przedstawia zbiór piętnastu województw w rozbiciu na sześć zbiorów.
Tabela 1 zawiera statystyki dla utworzonych skupień. Rysunek 3 przedstawia wizualizację na mapie Polski uzyskanego podziału na grupy za pomocą
kwantowania wektorowego.
SOM – ID segmentu = 2
Liczebność skupienia = 3
2
1
3
6
4
5
Rys. 2. Podział województw na skupienia według liczebności punktów gastronomicznych.
Źródło: opracowanie własne.
vol. 10, nr 3 (38), 2012
133
Mirosława Lasek, Ada Myzik
Dane zamieszczone w tabeli 1 wskazują, że najbardziej jednorodne jest
skupienie pierwsze, w przypadku którego odchylenie standardowe wynosi
0,04, a największa odległość od ziarna skupienia jest równa 0,08. Najmniej
homogeniczne jest skupienie czwarte. Istotne jest, że w żadnym przypadku
odległość od najbliższego skupienia nie jest mniejsza niż największa odległość od ziarna skupienia, co potwierdza rozdzielność utworzonych grup.
Lp. Segment
Liczebność
Odchylenie
standardowe
Największa
odległość
od ziarna
skupienia
Najbliższe
skupienie
Odległość od
najbliższego
skupienia
1.
1
4
0,04
0,08
2
0,26
2.
2
3
0,09
0,17
1
0,26
3.
3
2
0,10
0,14
2
0,29
4.
4
2
0,15
0,21
2
0,66
5.
5
2
0,14
0,20
3
0,50
6.
6
2
0,09
0,14
5
0,74
Tab. 1. Statystyki dla skupień utworzonych na podstawie danych dotyczących punktów
gastronomicznych w województwach. Źródło: opracowanie własne.
Działalność gastronomiczna w Polsce w 2009
SOM – ID segmentu
1
2
3
4
5
6
7
Rys. 3. Mapa Polski podzielona na województwa z naniesionymi skupieniami utworzonymi
na podstawie danych dotyczących punktów gastronomicznych. Źródło: opracowanie własne.
134
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
Lp.
Segment
Restauracje
Bary
Stołówki
Pozostałe
1.
1
92,3
94,5
47,3
45,8
2.
2
156,7
137,7
75,0
71,7
3.
3
230,0
201,5
83,5
117,5
4.
4
150,5
118,0
186,0
113,5
5.
5
381,5
277,0
136,5
151,5
6.
6
531,5
404,0
158,0
312,5
Tab. 2. Wektory wagowe dla skupień utworzonych na podstawie danych dotyczących
punktów gastronomicznych w województwach. Źródło: opracowanie własne.
Dane z tabeli 2 wskazują, że poszczególne skupienia różnią się między
sobą wyraźnie liczbą punktów gastronomicznych rozmaitych typów. Rozpatrując segmenty 1, 2, 3, 5, 6, można zauważyć stopniowy wzrost liczby restauracji, barów, stołówek i pozostałych. Na podstawie tej zależności w jedno
skupienie zostały połączone województwo śląskie z małopolskim, wielkopolskie z dolnośląskim, łódzkie z pomorskim, a świętokrzyskie, podlaskie,
lubelskie i opolskie w jedną, najliczniejszą grupę. Województwo lubelskie
i zachodniopomorskie zostały zaliczone do odrębnego skupienia (czwartego)
ze względu na wykryty przez algorytm rozkład punktów gastronomicznych
poszczególnych typów różniący się od charakteryzującego pozostałe województwa: są to dwa województwa o najniższym udziale barów i najwyższym
udziale stołówek. Wyjaśnienie przyczyny tego faktu wymagałoby przeprowadzenia dalszej, szczegółowej analizy i zapewne odwołania się do wiedzy
osób zajmujących się specyfiką tych regionów.
5. Zastosowanie sieci Kohonena na potrzeby
analizy danych o podmiotach gospodarczych
z różnych sekcji Polskiej Klasyfikacji Działalności
w podregionach
Analizowany zbiór danych pochodzi z Krajowego Rejestru Urzędowego
Podmiotów Gospodarki Narodowej (REGON) i zawiera informacje o liczbie
podmiotów gospodarki narodowej w 2010 r. według poszczególnych sekcji
PKD 2007 w podziale na podregiony. Podregiony są tu rozumiane jako
jednostki terytorialne utworzone do celów statystycznych poprzez połączenie powiatów w większe grupy (Centrum Informatyki Statystycznej 2011).
W przypadku teraz rozpatrywanego zbioru danych najmniej satysfakcjonujące wyniki, odznaczające się bardzo małą jednorodnością skupień,
uzyskiwano, posługując się metodą kwantowania wektorowego (metoda
Kohonen VQ). Powodem jest zapewne nieuwzględnianie w tej metodzie
vol. 10, nr 3 (38), 2012
135
Mirosława Lasek, Ada Myzik
sąsiedztwa, które w przypadku większych zbiorów danych odgrywa znacząca
rolę. Lepsze wyniki dawała samoorganizująca się mapa Kohonena (metoda
SOM Kohonen), jak też uczenie wsadowe. Aby znaleźć najodpowiedniejszą metodę i parametry, wygenerowano szereg map. Ostatecznie wybrano
metodę SOM Kohonen, ponieważ pozwalała ona na znaczące zmniejszenie
błędu kwantyzacji, przypomnijmy, liczonego jako średnia odległość przypadków wejściowych od ich reprezentantów na mapie oraz umożliwiała
uzyskiwanie skupień odznaczających się jednorodnością.
Pewnym problemem okazał się wybór rozmiaru mapy topologicznej, wynikły z ograniczonych możliwości, stwarzanych przez wykorzystywany program
komputerowy: konieczność wybrania liczby wierszy i kolumn spośród wartości dostępnych na rozwijanej liście (wielokrotności dwójki poniżej dziesięciu
wierszy/kolumn, a powyżej – wielokrotności dziesięciu). Tak więc, gdy osiem
skupień (mapa 2 na 4) okazywało się zbyt małą liczbą, następna możliwa
do utworzenia była mapa topologiczna o rozmiarach 4 na 4 i szesnastu
skupieniach. Po próbach wygenerowania i przeanalizowania map o różnych rozmiarach, zdecydowano, że najwygodniejsza dla prowadzenie analizy
danych będzie mapa z ośmioma skupieniami. Na takiej mapie nie ma pustych
skupień, a wielkość mapy okazuje się mieć wystarczające rozmiary, by nie
ograniczać odwzorowania różnorodności. Przykładowo w sytuacji szesnastu
skupień na mapie, aż trzy czwarte z nich liczy mniej niż pięć obiektów, co
zgodnie z zaleceniami programu SAS Enterprise Miner, przedstawionymi
w dokumentacji, nie powinno być akceptowane, utrudnia bowiem poprawność wnioskowania.
Porównanie map topologicznych otrzymywanych za pomocą różnych
metod wyboru początkowych wektorów wagowych prowadzi do wniosku,
że w rozpatrywanej tu analizie danych metoda głównych składowych nie
zapewnia dobrych wyników ze względu na wyższą wartość błędu kwantyzacji
niż w przypadku innych metod wyboru startowych wag. Dwie pierwsze składowe główne wyjaśniają co prawda aż 85% zmienności, jednak dogodniejsze
do analiz okazują się mapy, w których początkowe wektory wagowe są
wybierane za pomocą opcji programu Wartość odstająca. Znaczną poprawę
wyników trenowania sieci, ujawniającą się zmniejszeniem błędu kwantyzacji
i eliminacją pustych skupień, można otrzymać poprzez modyfikację promienia, określającego minimalną odległość pomiędzy wyjściowymi wektorami
wagowymi. Po przeprowadzeniu wielu prób przyjęto wartość 0,1. Podregion miasta Warszawa, również jak w przypadku poprzednio analizowanego
zbioru danych, tworzy odrębne skupienie. Jednakże w obecnym badaniu
przeprowadzanie uczenia sieci na zbiorze po usunięciu tego podregionu
nie daje poprawy wyników, więc nie jest uzasadnione i nie zostało przeprowadzone.
Ostatecznie wybrano mapę topologiczną złożoną z ośmiu neuronów, do
których zostały przypisane wszystkie przypadki wejściowe – podregiony. Na
rysunku 4 przedstawiono liczebności obserwacji przypisane poszczególnym
136
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
SOM – wymiar 1
segmentom mapy. Najliczniejszy segment obejmuje 17 obserwacji, następny
według liczebności – 14, a kolejne odpowiednio 10 i 8. Dwa najmniej liczne
segmenty mają po mniej niż 5 przypadków wejściowych.
2
1
1
0
2
SOM – wymiar 2
3
4
17
Rys. 4. Liczba podregionów przyporządkowanych do segmentów mapy topologicznej
utworzonej na podstawie danych dotyczących liczebności podmiotów gospodarczych
z różnych sekcji PKD. Źródło: opracowanie własne.
W tabeli 3 przedstawiono statystyki uzyskane dla mapy topologicznej
przedstawionej na rysunku 4, tj. dla każdego jej segmentu: liczebność,
odchylenie standardowe obiektów od ziarna skupienia, największą odległość
obiektów od ziarna skupienia, najbliższe skupienie i odległość od najbliższego skupienia. Średnie odchylenia standardowe są zbliżone do siebie we
wszystkich segmentach, co wskazuje że segmenty są jednorodne. Jedynie
segment 1:3 jest mniej jednolity. Jeżeli pominiemy segment 1:4 złożony
z jednej obserwacji (jest nią różniąca się znacząco od innych zgrupowań
Warszawa), najniższe wartości odchylenia standardowego mają segmenty
2:2 (0,04), 2:3 (0,05) i 1:1 (0,05). Pewien niepokój może budzić fakt, że
w kilku segmentach znajdują się podregiony znacznie oddalone od wektorów
wagowych, do których zostały przypisane. Ponadto odległość od najbliższego
skupienia dla wielu zgrupowań nie jest zbyt wysoka, a w przypadku niektórych segmentów mniejsza od najbardziej oddalonego od ziarna przypadku
wejściowego. Rozwiązaniem tego mankamentu mogłoby być zwiększenie
rozmiarów mapy topologicznej, lecz wówczas zwiększa się liczba segmentów
reprezentujących małą liczbę podregionów, np. 2 lub 3. Odchylenia standardowe, a także odległości każdego ze skupień od najbliższego do niego
można, tak jak ich liczebności, również przedstawić na mapie topologicznej
(Myzik 2012: 35).
Na rysunku 5 ukazano mapę Polski przedstawiającą powiaty odpowiadające poszczególnym segmentom mapy topologicznej. Program SAS Base 9.2
nie umożliwia w sposób bezpośredni przedstawienia mapy z podregionami,
toteż przedstawiono mapę z mniejszymi jednostkami terytorialnymi. W tej
sytuacji pewną niedogodnością jest brak oznaczeń granic podregionów.
vol. 10, nr 3 (38), 2012
137
Mirosława Lasek, Ada Myzik
Wiersz:
Lp.
Liczebność
Kolumna
Odchylenie
standardowe
Największa
odległość
od ziarna
skupienia
Najbliższe
skupienie
Odległość od
najbliższego
skupienia
1.
1:1
7
0,05
0,28
6
0,31
2.
1:2
4
0,07
0,39
1
0,52
3.
1:3
5
0,12
0,57
5
0,48
4.
1:4
1
–
0,00
8
3,44
5.
2:1
17
0,07
0,50
1
0,42
6.
2:2
10
0,04
0,28
7
0,29
7.
2:3
14
0,05
0,34
6
0,29
8.
2:4
8
0,07
0,48
5
0,59
Tab. 3. Statystyki dla mapy topologicznej utworzonej na podstawie danych dotyczących
liczebności podmiotów gospodarczych z różnych sekcji PKD. Źródło: opracowanie własne.
podregion
1
2
3
4
5
6
7
8
Rys. 5. Mapa Polski podzielona na powiaty z naniesionymi segmentami mapy topologicznej
utworzonej na podstawie danych dotyczących liczebności podmiotów gospodarczych
z różnych sekcji PKD. Źródło: opracowanie własne.
Analiza liczebności podmiotów gospodarczych z poszczególnych sekcji
PKD w poszczególnych segmentach umożliwia dostrzeżenie wielu interesujących zależności, czasem zgodnych z naszą wiedzą, co potwierdza poprawność działania sieci Kohonena. Na przykład zdecydowanie od pozostałych
138
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
odbiega rozkład w segmentach podmiotów gospodarczych z sekcji PKD:
administracja publiczna i rolnictwo. Przeprowadzając szczegółową analizę,
można zauważyć, że liczebność podmiotów gospodarczych z sekcji administracji publicznej przyjmuje w zdecydowanej większości skupień zbliżone
wartości. Natomiast rozkład liczby podmiotów rolniczych między segmentami, jak można się było spodziewać, jest odmienny od rozkładu podmiotów przemysłowych czy usługowych. Dokładna interpretacja otrzymanych
wyników wymaga pogłębionej analizy, do której należałoby zaangażować
specjalistów zajmujących się analizami regionalnymi oraz zaznajomienia się
z fachową literaturą z zakresu analiz regionalnych, co jednak zmusiłoby do
przekroczenia zamierzonych badań i dopuszczalnej zawartości tego artykułu.
Mapa Polski sporządzona na podstawie mapy topologicznej przedstawiającej liczbę podmiotów gospodarczych różnych sekcji PKD podzielonych na
możliwie jednorodne, ale różniące się między sobą segmenty, chociaż nie
opiera się na tradycyjnych wskaźnikach rozwoju gospodarczego, pozwala
na wizualizację stopnia rozwoju poszczególnych regionów. Analiza obu
map, topologicznej i geograficznej stwarza możliwość rozważania różnic w
rodzajach działalności gospodarczej podregionów i wydobycia o nich wielu
szczegółowych informacji.
6. Zastosowanie sieci Kohonena na potrzeby analizy
danych o obiektach sportowych w powiatach
Analiza dotyczy obiektów sportowych w powiatach w roku 2010. Liczba
obserwacji – powiatów – wynosi 379. Ze zbioru dostępnego na stronie internetowej Głównego Urzędu Statystycznego (Centrum Informacji Statystycznej
2011) wybrano obiekty sportowe do analizy. Uwzględniono do przeanalizowania rozmieszczenia w powiatach następujące obiekty sportowe: stadiony,
boiska do gier wielkich, boiska do gier małych, boiska uniwersalne – wielozadaniowe, duże wielofunkcyjne hale sportowe o wymiarach 44 m × 22 m
i większych, średnie hale sportowe o wymiarach od 36 m × 19 m do
44 m × 22 m, sale gimnastyczne o wymiarach od 24 m × 12 m do
36 m × 19 m, małe sale pomocnicze o wymiarach poniżej 24 m × 12 m, korty
tenisowe otwarte, korty tenisowe kryte, pływalnie kryte, pływalnie otwarte,
tory, strzelnice, lodowiska sztuczne mrożone. Zbiór danych, podobnie jak
poprzednie, zawiera także tylko dane numeryczne. Ma bardziej złożoną
strukturę przede wszystkim ze względu na większą liczbę obserwacji: 379,
w tym 65 miast na prawach powiatu i 314 pozostałych powiatów.
W rozpatrywanym przypadku zrezygnowano z zastosowania metody
Kohonen VQ, ponieważ jest ona zalecana do niezbyt dużych i nie nadto
złożonych zbiorów danych. Przeprowadzono próby zastosowania do utworzenia mapy topologicznej pozostałych dwóch metod: SOM Kohonena i Uczenia
wsadowego SOM, w obu przypadkach przyjmując różne parametry algorytmów. Z uwagi na uzyskiwanie lepszych efektów w przypadku stosowania
vol. 10, nr 3 (38), 2012
139
Mirosława Lasek, Ada Myzik
SOM – wymiar 1
metody SOM Kohonen, tę metodę postanowiono wykorzystywać w dalszych
badaniach.
Z uwagi na fakt analizy zbioru złożonego ze znacznej liczby obserwacji
zakłada się tym razem utworzenie dużej mapy topologicznej o rozmiarach
6 wierszy na 6 kolumn, tak aby wypadło średnio 10–11 przypadków wejściowych na jeden wektor wzorcowy. Pomimo mapy złożonej aż z 36 segmentów, nie pojawiają się puste segmenty, a jedynie 9 segmentów liczy poniżej
5 przypadków wejściowych.
Przeprowadzając próby budowy mapy, przy założeniach różnej wielkości
parametrów, nie dostrzeżono, aby ich modyfikacje wywoływały znaczące
zmiany wyników. Wyniki skupiania są podobne, niezależnie od metody
wyboru początkowych ziaren: Wartości odstającej lub Głównych składowych.
Jedynie dopuszczenie zbyt dużego promienia rozmieszczenia neuronów
pogarsza rezultaty i powoduje powstawanie pustych segmentów.
Pewnym zaskoczeniem jest fakt, że nawet dość znaczne zmiany opcji
sąsiedztwa nie mają wpływu w analizowanym przypadku na otrzymywane
wyniki. Modyfikacje jego początkowej wartości, a także liczby iteracji nie
zmieniają zasadniczo wyglądu mapy topologicznej. Istotne okazują się natomiast zmiany opcji dotyczących współczynnika uczenia. Te opcje przyjęto
po wielu próbnych modyfikacjach i analizie generowanych kolejno map.
Na rysunku 6 przedstawiono mapę topologiczną złożoną z 36 segmentów i wybraną do dalszej analizy rozmieszczenia obiektów sportowych
w powiatach.
6
5
4
3
2
1
1
2
3
4
5
6
SOM – wymiar 2
0
56
Rys. 6. Liczba powiatów przyporządkowanych do segmentów mapy topologicznej utworzonej
na podstawie danych o obiektach sportowych w powiatach. Źródło: opracowanie własne.
Mapa topologiczna przedstawiona na rysunku 6 ilustruje, że spośród
wszystkich segmentów zdecydowanie wyróżnia się co do liczebności obserwacji, którymi są tym razem powiaty, segment 3:2 (obejmuje 56 powiatów).
Następne w kolejności co do liczby obserwacji są segmenty 5:3 (23 powiaty)
oraz 5:1 (21 powiatów). Najmniej liczny jest segment 1:4 z jednym przypadkiem wejściowym. Na przedstawianej mapie wyraźnie uwidocznione jest
sąsiedztwo neuronów, reprezentowanych w postaci segmentów (prostoką140
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
tów). Segmenty liczniejsze usytuowane są po lewej stronie i nieco przesunięte
w górę. W prawym dolnym rogu mapy usytuowane są segmenty z niewielką
liczbą powiatów.
Średnie odchylenie standardowe dla wszystkich segmentów wynosi 0,056.
Najbardziej jednorodny, charakteryzujący się najmniejszym średnim odchyleniem standardowym okazuje się segment, który jest jednocześnie najliczniejszy – segment 3:2. Najmniej spośród wszystkich jednorodne skupisko to
1:6, które jest jednocześnie najbardziej oddalone od pozostałych (znajduje
się w prawym dolnym rogu mapy topologicznej).
Na rysunku 7 przedstawiono mapę Polski z naniesionymi wynikami
podziału na segmenty mapy topologicznej z rysunku 6.
segment
1:1
2:3
3:5
5:1
6:3
1:2
2:4
3:6
5:2
6:4
1:2
2:5
4:1
5:3
6:5
1:4
2:6
4:2
5:4
6:6
1:5
3:1
4:3
5:5
1:6
3:2
4:4
5:6
2:1
3:3
4:5
6:1
2:2
3:4
4:6
6:2
Rys. 7. Mapa Polski podzielona na powiaty z naniesionymi segmentami mapy topologicznej
utworzonej na podstawie danych o obiektach sportowych. Źródło: opracowanie własne.
Na rysunku przedstawiającym mapę Polski można zauważyć, że powiaty
z segmentu 3:2 są umiejscowione po wschodniej stronie Polski. Szczególnie
licznie jest on reprezentowany przy północno-wschodniej granicy. Podobnie
sytuacja wygląda w przypadku segmentu 3:3, do którego należy wiele powiatów przygranicznych. Wiele miast zawartych jest w segmentach 1:2, 1:3, 1:4,
1:5, 1:6, czyli generalnie w pierwszym wierszu mapy topologicznej. Wiersz
ten wyróżnia się od pozostałych większym odchyleniem standardowym i mało
licznymi zgrupowaniami. Rozmiar miast stopniowo wzrasta w miarę przevol. 10, nr 3 (38), 2012
141
Mirosława Lasek, Ada Myzik
suwania się bliżej prawej strony i rośnie również zróżnicowanie od innych
segmentów. Powiaty miejskie są także skupione w segmentach 2:1, 2:2 i 3:1.
Należą do nich głównie mniejsze miasta ze wschodniej części Polski.
Powiaty ziemskie ze wschodniej Polski są w większości umieszczone na
mapie topologicznej w kolumnach z lewej strony, głównie w środkowych
wierszach. Powiaty ziemskie z zachodniej części Polski znajdują się w górnej
części mapy topologicznej, umiejscowione ku prawej stronie.
Jeżeli przeanalizujemy jakiego typu obiekty sportowe występują w jakiej
liczbie w poszczególnych segmentach, to najwięcej różnych typów obiektów
sportowych znajdziemy w segmencie 1:6, który odpowiada tylko dwóm obserwacjom, którymi są Warszawa i Kraków. Segment 1:6 nie ma jedynie (w porównaniu z pozostałymi segmentami) największej liczby boisk do gier wielkich, których liczy najwięcej segment 6:6, oraz boisk uniwersalnych, których więcej mają
segmenty 2:6 i 3:6. Segment (neuron zgodnie z nomenklaturą sieci neuronowych) czy też skupienie 6:6 odpowiada przede wszystkim regionom położonym
w zachodniej części Polski (wraz ze Szczecinem), blisko granicy z Niemcami.
Jeżeli przeanalizujemy segmenty mapy topologicznej pod względem
liczebności stadionów, to możemy stwierdzić, że występuje mniej więcej
równomierne ich rozłożenie w różnych segmentach, z jedynie kilkoma wyróżniającymi się skupieniami. Analiza występowania boisk do gier wielkich
wskazuje, że segmenty o większej ich liczbie są skoncentrowane w górnej
części mapy topologicznej. Interesujące jest rozmieszczenie na mapie topologicznej boisk uniwersalnych, ukazujący wyraźną koncentrację segmentów
z ich dużą liczbą po prawej stronie mapy i stopniowe „promieniste” rozmieszczenie segmentów z coraz mniejszą ich liczbą w miarę oddalania się
od tego punktu. Zauważalny jest fakt, że w decydującej mierze segmenty
z największą liczbą różnego typu obiektów sportowych znajdują się po
prawej stronie mapy topologicznej. Generalnie najczęściej usytuowane są
one w ostatniej kolumnie mapy, do której zaklasyfikowane są duże miasta:
Warszawa, Kraków, Poznań, Szczecin.
Jeżeli rozważymy liczbę pływalni odkrytych, to wyróżniający się pod tym
względem okazuje się segment 1:3, który odpowiada trzem powiatom: Katowice, Lublin i Tarnów. W tych miastach znajduje się ponadprzeciętna liczba
pływalni odkrytych w porównaniu z innymi miastami. Segment 1:3 charakteryzuje się również wysoką liczbą lodowisk sztucznych mrożonych. Próba
wyjaśnienia tej zależności, która zapewne nie jest przypadkowa, wymagałaby
szczegółowej, pogłębionej analizy podobieństw pomiędzy tymi miastami.
Najwięcej strzelnic mają powiaty z segmentu 1:5. Skupienie to wyróżnia
się także pod względem znacznej liczby innych obiektów sportowych, na
przykład sal gimnastycznych, a w przypadku liczby wielu obiektów zajmuje
pośrednie miejsca wśród innych wyodrębnionych segmentów. Do skupienia
1:5 należą duże miasta: Łódź, Wrocław, Bydgoszcz.
Zauważalny, interesujący i warty podkreślenia wydaje się fakt, że w przypadku analizy rozmieszczenia obiektów sportowych wiele powiatów ziem142
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
skich, które znajdują się obok siebie na mapie Polski, sąsiaduje na mapie
topologicznej. W przypadku miast można zauważyć inną zależność. Wydaje
się, że decydującymi czynnikami determinującymi liczbę obiektów sportowych w przypadku miast są: wielkość miasta oraz stopień jego rozwoju,
a prawdopodobnie także inne czynniki, jak na przykład świadomość społeczna na danym terenie. Miasta o podobnej wielkości często znajdują się
we wspólnych grupach – segmentach mapy topologicznej, jednakże segmentów z powiatami miejskimi jest utworzonych kilka, co pozwala zaryzykować
wniosek o ich zróżnicowaniu pod względem obiektów sportowych w różnych
segmentach, ale podobieństwie posiadanych obiektów sportowych – takich,
które należą do tych samych segmentów.
Sieć Kohonena i mapa topologiczna, dając możliwość wizualizacji różnych
cech dotyczących obiektów sportowych wspólnych dla powiatów, jak i je
odróżniających, pozwalają na dostrzeżenie wielu różnych zależności, z których niektóre są trudne do zauważenia na podstawie samego zbioru danych.
7. Zakończenie
Przedstawiona w artykule analiza za pomocą sieci Kohonena dotyczyła
jednostek terytorialnych opisywanych za pomocą różnych charakterystyk.
Algorytm Kohonena może być stosowany w celu lepszego zrozumienia struktury danych, wydobycia z nich nieoczywistych informacji. Badacz nie musi
posiadać rozległej wiedzy na temat analizowanego zjawiska przed przystąpieniem do analizy, aby stworzyć kryteria podziału zbioru na skupienia lub
wybrać odpowiednią formę modelu. Klasyfikacja danych na grupy, przeprowadzona przez sieć Kohonena jedynie na podstawie ich wewnętrznej struktury, przedstawiona na mapie topologicznej, może pomóc lepiej zrozumieć
zależności zawarte w danych wejściowych, zwrócić uwagę na nietypowe lub
niespodziewane zależności. Dopiero wówczas wskazane jest odwołanie się
do wiedzy merytorycznej (specjalistów), aby zadecydować, czy powstałym
skupieniom można przypisać sensowną interpretację i nadać stosowne etykietki, tj. nazwy czy oznaczenia (Tadeusiewicz 2001: 49–51).
W literaturze można znaleźć analizy danych dotyczących jednostek terytorialnych. Dogodna dla uzyskania wartościowych wniosków z badania jednostek terytorialnych za pomocą sieci Kohonena, co potwierdziły także nasze
analizy, jest możliwość tworzenia graficznych odwzorowań wyników zarówno
na mapie topologicznej, jak i geograficznej, a następnie ich zestawienie ze
sobą, co znacznie zwiększa możliwości interpretacji. W artykule „Exploratory Data Analysis by the Self-Organizing Map: Structures of Welfare and
Poverty in the World”, jego autorzy – S. Kaski i T. Kohonen (1996: 498–507)
– wykorzystują zestaw wskaźników opisujących różne aspekty standardu
życia, np. oczekiwana dalsza długość trwania życia w momencie narodzin,
analfabetyzm wśród dorosłych wyrażony w procentach, udział opieki medycznej w wydatkach gospodarstw domowych, aby uzyskać wyniki odwzorowujące
vol. 10, nr 3 (38), 2012
143
Mirosława Lasek, Ada Myzik
rozkład dobrobytu dla ludności na świecie. Mapa zbudowana na podstawie
wskaźników ukazuje zależności pomiędzy różnymi państwami, np. kraje należące do Organizacji Współpracy Gospodarczej i Rozwoju (OECD) znalazły
się w jednej grupie, a kraje Europy Wschodniej w drugiej.
Zastosowanie sieci Kohonena do analizy danych dotyczących jednostek
terytorialnych przedstawiają także autorzy artykułu: „Living Standards of
Vietnamese Provinces: a Kohonen Map” (Nguyen, Haughton i Hudson
2009: 109–113). W artykule zbudowano mapę topologiczną Kohonena w celu
ukazania rankingu prowincji wietnamskich na podstawie wskaźników, takich
jak PKB, dochód gospodarstwa domowego na jednego członka rodziny,
miara ubóstwa, miernik rozwoju społecznego.
G. Tarczyński, stosując sieć Kohonena, przeprowadza analizę polskich
powiatów, zmierzającą do oceny i porównania standardu życia ludności
różnych powiatów na podstawie różnorodnych wskaźników. Wyniki wskazują
na wyraźną odrębność powiatu warszawskiego od pozostałych. Uzyskane
mapy nie ukazują wyraźnego podziału powiatów na zgrupowania. Zdaniem
autora, aby uzyskać bardziej jednoznaczne wyniki, należy wyodrębnić zupełnie odmienną obserwację, jaką jest powiat warszawski, oraz przeprowadzić
analizę oddzielnie dla powiatów ziemskich i miast na prawach powiatu
(Tarczyński 2011: 90–94).
Powróćmy do analizy danych krótko przedstawianych w tym artykule,
a szczegółowo opisanych w pracy A. Myzik (2012) na podstawie badań
z wykorzystaniem sieci Kohonena i dotyczących jednostek terytorialnych.
Zastosowanie sieci Kohonena i utworzonej dzięki niej mapie topologicznej
w znacznym stopniu ułatwia zrozumienie zależności zawartych w zbiorze
z dużą liczbą zmiennych dotyczących jednostek terytorialnych, takich jak
liczba różnych obiektów sportowych w powiatach czy liczba podmiotów
gospodarczych z różnych sekcji PKD. Analiza bez zapewnionej dzięki algorytmom Kohonena redukcji wymiaru i klarownej formy wizualizacji nie może
być tak wyrazista i czytelna. Niewątpliwą zaletą jest to, że stosowanie sieci
Kohonena nie wymaga żadnej specjalistycznej wiedzy na temat dziedziny,
z jakiej analizowane są dane, ani związków między zmiennymi. Możliwe
jest, opierając się na rezultatach zastosowania sieci, postawienie rozmaitych, często budzących zaskoczenie hipotez, które mogą być dopiero dalej
weryfikowane na podstawie wiedzy fachowej.
W pierwszym z przedstawionych w artykule badaniu, dotyczącym punktów
gastronomicznych w województwach, wykorzystano kwantowanie wektorowe,
a w dwóch następnych, dotyczących podmiotów gospodarczych z różnych sekcji Polskiej Klasyfikacji Działalności oraz obiektów sportowych w powiatach,
podstawową wersję metody Kohonena. Niespodziewanym ograniczeniem
wykorzystywania metod Kohonena, choć niewielkim i w niedużym stopniu
uciążliwym, okazuje się fakt, że program SAS Enterprise Miner pozwala na
wybór liczby wierszy i liczby kolumn budowanej mapy topologicznej z proponowanej narzuconej listy wartości. Nie stwarza to większego problemu
144
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
w przypadku dużych zbiorów danych, ale gdy dysponujemy nieco mniejszym
zbiorem, utrudnia to przyjęcie najbardziej dogodnych rozmiarów mapy.
We wszystkich przedstawianych w tym artykule analizach danych obserwacja dla województwa mazowieckiego, powiatu lub podregionu miasta
Warszawa bardzo wyraźnie odróżnia się od pozostałych największą liczbą
punktów gastronomicznych, podmiotów gospodarczych z większości sekcji Polskiej Klasyfikacji Działalności i różnego typu obiektów sportowych.
Jedynie w przypadku analizy liczby obiektów sportowych w powiatach Warszawa nie tworzy całkiem odrębnego, oddalonego od innych segmentu na
mapie topologicznej, ale oddzielny segment, do którego zaliczony jest także
Kraków.
Analiza dotycząca punktów gastronomicznych w województwach, ze
względu na niewielką liczbę obserwacji, nie wymaga redukcji wymiaru, jednak w takim przypadku zastosowanie kwantowania wektorowego pozwala
na usystematyzowanie informacji. Liczba punktów gastronomicznych jest
główną cechą różnicującą skupienia. Z pewnością bardziej interesującą
wykrytą zależnością jest mała liczba barów, a duża stołówek w województwach lubelskim i zachodniopomorskim, zapewne możliwa do wyjaśnienia
po rozważeniu specyfiki tych województw i być może, jeżeli nie jest łatwa
do wyjaśnienia, stwarzająca inspirację dla bardziej szczegółowej analizy.
Analiza podmiotów gospodarczych z poszczególnych sekcji PKD (2007 r.)
w podziale na podregiony bardzo wyraźnie uwidacznia powiązania między
sekcjami PKD, jak i podobieństwa (lub nie) podregionów. W omawianym
przypadku wybrano jako najodpowiedniejszą do analizy mapę topologiczną
o dwóch wierszach i czterech kolumnach. Utworzona mapa topologiczna
budzi skojarzenia z geograficzną mapą rozwoju gospodarczego. Na mapie
topologicznej wyodrębniają się segmenty reprezentujące duże miasta, segmenty reprezentujące słabiej rozwinięte tereny po wschodniej stronie Polski,
segmenty regionów turystycznych. Podmioty gospodarcze z większości sekcji
mają podobny, odpowiadający sekcjom rozkład na segmentach mapy topologicznej. Bliższa analiza prowadzi do ciekawych wniosków co do powiązań
podmiotów gospodarczych z sekcji wprawdzie różnych, ale które znalazły
się w tych samych lub sąsiadujących segmentach mapy topologicznej.
Do przeprowadzenia analizy obiektów sportowych w powiatach utworzono mapę topologiczną złożoną z sześciu wierszy i sześciu kolumn (36 segmentów mapy). Segmenty o największej liczbie obiektów sportowych skupiają się w pierwszym i szóstym wierszu oraz ostatniej kolumnie mapy.
Natomiast skupienia odpowiadające większej liczbie przypadków wejściowych (powiatów) gromadzą się po lewej stronie mapy, podczas gdy dolny
prawy róg zajmują segmenty reprezentujące większe miasta, grupując je po
kilka. Znaczna część powiatów ze wschodniej części kraju zgrupowana jest
w jeden najbardziej jednorodny segment o stosunkowo dużej liczebności.
Mapa topologiczna i utworzona na jej podstawie mapa geograficzna Polski
rozmieszczenia obiektów sportowych wyraźnie ilustrują różnice w rozmieszvol. 10, nr 3 (38), 2012
145
Mirosława Lasek, Ada Myzik
czeniu obiektów sportowych między wschodnią a zachodnią częścią Polski,
pomiędzy powiatami miejskimi i ziemskimi, między mniejszymi i większymi
miastami. Potwierdzają znany fakt, że kultura sportowa jest lepiej rozwinięta
w większych miastach oraz w zachodniej części Polski.
Jak zwraca się uwagę w pracy A. Myzik (2012), w celu dokładnego przeanalizowania wszystkich zależności i wyprowadzenia bardziej wartościowych
wniosków dotyczących rozmieszczenia obiektów sportowych w powiatach
(tworzących duży i złożony zbiór danych) i uchwyconych przez sieć Kohonena należałoby podjąć obszerne oddzielne badania, wymagające zapewne
zaangażowania specjalistów z różnych dziedzin. Pomocne mogłoby się także
okazać podzielenie zbioru na odrębne części, np. miasta na prawach powiatu
i powiaty ziemskie, jak proponował w swoich badaniach G. Tarczyński (2011)
lub region wschodni i zachodni Polski.
Informacje o autorkach
Prof. dr hab. Mirosława Lasek – Katedra Informatyki Gospodarczej i Analiz
Ekonomicznych, Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego.
E-mail: [email protected].
Mgr Ada Myzik – Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego.
E-mail: [email protected].
Bibliografia
Centrum Informacji Statystycznej 2011. Bank Danych Lokalnych, http://www.stat.gov.pl/
bdl/app/strona.html?p_name=indeks, dostęp: 28.11.2011.
Centrum Informatyki Statystycznej 2011. Przewodnik po Banku Danych Lokalnych, http://
www.stat.gov.pl/bdl/docs/opisy_bdl.pdf, dostęp: 28.11.2011.
Collica, R.S. 2007. CRM Segmentation and Clustering Using SAS Enterprise Miner, Cary:
SAS Publishing, http://books.google.com/books?id=6IHA2amBGxwC&printsec=fro
ntcover&hl=pl&source=gbs_atb#v=onepage&q&f=false, dostęp: 27.10.2011.
Kaski, S. i T. Kohonen 1996. Exploratory Data Analysis by the Self-Organizing Map:
Structures of Welfare and Poverty in the World, w: A.-P. N. Refenes, Y. Abu-Mostafa,
J. Moody i A. Weigend (red.) Neural Networks in Financial Engineering, Proceedings
of the Third International Conference on Neural Networks in the Capital Markets,
Singapure, http://citeseer.ist.psu.edu/viewdoc/download?doi=10.1.1.53.3954&rep=re
p1&type=pdf, dostęp: 19.09.2011.
Kohonen, T. 1982. Self-Organized Formation of Topologically Correct Feature Maps.
Biological Cybernetics, nr 43.
Kohonen, T. 1998. The Self-organizing Map. Neurocomputing, nr 21, https://han.buw.
uw.edu.pl/han/atoz/v1s1.icm.edu.pl/pdflinks/11092521434903141.pdf, dostęp:
22.08.2011.
Kohonen, T. 2008. Data Management by Self-Organizing Maps, w: J.M. Zurada, G.G. Yen
i J. Wang (red.) Computational Intelligence: Research Frontiers, Lecture Notes in Computer Science 5050, Hongkong: Springer, https://han.buw.uw.edu.pl/han/atoz/www.
springerlink.com/content/8147v650748n2740/fulltext.pdf, dostęp: 9.11.2011.
Larose, D.T. 2006. Odkrywanie wiedzy z danych. Wprowadzenie do eksploracji danych,
Warszawa: Wydawnictwo Naukowe PWN.
146
Problemy Zarządzania
Sieci neuronowe Kohonena w przeprowadzaniu analiz danych...
Lasek, M. 2004. Od danych do wiedzy. Metody i techniki „Data Mining”. Optimum.
Studia ekonomiczne, nr 2 (22).
Lasek, M. 2007. Metody Data Mining w analizowaniu i prognozowaniu kondycji ekonomicznej przedsiębiorstw. Zastosowania SAS Enterprise Miner, Warszawa: Difin, rozdział
4.2.
Lasek, M. i M. Pęczkowski 2010. Metodyka procesu eksploracji danych SEMMA. Prace
i Materiały Wydziału Zarządzania Uniwersytetu Gdańskiego, nr 3.
Matignon, R. 2007. Data Mining Using SAS Enterprise Miner, New Jersey: John Wiley
& Sons.
Myzik, A. 2012. Analiza przydatności sieci neuronowych Kohonena do eksploracji zbiorów
danych dotyczących jednostek terytorialnych, praca magisterska pod kierunkiem
M. Lasek, Warszawa: Wydział Nauk Ekonomicznych, Uniwersytet Warszawski.
Nguyen, P., Haughton, D. i I. Hudson 2009. Living Standards of Vietnamese Provinces:
a Kohonen Map. Case Studies in Business, Industry and Government Statistics
(CS-BIGS), nr 2 (2), http://legacy.bentley.edu/csbigs/documents/nguyen.pdf, dostęp:
26.10.2011.
Osowski, S. 2006. Sieci neuronowe do przetwarzania informacji, Warszawa: Oficyna Wydawnicza Politechniki Warszawskiej.
SAS 2010. Dokumentacja programu SAS Enterprise Miner 6.2, Cary: SOM/Kohonen Node,
SAS Institute Inc.
Tadeusiewicz, R. 2001. Wprowadzenie do sieci neuronowych, Kraków: StatSoft Polska.
Tarczyński, G. 2011. Algorytm Kohonena w analizie danych ekonomicznych, Wrocław:
Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu.
vol. 10, nr 3 (38), 2012
147
Problemy Zarządzania, vol. 10, nr 3 (38): 148 – 166
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.9
Usługi on-line w kontekście mobilnym
– jakościowe badanie obserwacyjne
Krzysztof Redlarski, Marcin Sikorski
Artykuł przedstawia wyniki badania obserwacyjnego, mającego na celu zidentyfikowanie czynników kształtujących u użytkowników chęć skorzystania z usług
on-line za pomocą urządzeń mobilnych takich jak smartfon, tablet lub laptop1.
Przeprowadzono badanie obserwacyjne, w którym użytkownicy (7 osób) przez 14 dni
notowali swoją aktywność w zakresie korzystania z usług on-line z dostępnych urządzeń w powiązaniu z czynnikami uznawanymi za motywujące lub demotywujące
do korzystania z danego typu urządzenia w danej sytuacji (kontekście). W wyniku
badań zidentyfikowano cztery główne rodzaje kontekstów mobilnych (dom,
podróż, biurko, teren) oraz główne rodzaje użytkowanych usług on-line (poczta/
/kontakty, planowanie podróży, wiadomości, poszukiwanie informacji, zakupy
i rozrywka). Określono również uniwersalne charakterystyki typowych zadań związanych z korzystaniem z usług on-line, w których w większości przypadków jedno
z dostępnych urządzeń było preferowane jako najdogodniejszy punkt dostępowy.
1. Wprowadzenie
W przeciwieństwie do zwykłych telefonów, smartfony pozwalają użytkownikom pozostawać w sieci przez cały czas, zapewniając mobilny dostęp
do usług on-line. W porównaniu ze zwykłymi telefonami komórkowymi
smartfony mają przede wszystkim większy ekran, o wyższej rozdzielczości, oraz czujnik GPS pozwalający na korzystanie z usług lokalizacyjnych
i nawigacyjnych.
Liczne badania (np. Goto 2006; Morgan Stanley 2011) wskazują, że usługami powszechnie użytkowanymi w trybie mobilnym są przede wszystkim:
– usługi komunikacyjne (SMS, MMS, e-mail, komunikatory);
– usługi rozrywkowe (gry, muzyka, filmy itp.);
– usługi informacyjne (wiadomości prasowe, wyszukiwanie informacji,
kalendarze, itp.);
– planowanie podroży (rezerwacje, nawigacje, trasy, rozliczenia);
– zakupy przez Internet, realizowane z urządzeń mobilnych.
Badania przeprowadzone przez Adobe (2011) na próbie 1200 konsumentów w USA wskazują, że:
– media i rozrywka są usługami o najwyższym stopniu penetracji, jeśli
chodzi o popularność dostępu do nich z urządzeń mobilnych;
148
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
– użytkownicy ogólnie wyżej oceniają doświadczenia (w tym zwłaszcza
wygodę obsługi) dostępu do usług poprzez przeglądarkę w wersji mobilnej niż poprzez dedykowane aplikacje mobilne; wyjątkiem są tu jedynie
gry, media społecznościowe, mapy i muzyka;
– najczęściej wykorzystywanymi usługami mobilnymi są mapy i nawigacja
(korzysta z nich 81% respondentów), następnie sieci społecznościowe
(76%), informacje lokalne (73%) oraz wiadomości prasowe (68%);
osobną kategorię stanowi śledzenie i uruchamianie operacji bankowych
na swoim koncie (67%);
– zakupami najczęściej dokonywanymi za pomocą urządzeń mobilnych
były media: filmy, muzyka, gry (łącznie 43% respondentów), następnie
odzież, buty oraz biżuteria (łącznie 30%).
Przedstawione wyniki przykładowych badań wskazują, że usługi on-line
dostępne z urządzeń mobilnych stają się coraz bardziej popularne oraz że
stanowią ważny element stylu życia dla coraz większej części konsumentów,
nie tylko w krajach bardzo zamożnych.
Mobilny kontekst użytkowania wyznacza nowe perspektywy dla kształtowania doświadczeń użytkownika (User Experience – UX). Mobilne UX
składa się z trzech warstw (Roto 2005):
– UX urządzenia – wynika z charakterystyk konkretnego urządzenia mobilnego użytkowanego przez użytkownika, takich jak np. rozmiar ekranu,
jego czułość, ułożenie przycisków, rozmiar, kształt i ciężar urządzenia
oraz czas korzystania z baterii. Pozostałe czynniki związane z urządzeniem obejmują np. szybkość transferu danych w sieci, łatwość nawiązania
połączenia, wierność kolorów na ekranie, płynność animacji itp.
– UX systemu operacyjnego – wynika z charakterystyk systemu operacyjnego
urządzenia mobilnego, takich jak np. możliwość obsługi wielozadaniowości,
kontrola procesów realizowanych w tle, dostępna przeglądarka, obsługa
multimediów, sposób realizacji funkcji „copy-and-paste”, „naprzód-wstecz”.
– UX aplikacji i mobilnych serwisów WWW – wynika z charakterystyk
ergonomicznych i użytkowych aplikacji lub mobilnych serwisów WWW.
Takimi charakterystykami są np. ergonomia interfejsu użytkownika,
wygoda dostępu do funkcji i danych, dopasowanie architektury informacji do oczekiwań użytkownika czy uwzględnienie specyficznych potrzeb
i ograniczeń użytkownika mobilnego.
Wszystkie trzy aspekty w odpowiednim stopniu kształtują wypadkowe
UX użytkownika korzystającego z usług on-line w kontekście mobilnym.
Satysfakcjonujące UX oznacza, że w każdym z powyższych trzech aspektów zapewniony jest taki poziom jakości, aby obiekt interakcji (tu: usługa
on-line) w odpowiednim stopniu spełniał trzy główne wymagania:
– przydatność – oznacza że funkcjonalność urządzenia pozwala użytkownikowi osiągać założone cele w kontekście mobilnym;
– użyteczność – oznacza ze cele te osiąga się z niewielkimi nakładami ze
strony użytkownika;
vol. 10, nr 3 (38), 2012
149
Krzysztof Redlarski, Marcin Sikorski
– atrakcyjność – oznacza, że użytkownicy odczuwają chęć ponownego skorzystania z danej usługi.
Mobilny kontekst użytkowania jest opisany pięcioma głównymi wymiarami – czynnikami wpływu (Gualtieri 2011):
– lokalizacja – tryb obsługi wynikający z miejsca, w którym użytkownik
przebywa (dom, biuro, teatr itp.);
– przemieszczanie się – ograniczenia wynikające z tego, że użytkownik
się przemieszcza podczas obsługi urządzenia (np. odczuwa zakłócenia
wynikające z określonego sposobu podróżowania);
– bezpośredniość – wymagania dotyczące natychmiastowego uzyskania
wyniku i dopasowania jego formatu nie tylko do oczekiwań zadaniowych
użytkownika, ale także do ograniczeń prezentacji wynikających z cech
urządzenia mobilnego;
– prywatność – rozumiana jako emocjonalny związek użytkownika z określonym urządzeniem, jak też obawy związane z transmisją osobistych
informacji poprzez niekiedy przypadkowe sieci bezprzewodowe;
– urządzenia – poczucie kontroli oraz odczuwana wygoda pracy z danym
urządzeniem.
Badania efektów łącznego oddziaływania tych czynników są nazywane
analizą mobilnego kontekstu użytkowania (mobile context of use). Dla projektowania użytecznych, łatwych w obsłudze i atrakcyjnych usług on-line
ważna jest wiedza na temat przyczyn określonych zachowań użytkownika,
źródeł jego postaw czy opinii. Tego typu badania bazują głównie na obserwacji rzeczywistych zachowań użytkowników w rzeczywistych sytuacjach i są
nazywane badaniami etnograficznymi, wchodząc w zakres badań kontekstu
użytkowania.
2. Mobilne UX – badania etnograficzne
2.1. Badania etnograficzne w projektach IT
Badania etnograficzne stanowią gałąź antropologii ukierunkowaną na
zrozumienie zwyczajów i zachowań ludzkich występujących w określonych
społecznościach/organizacjach. W odróżnieniu od badań marketingowych
stawiających respondentowi/klientowi określone pytania, badania etnograficzne są prowadzone w miejscu zamieszkania/pracy respondenta i opierają
się głównie na obserwacji zachowań, zwykle starając się, aby nie ingerować
w przebieg tych zachowań.
Celem badań etnograficznych kontekstu mobilnego jest lepsze zrozumienie użytkowników i ich zachowań w mobilnym kontekście użytkowania związanym z korzystaniem z usług on-line. W wyniku tych badań
zwykle tworzy się wzbogacony portret użytkownika/klienta/konsumenta
oraz jego zadań, jak również mobilnego kontekstu sytuacyjnego, w jakim
są realizowane.
150
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
Badanie etnograficzne ma charakter głównie jakościowy, zatem jest
przede wszystkim nastawione na opis i zrozumienie określonych zachowań, postaw oraz, przynajmniej częściowe, objaśnienie mechanizmu, który
je kształtuje. Zwykle wykorzystuje się jednocześnie kilka narzędzi badawczych służących do zbierania danych, z których najpopularniejsze zostały
wymienione w poniższej sekcji.
Badania etnograficzne dotyczące zachowań użytkowników podczas korzystania z usług on-line nabierają znaczenia w miarę wzrostu penetracji tych
usług i ich rosnącej obecności w stylu życia konsumentów. Potrzeby rozwoju biznesu elektronicznego wymuszają także konieczność systematycznego
badania okoliczności wpływających na chęć korzystania z usług on-line,
a także barier i utrudnień odczuwanych w tym zakresie. Z tego powodu
badania etnograficzne, a zwłaszcza techniki obserwacyjne i analityczne
pozwalające na zrozumienie motywów zachowań użytkownika, znajdują
coraz szersze zastosowanie w projektach IT, szczególnie tych dotyczących
rozwiązań mobilnych.
Techniki badawcze wykorzystywane w odniesieniu do usług on-line są
także ogólnie nazywane contextual inquiry (badania kontekstowe), ponieważ
skupiają się przede wszystkim na badaniu kontekstu użytkowania określonych usług/urządzeń.
2.2. Techniki i narzędzia zbierania danych
W badaniach etnograficznych prowadzonych pod kątem analizy zachowań
użytkowników, motywacji do tych zachowań oraz czynników wpływających
na chęć ich podjęcia w odniesieniu do mobilnego kontekstu użytkowania
mogą być wykorzystywane narzędzia zbierania danych wymienione poniżej
(Tullis i Albert 2008; Glasnapp 2010; Sparandara, Chu i Engel 2011).
Techniki obserwacyjne
Obserwacja bezpośrednia to obserwacja zachowań użytkownika realizowana w sposób klasyczny: użytkownik wykonuje swoje zadania (narzucone
lub tworzone ad hoc), obserwator ani nie ingeruje w ich przebieg, ani nie
pomaga w ich realizacji, skupiając się jedynie na obserwowaniu i rejestracji zachowań użytkownika. Z uwagi na „zewnętrzne” usytuowanie badacza
ta technika jest zwana również obserwacją nieuczestniczącą. Technika ta
jest często stosowana w formie tzw. obserwacji migawkowej, polegającej na
obserwowaniu zachowań użytkownika przez krótki wycinek czasu, uznany
za reprezentatywny dla aktywności trwającej dłużej.
Obserwacja uczestnicząca polega na wejściu badacza w określone środowisko społeczne i obserwowaniu danej zbiorowości od wewnątrz, tj. jako
jeden z jej członków, uczestniczący wraz z nią w rutynowych aktywnościach.
Prowadzący badanie aktywnie uczestniczy w realizacji zadań przez użytkowników, jednocześnie robiąc notatki lub w inny sposób zapisując swoje
obserwacje (fotografia, film, nagrania audio).
vol. 10, nr 3 (38), 2012
151
Krzysztof Redlarski, Marcin Sikorski
Techniki ankietowe
Wywiady pogłębione są prowadzone w formie swobodnego dialogu, w którym układ pytań zadawanych respondentowi zmierza do ujawnienia przyczyn
określonych zachowań i czynników, które je kształtują.
Wywiady częściowo ustrukturyzowane – jw., lecz treść i układ pytań wynikają z ramowego scenariusza przyjętego przed badaniem. Takie podejście
zapewnia kompromis między standaryzacją przebiegu wywiadu a elastycznością potrzebną do rozwinięcia niektórych kwestii, które wynikły podczas
badania.
Show-and-tell to podejście stosowane w badaniach jakościowych prowadzonych jako wywiady, polegające na tym, aby prosić respondentowi
o podawanie symptomów (faktów, przykładów, obserwacji, danych) potwierdzających zasadność wyrażanych opinii i ich ugruntowanie w faktach i obserwacjach. Takie gromadzenie „dowodów” ma na celu zmniejszenie subiektywizmu pozyskiwanych danych i zrównoważenie punktów widzenia tych
samych zjawisk przez różnych respondentów.
Myślenie na głos. Podczas wykonywania zadań uczestnicy są proszeni, aby
na glos wyjaśniali, co robią, co zamierzają zrobić za chwilę, co aktualnie
myślą i czują podczas korzystania z usługi/systemu. Pozwala to badaczowi
na uchwycenie odczuć oraz na lepsze zrozumienie ich celów, intencji, procesów poznawczych i wyborów, jakich dokonują.
Wywiady in-situ często stosowane są równolegle z obserwacją bezpośrednią, polegają na zadawaniu użytkownikowi uzupełniających pytań w trakcie
wykonywania zadań. Pytania te mają na celu zebranie dodatkowych, bardziej szczegółowych informacji pozwalających lepiej zrozumieć zachowanie
użytkownika w określonym kontekście. Powinny być stosowane oszczędnie,
aby nie zakłócać naturalnego zachowania użytkownika podczas wykonywania
czynności.
Grupy fokusowe to technika stosowana głównie w badaniach marketingowych, polegająca na prowadzeniu moderowanego wywiadu z grupą
6–12 osób, który ma na celu ujawnienie motywów określonych zachowań
(np. zakupowych) i powiązanie ich ze stylem życia osób uczestniczących
w wywiadzie. Metoda jest przydatna również dla ujawnienia odczuwanych
deficytów dostępnych rozwiązań, szczególnie w zestawieniu z ofertami konkurencyjnymi, oraz wskazania ulepszeń projektowych oczekiwanych przez
uczestników badania.
Kwestionariusze ankietowe, stosowane w formie papierowej lub elektronicznej, służą do zebrania opinii na temat określonego obiektu lub zjawiska.
Technika ta może być stosowana dopiero po zakończeniu korzystania z określonego rozwiązania (np. usługi, systemu) i pozwala raczej na dokonanie
oceny podsumowującej obiektu (np. serwisu WWW) niż na zrozumienie
motywów określonych zachowań użytkownika (np. dlaczego wybrał ten akurat serwis spośród wielu dostępnych).
152
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
Tracking – techniki śledzenia zachowań
Shadowing to technika obserwacji ciągłej stosowana w sytuacji, gdy
zachodzi potrzeba rejestracji bez jakichkolwiek przerw dłuższych okresów
zachowania użytkownika (np. 1–8 godzin w ciągu jednego dnia). W tym celu
albo obserwator nieustannie podąża za użytkownikiem „jak cień” lub stosuje
się kamerę HD (szerokokątną lub z automatycznym śledzeniem ruchu).
Technika pozwala na szczegółową rejestrację zachowań, ale ich interpretacja
i wyjaśnienie motywów musi odbywać się np. metodą analizy retrospektywnej, polegającą na odtwarzaniu nagrania w obecności osoby zarejestrowanej,
która komentuje treść nagrania i sceny zarejestrowane podczas obserwacji.
Dzienniczki to papierowe lub elektroniczne notatniki (diaries), w których
uczestnicy notują swoje aktywności związane z celem badania oraz okoliczności, w jakich zadania były wykonywane. Dzienniczek zwykle ma formę
tabeli pozwalającej na utrzymanie chronologii zapisów oraz wstępne przydzielenie zanotowanych obserwacji do zdefiniowanych wcześniej kategorii.
Rejestracja elektroniczna polega na rejestrowaniu logów aktywności użytkownika w systemie (np. kliknięć, uderzeń klawiszy) w celu ich późniejszej
analizy. Technika ta – podobnie jak rejestracja zachowań użytkownika za
pomocą kamery video – pozwala na dokładny zapis zachowań użytkownika, lecz ich późniejsze objaśnienie i interpretacja muszą być wykonane
w sposób tradycyjny.
Experience sampling to automatyczna rejestracja zachowań użytkownika,
inicjowana pod wpływem określonego impulsu (np. uruchomienia wcześniej
zdefiniowanej usługi). Rejestracja odbywa się za pomocą oprogramowania
wcześniej zainstalowanego, np. w telefonie czy tablecie, które aktywuje
i wyłącza proces rejestracji zgodnie z wcześniej zdefiniowanymi warunkami.
Techniki opisowo-analityczne
Persona polega na przygotowaniu krótkiego tekstu opisującego typowe
oczekiwania użytkownika pod kątem danej usługi/systemu oraz czynników
kontekstu, które mogą wpływać na sposób z nich korzystania. Opis „persony” powinien być uzupełniony danymi osobowymi (fikcyjnymi): imieniem,
nazwiskiem, wiekiem, stanowiskiem, hobby itp. Opis ten jest często także
nazywany „profilem użytkownika”.
„Dzień z życia użytkownika” to prezentacja lub warsztat z udziałem użytkowników, poświęcony szczegółowemu omówieniu określonych zachowań
użytkownika w przekroju typowego dnia (np. roboczego) i wyjaśnieniu okoliczności i motywów korzystania z określonych rozwiązań (usług, systemów).
Technika wykazuje pewne podobieństwo do grupy fokusowej, ale polega na
prezentacji swoich zwyczajów przez samych uczestników badania, dyskutowaniu okoliczności kontekstu oraz zauważonych podobieństw/prawidłowości, a także wykorzystaniu technik graficznych do rysowania diagramów
indywidualnych aktywności.
vol. 10, nr 3 (38), 2012
153
Krzysztof Redlarski, Marcin Sikorski
Scenariusze użycia to technika oparta na zapisie interakcji użytkownik–
system, przedstawionym w formie tekstu, tabeli lub diagramu określonej
notacji. Technika ta jest często stosowana do przedstawienia rezultatów
analizy zadaniowej lub analizy kontekstu użytkowania.
Mapa doświadczeń klienta to technika polega na opracowaniu diagramu (schematu blokowego lub diagramu innego rodzaju) przedstawiającego kolejne czynności i relacje między nimi, często jako mapy procesów
z „momentami prawdy”, w których klient weryfikuje „obietnice jakości”
składane przez oferenta-usługodawcę. Schematy blokowe opisujące interakcje między klientem a usługodawcą są często nazywane service blueprints,
a dla usług on-line obejmują także wykorzystanie kanałów komunikacji
elektronicznej.
Mapa wartości polega na opracowaniu diagramu graficznego przedstawiającego korzyści (wartości) oczekiwane przez klienta na poszczególnych
etapach procesu usługowego oraz stan faktycznego spełnienia tych oczekiwań
podczas korzystania z usługi.
Wyniki obserwacyjnego badania etnograficznego przedstawiane są zwykle w formie raportu tekstowego, prezentacji PowerPoint lub prezentacji
multimedialnej, obejmującej także fragmenty wykonanych nagrań video,
wypowiedzi użytkowników czy zdjęcia stanowiące postawę do formułowania
przedstawionych wniosków.
2.3. Model Technology Acceptance Model (TAM)
Alternatywnym podejściem mającym na celu zrozumienie kontekstu
użytkowania wybranego rozwiązania IT oraz osadzonych w tym kontekście
czynników wpływających na motywacje i zachowania użytkownika są modele
przyczynowo-skutkowe behawioralne, których klasycznym przykładem może
być model TAM (Technology Acceptance Model).
Model TAM (Davis 1989) opisuje sposób, w jaki użytkownicy-konsumenci
odnoszą się do nowych rozwiązań (szczególnie informatycznych, w tym usług
on-line) i jakie czynniki kształtują ich postawę co do użytkowania nowej
technologii (rozwiązania IT, urządzenia, usługi), z którą konsument wcześniej się nie zetknął.
Model TAM pozwala także na opisanie czynników kontekstu sytuacyjnego, które kształtują nastawienie użytkownika w stosunku do nieznanego
wcześniej rozwiązania IT. Rysunek 1 przedstawia model TAM w oryginalnej
jego wersji (Davis 1989).
Model zakłada, że kiedy użytkownicy/konsumenci spotykają się z nową
technologią, na akceptację nowego rozwiązania wpływają czynniki takie jak:
– postrzegana przydatność (U) – stopień, w jakim osoba jest przekonana,
że użytkowanie danego systemu/rozwiązania poprawi oczekiwane wyniki;
– postrzegana łatwość obsługi (E) – stopień, w jakim osoba jest przekonana, że użytkowanie danego systemu/rozwiązania będzie pozbawione
wysiłku.
154
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
Perceived
Usefulness
(U)
Attitude
Toward
Using (A)
Externel
Variables
Behavioral
Intention
to Use (BI)
Actual
System Use
Perceived
Ease of Use
(E)
Rys. 1. Model TAM. F.D. Davis 1989. Perceived Usefulness, Perceived Ease of Use, and
User Acceptance of Information Technology. MIS Quarterly, nr 3 (13), s. 319–340.
Następnie ukształtowana postawa wobec nowego rozwiązania (A) znajduje przełożenie na intencję behawioralną (BI), aby systemu potencjalnie
używać do określonego celu. Realizacja tej intencji i czynniki wpływające na
przebieg użytkownika kształtują rzeczywiste efekty interakcji użytkownika
z systemem (Actual System Use).
Model TAM jest często stosowany jako punkt wyjścia do budowy bardziej
szczegółowych modeli opisujących postawę użytkownika nowych rozwiązań
interaktywnych opartych na IT i mechanizm ich akceptacji.
Główne ograniczenia modelu TAM (Chuttur 2009) polegają na tym,
że koncentruje się on na pojedynczym użytkowniku określonej technologii
i nie uwzględnia społecznych aspektów interakcji, ponadto dotyczy raczej
systemów, w których użytkowanie daje korzyści o charakterze bardziej
ekonomicznym niż emocjonalnym. Mimo to model TAM służy za punkt
wyjścia licznych badań związanych z poznawaniem mechanizmu akceptacji
oraz kształtowania postaw wpływających na ryzyko odrzucenia określonych
rozwiązań przez użytkowników/konsumentów. Stale podejmowane są próby
rozwinięcia modelu TAM oraz rozbudowy go o nowe czynniki wpływu,
charakterystyczne dla ciągle powstających nowych usług świadczonych w środowisku elektronicznym (e-gov, e-banking, e-travel itp.).
Model TAM można wykorzystywać do analiz czynników kształtujących
motywację do użytkowania rozmaitych rozwiązań IT, jednakże za każdym
razem wymaga to budowy dedykowanego narzędzia pomiarowego (kwestionariusz ankietowy) oraz przeprowadzenia badania na odpowiednio dużej
próbce respondentów, aby umożliwić obróbkę statystyczną uzyskanych danych.
2.4. Ograniczenia
Oba przedstawione powyżej podejścia (badania etnograficzne oraz opis
kontekstu oparty na modelu TAM) wykazują określone ograniczenia.
Ograniczenia podejścia etnograficznego to:
– badanie wyłącznie jakościowe,
– uznaniowa kombinacja technik obserwacyjnych, ankietowych i analityczno-opisowych,
vol. 10, nr 3 (38), 2012
155
Krzysztof Redlarski, Marcin Sikorski
– konieczność „manualnej” interpretacji powoduje nieuchronny subiektywizm uzyskanych wyników,
– uogólnienie uzyskanych wyników bazuje na założeniu, że ten sam mechanizm zachowań występuje u większości osób w danej sytuacji (kontekście).
Do ograniczeń modelu TAM należą:
– wykorzystanie modelu wymaga odpowiednio dużej próbki respondentów,
aby można było przeprowadzić analizę statystyczną,
– uzyskane wyniki zwykle opisują określony kontekst sytuacyjny, zatem ich
uogólnienie i transfer do innych sytuacji mogą być problematyczne,
– model pozwala na zidentyfikowanie zależności występujących między
zmiennymi, ale niekoniecznie wyjaśnia bezpośrednio motywy określonych
zachowań użytkownika.
Biorąc pod uwagę powyższe ograniczenia, badania przedstawione w dalszej części pracy zostały oparte na podejściu etnograficznym, zorientowanym
na pozyskanie danych jakościowych, opisujących okoliczności kształtujące
zachowania użytkowników korzystających z określonych usług on-line za
pomocą urządzeń mobilnych takich jak laptop, smartfon i tablet.
3. Metodyka badania
3.1. Opis przebiegu badania
Celem badania przedstawionego poniżej było zidentyfikowanie czynników
motywujących do chęci korzystania z usługi on-line za pomocą konkretnego
typu urządzenia (laptop, smartfon, tablet) w naturalnych sytuacjach życia
codziennego. Z taką intencją przeprowadzono badania z udziałem 7 użytkowników, a obserwacja ich aktywności w korzystaniu z usług on-line była
samodzielnie rejestrowania przez 14 dni. Badania obserwacyjne – mimo że
przeprowadzone w bardzo ograniczonej skali – miały w znacznym stopniu
charakter etnograficzny, ponieważ w naturalnym otoczeniu rejestrowały
zachowania użytkowników, nie ingerując w ich przebieg.
Metoda badania polegała na udostępnieniu wybranym osobom różnorodnych urządzeń mobilnych2 do korzystania z usług on-line w życiu
codziennym. Użytkownicy mogli w sposób nieskrępowany posługiwać się
urządzeniami mobilnymi, samodzielnie decydując, z którego z nich, w jakiej
sytuacji chcą skorzystać, będąc jednocześnie zobowiązanymi do prowadzenia
pisemnych zapisów z obserwacji swoich aktywności w specjalnie skonstruowanych dzienniczkach. Wzór zastosowanego dzienniczka obserwacyjnego
podano w załączniku 1.
Obserwacje dotyczące użytkowania usług on-line z urządzeń mobilnych
były notowane w tabeli, z uwzględnieniem następujących elementów:
– nazwa usługi,
– data, godzina skorzystania z usługi,
156
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
– nazwa wykorzystanego urządzenia dostępowego,
– czynniki wzmacniające chęć skorzystania z urządzenia (techniczne, sytuacyjne, funkcjonalne), związane z bieżącym kontekstem użycia,
– czynniki osłabiające chęć skorzystania z urządzenia (techniczne, sytuacyjne, funkcjonalne), związane z bieżącym kontekstem użycia.
Otrzymane w ten sposób zapisy pozwoliły na zebranie spostrzeżeń
i uwag od użytkowników na temat ich indywidualnych preferencji dotyczących korzystania z usług on-line za pomocą poszczególnych typów urządzeń
mobilnych.
Po zakończeniu okresu obserwacji dane z dzienniczków zostały przeanalizowane, pogrupowane i poddane agregacji, co zostanie opisane w kolejnych
sekcjach.
3.2. Analiza i agregacja danych
Dane uzyskane z obserwacji z wykorzystaniem dzienniczków zostały najpierw poddane wstępnej analizie przez samych użytkowników, w wyniku
czego powstało siedem indywidualnych raportów tekstowych, które zawierały
najważniejsze spostrzeżenia z przeprowadzonych badań.
Uzyskane w ten sposób wyniki stanowiły jednocześnie podstawę do dalszej analizy, która miała za zadanie zagregowanie poszczególnych raportów
indywidualnych w jeden raport zbiorczy. Zastosowane podejście miało na
celu stworzenie wspólnego profilu użytkowania dla urządzeń mobilnych,
który pozwoliłby zrozumieć i opisać sposób zachowania się użytkownika
pod kątem korzystania z określonych usług on-line.
Proces agregacji wyników w raport zbiorczy polegał na przekształceniu zadeklarowanych czynników motywujących i demotywujących na zbiór
postrzeganych zalet i wad poszczególnych urządzeń pod kątem użytkowania
mobilnego.
W następnym kroku, uwzględniając częstotliwość pojawiających się pozytywnych i negatywnych ocen zebranych od użytkowników, zbudowano tabele
porównujące poszczególne urządzenia mobilne w kontekście ich właściwości
użytkowych (tabele 1–3). Uzyskane w ten sposób wyniki pozwoliły na określenie dla każdego z urządzeń profilu użytkowania (sekcja 3.6) zawierającego zidentyfikowane czynniki wpływu związane z kontekstem użytkowania
określonych usług on-line.
vol. 10, nr 3 (38), 2012
157
158
Wady
– długi czas uruchamiania urządzenia
– mała odporność urządzeń na warunki zewnętrzne
(słońce, deszcz)
– częsta konieczność podłączania okablowania do
zasilania, klawiatury, myszki, drukarki, sieci itp.
– krótki czas pracy baterii
– znaczny ciężar, duże wymiary w porównaniu
z tabletami/smartfonami
– delikatny mechanicznie – większa wrażliwość na
upadek, wstrząsy itp. niż w przypadku tabletów
i smartfonów
– wyższy poziom hałasu
– konieczność posiadania dogodnych warunków pracy
Zalety
– duża wydajność pracy
– możliwość wykonania w krótkim czasie wielu precyzyjnych
zadań
– dostępność dużej liczby różnorodnych funkcjonalności/
oprogramowania
– możliwość dostosowania do użytkownika
– możliwość odczytywania załączników w formacie PDF
– możliwość wykonywania operacji w trakcie użytkowania tego
urządzenia
– lepsze parametry urządzenia, aby komfortowo realizować
potrzebę (duża wydajności, wielkości klawiatury, wielkości
ekranu oraz duża pojemności dysku twardego, wydajniejszy
procesor niż w tabletach i smartfonach, większa
przepustowość danych)
– duży ekran i wysoka rozdzielczość umożliwiająca oglądanie
na raz większej liczby obiektów
– fizyczna klawiatura, naturalnej wielkości, umożliwiająca
pisanie np. bez konieczności patrzenia na nią
– wygodniejsze manipulowanie poprzez możliwość
równoczesnego korzystania z różnych kontrolerów:
klawiatura, myszka, touchpad itd.
– większa wymienność danych, również z użytkownikami
komputerów i innych systemów (Linux, MacOS)
– szybsza praca
– czasami potrzebne lepsze parametry urządzenia przy źle
skonstruowanych portalach
– można użyć obu rąk do pisania
– pewien rodzaj uporządkowania przy pracy (ergonomiczne
warunki pracy z urządzeniem)
Tab. 1. Zestawienie zalet i wad urządzeń mobilnych – agregacja wyników dla laptopa. Źródło: opracowanie własne.
Laptop
Urządzenie
Krzysztof Redlarski, Marcin Sikorski
Problemy Zarządzania
vol. 10, nr 3 (38), 2012
Wady
– niemożność odczytaniazałączników w formacie PDF z uwagi na brak
wykupienia tej usługi
– wymagający dedykowanych stron WWW, brak m-stron
– aplikacje na urządzenia mobilne, będące odpowiednikami serwisów
WWW, lub wersje stron WWW na urządzenia mobilne mają często
ograniczone funkcjonalności w stosunku do pełnej wersji WWW
(np. YouTube, Google Mail, mBank)
– trudności w nawigowaniu po serwisie lub otworzeniu niektórych
plików (np. pliki z harmonogramami ANR, które nie są w PDF-ie)
– mała odporność urządzeń na warunki zewnętrzne (słońce, deszcz)
– mały rozmiar ekranu, wymaga częstej zmiany powiększenia na
stronach internetowych
– problemy manipulacyjne, niewygodna (mała, dotykowa) klawiatura
ekranowa, wymaga zwiększonej precyzji
– niewygodny sposób wprowadzania polskich znaków
– słaby głośnik
– niska prędkość łącza
– niemożność odczytywania załączników w formacie PDF – mała
wydajność procesora
– odbijające się światło na ekranie
– niewygodny i dziwaczny sposób zamykania aplikacji (Android,
Windows 8) przez cofanie – w przypadku wyjścia ze strony
szyfrowanej (HTPPS) po wylogowaniu, cofnięcie do poprzedniej
strony sygnalizuje błąd zamiast zamknięcia aplikacji
– niewygodny sposób edycji dokumentów (arkusze kalkulacyjne,
edytory tekstu, programy graficzne)
– dłuższy czas wykonania pracy, w stosunku do pracy na komputerze
– trudność w drukowaniu bezpośrednio z urządzenia
Zalety
– dostępność i szybkość (szybki/natychmiastowy
dostęp/gotowość do pracy, brak dostępu innych
urządzeń podczas podróży)
– wielofunkcyjność (dodatkowe funkcje świadczone
w ramach pakietu dostępnego u operatora
sieci komórkowej lub dostępne po ściągnięciu
dodatkowych aplikacji, np. telefon + aparat
fotograficzny + GPS + minikomputer + inne
– małe rozmiary i waga (poręczny)
– długa żywotność baterii
– brak konieczności podłączania okablowania
– bardzo efektywny i dobrze dopasowany do
pozyskiwania dostępu do zasobów sieciowych
poprzez system tokenów generowanych
i przesyłanych z użyciem urządzeń mobilnych
– dobre dopasowanie smartfonów do zdalnego
zarządzania urządzeniami zlokalizowanymi
w serwerowni
– pozwala na zajęcie wygodnej pozycji w siedzącej
lub leżącej
– wysoka jakość obrazu, aktualna mapa
– mobilność urządzenia (możliwość skorzystania w
niemalże w każdych warunkach)
– cicho pracuje (niski poziom hałasu)
– obsługa nie wymaga dodatkowego oświetlenia
– dobre urządzenie jako telefon komórkowy
– dobra jakość zdjęć i prosta obsługa
Tab. 2. Zestawienie zalet i wad urządzeń mobilnych – agregacja wyników dla smartfona. Źródło: opracowanie własne.
Smartfon
Urządzenie
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
159
160
– daje możliwość wykonywania wielu zadań
– dedykowany przede wszystkim do czytania, przeglądania
stron WWW (e-booki, rozrywka)
– możliwość skorzystania z urządzenia o stosunkowo dużym
ekranie w trudnych warunkach (np. podczas niekomfortowej
podróży)
– natychmiastowy dostęp do urządzenia (błyskawiczne
bootowanie)
– mobilność;
– niski poziom hałasu
– stosunkowo długi czas trzymania baterii
– niska waga urządzenia
Zalety
– urządzenie najmniej uniwersalne
– stosunkowo długi czas wykonywania zadań
– bardzo trudna praca (niska precyzja manipulacyjna
urządzenia)
– wykorzystywany jest sporadycznie do dedykowanych
zadań
Wady
Tab. 3. Zestawienie zalet i wad urządzeń mobilnych – agregacja wyników dla tabletu. Źródło: opracowanie własne.
Tablet
Urządzenie
Krzysztof Redlarski, Marcin Sikorski
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
3.3. Dyskusja i interpretacja wyników obserwacji
Zebrane obserwacje pozwoliły na wyciągnięcie wniosków dotyczących
ogólnych preferencji skorzystania przez użytkownika z usług on-line za
pomocą poszczególnych urządzeń.
Laptop był urządzeniem najchętniej wykorzystywanym do typowej pracy
zadaniowej, która wymagała np. intensywnego pisania, redagowania tekstu,
która była po prostu pracochłonna.
Niewątpliwymi zaletami (wpływającymi na chęć skorzystania) z wspomnianego urządzenia były:
– duża wydajność pracy (zarówno techniczna, jak i funkcjonalna względem
innych produktów dostępnych na rynku),
– możliwość wykonania w krótkim czasie wielu precyzyjnych zadań,
– dostępności dużej liczby różnorodnych funkcjonalności/oprogramowania,
– ergonomiczne warunki pracy z urządzeniem,
– możliwość dostosowania do potrzeb użytkownika.
Do podstawowych wad/niedogodności urządzenia można zaliczyć:
– stosunkowo krótki czas trzymania baterii (w porównaniu do pozostałych
urządzeń),
– wyższy poziom hałasu,
– stosunkowo długi czas dostępu do urządzenia,
– znaczącą wagę urządzenia,
– konieczność posiadania dogodnych warunków pracy,
– w pewnych sytuacjach (np. podróży) kłopotliwa może być wielkość urządzenia.
Charakterystyka zadań (usług) preferowanych do wykonywania z pomocą
laptopa:
– usługi podróżnicze (planowanie podróży),
– usługi finansowe (wymagające dużego nakładu pracy),
– usługi wymagające dużego nakładu i wysokiej wydajności pracy.
Smartfon w stosunku do laptopa okazał się urządzeniem, które oferuje
zdecydowanie większą mobilność oraz dostępność, m.in. dzięki niewielkim
wymiarom i małemu ciężarowi. Jednocześnie zapewniał dostęp do wielu
dodatkowych funkcji (poza podstawową usługą dzwonienia) – w połączeniu
z dostępem do Internetu możliwe było wykonanie wielu zadań, których
w typowych sytuacjach życiowych nie można byłoby zrealizować.
Głównymi zaletami (czynnikami motywującymi do skorzystania) ze wspomnianego urządzenia był:
– natychmiastowy dostęp (błyskawiczne bootowanie),
– mobilność urządzenia, (możliwość skorzystania niemalże w każdych
warunkach),
– niski poziom hałasu,
– stosunkowo długi czas trzymania baterii,
– niska waga.
vol. 10, nr 3 (38), 2012
161
Krzysztof Redlarski, Marcin Sikorski
Do podstawowych wad/niedogodności urządzenia można zaliczyć:
utrudnione pisanie wymagające zwiększonej precyzji,
dłuższy czas wykonania pracy w stosunku do pracy na komputerze,
wymaganie dedykowanych stron WWW,
mały ekran (w niektórych sytuacjach jest jego zaletą).
Charakterystyka zadań (usług) preferowanych do wykonywania z pomocą
smartfona:
– usługi informacyjne (czytanie poczty, wiadomości itp.),
– usługi podróżnicze (nawigacja),
– rozrywka (gry, widgety),
– usługi umożliwiające natychmiastowy dostępu do informacji o niezbyt
skomplikowanym charakterze.
Tablet – ostatnie urządzenie poddane badaniu – okazał się najmniej
uniwersalny, dając możliwość wykonania zadań w relatywnie długim czasie. Dlatego wykorzystywany był przez użytkowników przede wszystkim do
czytania, przeglądania stron WWW (e-booki, rozrywka).
Niewątpliwymi zaletami (czynnikami wpływającymi na chęć skorzystania)
z wspomnianego urządzenia była:
– możliwość skorzystania z urządzenia o stosunkowo dużym ekranie w trudnych warunkach (np. podczas niekomfortowej podróży),
– natychmiastowy dostęp do urządzenia (błyskawiczne bootowanie),
– mobilność,
– niski poziom hałasu,
– stosunkowo długi czas trzymania baterii,
– niska waga urządzenia.
Do podstawowych wad/niedogodności urządzenia można zaliczyć:
– bardzo trudną pracę (niska precyzja manipulacyjna urządzenia),
– ograniczoną funkcjonalność,
– niską użyteczność w niektórych zadaniach roboczych.
W ocenie respondentów badania tablet był urządzeniem pośrednim
pomiędzy smartfonem i laptopem, które w przypadku dostępności wspomnianych wcześniej urządzeń, wykorzystywany był sporadycznie, tylko do
realizacji dedykowanych zadań.
Charakterystyka zadań (usług) preferowanych do wykonywania z pomocą
tabletu:
– usługi informacyjne (czytanie newsów, przeglądanie stron WWW,
e-booki),
– rozrywka (gry, widgety).
–
–
–
–
3.6. Dyskusja i wnioski
Z całości przeprowadzonego badania można sformułować następujące
grupy ustaleń.
Z zebranych danych wyłaniają się zasadnicze cztery sytuacje, w których
korzystano z usług on-line w kontekście mobilnym:
162
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
– „dom” – w warunkach domowych, podczas czynności niezwiązanych
z pracą zawodową,
– „podróż” – w trakcie podróży, w środkach lokomocji, transportu miejskiego itp.,
– „biurko” – „przy stole”, na siedząco, często podczas wykonywania określonych prac umysłowych,
– „teren” – wszystkie pozostałe sytuacje: w mieście, w ruchu pieszym, na
wycieczce itp.
Na podstawie zebranych obserwacji można również wskazać główne
kategorie usług on-line najczęściej użytkowanych w kontekście mobilnym:
– poczta/kontakty,
– podróże, dojazdy, mapy,
– wiadomości, waluty, pogoda,
– finansowe, przelewy, doładowania,
– poszukiwanie informacji, serwisy WWW,
– zakupy,
– rozrywka.
Uczestnicy badania obserwacyjnego zgłaszali następujące czynniki problemowe zniechęcające do korzystania z usług on-line z urządzenia mobilnego3:
– zawodna synchronizacja danych między różnymi urządzeniami,
– utrudnienia dotyczące otwierania i zapisywania załączników (pdf, office),
– konieczność drukowania i utrudnienia z tym związane,
– konieczność czekania aż się system zabootuje,
– źle zaprojektowana aplikacja mobilna, brak lub słaba strona „m”,
– powolny transfer na Wi-Fi.
Ogólnie, za czynniki główne determinujące chęć korzystania z urządzenia
z usług on-line w trybie mobilnym należy uznać takie jak:
– odpowiednio atrakcyjna relacja: czas uzyskania gotowości urządzenia do
czasu trwania zadania,
– niska złożoność zadania,
– niewymagana wysoka precyzja manipulacji,
– oczekiwany format wyniku – ekran (bez wydruku).
Tabela 4 prezentuje zestawienie ogólnych charakterystyk poszczególnych rodzajów zadań najchętniej wykonywanych z danego urządzenia. Mogą
one stanowić rodzaj wzorca opisującego rodzaj usług związanych z danymi
charakterystykami zadania oraz rodzaj urządzenia, z którego w danej sytuacji użytkownik skorzystałby najchętniej, zakładając pełną wolność wyboru
(dostępność urządzeń).
Przedstawione wyniki mają przekrojowy charakter w zakresie obserwacji
przeprowadzonych na niewielką skalę, na chwile obecną trudno je zatem
poddać szerszemu uogólnieniu z uwagi na niewielką grupę osób uczestniczących w badaniu i dość ograniczony jego zakres czasowy.
Należy również zaznaczyć, że wspomniana powyżej sytuacja wolnego
wyboru nie zawsze ma miejsce i w rzeczywistych warunkach użytkownik często
vol. 10, nr 3 (38), 2012
163
Krzysztof Redlarski, Marcin Sikorski
korzysta z tego urządzenia, które ma akurat pod ręką, gdyż w wielu gospodarstwach domowych jest tych urządzeń kilka, a wszystkie korzystają z dostępu do
sieci bezprzewodowej. Związane jest to z cyfryzacją życia codziennego, w którym komputer wykorzystuje się bardzo często nie tylko do pracy, ale również
do organizowania życia osobistego. Sytuacja ta wymusza konieczność stosowania różnorodnych urządzeń cyfrowych (w tym mobilnych) w życiu codziennym.
Niewątpliwą zaletą każdego z nich jest możliwość wyboru określonego typu
urządzenia do aktualnych potrzeb użytkownika, wynikających jednocześnie
z kontekstu użycia oraz parametrów technicznych dostępnego urządzenia.
Urządzenie
Preferowany rodzaj zadania
Laptop
– zadanie długotrwałe, wymagające długotrwałej koncentracji uwagi
(długotrwałe czytanie lub/oraz precyzyjne manipulowanie)
– konieczność dłuższego pisania na klawiaturze
– preferowana pozycja siedząca, zwykle przy stole
– konieczność korzystania z drukarki (lub innych urządzeń
zewnętrznych)
Smartfon
– zadanie krótkie, częste, powtarzane okresowo, ale nie długotrwałe
– konieczność jedynie krótkiego pisania na klawiaturze dotykowej,
gdy nie ma konieczności korzystania z drukarki (lub innych
urządzeń zewnętrznych, z wyjątkiem słuchawek)
Tablet
– czytanie dłuższych tekstów, bez użycia klawiatury i bez konieczności
wydruku
– rozrywka, multimedia
– zwykle na siedząco
Tab. 4. Preferowane rodzaje zadań i ich charakterystyki. Źródło: opracowanie własne.
Warto zauważyć, że mimo iż badanie zostało przeprowadzone na bardzo mała skalę, dostarczyło ono pożytecznych informacji przydatnych do
planowania badań podobnego typu, już bardziej pogłębionych i z udziałem
znacznie większej grupy uczestników.
Należy podkreślić, że badania tego typu – mimo że mają charakter głownie jakościowy – pozwalają na lepsze zrozumienie zachowań użytkowników,
ich motywacji, intencji i oczekiwań w naturalnych sytuacjach docelowego
kontekstu użytkowania, a przez to pozwalają na zidentyfikowanie czynników
sytuacyjnych, które generują ryzyko niepełnego wykorzystania mobilnego
rozwiązania IT lub nawet całkowitego jego odrzucenia.
4. Podsumowanie
Przedstawiono wyniki badania obserwacyjnego mającego na celu zidentyfikowanie czynników kształtujących u użytkowników chęć korzystania z usług
on-line za pomocą urządzeń mobilnych takich jak laptop, smartfon lub tablet.
W wyniku badań zidentyfikowano cztery główne rodzaje kontekstów
mobilnych (dom, podróż, biurko, teren) oraz główne rodzaje użytkowanych
164
Problemy Zarządzania
Usługi on-line w kontekście mobilnym – jakościowe badanie obserwacyjne
usług on-line (poczta/kontakty, planowanie podróży, wiadomości, poszukiwanie informacji, zakupy i rozrywka). Zidentyfikowano również czynniki
stanowiące w opinii użytkowników przeszkody zmniejszające motywację do
korzystania z urządzenia mobilnego w sytuacji, gdy do dyspozycji jest również
laptop (w trybie pracy „przy stole”). Określono również (stanowiące rodzaj
„wzorca użytkowania”) uniwersalne charakterystyki zadań związanych z korzystaniem z usług on-line, w których w większości przypadków jedno z dostępnych urządzeń było preferowane jako najdogodniejszy punkt dostępowy.
Informacje o autorach
Mgr inż. Krzysztof Redlarski – Wydział Zarządzania i Ekonomii, Politechnika
Gdańska. E-mail: [email protected].
Dr hab. inż. Marcin Sikorski – Wydział Zarządzania i Ekonomii, Politechnika
Gdańska. E-mail: [email protected].
Przypisy
1
Projekt został sfinansowany ze środków Narodowego Centrum Nauki w ramach grantu
4591/B/H03/2011/40.
2
W badaniach wykorzystano smatfony Samsung Galaxy II, Samsung Note, tablet Samsung Galaxy 10.1 oraz tablet-netbook Asus Eee PC.
3
Czyli zarazem zachęcające do korzystania z trybu stacjonarnego „przy stole” (laptop).
Bibliografia
Adobe 2011. Adobe Mobile Experience Survey: What UsersWant from Media, Finance,
Travel and Shopping, http://www.keynote.com/docs/news/AdobeScene7_MobileConsumerSurvey.pdf.
Chuttur, M.Y. 2009. Overview of the Technology Acceptance Model: Origins, Developments and Future Directions. Sprouts: Working Papers on Information Systems, nr 9
(37), http://sprouts.aisnet.org/9-37.
Davis, F.D. 1989. Perceived Usefulness, Perceived Ease of Use, and User Acceptance
of Information Technology. MIS Quarterly, nr 3 13, s. 319–340.
Glasnapp, J. 2010. Ethography in Industry: Methods Overview. UX Magazine, nr 578,
http:// http://uxmag.com/articles/ethnography-in-industry-methods-overview.
Gualtieri, M. 2011. Forrester Research: Mobile App Design Best Practices, http://blogs.
forrester.com/mike_gualtieri/11-04-13-forresters_mobile_app_design_context_location_locomotion_immediacy_intimacy_and_device.
Morgan Stanley 2011. Tablet Demand and Disruption, Morgan Stanley Research Report,
14.02.2011.
Roto, V. 2005. Browsing on Mobile Phones, Nokia Research Center, 10.05.2005, http://
www2.research.att.com/~rjana/WF12_Paper1.pdf.
Sparandara, M., Chu, L. i B. Engel 2011. Uncovering Context with Mobile Diary Studies. Punchcut Perspective, 17.05.2011, http://punchcut.com/perspectives/uncoveringcontext-mobile-diary-studies.
Tullis, T. i A. Albert 2008. Measuring the User Experience, Morgan Kaufman.
vol. 10, nr 3 (38), 2012
165
166
T ablet
L aptop
3.
S martfon
1.
2.
Naz wa
urz ądz enia
Lp.
kategorie j.w.
pros z ę wpis ać
wg potrz eb
kategorie j.w.
pros z ę wpis ać
wg potrz eb
????
???
R oz rywka
P rz eglądanie s tron
WWW
S prawdz anie pocz ty
e-mail
Zakres wykorz ys tywania
(do cz ego? )
technicz ne
(parametry urz ądz enia, s ieci)
funkcjonalne
(moż liwoś ć s korz ys tania z danej funkcji/us ługi)
C z ynniki wz macniające chęć s korz ys tania z urz ądz enia
s ytuacyjne
(konteks t uż ycia)
technicz ne
funkcjonalne
s ytuacyjne
C z ynniki os łabiające chęć s korz ys tania z urz ądz enia
P oz os tałe
uwagi
Załącznik 1. Wzór dzienniczka do rejestracji korzystania z usług on-line za pomocą urządzeń mobilnych
Krzysztof Redlarski, Marcin Sikorski
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 167 – 183
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.10
Metody oceny architektur korporacyjnych
Małgorzata Pańkowska
Architektura w swym tradycyjnym ujęciu stanowiła, a obecnie stanowi także
w obszarze technologii informacji (Information Technology – IT), synergię
nauki i sztuki projektowania struktur złożonych dla zapewnienia użyteczności
i kontroli ewolucji tej złożoności. Niniejsze opracowanie obejmuje w pierwszej
części prezentację standardów i podstawowych modeli rozwoju architektury
przedsiębiorstwa. W drugiej części uwagę skoncentrowano na modelach oceny
architektury w podziale na metody i modele dopasowania działalności biznesowej i IT, metodach oceny architektury oprogramowania i metodach badania
dojrzałości architektur korporacyjnych. W ostatniej części przedstawiono model
wielokryterialnej oceny architektury korporacyjnej.
1. Interpretacja pojęcia architektury przedsiębiorstwa
Pojęcie architektury przedsiębiorstwa pojawiło się na przełomie lat 80.
i 90. ubiegłego wieku i obejmowało zasady oraz modele graficznej prezentacji
struktur technologii i systemów informatycznych. Już wówczas zaobserwowano, że analiza architektury przedsiębiorstwa jest pożądana dla ułatwienia podejmowania decyzji o określonych zakupach w obszarze IT oraz dla
zwiększenia integracji i interoperabilności komponentów IT.
Należy zacząć od tego, że specjaliści rozwoju metod architektury sformułowali odrębną definicję przedsiębiorstwa. Przedsiębiorstwo jest kolekcją
organizacyjnych lub instytucjonalnych encji, a przykładem przedsiębiorstwa
jest cała korporacja, dział lub wydział korporacji, grupa geograficznie rozproszonych organizacji, agencja rządowa, grupa instytucji rządowych (Minoli
2008; Op’t Land i in. 2009).
Architektura przedsiębiorstwa jest koherentną całością zasad, metod
i modeli, które używane są w projektowaniu i realizacji struktury organizacyjnej przedsiębiorstwa, procesów biznesowych, systemów informacji
i infrastruktury (Lankhorst 2005). Definicja architektury przedstawiona
w normie IEEE 1471-2000 stanowi, że architektura jest fundamentalną
organizacją systemu złożonego z komponentów powiązanych ze środowiskiem i wzajemnie oraz obejmuje zasady ustalające metody projektowania
i ewolucji. Norma IEEE Standard 1471-2000 zawiera sześć praktyk opisu
architektury:
vol. 10, nr 3 (38), 2012
167
Małgorzata Pańkowska
– dokumentowanie i dokumentacja architektury jako niezbędne do identyfikowania, wersjonowania i przeglądu informacji w procesach konstrukcji
architektury;
– identyfikacja interesariuszy projektu;
– selekcja punktów widzenia architektury, zawierająca przyczyny i specyfikacje każdego aspektu, który został wybrany w celu organizowania
reprezentacji architektury;
– ujęcia architektury zgodnie z wybranymi punktami widzenia;
– dbałość o zachowanie zgodności między ujęciami architektury w różnych
aspektach;
– racjonalizm architektury, czyli wybór jednej z wielu rozważanych opcji
rozwoju architektury.
Standardy architektury przedsiębiorstw, tj. ANSI/IEEE 1471-2000 i ISO/
IEC 42010-2007, swoje źródła mają w badaniach inżynierii oprogramowania. Norma ISO/IEC 42010-2007 wymaga, by opis architektury zawierał
następujące elementy:
– identyfikacja interesariuszy architektury i systemu interesów;
– identyfikacja powiązanych z architekturą problemów interesariuszy;
– zbiór punktów widzenia architektury definiowanych tak, by wszystkie
problemy interesariuszy były uwzględnione przez wszystkie punkty
widzenia;
– zbiór widoków architektury;
– zbiór modeli architektury;
– racjonalizm architektury dla podejmowania kluczowych decyzji.
Zgodnie z powyższą normą architektura jest abstrakcją. Najbardziej
istotne jest sporządzenie opisu architektury, który jest produktem procesu
jej rozwoju. Opis architektury jest wieloaspektowy i żaden pojedynczy aspekt
nie jest wystarczający do ujęcia architektury. Opis wymaga podejścia multidyscyplinarnego, przy identyfikacji wielu różnych interesariuszy i ich problemów (Greefhorst i Proper 2011).
Pięć poziomów architektury przedsiębiorstwa zostało wyróżnionych
w 1989 r. przez US National Institute of Standards (NIST). Pozostają one
ważne także w środowisku rozszerzonego przedsiębiorstwa prowadzącego
działalność w warunkach gospodarki elektronicznej (IT Governance Institute
2005). Zatem na architekturę przedsiębiorstwa składają się:
– architektura jednostek biznesowych, obejmująca procesy biznesowe, krajowe i międzynarodowe standardy współdzielenia się informacją i praktyki biznesowe;
– architektura informacji, obejmująca oryginalne dokumenty, przeglądy
i dane odpowiedzialnych organizacji, standardy, procedury niezbędne
do zapewnienia integralności informacji, konwencje nazywania i metody
opisu;
– architektura systemu informacji, obejmująca oprogramowanie użytkowe,
ustalająca ramy dla zaspokojenia specyficznych wymagań informacji;
168
Problemy Zarządzania
Metody oceny architektur korporacyjnych
– architektura danych;
– architektura infrastruktury technicznej, obejmująca sprzęt, oprogramowanie i urządzenia komunikacji.
Podobną specyfikację warstw architektury przedsiębiorstwa przedstawiają
Jaap i in. (2006).
Na potrzeby niniejszego opracowania bardziej użyteczna jest definicja
architektury jako układu systemów opracowana przez Object Managament
Group (rysunek 1).
jest
(System)
Architektura
Specyfikacja
składa się
jest realizowany
przez
składa się z
składa się z
Części
są połączone przez
Łączniki
używają
System
mają
Interakcje
są połączone
przez
Reguły
Rys. 1. Definicja Architektury Systemu według OMG MDATM. Źródło: opracowanie na
podstawie C.E. Dickerson i D.N. Mavris 2010. Architecture and Principles of Systems
Engineering, Boca Raton: CRC Press Taylor & Francis Group, An Auerbach Book.
Według definicji przedstawionej na rysunku 1 architektura jest utożsamiana z systemem, który składa się z systemów i z części. Części architektury
jak też jej systemy powiązane są ze sobą. Określone reguły determinują te
powiązania. W uzupełnieniu można dodać, że rozwój architektury przedsiębiorstwa jest ciągłym procesem obejmującym tworzenie, modyfikowanie, zastosowanie i rozpowszechnianie różnych produktów architektury.
Ten ciągły proces powinien być zsynchronizowany z rozwojem środowiska
przedsiębiorstwa.
Celem architektury przedsiębiorstwa jest konstruowanie środowiska IT
w przedsiębiorstwie, przy ścisłym wiązaniu gospodarowania IT ze strategią
przedsiębiorstwa. W ramach rozwoju architektury przedsiębiorstwa istotne
jest stworzenie mapy aktywów IT i procesów biznesowych oraz zbioru zasad
gospodarowania. W literaturze przedmiotu wymienia się następujące motywy
opracowania architektury przedsiębiorstwa (Minoli 2008):
– architektura przedsiębiorstwa jest fundamentalna dla efektywnego uczestniczenia w globalnej interakcji nowoczesnych przedsiębiorstw;
– pojawia się potrzeba zarządzania wiedzą w przedsiębiorstwie;
– zachodzi konieczność integracji technologii teleinformatycznych w przedsiębiorstwie.
vol. 10, nr 3 (38), 2012
169
Małgorzata Pańkowska
Architektura przedsiębiorstwa zapewnia holistyczne wyrażenie kluczowych problemów rozwoju strategii przedsiębiorstwa, oddziałuje na podstawowe procesy i funkcje. Może być interpretowana jako wiedza, która steruje
przedsiębiorstwem, jako informacja konieczna do prowadzenia przedsiębiorstwa, jako technologia i ogólny proces wdrażania IT w odpowiedzi na
zmieniające się potrzeby biznesowe. Wygenerowanie architektury wzbogaca
możliwości przedsiębiorstw – zarówno komercyjnych, jak i budżetowych –
dostosowania się do przemian technologicznych i rynkowych oraz zarządzania zmianą. Może też być stosowana do komunikowania celów organizacji
i polityk.
2. Modele i metody architektury przedsiębiorstwa
Architekturę przedsiębiorstwa buduje się na podstawie odpowiedniej
metodyki, która jest zestawem pojęć, notacji, modeli, języków, technik i sposobów postępowania służących do analizy dziedziny stanowiącej przedmiot
projektowania oraz do projektowania pojęciowego, logicznego lub fizycznego. W rozwoju architektury przedsiębiorstwa stosuje się dwie zasady
(Bazewicz 1994):
– zasada dekompozycji: rozdzielenie złożonego problemu na podproblemy,
które można rozpatrywać i rozwiązywać niezależnie od siebie i niezależnie
od całości;
– zasada abstrakcji: eliminacja, ukrycie lub pominięcie mniej istotnych
szczegółów rozważanego przedmiotu lub mniej istotnej informacji; wyodrębnienie cech wspólnych i zbioru niezmienników.
Metoda architektury przedsiębiorstwa jest uporządkowanym zbiorem
technik i procesów do tworzenia i konserwacji architektury przedsiębiorstwa.
Metody określają różne fazy cyklu życia architektury, definiują produkty,
które powinny powstawać na każdym etapie, określają sposoby ich weryfikacji i walidacji (Lankhorst 2005). W literaturze przedmiotu wymienia się
następujące metody rozwoju architektury:
– Rational Unified Process definiuje iteracyjny proces, który pozwala na
wykonanie oprogramowania przez dodanie funkcjonalności do architektury na każdym etapie; zgodnie z tą metodą konstruowany jest Zunifikowany Proces Przedsiębiorstwa (Enterprise Unified Process);
– UN/CEFACT Modelling Methodology (UMM) jest metodologią konstrukcji modelu informacji i inkrementalnych procesów biznesowych
(Huemer 2009);
– TOGAF Architecture Development Method (ADM); metoda obejmuje
działania skupione wokół następujących zagadnień: a) wizja architektury,
b) architektura biznesu, c) architektura systemów informacji, d) architektura technologii, którym to zagadnieniom poświęcone są zadania:
1) tworzenie podstaw, 2) analizowanie poglądów, 3) tworzenie modelu
architektury, 4) wybór usług, 5) ustalenie obiektów biznesowych, 6) defi170
Problemy Zarządzania
Metody oceny architektur korporacyjnych
niowanie kryteriów, 7) definiowanie modelu architektury, 8) analiza
luk i nieścisłości, 9) planowanie migracji,10) zarządzanie implementacją
i zmianą architektury (Lankhorst 2005).
Konstrukcja nowego modelu architektury wymaga uwzględnienia istniejącej bazy aktywów IT, istniejącej architektury przedsiębiorstwa, istniejących
standardów architektury przedsiębiorstwa, zasad przedsiębiorstwa, praktyk,
pożądanej strategii biznesowej, dostępnych modeli i narzędzi dla rozwoju
nowej architektury przedsiębiorstwa lub modyfikacji architektury istniejącej.
Modele architektury są stosowane do analizy architektur alternatywnych,
planowania biznesowego przejścia z obecnej do nowej architektury, komunikacji między organizacjami zaangażowanymi w rozwój, produkcję, działanie i konserwację modelu przedsiębiorstwa, do wspomagania komunikacji
między interesariuszami projektu, do weryfikacji i zapewnienia możliwości
certyfikacji wdrażanej architektury, do rozwijania i konserwacji dokumentacji, do wprowadzenia systemów informatycznych nowych generacji i nowych
narzędzi analizy, do planowania i wspomagania budżetowania oraz przeglądu
i oceny w całym cyklu życia systemów informatycznych. Najczęściej prezentowane w literaturze przedmiotu modele architektury przedsiębiorstwa to
(Bernus, Nemes i Schmidt 2003; Minoli 2008; Sobczak 2008):
– model architektury przedsiębiorstwa zwany siatką Zachmana,
– model LEA (Lightweight Enterprise Architecture),
– model FEAF (Federal Enterprise Architecture Framework),
– model TOGAF (The Open Group Architecture Framework),
– model GERAM (Generic Enterprise Reference Architecture and Methodology),
– model PERA (Purdue Enterprise Reference Architecture),
– model CIMOSA (Computer Integrated Manufacturing Open System
Architecture).
Siatka Zachmana jest jednym z najstarszych modeli architektury przedsiębiorstwa. Siatka obejmuje sześć aspektów modelowania: zarząd, kierownictwo, projektant, wykonawca, programista i użytkownik, oraz sześć
rodzajów komponentów, tj. dane, funkcje, sieci, ludzie, czas i motywacje.
Specyfikacja sześciu perspektyw i sześciu komponentów wymaga skrupulatnego analizowania dopasowania na różnych poziomach, można zatem
wnioskować o wysokiej przydatności tego modelu do wspomagania zarządzania IT w organizacji.
Argumentów przekonywujących o potrzebie rozwoju architektury przedsiębiorstwa do wspomagania strategii organizacji gospodarczej dostarcza
Theuerkorn (2005) w swoim opracowaniu przedstawiającym model LEA
(Lightweight Enterprise Architecture). Model LEA zawiera ujęcia trzech
perspektyw, na które składają się: strategiczna architektura, architektura
koncepcji i architektura wykonania. Strategiczna architektura dotyczy
budowania strategicznych zasad i rozwijania wytycznych dla pracy liderów
organizacji. Jest ciągłym procesem translacji strategii biznesu i zapewnienia
vol. 10, nr 3 (38), 2012
171
Małgorzata Pańkowska
ram wytyczających pomoc technologiczną. Plan strategiczny IT służy jako
narzędzie komunikacji dla przywódców w zrozumieniu ogólnego kierunku
technologii w organizacji i zapewnieniu kontekstu dla planów szczegółowych.
Model FEAF jest zorientowany na doskonalenie interoperabilności
jednostek biznesowych. Stanowi kolekcję wzajemnie powiązanych modeli
referencyjnych dotyczących realizacji inwestycji IT, operacji biznesowych,
usług, informacji standardów technologii. Ogólnie ujmując, architektura
przedsiębiorstwa może pomóc w procesach realizacji strategii. Jest instrumentem aktywnego planowania i sterowania oraz narzędziem zarządzania
złożonością implementacji i ryzykiem. Mierzalne korzyści rozwoju architektury przedsiębiorstwa to przede wszystkim optymalizacja aktualnych systemów i doskonalenie przyszłych możliwości. Najważniejsze jest, że projekty
realizowane w ramach modelu architektury są wzajemne komplementarne
i kompatybilne. Architektura korporacyjna jest wysoko pozycjonowana
w zarządzaniu przedsiębiorstwem i w zarządzaniu IT. Jej zastosowanie uzupełnione jest zastosowaniem innych praktyk zarządzania, tj. zrównoważonej
karty wyników, modeli zarządzania jakością (EFQM, European Foundation
for Quality Management Excellence Model, ISO 9001).
Model TOGAF powstał jako ogólna struktura i metodologia rozwoju
architektur technicznych. Obecnie ma cztery główne komponenty (Lankhorst 2005):
– wysokiego poziomu strukturę opartą na wybranych kluczowych koncepcjach i metodzie zwanej Architecture Development Method (ADM);
– TOGAF Enterprise Continuum, co obejmuje: TOGAF Foundation
Architecture, która zawiera model referencyjny techniczny (Technical
Reference Model), bazę informacji o otwartych standardach (Open Group’s Standards Information Base – SIB), bazę informacji o blokach
konstrukcyjnych (Building Blocks Information Base – BBIB);
– model referencyjny infrastruktury informacji zintegrowanej (Integrated
Information Infrastructure Reference Model);
– TOGAF Resource Base, zbiór narzędzi i technik dostępnych do użycia
w zastosowaniu TOGAF i TOGAF ADM, np. scenariusze biznesowe,
język modelowania rozwoju architektury (Architecture Development
Modelling Language – ADML), studia przypadków, inne ramy architektur, mapowanie TOGAF do siatki Zachmana.
Model GERAM stał się podstawą normy ISO 15740:2000 (Bernus,
Nemes i Schmidt 2003). GERAM stanowi skrzynkę narzędziową do projektowania i konserwacji przedsiębiorstwa w całym cyklu życia. Struktura
modelu GERAM jest następująca:
– GERA (Generalized Enterprise Reference Architecture) – model integrujący koncepcje integracji przedsiębiorstwa, ich relacje, jak też wszelkie
odpowiednie własności (funkcja, koszt, czas, zasoby);
– EEM (Enterprise Engineering Methodology) – model opisujący metodę
inżynierii przedsiębiorstwa;
172
Problemy Zarządzania
Metody oceny architektur korporacyjnych
– język EML (Enterprise Modelling Language) zapewniający konstrukcje
do modelowania ról, procesów i technologii;
– narzędzia EETs (Enterprise Engineering Tools) wspomagające inżynierię
przedsiębiorstwa;
– koncepcje GEMCs (Generic Enterprise Modelling Concepts) określające
nowe znaczenie konstrukcji modelowania przedsiębiorstwa;
– modele EMs (Enterprise Models) stanowiące projekty przedsiębiorstwa
i modele do wspomagania analizy i dalszego projektowania;
– modele PEMs (Partial Enterprise Models) zapewniające wielokrotnego
zastosowania modele referencyjne i projekty ról, procesów i technologii;
– modele EMOs (Enterprise Models) wspomagające wdrażanie działań,
procesów operacyjnych i technologii;
– EOS (Enterprise Operational Systems) wspomagające działanie konkretnego przedsiębiorstwa.
GERAM zapewnia opis wszystkich elementów zalecanych w inżynierii
przedsiębiorstwa i jego integracji. Ustala standardy gromadzenia narzędzi
i metod, z których przedsiębiorstwo może czerpać korzyści w celu efektywnego uporania się ze wstępnym projektem integracji i procesami zmian,
które wystąpią w cyklu życia przedsiębiorstwa.
Purdue Enterprise Reference Architecture (PERA) przedstawia model
inżynierii przedsiębiorstwa. Ponieważ diagram PERA wykorzystuje tę samą
temporalną abstrakcję kroków metodologicznych jak GERAM, bezpośrednie
odwzorowanie faz cyklu życia jest możliwe (Bernus, Nemes i Schmidt 2003).
Celem architektury CIMOSA jest modelowanie procesów gospodarczych oraz identyfikacja informacji niezbędnych do realizacji tych procesów
w przedsiębiorstwie przemysłowym. W modelu CIMOSA – w przeciwieństwie
do tradycyjnego rozumienia integracji, czyli opisów przebiegów oddolnych
(bottom-up) – preferuje się integrację postępującą odgórnie (top-down), co
oznacza, że procesy przedsiębiorstwa są ściśle powiązane z celami przedsiębiorstwa. Zintegrowana infrastruktura architektury CIMOSA umożliwia
wykorzystanie modeli przedsiębiorstwa w heterogenicznym otoczeniu systemu. Zintegrowana infrastruktura CIMOSA wspomaga procesy symulacyjne
modelu i jego optymalizację w fazie użytkowania systemu (Bernus, Nemes
i Schmidt 2003). Ze względu na ograniczoną wielkość rozdziału opisy pozostałych modeli architektury dostępne są w literaturze przedmiotu (Bernus,
Nemes i Schmidt 2003; Lankhorst 2005; Minoli 2008).
3. Metody oceny architektur korporacyjnych
Przedsiębiorstwa zmieniają się ciągle, ich struktury ulegają transformacji i rozszerzeniu. Bez środków kontroli i oceny takie zmiany prowadzą
do powstawania ogólnie złożonych, nieskoordynowanych, heterogenicznych
środowisk trudnych do zarządzania oraz do utrudnień wprowadzania zmian
pożądanych w wybranych kierunkach.
vol. 10, nr 3 (38), 2012
173
Małgorzata Pańkowska
Architektura przedsiębiorstwa ze swej istoty jest środkiem kontroli zmian
przedsiębiorstwa. Zapewnia ujęcie zarówno bardzo ogólne, jak i szczegółowe wybranych działów przedsiębiorstwa. Architektura przedsiębiorstwa
pełni w organizacji rolę regulatora, instruktażu oraz środka komunikacji
(Greefhorst i Proper 2011).
3.1. Zastosowanie metod oceny
architektury oprogramowania
Występujące w literaturze przedmiotu metody oceny architektury przedsiębiorstwa wywodzą się z metod oceny architektur oprogramowania proponowanych przez środowiska inżynierii oprogramowania. Obszerny ich
przegląd i propozycje oryginalnych rozwiązań w tym zakresie umieszczone
są w pracy Sobczaka (2008). Do tej grupy metod należą m.in.:
– metoda SBAR (Scenario Based Architecture Reengineering), której celem
jest ocena wpływu architektury oprogramowania na wymagania jakościowe;
– metoda ACSPP (Architecture-Centered Software Project Planning)
(Paulish 2002);
– metoda ALPSM (Architecture Level Prediction of Sofware Maintenance)
do wspomagania oceny konserwacji oprogramowania;
– metoda SARA (Software Architecture Review and Assessment (SARA
2002);
– metoda CBAM (Cost Benefit Analysis Method) do oceny zagadnień
technicznych i ekonomicznych;
– metoda SACAM (Software Architecture Comparison Analysis Method)
do prowadzenia analizy porównawczej architektury systemów oprogramowania;
– metoda ATAM (Architecture Trade off Analysis Method) do badania
spełnienia wymagań jakościowych (Ionita, Hammer i Obbink 2012).
3.2. Zastosowanie metod oceny dopasowania
praktyki biznesowej i rozwiązań IT
Ocena architektury przedsiębiorstwa może być dokonywana przez porównanie dopasowania technologii informatycznych do celów ekonomicznych,
działań i procesów organizacji. Brak dopasowania działalności biznesowej
i IT jest czynnikiem wstrzymującym tworzenie unikatowych wartości przez
IT w przedsiębiorstwie (King i Tao 1997). W literaturze przedmiotu spotkać
można wiele modeli dopasowania technologii do potrzeb biznesowych:
– model BITA (Business IT Alignment),
– model strategicznego dopasowania SAM (Strategic Alignment Model),
– model IAF (Integrated Architecture Framework),
– model Luftmana (Luftman’s Alignment Model, LAM),
– Reich i Benbasat Model (RBM),
– model SCAM (Sabherwal Chain Alignment Model),
– model HHAM (Hu Huang Alignment Model).
174
Problemy Zarządzania
Metody oceny architektur korporacyjnych
W modelu BITA przyjmuje się, że dopasowanie biznes–IT jest konstrukcją wielowymiarową. Analizowane wymiary to strategia i polityka, organizacja i procesy, technologia informacji, monitorowanie i kontrola, ludzie
i kultura. Dojrzałość wszystkich wymiarów jest równie ważna i równowaga
między poziomami dojrzałości jest zasadniczo traktowana jako dopasowanie
biznes–IT (Wijaya, Spruit i Scheper 2009).
Henderson i Venkatraman zaproponowali model SAM, obejmujący dwie
części znane jako strategiczne dopasowanie i funkcjonalna integracja. Model
SAM wymaga odróżnienia strategii IT od procesów i infrastruktury IT.
Podobnie model wymaga odróżnienia wewnętrznej działalności biznesowej
i strategii biznesowej. Każdy z obszarów (biznes, IT) dzieli się dalej na
podobszary, zgodnie ze swoją specyfikacją funkcjonalną. Strategiczne dopasowanie rozpoznawane jest na podstawie tego, jak firma jest pozycjonowana
na rynku IT (perspektywa zewnętrzna) i jak infrastruktura IT jest konfigurowana i zarządzana (perspektywa wewnętrzna). W modelu wyróżniono
dwa rodzaje integracji. Strategiczna integracja jest połączeniem strategii
biznesu i strategii IT. Integracja operacyjna obejmuje powiązania infrastruktury organizacyjnej i procesów biznesowych z infrastrukturą IT i procesami
zarządzania IT (Henderson i Venkatraman 1999).
W modelu IAF projekt architektury jest katalizatorem dopasowania biznes–IT. Autorzy modelu IAF wzbogacili model SAM przez wprowadzenie
architektury informacji, komunikacji i infrastruktury. W modelu dokonano
podziału dopasowania na dopasowanie strukturalne i dopasowanie operacyjne, które wiążą ze sobą zmienne takie jak architektura i możliwości oraz
procesy i umiejętności (Wiggers, Kok i de Boer-de Wit 2004).
Luftman w swoim modelu przestawia strategiczne dopasowanie jako
kompletnie holistyczny proces, który obejmuje nie tylko ustalenie dopasowania, ale także jego dojrzałość przez maksymalizowanie działania czynników wspomagających i ograniczanie czynników minimalizujących. Model
LAM zgodny jest z podejściem oddolnym, czyli ocenę dopasowania należy
rozpocząć od ustalenia celów operacyjnych uwzględniających powiązanie biznes–IT, poprzez analizowanie i hierarchizację celów, nadawanie priorytetów
lukom, specyfikowanie działań zarządzania projektami, wybieranie i ocenianie, czy spełnione są kryteria sukcesu, aż po konsekwentne utrzymywanie
dopasowania we wszystkich procesach biznesu. Model Luftmana kompleksowo i dokładnie ujmuje problemy dopasowania. W modelu uwzględniono
sześć kryteriów: komunikacja, miary, zarządzanie strategiczne (governance),
partnerstwo, technologia i zasoby ludzkie, oraz wyróżniono pięć poziomów
dojrzałości: wstępny, rozpoczęcia, celowy, doskonalony i optymalny. Dla
każdego z kryteriów wyspecyfikowano listę subkryteriów wspomagających
ewaluację dopasowania (Luftman 2003).
W modelu RBM autorzy koncentrują uwagę na czynnikach społecznych
determinujących dopasowanie biznes–IT. Zaliczają do nich: współdzielenie
wiedzy dziedzinowej, sukces wdrożenia IT, komunikację między kierownicvol. 10, nr 3 (38), 2012
175
Małgorzata Pańkowska
twem biznesu i kierownictwem IT, powiązania między planowaniem biznesowym i planowaniem IT (Reich i Benbasat 2000).
W modelu SCAM, zorientowanym na rozwój strategii systemów informacji, wykorzystano podejście Milesa i Snowa typologii strategów jako
obrońców, analityków i prognostyków podejmujących wyzwania dopasowania (Sabherwal i Chan 2001).
W modelu HHAM zrównoważona karta wyników (Balanced Scorecard)
jest podstawowym narzędziem oceny dopasowania biznes–IT. Model HHAM
stanowi rozszerzenie modelu RBM dla zarządzania dopasowaniem (Hu
i Huang 2006).
3.3. Zastosowanie metody oceny
dojrzałości architektury
Model dojrzałości architektury (Architecture Capability Maturity Model)
służy zapewnieniu, że organizacja gospodarcza ustawicznie podejmuje wysiłki
budowy modelu architektury IT. Wspomaga ocenę procesów IT, zapewnia
przejście od architektury istniejącej do architektury docelowej, umożliwia
identyfikowanie obszarów niedoskonałości i wspomaga określenie sposobów przejścia w kierunku udoskonalenia oraz zwiększa korzyści architektury
w miarę rozwoju jej dojrzałości. W literaturze przedmiotu wyróżnia się cztery
poziomy rozwoju dojrzałości architektury przedsiębiorstwa. Dwa pierwsze
poziomy dotyczą przedsiębiorstw, dla których nie zbudowano modelu architektury, dwa kolejne określają stopniowy rozwój EA (Salmans 2010).
Organizacja Garner Group zaproponowała 8 kryteriów dojrzałości architektury przedsiębiorstwa (Godinez i in. 2010; Salmans 2010):
– zakres architektury i jej zarząd,
– zaangażowanie interesariuszy,
– proces definiowania architektury,
– rozpoznanie kontekstu biznesowego,
– przedmiot architektury,
– rozpoznanie możliwości realizacyjnych,
– konstrukcja zespołu architektów,
– oddziaływanie architektury przedsiębiorstwa.
W modelowaniu dojrzałości architektury przedsiębiorstwa znajdują zastosowanie następujące narzędzia (Salmans 2010):
– narzędzia opisowe do oceny aktualnego stanu architektury, wspomagania
procesu doskonalenia, ilustrowania projektowanych korzyści, wspomagania zarządzania projektem przez kwantyfikację postępu;
– narzędzia preskryptywne (np. burze mózgów) do ustalania celów na
przyszłość, osiągnięcia pożądanego poziomu dojrzałości;
– narzędzia porównań, takie jak benchmarking efektywności praktyk EA.
176
Problemy Zarządzania
Metody oceny architektur korporacyjnych
3.4. Ocena architektury przedsiębiorstwa
jako złożenia projektów IT
Przyjęcie definicji architektury przedsiębiorstwa (Enterprise Architecture – EA) jako układu systemów, czyli złożenia całości z komponentów,
jakimi są systemy informatyczne, pozwala na zastosowanie w celu jej oceny
metod proponowanych do oceny przedsięwzięć informatycznych. W literaturze przedmiotu z zakresu zarządzania przedsięwzięciami stale dominuje
podejście rozwoju jednego projektu i koncentracji uwagi na problemach
wewnętrznych projektu w oderwaniu od powiązań z innymi projektami
i ze środowiskiem społeczno-gospodarczym, w którym projekt się rozwija.
W kontekście rozwoju architektury przedsiębiorstwa uzasadnione jest podjęcie analizy uwarunkowań rozwoju sieci projektów takich jak multiprojekty,
portfele projektów, programy i kompozycje projektów roll-out (Pańkowska
2009).
Projekty informatyczne architektury przedsiębiorstwa cechuje interdyscyplinarność, oznaczająca konieczność współpracy specjalistów z różnych
działów, różnych dziedzin i wielu jednostek organizacyjnych, tzn. analityków
biznesu, projektantów aplikacji, programistów, wdrożeniowców, specjalistów
infrastruktury technicznej. Projekty systemów informatycznych architektury
korporacyjnej są wykorzystywane jako środki realizacji planu strategicznego
przedsiębiorstwa, niezależnie od tego, czy zespół projektowy jest grupą osób
zatrudnionych w danej organizacji, czy jest to zespół kontraktowy dostawcy
usług. Projekty informatyczne EA są zawsze jako całość zorientowane na
osiągnięcie predefiniowanych celów i istotną ich własnością jest konieczność
rozdzielenia całości architektury na części lub etapy dla łatwiejszej analizy,
realizacji projektów równolegle lub sekwencyjnie i ich oceny. Zachodzi zatem
konieczność podziału pracy wykonawców i oceniających projekty informatyczne architektury przedsiębiorstwa. Wśród ważnych własności EA należy
wymienić unikatowość rozwoju EA wyznaczoną parametrami systemów
informacji, wiedzą interesariuszy, kulturą i strukturą wewnątrz przedsiębiorstwa i jego relacjami z otoczeniem, oraz ciągłością zmian wymuszoną
zmianami systemu zarządzania oraz ustawicznym wprowadzaniem na rynek
ciągle nowych technologii informatycznych.
W rzeczywistości przestrzeń rozwoju projektów informatycznych EA jest
złożona, gdyż każdy projekt jest związany z innym projektem danego modelu
EA, a zespoły wykonawców mogą być rozproszone i przydzielone do wielu
projektów w różnym czasie. Realizowane równolegle lub z przesunięciem
czasowym projekty informatyczne modelu EA pozwalają wykorzystać źródła synergii, możliwości wspólnego wykorzystania dostępnej infrastruktury
techniczne, dostępnych pakietów komputerowego wspomagania inżynierii
oprogramowania (Computer Aided Software Engineering – CASE) i pakietów komputerowego wspomagania zarządzania projektem (Computer Aided
Project Management – CAPM).
vol. 10, nr 3 (38), 2012
177
Małgorzata Pańkowska
Model procesu rozwoju architektury przedsiębiorstwa obejmuje:
1. Definiowanie wizji, celów i zasad architektury przedsiębiorstwa:
– ustalenie procesu, zakresu i budżetu,
– ustalenie kluczowych czynników sukcesu rozwoju EA,
– rozwój wizji IT i celów ekonomicznych i technicznych,
– rozwój modelu architektury przedsiębiorstwa.
2. Specyfikację planowanych systemów informatycznych w modelu EA:
– ustalenie podstaw specyfikacji wymagań i studiów wykonalności,
– gromadzenie danych do specyfikacji systemów: prowadzenie wywiadów, warsztaty, badania ankietowe, tworzenie raportów,
3. Przygotowanie projektu architektury docelowej:
– oddzielne modelowanie widoków dla odzwierciedlenia ujęć architektury z różnych punktów widzenia, tj. przez różnych interesariuszy,
– kompletną identyfikację technologii,
– tworzenie opisu architektury docelowej dla każdego widoku (czyli
w aspektach: procesy biznesowe, dane, oprogramowanie, sprzęt
i wyposażenie),
– syntezę widoków,
– ocenę zgromadzonych produktów: docelowa architektura, dokumentacja, modele referencyjne.
3. Analizę ryzyka, sposobności i luk EA:
– specyfikację wszystkich projektów informatycznych niezbędnych do
osiągnięcia architektury docelowej,
– ustalenie wykonalności projektów informatycznych występujących
w modelu EA,
– analizę projektów alternatywnych, zagrożeń i korzyści,
– identyfikację wszelkich możliwych sposobności uzyskania dodatkowych korzyści i efektów synergii rozwoju wielu projektów,
– analizę luk i niezaspokojonych potrzeb informatycznych i biznesowych
przedsiębiorstwa,
– dokumentowanie rozpoznanych luk i sposobności.
4. Przygotowanie planu migracji do środowiska nowej EA:
– ustalenie priorytetów realizacyjnych,
– hierarchizację projektów częściowych składających się na model EA,
– identyfikację i administrowanie międzyprojektowymi zależnościami.
5. Wdrażanie systemów informatycznych modelu EA:
– realizację projektów systemów informatycznych według ustalonych
priorytetów,
– ustalanie podstaw pod każde kolejne wdrożenie,
– ustalenie odpowiedzialności za każde kolejne wdrożenie,
– aktualizację studium wykonalności dla całości obejmującej wszystkie
projekty informatyczne architektury przedsiębiorstwa,
– aktualizację planu migracji do nowej architektury przedsiębiorstwa,
– monitorowanie i oceny wykonanych projektów informatycznych.
178
Problemy Zarządzania
Metody oceny architektur korporacyjnych
6. Ustawiczny przegląd, ocenę i aktualizację:
– ustawiczny przegląd, ocenę i aktualizację modelu architektury przedsiębiorstwa,
– dopasowanie modelu architektury przedsiębiorstwa do nieprzewidzianych zmian,
– ocenę dopasowania systemów informatycznych i procesów biznesowych do potrzeb biznesowych,
– doskonalenie dopasowania IT do celów biznesowych przedsiębiorstwa,
– ocenę projektów informatycznych wchodzących w skład EA,
– aktualizację dalszego planu rozwoju EA.
Przedstawiona wyżej propozycja procesu zarządzania rozwojem architektury przedsiębiorstwa bazuje na przekonaniu, że rozwój EA jest oparty na
hierarchii projektów informatycznych przebudowy procesów biznesowych,
rozwoju oprogramowania i budowy infrastruktury sprzętowej i wyposażenia.
W celu usprawnienia osiągnięcia celów rozwoju architektury korporacyjnej (EA) organizacje gospodarcze powołują biuro zarządzania projektami
(BZP), które steruje projektami począwszy od ich konceptualizacji aż do
zakończenia. BZP jest odpowiedzialne za zarządzanie zbiorem projektów architektury przedsiębiorstwa przy zachowaniu odrębności ich celów
wewnętrznych i metod realizacji. Odpowiada za zapewnienie, że wszystkie
projekty są odpowiednio monitorowane i oceniane. Biuro jest niezbędne
do ustalenia struktury zadań i efektów, harmonogramu, kosztów, ryzyka nie
pojedynczego projektu, lecz kompleksu projektów EA. BZP ocenia wszystkie projekty w aspekcie komunikacji, powiązań i ryzyka, gospodarowania
zasobami ludzkimi, w aspekcie poprawności akwizycji zasobów (poprawności
postępowań przetargowych i gospodarowania oszczędnościami poprzetargowymi). BZP koordynuje użycie zasobów rzadkich (np. prace krytycznych
wykonawców) i poprawność przesunięć zasobów między projektami. BZP
prowadzi oceny wewnętrzne projektów EA, ale współpracuje w tym zakresie
z jednostkami oceny zewnętrznej, np. jednostkami nadzorującymi realizację
przedsięwzięć rozwoju architektur przedsiębiorstwa. BZP prowadzi analizę
wartości dodanej wygenerowanej w każdym projekcie EA, sprawdza efekty
weryfikacji i walidacji. Koordynuje współzależności projektów w kategoriach
problemów biznesowych, kwestii technicznych i polityk korporacyjnych.
W zarządzaniu projektami do określenia czynności oceny projektu
z punktu widzenia przyjętych kryteriów używa się terminu ewaluacja (Wysocki
i McGary 2005). Celem ewaluacji jest ustalenie kluczowych czynników sukcesu i przyczyn niepowodzeń projektu, stałe ulepszanie skuteczności interwencji zewnętrznej. Podstawowym kryterium oceny w przypadku ewaluacji
jest efektywność i wpływ działań realizowanych w ramach projektów na
osiąganie celów strategicznych przedsiębiorstwa. Zdaniem Sobczaka (2008)
ewaluacja jest systematycznym badaniem wartości albo cech konkretnego
obiektu z punktu widzenia przyjętych kryteriów w celu jego usprawnienia,
rozwoju lub lepszego zrozumienia. Ewaluacja definiowana jest jako szersza
vol. 10, nr 3 (38), 2012
179
Małgorzata Pańkowska
od oceny, której wyniki wykorzystywane są do poprawy jakości prowadzonych działań lub jakości produktów Ewaluacje i oceny projektów wykonywane są okresowo i regularnie przed rozpoczęciem projektu, w trakcie jego
realizacji i przy zakończeniu projektu oraz jakiś czas po jego zakończeniu
(Frączkiewicz-Wronka i Zrałek 2012). Ewaluacja obejmuje swoim zakresem
całą architekturę lub wybrane obszary projektowe (np. analizę finansową)
jednego lub wielu projektów. Ewaluacja odnosi się do długotrwałych efektów projektów, oddziaływania i rezultatów projektów EA. Ewaluacja jest to
obiektywna ocena projektu lub architektury przedsiębiorstwa we wszystkich
etapach, takich jak planowanie, realizacja i mierzenie rezultatów.
Ewaluacja EA może być prowadzona na podstawie następujących kryteriów:
– trafności,
– efektywności,
– skuteczności,
– oddziaływania,
– bezpieczeństwa,
– trwałości.
Kryterium trafności określa, w jakim stopniu przyjęte cele architektury
przedsiębiorstwa odpowiadają zidentyfikowanym problemom w obszarze
objętym projektami EA i realnym potrzebom beneficjentów. Kryterium efektywności pozwala ocenić ekonomiczność projektów informatycznych EA,
czyli stosunek poniesionych nakładów do uzyskanych produktów (nakłady
to zasoby finansowe i ludzkie). Kryterium skuteczności wyznacza, w jakim
stopniu zostały osiągnięte cele EA zdefiniowane na etapie planowania. Kryterium oddziaływania pozwala ocenić związek między celami EA a celami
ogólnospołecznymi, tj. stopień, w jakim korzyści odniesione przez beneficjentów rozwoju EA będą miały szerszy, ogólnospołeczny wpływ na otoczenie
społeczno-gospodarcze przedsiębiorstwa. Kryterium bezpieczeństwo służy
ocenie poziomu ochrony zasobów EA, czyli powstałych struktur i procesów
biznesowych, informacji, infrastruktur informatycznych przed naruszeniem
integralności systemów informatycznych i nieuprawnionym dostępem. Kryterium trwałości efektów pozwoli ocenić, czy rezultaty osiągnięte w ramach
projektu mogą trwać po zakończeniu okresu wsparcia finansowego na wykonanie EA oraz czy możliwe jest długotrwałe utrzymanie wpływu EA na
rozwój przedsiębiorstwa. Kryterium trwałości służy odpowiedzi na pytanie,
czy beneficjent rozwoju EA faktycznie osiągnął zamierzone efekty, czy też
być może udało mu się osiągnąć efekty odmienne od planowanych, albo
może efekty nie są należycie wykorzystane i należy beneficjenta posądzić
o niegospodarność.
Poza ewaluacją i oceną projektów w gospodarowaniu zasobami informatycznymi architektury korporacyjnej stosowana jest kontrola, której celem
jest porównanie istniejącego stanu projektu ze stanem postulowanym,
z punktu widzenia prawa (legalność podejmowanych działań), ustalenie
180
Problemy Zarządzania
Metody oceny architektur korporacyjnych
nieprawidłowości oraz przekazanie wyników w formie wniosków i zaleceń
do uprawnionego organu. Proces kontroli jest wyrywkowy, nieregularny, na
żądanie, w trakcie projektu i po zakończeniu jego realizacji. Przedmiotem
kontroli są generowane w projektach EA produkty, dokumenty analizy finansowej i prawnej oraz dokumenty wydatkowania środków (Zysińska 2007).
W odróżnieniu od kontroli proces audytu jest to proces kompleksowy, nieregularny lub regularny, prowadzony w trakcie lub po zakończeniu realizacji
projektu. Przedmiotem zainteresowań audytorów są generowane w ramach
projektów produkty i rezultaty oraz legalność i gospodarność wydatkowania
środków przez przedsiębiorstwo. W porównaniu z oceną projektów monitorowanie projektów jest to proces systematycznego zbierania i analizowania
wiarygodnych informacji ilościowych i jakościowych dotyczących realizacji
projektów. Celem monitorowania jest zapewnienie zgodności realizacji projektów z wcześniej zatwierdzonymi założeniami.
4. Podsumowanie
Opracowanie modelu architektury przedsiębiorstwa jest przedsięwzięciem
zalecanym dla holistycznego podejścia zarządzania i gospodarowania zasobami IT w organizacji gospodarczej. W niniejszym opracowaniu przyjęto
założenie, że architektura przedsiębiorstwa jest złożeniem wielu systemów
informatycznych. W konsekwencji uznano, że rozwój architektury przedsiębiorstwa może dokonywać się przez rozwój wielu projektów wzajemnie
powiązanych, realizowanych równolegle lub z przesunięciem czasowym.
Takie podejście rozwoju portfela projektów skłania do przedstawienie propozycji oceny architektury przedsiębiorstwa przez pryzmat prowadzonych
projektów informatycznych, w konkluzji ocena EA jest utożsamiana z oceną
projektów w portfelu.
Informacje o autorce
Dr hab. prof. UE Małgorzata Pańkowska – Wydział Informatyki i Komunikacji,
Uniwersytet Ekonomiczny w Katowicach.
E-mail: [email protected].
Bibliografia
Bazewicz, M. 1994. Metody i techniki reprezentacji wiedzy w projektowaniu systemów, Wrocław: Wydawnictwo Politechniki Wrocławskiej.
Bernus, P., Nemes, L. i G. Schmidt 2003. Handbook on Enterprise Architecture, Berlin:
Springer.
Dickerson, C.E. i D.N. Mavris 2010. Architecture and Principles of Systems Engineering,
Boca Raton: CRC Press Taylor & Francis Group, An Auerbach Book.
Frączkiewicz-Wronka, A. i M. Zrałek 2012. Ewaluacja jako narzędzie usprawniania zarządzania projektem realizowanym przez ośrodek pomocy społecznej, w: W. Koczur,
A. Rączaszek (red.) Współczesne obrazy polityki społecznej i gospodarczej, s. 157–179.
Katowice: Wydawnictwo Uniwersytetu Ekonomicznego.
vol. 10, nr 3 (38), 2012
181
Małgorzata Pańkowska
Godinez, M., Hechler, E., Koening, K., Lockwood, S., Oberhofer, M. i M. Schroeck
2010. The Art of Enterprise Information Architecture, Upper Saddle River: IBM Press
Pearson.
Greefhorst, D. i E. Proper 2011. Architecture Principles, The Cornerstones of Enterprise
Architecture, Heidelberg, Berlin: Springer-Verlag, DOI: 10.1007/978-3-642-20279-7_7.
Henderson, J.C. i N. Venkatraman 1999. Strategic Alignment: Leveraging Information
Technology for transforming organizations. IBM Systems Journal, nr 2–3 (38), DOI:
10.1147/SJ.1999.5387096.
Hoogervorst, J.A.P. 2009. Enterprise Governance and Enterprise Engineering, Berlin:
Springer, DOI: 10.1007/ 978-3-540-92671-9.
Hu, Q. i C.D. Huang 2006. Using the Balanced Scorecard to Achieve Sustained ITBusiness Alignment: A Case Study. Communications of the Association for Information Systems, nr 17, s. 181–204.
Huemer, Ch. 2009. UN/CEFACT’s Modeling Methodology (UMM) in a Nutshell, UN/
CEFACT TMG, 18 September 2009, http://www.unece.org/cefact/umm/ UMM_userguide-nutshell.pdf, odczyt: maj 2011.
Ionita, M.T., Hammer, D.K. i H. Obbink 2012. Scenario Based Software Architecture
Evaluation Methods, http://www.win.tue.nl, dostęp: maj 2012.
IT Governance Institute 2005. Governance of the Extended Enterprise, Bridging Business
and IT Strategies, London: Wiley & Sons.
Jaap, B., Van Dorn, M. i M. Piyusch 2006. Making IT Governance Work in a SarbanesOxley World, Hoboken: Wiley &Sons.
King, W.R. i T.S.H. Tao 1997. Integration between Business Planning and Information
Systems Planning: Validating a Stage Hypothesis. Decision Science, nr 2 (28),
s. 279–308, DOI: 10.1111/j.1540-5915.1997.tb01312.x.
Lankhorst, M. 2005. Enterprise Architecture at Work, Berlin: Springer, DOI: 10.1007/9783-642-01310-2.
Luftman, J. 2003. Assessing IT-Business Alignment, w: C.V. Brown i H. Topi (red.)
IS Management Handbook, s. 7–20. London: Auerbach Publications, DOI:
10.1201/9781420031393.ch1.
Minoli, D. 2008. Enterprise Architecture A to Z, Frameworks, Business Process Modeling,
SOA, and Infrastructure Technology, London: CRC Press, DOI: 10.1201/9781420013702.
Op’t Land, M., Proper, E., Waage, M., Cloo, J. i C. Steghuis 2009. Enterprise Architecture, Creating Value by Informed Governance, Berlin: Springer, DOI: 10.1007/978-3540-85232-2_3.
Pańkowska, M. 2010. Środowiska projektowe przedsięwzięć informatycznych, w: J. Sobieska-Karpińska (red.) Informatyka ekonomiczna. Informatyka w zarządzaniu, s. 238–253.
Wrocław: Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu..
Paulish, D.J. 2002. Architecture-Centric Software Project Management: A Practical Guide,
Upper Saddle River: Addison Wesley.
Reich, B.H. i I. Benbasat 2000. Factors That Influence The Social Dimension of Alignment Between Business and Information Technology Objective. MIS Quarterly, nr 1
(24), s. 81–113, DOI: 10.2307/3250980.
Sabherwal, R. i Y.E. Chan 2001. Alignment Between Business and IS Strategies; A Study
of Prospectors, Analyzers and Defenders. Information Systems Research, nr 1 (12),
s. 11–33, DOI: 10.1287/isre.12.1.11.9714.
Salmans, B. 2010. EA Maturity Models, w: L. Kappelman (red.) The SIM Guide to
Enterprise Architecture, s. 89–96. Boca Raton: CRC Press, Taylor & Francis Group.
SARA 2002. Final Report of the Software Architecture Review and Assessment, http://
philippe.kruchten.com/architecture/SARAv1.pdf, odczyt: maj 2012.
Sobczak, A. 2008. Formułowanie i zastosowanie pryncypiów architektury korporacyjnej
w organizacjach publicznych, Warszawa: Szkoła Główna Handlowa.
182
Problemy Zarządzania
Metody oceny architektur korporacyjnych
Theuerkorn, F. 2005. Lightweight Enterprise Architectures, London: Auerbach Applications,
DOI: 10.1201/9780203505311.
Wiggers, P., Kok, H. i M. de Boer-de Wit 2004. IT Performance Management, Amsterdam:
Elsevier Butterworth-Heidemann, DOI: 10.1016/B978-0-7506-5926-0.50006-6.
Wijaya, S., Spruit, M.R. i W.J. Scheper 2009. Webstrategy Formulation: Benefiting from
Web 2.0 concepts to deliver business values, w: M.D. Lytras, E. Damiani i P. Ordones
de Pablos (red.) Web 2.0, The Business Model, s. 103–133. New York: Springer, DOI:
10.1007/978-0-387-85895-1.
Wysocki, R. i R. McGary 2005. Efektywne zarządzanie projektami, Gliwice: Helion.
Zysińska, M. 2007. Ewaluacja, monitorowanie i kontrola projektów europejskich,
w: M. Trocki i B. Grucza (red.) Zarządzanie projektem europejskim, s. 223-238. Warszawa: Polskie Wydawnictwo Ekonomiczne.
vol. 10, nr 3 (38), 2012
183
Problemy Zarządzania, vol. 10, nr 3 (38): 184 – 203
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.11
Efektywność ekonomiczna wdrażania
telepracy w zespołach informatycznych
na przykładzie instytucji
sektora publicznego
Mirosław Dyczkowski
W pracy zaprezentowano wybrane problemy oceny efektywności ekonomicznej wdrażania telepracy w zespołach informatycznych instytucji sektora publicznego. Telepraca jest formą zatrudnienia, która z powodzeniem może być stosowana w większości prac i zawodów informatycznych. W warunkach
konieczności racjonalizacji stale rosnących kosztów pracy niezbędne staje się
wdrażanie programów telepracy w zespołach IT, także w instytucjach publicznych. Autor przedstawił podstawy metodyczne badania efektywności ekonomicznej takich programów, które bazuje na rachunku CBA (Cost-Benefits
Analysis). Szacowanie oczekiwanych korzyści oparto na kluczowych wskaźnikach celu (Key Goal Indicators) oraz kluczowych wskaźnikach wydajności
(Key Performance Indicators) zalecanych w procesie PO7 Zarządzanie zasobami
ludzkimi IT (Manage IT Human Resources) modelu COBIT® 4.1 (Control
Objectives for Information and related Technology). Zaproponowane podejście
zostało następnie zweryfikowane na przykładzie rzeczywistego programu telepracy dla informatyków, wdrażanego w dużej instytucji publicznej, a wybrane
szczegółowe oceny efektywności zawarto w niniejszym artykule.
1. Wprowadzenie do zarządzania efektywnością
ekonomiczną w sektorze publicznym
Analizując problemy pomiaru i oceny efektywności ekonomicznej w instytucjach sektora publicznego należy zwrócić uwagę na dwa – zdaniem autora
– istotne zagadnienia.
Po pierwsze trzeba zauważyć, że prace unifikujące i standaryzujące ocenę
efektywności prowadzone przez OECD, Bank Światowy czy Komisję Europejską i jej agendy w ramach m.in. takich koncepcji, jak „nowe zarządzanie
publiczne” (new public management), „zarządzanie oparte na wynikach”
(results-based management) i „zarządzanie menedżerskie w sferze publicznej”, wyraźnie podkreślają konieczność ekonomizacji sektora publicznego
184
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
(Habuda i Habuda 2005: 94–95; Lubińska 2009). Usługi publiczne powinny
być świadczone zgodnie z zasadą efektywności, a ich oceny bazować na
mierzalnych wskaźnikach jakościowych i ilościowych. Ma to umożliwić „uzyskiwanie najlepszych efektów z danych nakładów” czy też „minimalizować
nakłady niezbędne do osiągania założonych rezultatów” (Duda i in. 2004:
34–35). Można więc przyjąć, że wszystkie aktywności związane z informatyzacją tej sfery powinny być analizowane według zasad i kryteriów oceny
finansowej i/lub ekonomicznej1, zaś stosowane metody szczegółowe musi
charakteryzować jasność i jednoznaczność interpretacyjna, względna łatwość
użycia oraz akceptowalny poziom kosztów pozyskania wymaganych danych
i informacji. Cechy te posiadają metody analizy finansowej i ekonomicznej
oraz klasycznego rachunku efektywności (zarówno tzw. tradycyjne, jak i dedykowane innowacjom), dlatego – zdaniem autora – wśród nich należy szukać
rozwiązań właściwych obszarowi zastosowań IT w instytucjach publicznych.
Po drugie trzeba podkreślić, że pogorszenie koniunktury gospodarczej,
jakie obserwujemy na świecie, w tym także w naszym kraju, od drugiej połowy
2008 r., dotknęło również instytucje publiczne, w których dostępne środki
finansowe – w tym przeznaczone na przedsięwzięcia i systemy informatyczne
– w dużej mierze zależą od wielkości wpływów do budżetów centralnego
lub budżetów samorządowych, generowanych przez podmioty gospodarcze.
Według badań przeprowadzonych przez autora2, który w latach 2009–2011
przeanalizował zebrane metodą ankietową w 375 obiektach dane opisujące
wpływ kryzysu gospodarczego na obszar IT, w większości z nich spowodowało to częściowe, a w wielu radykalne zmiany strategii informatyzacji.
Najczęściej wskazywanymi przez respondentów przejawami tych zmian były:
spadek nakładów na inwestycje informatyczne, zmniejszenie budżetów oraz
ograniczenie zatrudnienia w działach czy służbach IT, zmniejszenie ilości
szkoleń i kursów informatycznych oraz przesunięcie planowanych inwestycji
IT w czasie. Jedną z zauważalnych konsekwencji deklaracji o obniżeniu
poziomu finansowania jest ciągłe poszukiwanie rozwiązań nakierowanych
na poprawę efektywności ekonomicznej IT, w tym także racjonalizujących
stale rosnące koszty pracy zatrudnionych informatyków3.
Celem niniejszego opracowania jest weryfikacja roboczej hipotezy wskazującej telepracę jako nie tylko elastyczną organizacyjnie oraz zorientowaną prospołecznie i proekologicznie4, ale również proefektywnościową
formę zatrudnienia, którą z powodzeniem można zastosować w zespołach
informatycznych w instytucjach sektora publicznego. W kolejnych częściach
artykułu są przedstawione wybrane problemy wdrażania telepracy w IT
i założenia metodyczne badania efektywności ekonomicznej programów
telepracy opartych na tzw. modelu mieszanym5. Zaproponowane podejście jest następnie weryfikowane na przykładzie pilotażowego wdrożenia
zrealizowanego w 2011 r. w dużej instytucji publicznej.
vol. 10, nr 3 (38), 2012
185
Mirosław Dyczkowski
2. Wybrane problemy wdrażania telepracy
w zespołach informatycznych
Przed prezentacją zagadnień oceny efektywności ekonomicznej należy
krótko omówić najważniejsze problemy wdrażania telepracy w zawodach
i zespołach informatycznych.
Po pierwsze przypomnijmy, że idea telepracy w obszarze IT ma już pół
wieku6, a więc możemy korzystać z doświadczeń nie tylko licznych firm sektora IT, ale też z najlepszych praktyk wypracowanych przez organizacje, które
za swój cel mają rozwój telepracy jako prospołecznego, proekologicznego
i proefektywnościowego systemu świadczenia pracy. Dotyczą one zarówno
samej koncepcji telepracy, jak i programów jej zastosowania w określonych
sektorach (w tym w analizowanych w opracowaniu instytucjach publicznych),
zawodach (w tym informatycznych) i strukturach organizacyjnych (w tym
zespołach projektowych lub zadaniowych).
Z punktu widzenia celu niniejszego artykułu należy zwrócić uwagę przede
wszystkim na przedstawiane w nich korzyści, które zidentyfikowano jako
efekty stosowania telepracy. Na przykład TelCoa (The Telework Coalition)
zidentyfikowała 10 głównych grup potencjalnych korzyści, które dotyczą
trzech kategorii interesariuszy: pracodawców i gospodarki, pracowników oraz
społeczeństwa i środowiska (TelCoa’s Top 10 Reasons to Telework©, http://
www.telcoa.org/about-us/telcoas-top-10-reasons-to-telework). Natomiast
P. Sienkiewicz i H. Świeboda (zob. tabela 1), analizując wiele dostępnych
raportów, zestawili najważniejsze zalety i wady telepracy dla instytucji i dla
pracowników. Należy zwrócić uwagę, że część podanych przez nich zalet
i wad cechuje mierzalność, co pozwala rejestrować wartości charakteryzujących je wskaźników7, a następnie używać zebrane dane w typowych
metodach pomiaru i oceny efektywności.
Po drugie trzeba podkreślić, że idea telepraca jest obecnie promowana
nie tylko przez specjalistów od zarządzania i świat biznesu, ale jest wspierana również przez polityków, którzy uznają ją m.in. za skuteczne narzędzie
tworzenia nowych, elastycznych miejsc pracy8. Wsparcie polityczne jest o tyle
istotne, że skutkuje ono z jednej strony kreowaniem strategii i będących
ich konsekwencją programów wdrażania telepracy9 oraz zapewnieniem dla
nich budżetowych źródeł finansowania, z drugiej zaś uchwalaniem regulacji
prawnych związanych z elastycznymi formami zatrudnienia. Na przykład
w Polsce odpowiednie zapisy dotyczące zatrudniania pracowników w formie
telepracy – zgodne z rekomendacjami unijnymi – zostały wprowadzone do
kodeksu pracy10 w sierpniu 2007 r. Dzięki wprowadzeniu prawnej definicji
telepracy oraz telepracownika możliwe stało się jasne określenie charakteru
i specyfiki tej formy zatrudnienia, a co za tym idzie wyznaczenie stosunków
stron, w tym ich praw i obowiązków. Ponadto pojawienie się odpowiednich regulacji daje dodatkowe możliwości aktywizacji zawodowej kobiet,
zainteresowanych łączeniem życia zawodowego z rodzinnym, osób niepeł186
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
nosprawnych, które – dzięki przełamaniu barier architektonicznych – mają
większe szanse na zdobycie pracy oraz osób zamieszkałych na obszarach
oddalonych od centrów gospodarczych lub administracyjnych11. Tym samym
także w obszarze IT pozwala na częstsze stosowanie tej elastycznej formy
zatrudnienia, także w stosunku do osób, których szanse na rynku pracy były
mniejsze. Również firmy informatyczne oraz instytucje poszukujące informatyków mogą liczyć – dzięki zwiększeniu liczby potencjalnych kandydatów
– m.in. na skrócenie procesu rekrutacji, ograniczenie zjawiska uzależnienia
od kluczowych pracowników czy na redukcję kosztów związanych z tworzeniem stanowisk stacjonarnych.
Zalety telepracy dla instytucji
– zmniejszenie kosztów funkcjonowania
(oszczędność powierzchni biurowej,
wyposażenia i zużycia materiałów,
kosztów zatrudnienia itp.)
– zwiększenie wydajności
– zmniejszenie liczby zwolnień
chorobowych
– brak spóźnień
– możliwość zatrudnienia osób
niepełnosprawnych i na urlopach
wychowawczych (macierzyńskich)
– pozyskanie i wykorzystanie
wykwalifikowanego personelu
– płaca za efekty, a nie za czas pracy
– ograniczenie niekorzystnego
wpływu wzajemnego oddziaływania
pracowników
Wady telepracy dla instytucji
– duże koszty początkowe
– trudności z zapewnieniem
wymaganego poziomu bezpieczeństwa
i poufności informacji
– trudności w zarządzaniu (konieczność
przedefiniowania wewnętrznych reguł,
sprzeciw kadry kierowniczej)
– brak bezpośredniego nadzoru nad
pracownikiem
– utrata tożsamości firmy
– łatwość „ucieczki” pracownika
(samozatrudnienie, freelancer)
Zalety telepracy dla pracowników
– większe możliwości zatrudnienia
– elastyczność zatrudnienia, umowy
o pracę, czasu pracy, miejsca
zamieszkania i miejsca pracy
– elastyczność
– zmniejszenie kosztów pośrednich
(wyższa płaca)
– zlikwidowany lub zredukowany
dojazd do pracy (oszczędność czasu
i pieniędzy)
– więcej czasu dla rodziny
– uzależnienie od technologii, co może
poprawiać umiejętności wymagane na
rynku pracy
– przestaje być istotny wygląd
i wiek pracownika – liczą się tylko
umiejętności
Wady telepracy dla pracowników
– izolacja i alienacja, poczucie
wyobcowania
– dłuższy dzień w pracy (brak struktury
dnia pracy, co może wywołać
dezorganizację pracy)
– stres w rodzinie (trudności
z odseparowaniem „pracy-domu”
i życia innych domowników)
– dodatkowe koszty
– obawa przed mniejszą możliwością
awansu oraz łatwiejszym
zwolnieniem
Tab. 1. Najważniejsze zalety i wady telepracy dla instytucji i dla pracowników. Źródło:
opracowanie własne na podstawie Sienkiewicz, P. i H. Świeboda 2004. Analiza systemowa
telepracy, w: L.H. Haber (red.) Społeczeństwo informacyjne – wizja czy rzeczywistość?
tom II. Kraków: AGH, s. 34–35.
Po trzecie należy zauważyć, że instytucje publiczne mogą i powinny
szeroko wdrażać telepracę. Zdaniem autora wynika to z wielu przyczyn.
Przede wszystkim strategie związane z unowocześnieniem obszaru zarząvol. 10, nr 3 (38), 2012
187
Mirosław Dyczkowski
dzania publicznego zakładają istotny przyrost ilości i rodzajów usług świadczonych przedsiębiorstwom i obywatelom drogą elektroniczną12, co pozwala
na wykonywanie przynajmniej części z nich w różnych modelach telepracy,
m.in. poprzez telecentra czy w systemie mieszanym. Na przykład w Stanach
Zjednoczonych, które są krajem o największej na świecie liczbie telepracowników, w tym w sferze publicznej, wdrażanie telepracy w agencjach
rządowych i federalnych jest już od 2001 r. na bieżąco monitorowane przez
GAO (The U.S. Government Accountability Office, wcześniej do 2004 roku
General Accounting Office) i OPM (The U.S. Office of Personnel Management), a zebrane doświadczenia są publikowane w formie corocznych
raportów13. Wynika z nich, że w 2009 r. telepracownicy stanowili 10,4%
ogółu zatrudnionych w tych agencjach, z tego ponad 67% pracowało w tej
formie przynajmniej 1 dzień w tygodniu. Najważniejszymi wskazywanymi
korzyściami było zaś: zwiększenie wydajności pracy, efektywniejsze zarządzanie kapitałem ludzkim, niższe koszty związane z rekrutacją i utrzymaniem
pracowników oraz oszczędności związane ze zmniejszoną absencją(United
States Office of Personnel Management 2011b). Taka promocja telepracy
w instytucjach publicznych oraz wynikające z jej wdrożenia korzyści mogą
być dobrym przykładem dla przedsiębiorstw i zatrudnionych tam pracowników. Doświadczenia te można próbować przenieść na europejski i polski
rynek pracy, w tym do zespołów informatycznych pracujących w instytucjach
publicznych.
Czwartym i zarazem ostatnim zagadnieniem, na jakie trzeba w tym punkcie zwrócić uwagę, jest fakt, iż zawody czy specjalizacje informatyczne są
jednymi z najbardziej podatnych na stosowanie tej formy zatrudnienia14.
Zauważają to autorzy licznych opracowań15, którzy podkreślają, że decyduje
o tym m.in. wysoka zgodność cech telepracy z charakterystykami produktów
informatycznych oraz zadaniami, które są realizowane podczas ich wytwarzania, obsługi i użytkowania, a więc czynnościami wykonywanymi przez
pracowników IT. I tak, produkty informatyczne można wytwarzać i obsługiwać, a usługi informatyczne świadczyć w dużej mierze zdalnie, nawet w skali
globalnej. Zatrudnieni w IT posiadają przy tym niezbędną do wdrożenia
telepracy wiedzę, kompetencje i umiejętności z zakresu technologii informacyjnych i komunikacyjnych, a firmy wymaganą infrastrukturę sprzętową,
aplikacyjną i sieciową. W telepracy liczy się nie samo działanie i sposób
jego prowadzenia, ale efekt, czyli rezultat pracy. Podobnie jest w IT, gdzie
większość dostarczanych rozwiązań jest tworzona w modelu projektowym,
w którym zarówno produkty i usługi finalne, jak i ich składowe mają zdefiniowane zakres, kryteria wykonania, czas i terminy oraz nakłady i koszty. Bardzo
ułatwia to zmianę technologii wytwarzania, udostępniania czy serwisowania
ze stacjonarnych na zdalne lub mobilne. Zarówno telepracy, jak i działaniom składającym się na pracę informatyka przypisuje się często cechę
koncepcyjności, co pozwala na ich równoległe prowadzenie, a jednocześnie
nakłada wymogi, które są rozwiązywane przez tzw. zarządzanie równoległe,
188
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
obejmujące: planowanie, zarządzanie, synchronizację procesów i informacji,
łączenie informacji, motywowanie i ocenę. Wdrażając telepracę, spotykamy
się także z typowym dla złożonych projektów informatycznych i działań
informatycznych zespołów zadaniowych wymogiem zachowania spójnego
obrazu całości projektu (tzw. big picture), w sytuacji gdy każdy pracownik
zajmuje się jedynie określonym wycinkiem całości. I w jednym, i w drugim
przypadku pomaga zarządzanie zadaniowe, zorientowane na wynik, z precyzyjną specyfikacją wykonywanych produktów końcowych i pośrednich,
procedurami zarządzaniem zmianami oraz wdrożoną platformą udostępniania i wymiany wszystkich niezbędnych informacji, a także odpowiednim
systemem wsparcia. Na koniec trzeba też zauważyć, że zawody informatyczne
z jednej strony wymagają, a z drugiej rozwijają takie cechy niezbędne telepracownikowi, jak: samodyscyplina, obowiązkowość, systematyczność, praca
w systemie zadaniowym, nastawienie na wynik czy umiejętność organizacji
pracy własnej, z jednoczesnym uwzględnieniem wymogów pracy w zespole.
W efekcie pracownicy branży IT (czy szerzej ICT) oraz informatycy
pracujący w przedsiębiorstwach i instytucjach, zarówno na świecie, jak
i w naszym kraju, są jednymi z najczęściej podejmujących zatrudnienie
w formie telepracy16.
3. Wybrane elementy koncepcji pomiaru i oceny
efektywności ekonomicznej wdrożenia telepracy
w zespołach informatycznych
Po syntetycznej prezentacji zagadnień związanych z telepracą obecnie
przejdziemy do omówienia najważniejszych problemów pomiaru i oceny
efektywności ekonomicznej wdrożenia tej formy zatrudnienia w zespołach
informatycznych.
W literaturze przedmiotu można znaleźć opisy wielu podejść metodycznych stosowanych do badania efektywności ekonomicznej szeroko rozumianego obszaru zastosowań informatyki oraz przykłady ich użycia17. Mnogość
dostępnych podejść wiąże się z tym, że pomiar i ocena efektywności ekonomicznej IT są zagadnieniami złożonymi i mogą być rozważane z różnych
perspektyw badawczych i praktyki zastosowań.
W pierwszej kolejności należy zauważyć, że metodyka używanego
rachunku efektywności zależy w dużej mierze od tego czy dane przedsięwzięcie (także informatyczne) ma charakter komercyjny, komercyjny
z akcentami społecznymi, społeczny z elementami komercyjnymi czy też
wyłącznie społeczny. Różnice dotyczą m.in. kryterium decyzyjnego, metod
i miar oceny opłacalności oraz sposobu uwzględniania ryzyka18. W związku
z tym, że opracowanie koncentruje się na wdrożeniu telepracy, a więc na
przedsięwzięciu, w którym – zgodnie z opisami z poprzedniego punktu –
powinny równoważyć się akcenty komercyjne i społeczne, to zastosowane
vol. 10, nr 3 (38), 2012
189
Mirosław Dyczkowski
podejście metodyczne powinno z jednej strony opierać się na klasycznym,
komercyjnym rachunku efektywności, z drugiej zaś uwzględniać czynniki
społeczne, integrując uzyskane wyniki w spójny system oceniający.
1. Identyfikacja oraz kwantyfikacja
nakładów i kosztów
2. Identyfikacja oraz kwantyfikacja
efektów ekonomicznych
3. Kalkulacja oraz ocena efektywności
ekonomicznej (NPV, IRR, i MIRR)
4. Wybór wskaźników efektywności (KPI) do oceny
korzyści trudnych do wyceny pieniężnej
5. Okresowa ocena korzyści trudnych
do wyceny pieniężnej (KPI)
6. Ocena rozszerzona czynników zmienności
i ryzyka (analizy wrażliwości oraz scenariuszowa)
Rys. 1. Ogólny schemat procesu analizy efektywności ekonomicznej rozszerzonej o oceny
korzyści trudnych do wyceny pieniężnej oraz czynników zmienności i ryzyka. Źródło:
opracowanie własne.
Ilustruje to rysunek 1. Przedstawiona na nim schematycznie procedura
składa się z sześciu kroków. Trzy pierwsze z nich to standardowe działania
charakterystyczne dla klasycznych metod analizy efektywności ekonomicznej
opartych na rachunkach analitycznych typu CBA (Cost Benefits Analysis),
których możliwość stosowania zarówno w sferze zarządzania publicznego,
jak i w obszarze IT została potwierdzona w licznych opracowaniach19. Ich
autorzy podkreślają jednak często, że o ile strona nakładowo-kosztowa w tym
rachunku jest przejrzysta oraz względnie prosta w identyfikacji i kwantyfikacji
(w obszarze IT podstawą są zbióry praktyk TCO – Total Cost of Ownership),
o tyle znacznie bardziej złożone jest identyfikowanie i kwantyfikowanie efektów ekonomicznych, zwłaszcza w ujęciu ex ante, a więc dla scenariuszy typu
„to-be”. Proponują więc, aby oprócz tworzenia repozytoriów danych historycznych i porównawczych o uzyskanych wymiernych efektach i utraconych
korzyściach, rozszerzyć proces badania o analizę kluczowych wskaźników efektywności (KPI – Key Performance Indicators), charakteryzujących wspomagane
procesy organizacyjne czy biznesowe. Modelowanie oczekiwanych wartości
KPI na bazie danych porównawczych pozwala w sposób pośredni wiarygodnie estymować możliwe do osiągnięcia przyrosty produktywności (redukcje
kosztów i zmiany wskaźników wydajności). Jeżeli następnie chcemy do oceny
190
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
efektywności użyć zalecanych w analizie finansowej mierników (takich jak np.
ROI, NPV, IRR czy MIRR), to zmiany wartości KPI trzeba przełożyć na
konkretne wielkości finansowe20. Jest to na ogół możliwe, gdyż wiele z nich
jest skojarzonych z określonymi obiektami kosztowymi lub przychodami. Proces taki jest jednak złożony, a tym samym praco- i czasochłonny. Dotyczy to
zwłaszcza wyceny kosztów i korzyści społecznych, które są niejednokrotnie
nie mniej ważne od wyników ekonomicznych i finansowych.
W związku z tym, że sytuacja taka ma miejsce w przypadku telepracy,
to kroki 4. i 5. zaproponowanej procedury (rysunek 1) modyfikują sposób
użycia KPI. W przypadku korzyści trudnych do wyceny pieniężnej można
proces analityczny ograniczyć do rejestrowania wartości wskaźników i badania ich zgodności z zaplanowanymi wielkościami docelowymi lub przejściowymi. Jest to podejście znane ze wszystkich procedur, których zadaniem
jest ciągłe, ewolucyjne doskonalenie (continuous improvement) dowolnych
procesów. Problemem pozostaje doboru zestawu właściwych wskaźników:
celu (KGI – Key Goal Indicators) oraz efektywności (KPI). Wydaje się, że
w przypadku analizowanego w opracowaniu wdrożenia telepracy określając taki zestaw można oprzeć się na modelu COBIT (Control Objectives
for Information and related Technology) (IT Governance Institute 2007).
Jest to powszechnie akceptowany standard tzw. ładu IT, opracowany przez
ISACA i ITGI (IT Governance Institute), zawierający zbiór dobrych praktyk, w tym celów kontrolnych dla technologii informacyjnych i technologii
powiązanych. Tworzy on przejrzysty i spójny model ramowego zarządzania
IT w organizacjach. W wersji COBIT 4.1 cele i wskaźniki, których można
użyć w obszarze telepracy, są zdefiniowane w procesie PO7 Zarządzanie
zasobami ludzkimi IT21 (por. rysunek 2).
Po przeanalizowaniu wskaźników efektywnościowych procesu PO7
uznano, że do pomiaru efektywności wdrożenia telepracy mogą być użyte
następujące KPI:
– liczba stanowisk pracy włączonych do programu telepracy,
– liczba pracowników świadczących pracę w systemie telepracy,
– koszt utrzymania stanowisk pracy włączonych do programu telepracy,
– wskaźnik rotacji (liczba odejść w relacji do średniego poziomu zatrudnienia),
– liczba umów o pracę rozwiązanych na wniosek pracownika,
– liczba umów o pracę rozwiązanych za porozumieniem stron,
– średnia liczba dni rekrutacji,
– liczba opuszczonych dni pracy,
– wskaźnik absencji (liczba opuszczonych dni pracy w relacji do liczby dni
roboczych),
– liczba dni roboczych utraconych z powodu nieplanowanych nieobecności,
– wskaźnik zadań zrealizowanych terminowo (procentowy),
– wskaźnik satysfakcji pracowników (poziom zadowolenia, zaufania i lojalności),
– wskaźnik zainteresowania pracowników telepracą (procentowy).
vol. 10, nr 3 (38), 2012
191
Mirosław Dyczkowski
Wskaźniki
– Poziom satysfakcji
interesariuszy z wiedzy
i umiejętności
pracowników IT
– Procent satysfakcji
użytkowników IT
– Procent pracowników IT
spełniających profil kompetencyjny dla strategicznych ról
– Procent obsadzenia ról IT
– Procent dni roboczych utraconych
z powodu nieplanowanych
nieobecności
– Procent pracowników IT, którzy
ukończyli roczny plan szkoleń
– Aktualna proporcja wykonawców
zewnętrznych do pracowników,
w stosunku do planowanej
proporcji
– Procent pracowników IT
posiadających certyfikat
bezpieczeństwa
– Procent zapewnienia
wykwalifikowanych zastępstw
dla ról IT
ją
lizu
ją
lizu
mierzone przez
– Zatrudnianie i szkolenie
pracowników IT do
wspierania realizacji planu
operacyjnego IT
– Mitygacja ryzyka związanego
z uzależnieniem od
kluczowych pracowników IT
– Okresowa ocena
pracowników IT
rea
rea
mierzone przez
– Zbudowanie polityki zarządzania
zasobami ludzkimi IT
– Wykorzystanie wszystkich
pracowników IT przy
jednoczesnej minimalizacji
uzależnienia się od kluczowych
pracowników IT
Działań
wspierane przez
– Pozyskanie i utrzymanie
kompetencji IT
wspierających realizację
strategii IT
– Elastyczne dopasowanie IT
do oczekiwań biznesu
Procesu
wspierane przez
Cele
IT
mierzone przez
– Procent pracowników IT,
którzy ukończyli ścieżkę
szkoleń
– Procent pracowników IT
z udokumentowaną
i terminowo przeprowadzoną
oceną okresową
– Procent kompletności opisu
kart stanowisk wraz
z wymaganymi kwalifikacjami
– Wskaźnik rotacji
pracowników IT
– Procent pracowników IT
posiadających wymagane
certyfikaty
– Średnia liczba dni rekrutacji
Rys. 2. Cele i wskaźniki procesu PO7 Zarządzanie zasobami ludzkimi IT. Źródło: opracowanie
własne na podstawie IT Governance Institute 2007. COBIT® 4.1, http://www.isaca.org/
Knowledge-Center/co-bit/Pages/Downloads.aspx, s. 57.
Powyższa lista nie jest zamknięta i w konkretnych sytuacjach może być
rozszerzona lub zawężona. Wybranych z niej KPI użyto w studium przypadku
oceny pilotażowego wdrożenia programu telepracy, które jest przedstawione
w następnej części opracowania.
Ostatnim, szóstym krokiem procedury analitycznej przedstawionej na
rysunku 1 jest rozszerzona ocena czynników zmienności i ryzyka, które nie są
(poza dyskontem i badaniem profilu NPV) uwzględniane we wcześniejszych
krokach. W tym celu powinno się uzupełnić badanie o analizę wrażliwości
(what-if) i o analizę scenariuszową typu OBP (scenariusze optymistyczny,
bazowy i pesymistyczny). W związku z tym, że są one szeroko opisane
w literaturze przedmiotu22, pominiemy ich charakterystykę, a tylko pokażemy
ich zastosowanie w prezentowanym studium przypadku.
192
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
4. Studium przypadku
4.1. Ogólna charakterystyka środowiska wdrożenia
Analizy tzw. krytycznych czynników sukcesu/porażki oraz liczne studia
przypadków jednoznacznie wskazują, że największą szansę na powodzenie
mają przedsięwzięcia o klarownie sformułowanych i jasno artykułowanych
celach, spójnych ze strategiami biznesową i informatyzacji, mające pełne
wsparcie zarządzających i angażujące na wszystkich etapach w możliwie
dużym zakresie przyszłych użytkowników, a więc takie, które są dobrze
wpisane w środowiska organizacji, których dotyczą. Podobnie jest z programami wdrażania telepracy. Dlatego też przed prezentacją wyników oceny
efektywności krótko scharakteryzujemy badaną instytucję oraz najważniejsze
założenia realizowanego tam programu.
Weryfikację przyjętej metodyki oceny efektywności ekonomicznej wdrażania telepracy w zespołach informatycznych przeprowadzono w dużej instytucji
publicznej, w której w 2011 r. rozpoczęto pilotażowy program telepracy23.
W badanej instytucji telepraca nie była wcześniej szeroko stosowana, a zainteresowanie się tą formą świadczenia pracy wynika z przyczyn ekonomicznych i społecznych. Instytucja mieści się w centrum wielkiego miasta, gdzie
ceny wynajmu powierzchni biurowych są wysokie, czego skutkiem są znaczne
koszty utrzymania stacjonarnych stanowisk pracy. Poza tym duża część pracowników narzeka na czasochłonny dojazd do pracy i, ze względu na korki
oraz odległość od miejsca zamieszkania, wnioskuje do przełożonych o przesunięcie godzin albo o elastyczny czas pracy.
Dział IT funkcjonujący w instytucji zatrudnia prawie 100 pracowników.
Wdrożono w nim system rejestracji czasu pracy oraz system stawiania i rozliczania zadań. Wszystkie zadania stawiane pracownikom mają precyzyjnie
określone cele i wyniki. Instytucja jest od strony techniczno-organizacyjnej
przygotowana do wdrożenia telepracy, gdyż ma opracowane i na bieżąco
stosuje bezpieczne rozwiązania zdalnego dostępu do wewnętrznych zasobów
informatycznych, posiada zdefiniowane standardy stacjonarnych i mobilnych
stanowisk roboczych oraz funkcjonujący przez całą dobę system wsparcia
(Service Desk).
Największym wyzwaniem była natomiast zmiana kultury organizacyjnej
i podniesienie świadomości co do telepracy oraz zminimalizowanie oporu
przed wdrożeniem nowej formy pracy. Dlatego szczególna uwaga została
zwrócona na następujące elementy:
– nakierowanie systemu zarządzania na rezultaty, a nie na realizację działań;
– nowe i pełne procedury działania, które oparto na kulturze zaufania
i delegowaniu zadań do pracowników oraz na popieraniu ich wyobraźni,
kreatywności i odpowiedzialności;
– prowadzenie systematycznych szkoleń dla telepracowników i ich menedżerów.
vol. 10, nr 3 (38), 2012
193
Mirosław Dyczkowski
Ze względu na obecną kulturę organizacyjną oraz potrzebę osobistych
kontaktów pracowników przyjęto mieszany model telepracy, w którym telepracownik miał pracować zdalnie przez 3 dni w tygodniu. Założono też, że
telepracownikiem będzie mógł zostać każdy, kto będzie chciał, ale jednocześnie spełni ściśle określone kryteria. Będzie mógł również, bez żadnych
konsekwencji, zrezygnować z tej formy pracy i powrócić do poprzedniej.
4.2. Pomiar i analiza efektywności wdrożenia
finansowymi metodami dyskontowymi
Zgodnie z przedstawioną wcześniej (punkt 3) koncepcją badania efektywności, pomiar i analizę należy zacząć od zastosowania klasycznych finansowych metod dyskontowych (por. kroki 1–3 na rysunku 1), opartych na
rachunku CBA.
Tabela 2 zawiera główne parametry programu wdrożenia telepracy, na
podstawie których kwantyfikowano wartości niezbędnych nakładów i kosztów
oraz oczekiwanych efektów.
Wyszczególnienie
2012
2013
Średni roczny pełny koszt zapewnienia
stanowiska pracy w siedzibie instytucji
960 zł
Średni koszt dostosowania jednego
stanowiska pracy w instytucji dla
telepracownika (tzw. gorące biurko)
2 000 zł
po 50 000 zł rocznie
Procent czasu pracy telepracownika
poza instytucją
Koszty wdrożenia (pierwszy rok) oraz
utrzymania (kolejne lata) programu
telepracy
Liczba telepracowników narastająco
2015
13 000 zł
Średni roczny pełny koszt dostępu
telepracownika do sieci
Roczny koszt szkolenia dla grupy
telepracowników i ich menedżerów
włączanych do programu telepracy
2014
0,00 zł
60%, tj. 3 dni w tygodniu
100 000 zł
10
po 30 000 zł rocznie
20
30
30
Tab. 2. Podstawowe parametry analizowanego wdrożenia telepracy. Źródło: opracowanie
własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej
programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana
pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT
w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 24.
Oszacowane na bazie tych parametrów wielkości wymaganych nakładów
i kosztów prezentuje tabela 3. Z kolei zestawienie wysokości oczekiwanych
bezpośrednich efektów ekonomicznych zawiera tabela 4. Zgodnie z przyjętymi wcześniej założeniami (por. kroki 4. i 5. procedury z rysunku 1), ze
względu na nieracjonalne koszty związane z wyceną pieniężną korzyści oraz
194
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
późniejszą jej aktualizacją, zrezygnowano z takiej wyceny korzyści związanych ze zwiększeniem efektywności pracowników oraz z ich rekrutacją
i utrzymaniem. Uwzględniono je natomiast w monitorowanych wskaźnikach
wdrożenia telepracy (zob. tabela 8).
Wyszczególnienie
Pełne nakłady i koszty wdrożenia
programu
Pełne koszty dostosowania
stanowisk pracy
Pełny koszt dostępu
telepracowników do sieci
Szkolenia i warsztaty
telepracowników i ich menedżerów
Koszty utrzymania programu
telepracy
Razem nakłady i koszty
2012
2013
2014
2015
100 000
0
0
0,00
12 000
12 000
12 000
0,00
9 600
19 200
28 800
28 800,00
50 000
50 000
50 000
0,00
0
30 000
30 000
30 000,00
171 600
111 200
120 800
58 800,00
Tab. 3. Przewidywane nakłady i koszty wdrożenia programu telepracy (w zł). Źródło:
opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności
ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa
napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie
IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 25.
Wyszczególnienie
Zmniejszone koszty zapewnienia
stanowisk pracy
Zmniejszone koszty absencji
telepracowników
Razem efekty
2012
2013
2014
2015
39 000
156 000
234 000
234 000
1 800
7 200
10 800
10 800
40 800
163 200
244 800
244 800
Tab. 4. Przewidywane efekty ekonomiczne wdrożenia programu telepracy (w zł). Źródło:
opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności
ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa
napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie
IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 25.
Tabela 5 prezentuje zestawienie przepływów pieniężnych (cash flow)
wdrożenia, stanowiące podstawę do obliczenia wartości NPV, IRR i MIRR.
Z kolei wartości tych miar efektywności, obliczone dla 3- i dla 4-letniego
cyklu życia programu telepracy przedstawia tabela 6.
W związku z tym, że obliczone miary odnoszą się wyłącznie do wariantu
bazowego i nie uwzględniają czynników zmienności i ryzyka, konieczne jest
– jak wskazano wcześniej – ich zweryfikowanie dla innych scenariuszy wdrożenia. W tym celu użyto metod analizy wrażliwości i scenariuszowej, a ich
wyniki przedstawiono w kolejnym punkcie opracowania.
vol. 10, nr 3 (38), 2012
195
Mirosław Dyczkowski
Wyszczególnienie
2013
2014
171 600
2012
111 200
120 800
58 800
40 800
163 200
244 800
244 800
–130 800
52 000
124 000
186 000
1,0000
0,9200
0,8465
0,7788
Zdyskontowane przepływy pieniężne
(NCF × CO)
–130 800
47 842
104 965
144 859
Skumulowane zdyskontowane
przepływy pieniężne
–130 800
–82 958
22 007
166 866
Nakłady i koszty (CF–)
Efekty (przewidywane korzyści oraz
redukcje kosztów CF+)
Przepływy pieniężne netto (NCF)
Współczynnik dyskonta 10% (CO)
2015
Tab. 5. Przepływy pieniężne w ramach wdrożenia programu telepracy (w zł) Źródło:
opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności
ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa
napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie
IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 26.
Wskaźnik efektywności
ekonomicznej
2012–2014
(3 lata)
2012–2015
(4 lata)
Zmiana
procentowa
NPV
18 952,07 zł
158 696,62 zł
837,4%
IRR
19,25%
57,39%
298,1%
MIRR
18,04%
43,94%
243,6%
Tab. 6. Wskaźniki efektywności ekonomicznej wdrożenia programu telepracy. Źródło:
opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności
ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa
napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie
IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 27–28.
4.3. Rozszerzona analiza i finalna ocena
efektywności ekonomicznej wdrożenia telepracy
Ostatnim, szóstym krokiem zaproponowanej procedury (por. rysunek 1)
jest rozszerzona ocena efektywności uwzględniająca czynniki zmienności
i ryzyka, w której stosuje się metody analizy wrażliwości i scenariuszowej. Jej
wyniki prezentują tabele 7 i 8. Na podstawie danych zawartych w pierwszej
z nich można stwierdzić, że zwłaszcza przy 4-letnim okresie analitycznym
projekt cechują duże marginesy bezpieczeństwa. Dotyczy to zarówno jego
strony nakładowo-kosztowej, jak i efektów.
Natomiast jeżeli chodzi o przedstawione w tabeli 8 wyniki analizy scenariuszowej, a więc wyliczone dla poszczególnych scenariuszy wartości NPV,
IRR i MIRR, można zauważyć, że projekt – poza scenariuszem pesymistycznym dla 3-letniego okresu analitycznego – w pełni spełnia we wszystkich
przypadkach tzw. bezwzględne kryterium opłacalności, gdyż NPV 암 0 oraz
IRR i MIRR 암 kgr24.
196
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
2012–2014
(3 lata)
2012–2015
(4 lata)
Zmiana
procentowa
Margines bezpieczeństwa dla nakładów
i kosztów
5,09
38,08
748,1
Margines bezpieczeństwa dla efektów
–4,84
–27,58
569,9
Wskaźnik efektywności ekonomicznej
Tab. 7. Wybrane wyniki analizy wrażliwości wdrożenia programu telepracy (w %). Źródło:
opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności
ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa
napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie
IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 27–28.
Wskaźnik efektywności
Scenariusz
optymistyczny
bazowy
pesymistyczny
3-letni okres analityczny (lata 2012–2014)
NPV
63 571,40 zł
18 952,07 zł
–23 667,27 zł
IRR
44,55%
19,25%
–0,69%
MIRR
37,87%
18,04%
0,97%
4-letni okres analityczny (lata 2012–2015)
NPV
212 512,05 zł
158 696,62 zł
105 378,56 zł
IRR
80,77%
57,39%
39,08%
MIRR
57,13%
43,94%
32,30%
Tab. 8. Wyniki analizy scenariuszowej wdrożenia programu telepracy. Źródło: opracowanie
własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności ekonomicznej
programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana
pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie IT
w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa.
Jak wskazano wcześniej, w analizie prowadzonej finansowymi metodami
dyskontowymi nie uwzględniano przy szacowaniu korzyści części wskaźników
efektywnościowych (KPI) telepracy, gdyż ich wycena pieniężna jest zbyt
złożona, czaso- i pracochłonna, a tym samym nieracjonalna z punktu widzenia koniecznych do poniesienia kosztów. Nie oznacza to, że je w badaniu
i ocenie ostatecznej wdrożenia pominięto. Są one na bieżąco monitorowane
na podstawie danych rejestrowanych przez odpowiednie służby lub systemy
działające w instytucji w sferze zarządzania zasobami ludzkimi (tabela 9).
Kończąc prezentację, należy podkreślić, że w analizowanym przypadku
wszystkie warunki i wynikające z nich kryteria efektywności są spełnione,
więc można uznać badany projekt za opłacalny w ujęciu ekonomicznym
i udzielić rekomendacji dla rozpoczęcia wdrożenia telepracy w zespołach
informatycznych badanej instytucji.
vol. 10, nr 3 (38), 2012
197
Mirosław Dyczkowski
Wskaźnik efektywności
(KPI)
Źródło danych
Uwagi
Cykl
pomiaru
Liczba stanowisk pracy
objętych projektem
Administracja
Miesięczny
Koszt utrzymania
stanowisk pracy objętych
projektem
Administracja
Miesięczny
Wskaźnik rotacji
pracowników
Kadry
W podziale na
pracowników
i telepracowników
Miesięczny
Liczba umów
rozwiązanych na wniosek
pracownika
Kadry
W podziale na
pracowników
i telepracowników
Miesięczny
Liczba umów
rozwiązanych za
porozumieniem stron
Kadry
W podziale na
pracowników
i telepracowników
Miesięczny
Średnia liczba dni
rekrutacji
Kadry
W podziale na
pracowników
i telepracowników
Miesięczny
Liczba dni nieobecności
w pracy
System rejestracji
czasu pracy
W podziale na
pracowników
i telepracowników
Miesięczny
Procent zadań
zrealizowanych
terminowo
System rejestracji
czasu pracy
W podziale na
pracowników
i telepracowników
Miesięczny
Liczba pracowników
świadczących pracę
w formie telepracy
Kadry
Poziom zadowolenia
pracowników
Cykliczne badania
ankietowe
Miesięczny
W podziale na
pracowników
i telepracowników
Półroczny
Tab. 9. Dodatkowe wskaźniki efektywnościowe (KPI) dla projektu wdrożenia telepracy. Źródło:
opracowanie własne na podstawie danych z pracy T. Kordecki 2011. Ocena efektywności
ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa
napisana pod kierunkiem M. Dyczkowskiego, Podyplomowe Studium Efektywne Zarządzanie
IT w Przedsiębiorstwie, XI edycja, Warszawa: Szkoła Główna Handlowa, s. 21–22.
5. Zamiast podsumowania
Instytucje publiczne – podobnie jak sfera biznesu – w obliczu spadku
nakładów finansowych na IT, wywołanego m.in. przez kryzys gospodarczy,
oraz stale rosnących kosztów pracy zatrudnionych tam zespołów informatycznych ciągle poszukują możliwości ich racjonalizacji. Jedną z opcji jest
powszechniejsze stosowanie telepracy jako elastycznej organizacyjnie, efektywnej ekonomicznie oraz zorientowanej prospołecznie i proekologicznie
formy zatrudnienia.
198
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
Autor ma nadzieję, że stanowiące treść opracowania rozważania, w tym
szczególnie koncepcja pomiaru i oceny efektywności oraz bazujące na niej
studium przypadku wdrożenia telepracy, przyczynią się do upowszechnienia
wiedzy na ten tak istotny temat i tym samym spowodują częstsze korzystanie
z tej formy zatrudnienia w zespołach informatycznych.
Informacje o autorze
Dr Mirosław Dyczkowski – Instytut Informatyki Ekonomicznej, Katedra
Technologii Informacyjnych, Uniwersytet Ekonomiczny we Wrocławiu.
E-mail: [email protected].
Przypisy
1
Szerzej na temat podobieństw i różnic pomiędzy analizą finansową i ekonomiczną
zob. m.in.: Drobniak 2008: 67–192.
2
Celem badania było określenie wpływu obecnego kryzysu gospodarczego na strategie
informatyzacji przedsiębiorstw i instytucji. Szerokie omówienie jego wyników,
z uwzględnieniem sektora publicznego, zawiera praca: Dyczkowski 2011b: 121–138.
Badania kontynuowano w latach 2011-2012, a ich wyniki są sukcesywnie publikowane.
Zob. m.in.: Dyczkowski 2011c: 102–117; Dyczkowski i Dyczkowski 2012 (w druku).
3
Wysokie i stale rosnące w Polsce koszty pracy we wszystkich praktycznie zawodach
informatycznych w kontekście analizowanego w artykule problemu telepracy związane
są m.in. ze względną łatwością świadczenia przez polskich informatyków pracy na
rynkach krajów o zdecydowanie wyższym poziomie wynagrodzeń i to często nawet
bez konieczności migracji (emigracji). Z jednej strony bowiem „praca przychodzi do
nich” (wiele firm lokalizuje u nas swoje oddziały czy centra kompetencyjne lub usługowe), z drugiej zaś technologie wytwarzania i rozwoju większości produktów i usług
IT pozwalają na ich bezproblemową zdalną obsługę. Sytuacja ta wywołuje zjawisko
wyrównywania wynagrodzeń w górę, do poziomu krajów wyżej rozwiniętych, co
w połączeniu z dużymi narzutami na płace w Polsce wywołuje wskazany wzrost kosztów pracy w sferze IT.
4
Elastyczność organizacyjna oraz orientacja prospołeczna i proekologiczna są w wielu
opracowaniach wskazywane jako te cechy telepracy, które powodują, że jest ona
coraz szerzej wdrażana jako alternatywna forma zatrudnienia lub świadczenia pracy.
Zob. m.in. fundamentalną pracę: Nilles 2003 oraz manifesty: TelCoa’s Top 10 Reasons
to Telework© (http://www.telcoa.org/about-us/telcoas-top-10-reasons-to-telework) i Why
do we keep trying to solve today’s economic, energy, and environmental problems… with
yesterday’s transportation-based solutions? (http://www.telcoa.org). Ten ostatni dokument – zachęcając do stosowania telepracy – podaje następującą formułę na „udaną
pracę na dziś i jutro”: IT + P3 = E3, zgodnie z którą poprawa gospodarki, racjonalizacja zapotrzebowania na energię oraz ochrona środowiska E³ (economic, energy
and environmental) zależą od stopnia połączenia stale rozwijanej technologii informacyjnej IT (information technologies) z odpowiednimi politykami, procesami i procedurami P³ (policies, processes and procedures).
5
Model mieszany telepracy, który występuje najczęściej i jest najłatwiej akceptowany
zarówno przez pracowników, jak i pracodawców, polega na przemiennym wykonywaniu pracy w kilku miejscach, np. w domu, telecentrum, firmie klienta, siedzibie
pracodawcy. Oprócz mieszanego, najczęściej wyróżnia się jeszcze dwa modele:
vol. 10, nr 3 (38), 2012
199
Mirosław Dyczkowski
(1) wyłącznego wykonywania telepracy przez pracownika w domu oraz (2) wyłącznego
jej świadczenia w miejscu specjalnie przeznaczonym do telepracy (telecentrum), a więc
zarówno poza miejscem zamieszkania pracownika, jak i poza siedzibą firmy. Szerzej
m.in. w: Łodyga 2007; Sienkiewicz i Świeboda 2004: 27–40.
6
Najczęściej przyjmuje się, że pojęcie telepracy narodziło się w latach siedemdziesiątych ubiegłego wieku, a za „ojca” telepracy uznaje się J.M. Nillesa, twórcę idei
telecommute (szerzej w: Nilles 2003), ale trzeba zauważyć, że początkiem realnej
telepracy w IT jest powstanie w Wielkiej Brytanii w 1962 r. firmy programistycznej
F International, która jako pierwsza zatrudniała kobiety pracujące zdalnie w swoich
domach. Natomiast sam termin telepraca (telework) został po raz pierwszy użyty
1972 r. przez J. Schiffa na łamach Washington Post (zob. m.in. Janiec i in. 2006:
15–20; Harnik 2008: 31).
7
Przykładem tego mogą być badania przytaczane w pracy M. Janiec i in (2006: 36),
które podają, że wzrost efektywności pracownika dzięki wdrożeniu telepracy wynosi
od 15% do 30%, zależnie od sposobów powiązania wynagrodzenia z efektami pracy
oraz kontroli telepracowników.
8
Przykładem może być wystąpienie prezydenta Baracka Obamy, który w marcu 2010 r.
w Kongresie Stanów Zjednoczonych, na forum dotyczącym elastyczności pracy powiedział m.in., że „praca to jest to, co robisz, a nie to, gdzie robisz” i podkreślił rolę
telepracy w tworzeniu nowych, elastycznych miejsc pracy. Zob. United States Office
of Personnel Management 2011b: 7.
9
Na przykład Unia Europejska uwzględnia telepracę w kolejnych strategiach rozwoju
społeczeństwa informacyjnego, poczynając od strategii lizbońskiej, poprzez takie inicjatywy jak „eEurope – an Information Society for All”, kończąc na szczegółowych
programach typu Telework, i zapewnia ich finansowanie w sferze badań i rozwoju
oraz projektów wdrożeniowych. Z kolei w Polsce telepraca – zwłaszcza w obszarze
zarządzania publicznego – stanowi ważny element kolejnych Strategii informatyzacji,
a także licznych programów i projektów centralnych (przykładem są współfinansowane
przez Ministerstwo Rozwoju Regionalnego i PARP programy Telepraca I i II) oraz
regionalnych (w tym współfinansowanych przez lokalne agencje rozwoju regionalnego). Szerzej m.in. w: Badanie efektywności... 2010; MAiC 2012; Janiec i in. 2006;
MSWiA 2008; Harnik 2008.
10
Ustawa Kodeks Pracy z dnia 26 czerwca 1974 roku z późniejszymi zmianami – tekst
ujednolicony, stan prawny na dzień 28.07.2011, rozdz. IIb, (http://www.prawopracy.
pl/graf/Kodeks_pracy.pdf), zgodnie z którą jako telepracę uznaje się pracę wykonywaną regularnie poza zakładem pracy, z wykorzystaniem środków komunikacji
elektronicznej w rozumieniu przepisów o świadczeniu usług drogą elektroniczną
(Art. 675 §1).
11
Należy jednak zaznaczyć, że mimo stworzenia odpowiednich regulacji prawnych,
nadal elastyczne formy zatrudnienia – w tym telepraca – są bardzo słabo rozpowszechnione na polskim rynku pracy. Według badań przeprowadzonych na zlecenie
PARP przez MillwardBrown SMG/KR w lutym 2010 tylko 11,2% pracowników deklarowało chęć pracy jako telepracownicy. Z badań tych też m.in. wynika, że największym
problemem, ograniczającym rozwój telepracy w Polsce, jest kwestia mentalności
pracodawców i pracowników. Pierwsi nie chcą tracić stałego nadzoru nad pracownikiem, drudzy uznają zdalne zatrudnienie za mniej atrakcyjne i bezpieczne od typowej
pracy na etacie. Zob. Badanie efektywności… 2010: 39.
12
W przypadku administracji i służb publicznych już w planie eEurope 2005 zawarto
wytyczne Komisji Europejskiej definiujące 20 podstawowych usług publicznych, jakie
powinny być świadczone obywatelom (12 usług) i przedsiębiorstwom (8 usług) drogą
elektroniczną. Dotyczy to także naszego kraju. Szeroko na ten temat m.in. w doku-
200
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
mencie MSWiA 2008. Także najnowsza, ciągle doskonalona Długookresowa Strategia
Rozwoju Kraju Polska 2030 w ramach agendy „Polska Cyfrowa” za jeden z pięciu
kluczowych przyjmuje projekt III.4 „Wdrożenie mechanizmów nowoczesnej debaty
społecznej i komunikacji Państwa z obywatelami, obejmujące zmianę procedur administracyjnych, wspartą wykorzystaniem narzędzi ICT”. Zob. MAiC 2012: 11 i 135.
13
Zob. m.in.: Federal Government’s Telework Program (http://www.telework.gov); United
States Office of Personnel Management 2011a; U.S. Government Accountability
Office 2003; United States Office of Personnel Management 2011b.
14
Listy i szczegółowe opisy zawodów oraz specjalizacji informatycznych zawierają m.in.:
Klasyfikacja Zawodów i Specjalności (pełna wersja jest dostępna m.in. na stronach
Ministerstwa Pracy i Polityki Społecznej – http://www.psz.praca.gov.pl/main.php?do=ShowPage&nPID=867758&pT=details&sP=CONTENT,object ID,868220) oraz
dokumentacja Europejskiego Certyfikatu Zawodu Informatyka, część Professional
EUCIP (European Certification of Informatics Professionals) opracowana przez CEPIS
(Council of European Professional Informatics Societies), w tym przez Polskie Towarzystwo Informatyczne (http://www.eucip.pl).
15
Zob. m.in. MAiC 2012 oraz MSWiA 2008.
16
Potwierdzają to na przykład dane z firmy Cisco Polska, w której ponad 90% pracowników na bieżąco korzysta z formy telepracy w modelu mieszanym. Podano za
Błaszczak 2011.
17
Zob. monografie poświęcone efektywności ekonomicznej IT, takie m.in. jak: Cypryjański 2007; Dudycz i Dyczkowski 2006; Jeruzalski 2009; Lech 2007.
18
Zob. porównanie przedstawione w pracy: Kasiewicz i Rogowski 2009: 144.
19
Zob. m.in. przywoływane wcześniej prace: Cypryjański 2007; Dudycz i Dyczkowski
2006; Jeruzalski 2009; Lech 2007; Rogowski 2008.
20
Autor przedstawił przykład użycia takiego podejścia m.in. w pracach Dyczkowski
2011a: 197–215 oraz Dyczkowski 2012: 45–54.
21
Najnowszym wydaniem modelu jest wersja COBIT 5, która została przyjęta w kwietniu 2012 r., a więc już po przygotowaniu założeń do opisywanego w opracowaniu
badania. W wersji tej odpowiednikiem PO7 jest proces APO7 Manage Human Resources, w którym zdefiniowano analogiczne cele i wskaźniki. Szersze dane są dostępne
na stronie http://www.isaca.org/COBIT/Pages/default.aspx.
22
Zob. m.in. prace: Dyczkowski 2008: 151–164; Rogowski 2008: rozdz. 3 i powoływane
tam opracowania innych autorów.
23
Weryfikację przeprowadzono we współpracy z T. Kordeckim, który pod kierunkiem
autora napisał pracę dyplomową na Studium Podyplomowym Efektywne Zarządzanie IT w Przedsiębiorstwie, prowadzonym w Szkole Głównej Handlowej. Zob. Kordecki 2011 (maszynopis).
24
Wartość stopy granicznej kgr na ogół jest przyjmowana w projektach komercyjnych
z elementami społecznymi na poziomie równym średniemu ważonemu kosztowi pozyskania kapitału (WACC). Dopuszcza się przy tym sytuacje, że w przypadku występowania przewagi efektów społecznych – a takie są w przypadku wdrażania telepracy
– może być ona nawet niższa. Szerzej na ten temat m.in. prace: Drobniak 2008;
Kasiewicz i Rogowski 2009; W. Rogowski 2008.
vol. 10, nr 3 (38), 2012
201
Mirosław Dyczkowski
Bibliografia
Badanie efektywności ogólnopolskiej kampanii informacyjno-promocyjnej, realizowanej przez
PARP w latach 2009-2011 oraz kampanii świadomościowej realizowanej w ramach projektu „Ogólnopolski program promocji i szkoleń dla przedsiębiorców Telepraca II” 2010.
Etap I – Pretest, raport przygotowany dla PARP przez MillwardBrown SMG/KRC,
Warszawa, http://www.efs.gov.pl/AnalizyRaportyPodsumowania/ba-za_projektow_
badawczych_efs/Strony/Badanieefektywnocioglnopolskiejkamp28032011.aspx.
Błaszczak, A. 2011. Mało telepracy w polskich firmach. Rzeczpospolita, 13.04.2011, http://
www.rp.pl/artykul/295881,642167.html.
Cypryjański, J. 2007. Metodyczne podstawy ekonomicznej oceny inwestycji informatycznych
przedsiębiorstw, Szczecin: Wydawnictwo Naukowe Uniwersytetu Szczecińskiego, seria
„Rozprawy i studia”, t. 669.
Drobniak, A. 2008. Podstawy oceny efektywności projektów publicznych, Katowice: Akademia Ekonomiczna w Katowicach.
Duda, J., Jeżowski, A., Misiąg, W., Nowak, B., Szlachta, J. i J. Zaleski 2004. Mierzenie
ilości i jakości usług publicznych jako element Programu Rozwoju Instytucjonalnego,
Warszawa: Instytut Badań nad Gospodarka Rynkową.
Dudycz, H. i M. Dyczkowski 2006. Efektywność przedsięwzięć informatycznych. Podstawy
metodyczne pomiaru i przykłady zastosowań, Wrocław: Wydawnictwo Akademii Ekonomicznej we Wrocławiu.
Dyczkowski, M. 2008. Analizy wrażliwości i scenariuszowa jako techniki wspomagające
ocenę efektywności przedsięwzięć informatycznych w warunkach zmienności i ryzyka,
w: J.K. Grabara, J.S. Nowak i T. Lis (red.) Przegląd zastosowań informatyki,
s. 151–164. Katowice: Polskie Towarzystwo Informatyczne – Oddział Górnośląski.
Dyczkowski, M. 2011a. Kalkulatory ROI/TCO jako narzędzie wspomagające zarządzanie
efektywnością systemów informatycznych. Podstawy metodyczne konstrukcji i studium
przypadku, w: W. Chmielarz, J. Kisielnicki i O. Szumski (red.) Informatyka 4 przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego,
rozdz. 2.4, s. 197–215. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania
Uniwersytetu Warszawskiego.
Dyczkowski, M. 2011b. Zmiany strategii informatyzacji pod wpływem kryzysu gospodarczego. Wyniki badań ankietowych z lat 2009–2010 z uwzględnieniem sektora administracji publicznej, w: J. Goliński, A. Kobyliński, A. Sobczak (red.) IT w służbie
efektywnego państwa. Technologie informatyczne w administracji publicznej i służbie
zdrowia, seria „Monografie i Opracowania” nr 586, s. 121–138. Warszawa: Szkoła
Główna Handlowa w Warszawie.
Dyczkowski, M. 2011c. Zmiany strategii informatyzacji polskich obiektów gospodarczych
pod wpływem kryzysu gospodarczego. Podsumowanie badań z lat 2009–2011. Informatyka Ekonomiczna (Business Informatics), nr 22/2011, Prace Naukowe Uniwersytetu
Ekonomicznego we Wrocławiu nr 212, s. 102–117.
Dyczkowski, M. 2012. Źródła wiedzy wspomagania procesu zarządzania efektywnością
zastosowań systemów klasy FSM/FFA w obszarze zarządzania publicznego, w: J. Gołuchowski (red.) Technologie wiedzy w zarządzaniu publicznym, Zeszyty Naukowe Wydziałowe Uniwersytetu Ekonomicznego w Katowicach, Studia Ekonomiczne nr 99,
s. 45–54.
Dyczkowski M. i T. Dyczkowski 2012. Changes in informatization strategies of Polish
companies and institutions in reaction to the economic crisis. Summary of the surveys from the years 2009-2011, in: Federated Conference on Computer Science and
Information Systems FedCSIS 2012, Wrocław (w druku).
Habuda, A. i L. Habuda 2005. Zarządzanie w zachodniej administracji publicznej (nowe
zarządzanie publiczne), w: R. Wiszniowski (red.) Administracja i polityka. Europejska
Administracja Publiczna, s. 93–112. Wrocław: Wydawnictwo Uniwersytetu Wrocławskiego.
202
Problemy Zarządzania
Efektywność ekonomiczna wdrażania telepracy w zespołach informatycznych...
Harnik, I. (red.) 2008. Telepraca i usługi zdalne, e-Przedsiębiorczość, Kraków: Małopolska
Agencja Rozwoju Regionalnego, http://www.marr.pl/multimedia/0000/3473/Telepra-ca_i_uslugi_zdalne_publikacja.pdf.
IT Governance Institute 2007. COBIT® 4.1, http://www.isaca.org/Knowledge-Center/
co-bit/Pages/Downloads.aspx.
Janiec, M., Czerniak, T., Kreft, W. i R. Piontek 2006. Prowadzenie działalności biznesowej
z zastosowaniem telepracy – poradnik, Telepraca. Ogólnopolski Program Promocji
i Szkoleń dla Przedsiębiorców, Warszawa: Polska Agencja Rozwoju Przedsiębiorczości, http://www.praca.czestochowaonline.pl/telepraca.pdf.
Jeruzalski, T. 2009. Efektywność i skuteczność wdrażania systemów IT w administracji
publicznej. Wspomaganie procesów podejmowania decyzji, Warszawa: Wydawnictwo
CeDeWu.
Kasiewicz, S. i W. Rogowski 2009. Inwestycje hybrydowe – nowe ujęcie oceny efektywności,
Warszawa: Szkoła Główna Handlowa.
Kordecki, T. 2011. Ocena efektywności ekonomicznej programu „Telepraca szansą dla Ciebie i Twojej firmy”, praca dyplomowa napisana pod kierunkiem M. Dyczkowskiego,
Podyplomowe Studium Efektywne Zarządzanie IT w Przedsiębiorstwie, XI edycja,
Warszawa: Szkoła Główna Handlowa.
Lech, P. 2007. Metodyka ekonomicznej oceny przedsięwzięć informatycznych wspomagających
zarządzanie organizacją, Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego.
Lubińska, T. (red.) 2009. Nowe zarządzanie publiczne – skuteczność i efektywność, Warszawa: Difin.
Łodyga, O. 2007. Telepraca – możliwości i ograniczenia. e-Mentor, nr 3 (20), http://
www.e-mentor.edu.pl/artykul/index/numer/20/id/443.
MAiC 2012. Długookresowa Strategia Rozwoju Kraju Polska 2030. Trzecia fala nowoczesności, Warszawa: Ministerstwo Administracji i Cyfryzacji, http://mac.gov.pl/strategie.
MSWiA 2008. Strategia rozwoju społeczeństwa informacyjnego w Polsce do roku 2013,
Warszawa: Ministerstwo Spraw Wewnętrznych i Administracji, http://mac.gov.pl/strategie.
Nilles, J. 2003. Telepraca, strategie kierowania wirtualną załogą, Warszawa: Wydawnictwo
Naukowo- Techniczne.
Rogowski, W. 2008. Rachunek efektywności inwestycji, Kraków: Oficyna a Wolters Kluwer
business.
Sienkiewicz, P. i H. Świeboda 2004. Analiza systemowa telepracy, w: L.H. Haber (red.)
Społeczeństwo informacyjne – wizja czy rzeczywistość? tom II, s. 27–40. Kraków: AGH,
http://winntbg.bg.agh.edu.pl/skrypty2/0096/027-040.pdf.
U.S. Government Accountability Office 2003. HUMAN CAPITAL Further Guidance,
Assistance, and Coordination Can Improve Federal Telework Efforts, GAO-03-679,
http://www.gao.gov/new.items/d03679.pdf.
United States Office of Personnel Management 2011a. Guide to Telework in the Federal
Government, http://www.telework.gov/guidance_and_legislation/telework_guide/telework_guide.pdf.
United States Office of Personnel Management 2011b. Status of Telework in the Federal
Government – Report to the CONGRESS, http://www.telework.gov/Reports_and_Studies/Annual_Reports/2010teleworkreport.pdf.
Ustawa Kodeks Pracy z dnia 26 czerwca 1974 roku z późniejszymi zmianami – tekst
ujednolicony, stan prawny na dzień 28.07.2011, http://www.prawopracy.pl/graf/Ko-deks_pracy.pdf.
vol. 10, nr 3 (38), 2012
203
Problemy Zarządzania, vol. 10, nr 3 (38): 204 – 218
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.12
Badanie użyteczności wizualizacji
w semantycznym wyszukiwaniu informacji,
oparte na ontologii wielowymiarowego
systemu wczesnego ostrzegania
Helena Dudycz
Celem artykułu jest przedstawienie badania dotyczącego oceny użyteczności
zastosowania wizualizacji sieci semantycznej w wyszukiwaniu informacji ekonomicznej. W związku z tym krótko opisano wyszukiwanie informacji oparte
na wizualizacji sieci semantycznej. Omówiono zaproponowaną metodę badawczą dotyczącą weryfikacji wykorzystania mapy pojęć w procesie analizy wskaźników ekonomicznych. Przedstawiono założenia przeprowadzonego eksperymentu i jego uczestników. Omówiono otrzymane dane oraz przeprowadzono
ich analizę. Na końcu wskazano dalsze kierunki prowadzenia badań.
1. Wprowadzenie
Kadra kierownicza, analizując wskaźniki ekonomiczne, oczekuje, że
w trakcie eksploracji danych z systemów informatycznych będzie mogła
dynamicznie zmieniać szczegółowość rozpatrywanych danych również ze
względu na powiązania semantyczne istniejące między różnymi pojęciami
ekonomicznymi. Wymaga to rozwiązania dwóch istotnych zagadnień: reprezentacji wiedzy o różnorodnych zależnościach między wskaźnikami ekonomicznymi w systemie informatycznym oraz zastosowania, oprócz tradycyjnych
metod wyszukiwania informacji, narzędzi pozwalających na przeszukiwanie
kontekstowe. Przy czym kadra kierownicza oczekuje, że będzie to realizowane za pomocą intuicyjnego interfejsu, pozwalającego na łatwe i szybkie
pozyskiwanie informacji.
Problematyka wyszukiwania informacji bazującego na sieciach semantycznych jest przedmiotem wielu opracowań i dotyczy różnych obszarów (zob.
m.in. Andaroodi i in. 2004; Wienhofen 2010; Wurzer i Smolnik 2008; Yi
2008). W podejściu tym zwraca się dużą uwagę na rolę wizualizacji sieci
semantycznej, która nie tylko jest narzędziem do prezentacji danych, ale
także stanowi interfejs pozwalający na interaktywne wizualne wyszukiwanie
informacji (zob. m.in. Grand i Soto 2010; Wienhofen 2010).
204
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
Jednym z proponowanych rozwiązań, które pozwoli na wizualne wyszukiwanie informacji bazujące na sieci semantycznej jest mapa pojęć (topic map
– TM). Jest to standard wprowadzony przez International Organization for
Standardization (ISO/IEC 13250:2000). TM stanowi abstrakcyjną strukturę
pozwalającą odwzorować wiedzę z danej dziedziny oraz umożliwiającą przeglądanie odpowiednich zasobów z nią związanych (Garshol i Moore 2005).
Pojęcia znajdujace się w TM mogą być powiązane z wieloma zasobami
informacyjnymi, odpowiadającymi ich kontekstowi oraz je opisującymi (zob.
m.in. Ahmed i Moore 2006; Pepper 2000). W ten sposób można zbudować
sieć semantyczną ponad zasobami informacji (zob. m.in. Grand i Soto 2000;
Rath 2001), która pozwala na łatwą nawigację po rozproszonych źródłach
danych (zob. m.in. Korczak i Dudycz 2009: 88–89; Weber, Eilbracht i Kesberg 2008: 1). A zatem TM może pełnić w pewnym sensie rolę interfejsu
między użytkownikiem a różnymi bazami danych, umożliwiając wyszukiwanie
i pozyskiwanie unikatowych informacji (Wurzer i Smolnik 2008: 172) ze
względu na zależności kontekstowe.
Prowadzone są badania nad zastosowaniem TM do reprezentacji ontologii dotyczących analizy wskaźników ekonomicznych, jak i wizualnego wyszukiwania informacji ze względu na istniejące zależności semantyczne (zob.
m.in. Dudycz 2011a; 2011b; 2010b). Celem ich jest również weryfikacja
użyteczności zastosowania TM jako wizualnego interfejsu wspomagającego
wyszukiwanie kontekstowe w procesie analizy wskaźników ekonomicznych.
W niniejszym artykule omówiono wyniki przeprowadzonego eksperymentu na bazie utworzonej aplikacji zbudowanej ontologii wielowymiarowego systemu wczesnego ostrzegania (WSWO) dla przedsiębiorstw produkcyjnych. Struktura artykułu jest następująca. W następnym punkcie
krótko opisano wizualizację sieci semantycznej w mapie pojęć w kontekście
wyszukiwania informacji. W kolejnym omówiono zaproponowaną metodę
badawczą dotycząca weryfikacji wykorzystania mapy pojęć w procesie analizy
wskaźników ekonomicznych. W punkcie czwartym krótko przedstawiono
założenia przeprowadzonego eksperymentu, w piątym zaś – jego uczestników
oraz przebieg badania. Natomiast w punkcie szóstym omówiono uzyskane
dane, koncentrując się na ocenie heurystycznej1, oraz przedstawiono wynikające z nich wnioski. Na końcu przeprowadzono krótkie podsumowanie
oraz wskazano dalsze badania2.
2. Wizualizacja sieci semantycznej w mapie pojęć
a wyszukiwanie informacji
Metodą graficzną, którą można wykorzystać w procesie wizualnego
wyszukiwania informacji, jest mapa pojęć. Jest to rozwiązanie, które może
efektywnie wspomóc eksplorację danych, ułatwiając pozyskiwanie istotnych
informacji z różnorodnych baz danych istniejących w przedsiębiorstwie, jak
i z zewnętrznych źródeł. TM bazuje na trzech elementach: pojęciach, powiąvol. 10, nr 3 (38), 2012
205
Helena Dudycz
zaniach (czyli relacjach występujących pomiędzy pojęciami) oraz wystąpieniach (zwanych również instancjami indeksowanych źródeł informacji związanych z danym pojęciem). Jest stosunkowo nową formą prezentacji wiedzy,
która kładzie nacisk na semantykę danych i łatwość znalezienia potrzebnych informacji (zob. Ahmed i Moore 2006; Pimentel, Suárez i Caparrini
2009: 30). TM pozwala na wyświetlanie całej sieci semantycznej, gdzie po
zastosowaniu różnych technik interaktywnych można pozyskać zarówno
potrzebne, jak i unikatowe informacje (Wurzer i Smolnik 2008).
W wyszukiwaniu semantycznym w TM wizualizacja odgrywa istotną rolę,
dzięki niej użytkownicy mogą szybciej zauważyć i zrozumieć różne zależności istniejące między pojęciami – zarówno strukturalne, jak i semantyczne
oraz pozyskać dane źródłowe. Występuje tutaj możliwość interaktywnego
wybierania analizowanych zagadnień (pojęć lub relacji) oraz zmieniania
obszaru prezentowanych szczegółów. W wyszukiwaniu semantycznym w TM
wizualizacja udostępnia ogólny widok lub wybrany fragment, umożliwiając użytkownikowi zidentyfikować interesujące go podzbiory danych lub
struktury. Stanowi to podstawę do rozpoczęcia interaktywnego procesu
wizualnego wyszukiwania informacji. Po identyfikacji przez użytkownika
interesujących go struktur można przeprowadzać różnego rodzaju operacje
filtrowania. Zastosowana prezentacja danych oraz wyszukiwanie informacji
mają duży wpływ na sposób, w jaki kadra kierownicza zinterpretuje dane
oraz jak oceni użyteczność danego rozwiązania. Interaktywna wizualizacja
danych sprzyja odkrywczemu spojrzeniu na nie przez menedżera, pozwalając
mu na formułowanie nowych hipotez oraz ich walidację.
Od kilkunastu lat wiadomo, że wizualizacja danych znacząco poprawia
percepcję informacji, co w konsekwencji przyczynia się do skrócenia czasu
potrzebnego na jej pozyskanie z systemów informatycznych. Badania prowadzone w ostatnim dziesięcioleciu dotyczące zastosowania metod i technik
wizualizacji pokazały rosnące ich znaczenie oraz przydatność w analizach
wyszukiwania informacji poprzez połączenie wizualnej percepcji człowieka
oraz jego możliwości rozpoznawania z ergonomią pojemności zbiorów danych
i możliwościami dzisiejszych systemów informatycznych w odkrywaniu struktur i trendów w danych (zob. m.in. Aguilar-Ruiz i Ferrer-Troyano 2005: 1749;
Keim 2002: 100). Jak wskazują badania empiryczne przeprowadzone przez
S. Falconera, wizualizacja wzmacnia zrozumienie ontologii, sprawiając, że
użytkownicy szybciej realizują zadania koncepcyjne wymagające zrozumienia
i opisu semantyki danego pojęcia (Falconer 2009).
Wizualizacja w TM z jednej strony stanowi sieć semantyczną, dającą
ogólny lub bardziej szczegółowy obraz analizowanego obszaru wiedzy, z drugiej strony zaś stanowi wizualny interfejs, który poprzez stosowanie różnych
technik interaktywnych pozwala na pozyskanie potrzebnych informacji.
206
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
3. Zastosowana metoda badawcza
Podstawowe badania empiryczne przeprowadzono według opracowanej i zaproponowanej metody dotyczącej wykorzystania mapy pojęć do
odzwierciedlenia ontologii wskaźników ekonomicznych służących ocenie
funkcjonowania przedsiębiorstwa oraz jako interaktywnej wizualnej metody
wyszukiwania informacji. Składa się ona z dwóch faz oraz pięciu etapów.
Faza pierwsza dotyczy tworzenia aplikacji mapy pojęć dla zbudowanej
ontologii określonego obszaru analizy wskaźników ekonomicznych. Celem jej
jest weryfikacja koncepcji wykorzystania standardu TM jako modelu wiedzy
dotyczącego obszaru ekonomii oraz finansów. Faza ta składa się z trzech
etapów, pomiędzy którymi występuje sprzężenie zwrotne. Na każdym etapie
uwzględniono weryfikację wykonanych prac przez eksperta (ekspertów).
Budując ontologię dla wybranego fragmentu analizy wskaźników ekonomicznych, trzeba koniecznie włączyć do tego procesu ekspertów z tej dziedziny,
aby: utworzyć uzgodnione słownictwo i strukturę semantyczną, móc zapisać
ukrytą ich wiedzę (często tzw. ukrytą), będącą doświadczeniem3 z wielokrotnie przeprowadzanych analiz wskaźników ekonomicznych związanych z procesem podejmowania decyzji, oraz znaleźć między rozpatrywanymi danymi
unikatowe zależności i informacje. W tej części realizujemy następujące
cele założonego badania: konceptualizację ontologii dla wybranego obszaru
analizy wskaźników ekonomicznych oraz budowanie dla niej aplikacji TM.
Na potrzeby prowadzonych badań związanych z weryfikacją możliwości
zastosowania mapy pojęć do odwzorowania wiedzy dotyczącej analizy wskaźników ekonomicznych zbudowano dwie aplikacje. Pierwsza, zawierająca
ontologię dla wskaźnika rentowności ROI (Return On Investment) według
modelu Du Ponta (zob. m.in. Dudycz 2010a; 2010b), druga zaś ontologię
dla wielowymiarowego systemu wczesnego ostrzegania (zob. m.in. Dudycz
2011b). Wymagało to zidentyfikowania wszystkich pojęć, zdefiniowania klas
i hierarchii klas, modelowania relacji oraz zdefiniowania wystąpień. Badania
bazowały m.in. na testowaniu zarówno poprawności utworzonej ontologii,
jak i aplikacji mapy pojęć.
Natomiast faza druga zaproponowanej procedury badawczej dotyczy
badania użyteczności zastosowania wizualizacji w semantycznym wyszukiwaniu informacji ekonomicznej, opartego na TM. Realizowane są dwa cele
badawcze. Pierwszym jest zbadanie użyteczności zastosowania wizualizacji
sieci semantycznej w wyszukiwaniu potrzebnych informacji w analizie wskaźników ekonomicznych oraz użycia TM jako interfejsu system–użytkownik.
Drugim zaś jest weryfikacja użyteczności korzystania z aplikacji mapy pojęć
do odwzorowania wiedzy dotyczącej analizy wskaźników ekonomicznych
oraz wizualnej eksploracji danych z różnorodnych systemów istniejących
w przedsiębiorstwie. Faza ta składa się z dwóch etapów odpowiadających
postawionym celom badawczym. Pomiędzy nimi występuje również sprzężenie zwrotne. W wyniku realizacji tej części badań uzyskamy m.in. ocenę
vol. 10, nr 3 (38), 2012
207
Helena Dudycz
użyteczności wizualizacji sieci semantycznej w TM w wyszukiwaniu potrzebnych informacji ekonomicznych przy aktywnym udziale użytkowników w tym
procesie.
W ramach tej fazy badawczej przeprowadzono badania oceny użyteczności zastosowania wizualizacji sieci semantycznej w wyszukiwaniu informacji
ze względu na różnorodne powiązania między wskaźnikami ekonomicznymi.
Bazowano na utworzonych i opracowanych ontologiach oraz zbudowanych
aplikacjach. W literaturze jest opisanych wiele podejść i metod badania oraz
oceny interfejsu pozwalającego na interakcję człowiek–komputer (Lazar, Feng
i Hochheiser 2010; Sikorski 2010; 2012; Tullis i Albert 2008). W przypadku
prototypu lub już gotowego systemu eksperyment jest prowadzony z udziałem ekspertów (np. ocena heurystyczna, listy kontrolne) lub użytkowników
(np. testy zadaniowe, eye tracking). Zdecydowano się przeprowadzić badanie
z udziałem użytkowników, opierając się na połączeniu dwóch metod oceny użyteczności systemu, tj. testu zadaniowego oraz oceny heurystycznej. W związku
z tym opracowano kwestionariusze4, które składają z trzech części, tj.:
– zadań do wykonania,
– heurystycznej oceny wizualnego wyszukiwania informacji,
– identyfikacji i oceny potencjalnych trudności korzystania z wizualnego
wyszukiwania informacji.
Przygotowane kwestionariusze różnią się tylko pierwszą częścią, która
odzwierciedla zadania do wykonania przez użytkownika, polegające na
wyszukaniu potrzebnych informacji opartym na wizualizacji sieci semantycznej. Dane uzyskane z kwestionariuszy można podzielić na cztery grupy,
które dotyczącą:
– poprawności realizacji poleceń i prawdziwości uzyskanych informacji,
– oceny łatwości znalezienia informacji,
– oceny użyteczności interfejsu,
– identyfikacji potencjalnych trudności związanych z zastosowanym sposobem interakcji człowiek–komputer.
W trakcie eksperymentów uczestnicy badania pełnili podwójną rolę.
Z jednej strony typowych użytkowników, czyli wykonujących określone
zadania w aplikacji mapy pojęć (test zadaniowy), z drugiej strony ekspertów oceniających użyteczność zastosowanego interfejsu oraz wyszukiwania
informacji, opierając się na wizualizacji sieci semantycznej (ocena heurystyczna). Badania w ramach fazy drugiej przeprowadzono na podstawie
zmodyfikowanej metody badawczej zaproponowanej przez M. Sikorskiego
(zob. m.in. Sikorski 2011; Sikorski i Garnik 2010). Eksperymenty realizowano według następującego planu:
1. Opracowanie testów zadaniowych oraz kwestionariusza oceniającego użyteczność zastosowania wizualizacji sieci semantycznej do wyszukiwania
informacji ekonomicznej.
2. Badanie z udziałem użytkowników.
2.1. Wprowadzenie do badania (15–30-minutowe szkolenie).
208
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
2.2. Przeprowadzenie badania użyteczności zastosowania wizualizacji
sieci semantycznej do wyszukiwania informacji, bazując na ontologii
wybranego obszaru analizy ekonomicznej (testów zadaniowych i oceny
kwestionariuszowej).
3. Analiza danych.
4. Opracowanie wyników i sformułowanie wniosków.
Pomiędzy wyróżnionymi dwoma etapami w ramach fazy drugiej występuje sprzężenie zwrotne. Takie podejście do badania i oceny użyteczności
systemu informatycznego stanowi zmodyfikowaną metodę zaproponowaną
przez J. Beringer (Eilrich i in. 2009). Również pomiędzy fazami w zaproponowanej metodzie badawczej występuje sprzężenie zwrotne, tzn. wnioski
wynikające z fazy drugiej mają wpływ na doskonalenie zarówno zaproponowanego rozwiązania, jak i procedury tworzenia TM dla obszaru wiedzy,
jakim jest analiza wskaźników ekonomicznych.
Badania według przedstawionej metody przeprowadzono cyklicznie: najpierw dla ontologii wskaźnika ROI (faza pierwsza oraz druga), następnie
dla ontologii WSWO. Wnioski uzyskane z fazy pierwszej dla wskaźnika ROI
wykorzystano przy tworzeniu ontologii oraz aplikacji dla WSWO. Otrzymane
zaś dane z fazy drugiej zweryfikowano, ponownie przeprowadzając eksperyment na bazie ontologii wskaźnika ROI, jak i dla WSWO. Utworzone
aplikacje dla zbudowanych ontologii różnią się skalą rozwiązania, co jest
istotne w weryfikacji zastosowania TM jako wizualnego narzędzia w wyszukiwaniu informacji ze względu na powiązania semantyczne. W przypadku
ontologii wskaźnika ROI zdefiniowano 44 pojęcia, 6 klas taksonomicznych
z relacją typu Subclass-Of oraz 13 relacji binarnych. Natomiast w ontologii
WSWO zdefiniowano 142 pojęć, 23 klasy z relacją typu Subclass-Of oraz
20 relacji binarnych.
W niniejszym artykule skoncentrujemy się na omówieniu eksperymentu
przeprowadzonego dla ontologii WSWO.
4. Założenia przeprowadzonego badania
Celem przedstawionych w niniejszym opracowaniu badań jest ocena
zastosowania wizualizacji w semantycznym wyszukiwaniu informacji ekonomicznej. Niniejsze studia są kontynuacją badań wstępnych, w których
bazowano na utworzonej aplikacji dla ontologii wskaźnika ROI według
modelu Du Ponta (zob. m.in. Dudycz 2011c). W przeprowadzonych obecnie
eksperymentach wykorzystano dwie aplikacje dotyczące analizy wskaźników
ekonomicznych, tj. zbudowanych dla ontologii WSWO oraz dla ontologii
wskaźnika ROI. W badaniach wstępnych przyjęto założenie, że uczestnicy
badania realizują wyszukiwanie informacji, pracując na dwóch aplikacjach,
czyli wykonywali zadania najpierw w aplikacji dla ontologii kierunku studiów
„Informatyka w biznesie”, gdzie obszar wiedzy był im znany5, a następnie te
same osoby realizowały zadania w aplikacji dla ontologii wskaźnika ROI6.
vol. 10, nr 3 (38), 2012
209
Helena Dudycz
Natomiast w niniejszym badaniu przyjęto następujący sposób realizacji.
Najpierw część uczestników (23% z biorących udział) realizowała zadania dla
ontologii wskaźnika ROI, następnie pozostali uczestnicy wykonywali zadania,
wyszukując informacje w aplikacji dla WSWO. Te dwa eksperymenty były
realizowane w odstępie dwudniowym. Obserwacja uczestników w czasie realizacji zadań na aplikacji dla wskaźnika ROI, po modyfikacji treści poleceń do
wykonania w stosunku do badań wstępnych, miała pomóc przygotować eksperyment realizowany z uczestnikami korzystającymi z aplikacji WSWO. Przyjęte
podejście realizacji eksperymentu wynikało z zaproponowanej metody badawczej. Po pierwsze uzyskano tzw. dane kontrolne (z eksperymentu z wykorzystaniem aplikacji dla wskaźnika ROI) dla badania z wykorzystaniem aplikacji
dla WSWO, gdzie znacząco zwiększono liczbę pojęć oraz relacji. Po drugie
miało to zweryfikować wyniki uzyskane ze wstępnych badań, gdzie bazowano
tylko na aplikacji dla wskaźnika ROI. Po trzecie zaś uwzględniono wnioski
ze wstępnych badań (zob. Dudycz 2011c; 2012b) dotyczące: zbudowanej aplikacji, treści sformułowanych zadań w kwestionariuszu badania oraz sposobu
przeprowadzonego szkolenia dotyczącego wizualnego wyszukiwania informacji
na podstawie sieci semantycznej. Pozostawiono podobny czas wprowadzenia
do badania (20–30 minut), ale zmodyfikowano treść szkolenia.
Przygotowane kwestionariusze w części pierwszej (tj. dotyczące treści
poleceń do wykonania) różniły się w stosunku do kwestionariusza z badania
wstępnego, natomiast części drugiej oraz trzeciej nie zmieniono.
Badanie przeprowadzono, wykorzystując moduł OntoGraf w programie
Protégé 4.1 beta. Aplikacje mapy pojęć tworzono i testowano w narzędziu
TM4L. Ze względu na wymaganą funkcjonalność związaną z wizualnym
wyszukiwaniem opartym na sieci semantycznej moduł OntoGraf w Protégé 4.1 beta najlepiej spełnił te kryteria. Ponadto narzędzie TM4L, ze
względu na brak ostatnich modyfikacji, często zawiesza się w środowisku
systemu operacyjnego Windows 7.
5. Uczestnicy badania oraz jego przebieg
W badaniu wzięło udział 60 uczestników w wieku 20–23 lata. W eksperymencie, gdzie wykorzystano aplikację dla ontologii wskaźnika ROI,
uczestniczyło 14 osób, natomiast w przypadku ontologii WSWO – 46 osób.
Wszyscy uczestnicy badania mieli porównywalną wiedzę dotyczącą zarówno
pojęć ekonomicznych, jak i systemów informatycznych7. Żadna z nich nie
korzystała wcześniej z wyszukiwania informacji na bazie wizualizacji ontologii, jak również nie znała programu Protégé.
Badanie już z udziałem uczestników z wykorzystaniem aplikacji dla
ontologii WSWO zostało przeprowadzone według zaproponowanego planu,
obejmującego:
1. Wprowadzenie do badania. 15–30 minutowe, krótkie szkolenie, gdzie
najpierw wyjaśniono teoretycznie pojęcia: standard mapy pojęć, ontolo210
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
gia, wizualizacja sieci semantycznej, ideę wyszukiwania semantycznego.
Następnie pokazano podstawowe operacje (funkcje) związane z wizualnym wyszukiwaniem informacji opartym na sieci semantycznej8.
2. Przeprowadzenie badania użyteczności zastosowania wizualizacji sieci
semantycznej do wyszukiwania informacji na podstawie ontologii wybranego obszaru analizy ekonomicznej. Uczestnicy najpierw realizowali
zadania do wykonania (tzw. test zadaniowy), polegające na wyszukaniu informacji, bazując na sieci semantycznej wyświetlonej w modelu
OntoGraf. Odpowiedzi zapisywali w przygotowanym kwestionariuszu9.
Następnie zaś przeprowadzali ocenę heurystyczną zastosowanego interfejsu, zapisując swoją opinię.
W przeprowadzonym badaniu ograniczono szkolenie do minimum,
ponieważ eksperyment ten miał odpowiedzieć również na pytanie, na ile
wyszukiwanie informacji przez użytkownika systemu zawierającego aplikację
mapy pojęć jest łatwe, gdy obszar wiedzy zapisany za pomocą ontologii nie
jest mu dobrze znany, jak też nie korzystał wcześniej z interfejsu opartego
na wizualizacji sieci semantycznej. Jednak tym razem szkolenie skoncentrowano bardziej na pokazaniu przydatnych funkcji i możliwości wyszukiwania
informacji w programie Protégé niż poprzednim razem. Takie podejście
wynikało z obserwacji uczestników podczas wstępnych badań.
W tym eksperymencie nie mierzono czasu realizacji poszczególnych
zadań przez uczestników. Nie nagrywano badania kamerą wideo, ale realizacja zadań przez uczestników była obserwowana oraz notowano uwagi
wypowiadane w trakcie badania, jak i po nim.
6. Uzyskane wyniki oraz ich wstępna analiza
Dane uzyskane w wyniku realizacji niniejszego badania można podzielić
na dwie części. Pierwsza dotyczy realizacji zadań, druga zaś oceny wyszukiwania informacji na podstawie sieci semantycznej. W niniejszym artykule
skoncentrujemy się na omówieniu wyników z tej drugiej części10, gdzie dane
przeanalizowano ze względu na:
– ocenę użyteczności interfejsu,
– identyfikację potencjalnych trudności związanych z zastosowanym sposobem interakcji człowiek–komputer.
Najpierw przeanalizujemy uzyskane wyniki dotyczące oceny użyteczności
zastosowanego interfejsu w wyszukiwaniu informacji w aplikacji dla ontologii
WSWO. W tabeli 1 zawarto dane pochodzące z drugiej części kwestionariusza, gdzie ze względu na cztery cechy uczestnicy badania oceniali zastosowane rozwiązanie. Wartości odpowiedzi dominujące dla każdego pytania
wyróżniono w tabeli. Wynika z niej, że żadne z kryterium nie uzyskało oceny
bardzo niezadowalający, a w trzech przypadkach (oprócz B) tylko 2% uczestników zaznaczyło niezadowalający. W tej skali pięciostopniowej dominują
odpowiedzi dla każdego z kryterium: zadowalający od 46% (kryterium D)
vol. 10, nr 3 (38), 2012
211
Helena Dudycz
do 59% (kryterium A), natomiast ocena bardzo zadowalający kształtuje się
od 15% (kryterium B) do 4% (kryterium A). Uzyskana ocena interfejsu
wskazuje na użyteczność zaproponowanego podejścia opartego na wizualnym
wyszukiwaniu informacji ekonomicznej w sieci semantycznej powstałej na
podstawie zakodowania zbudowanej ontologii WSWO. Zwłaszcza istotny jest
tak mały procent ocen negatywnie opiniujących zaproponowane rozwiązanie.
Specyfikacja kryteriów oceny
użyteczności interfejsu
Skala ocen użyteczności
Rozkład ocen dla
interfejsu
ontologii WSWO (w %)
bardzo zadowalający
A. Jak oceniasz system
pod względem klarowności
wizualnej?
B. Jak oceniasz system
pod względem jego
funkcjonalności
(w kontekście wyszukiwania
informacji)?
C. Jak oceniasz system pod
względem elastyczności,
sposobu prezentacji
informacji i sposobu obsługi?
D. Jak oceniasz sposób
wyszukiwania informacji
na podstawie wizualizacji
powiązań semantycznych
(relacji i zależności)
danej ontologii?
4
zadowalający
59
średnio
35
niezadowalający
2
bardzo niezadowalający
0
bardzo zadowalający
15
zadowalający
52
średnio
33
nie zadowalający
0
bardzo niezadowalający
0
bardzo zadowalający
9
zadowalający
54
średnio
35
niezadowalający
2
bardzo niezadowalający
0
bardzo zadowalający
9
zadowalający
46
średnio
43
niezadowalający
2
bardzo niezadowalający
0
Tab. 1. Rozkład ocen dotyczących badania użyteczności zastosowania wizualizacji sieci
semantycznej wyszukiwania informacji dla ontologii WSWO. Źródło: opracowanie własne.
Drugim omawianym w niniejszym artykule badanym zagadnieniem jest
identyfikacja potencjalnych trudności związanych z zastosowaniem wizualizacji sieci semantycznej w wyszukaniu informacji ze względu na kontekst.
Dane szczegółowe przedstawiono w tabeli 2. Analogicznie jak w przypadku
tabeli 1, wyróżniono wartości dominujące dla wymienionych trudności.
212
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
Specyfikacja trudności
Skala ocen trudności
to nie jest problem
1. Zrozumienie sposobu
to jest drobny problem
nawigacji w OntoGraf
to jest istotny problem
2. Zrozumienie, jak
wykonywać zadania
3. Zrozumienie, jak
informacja na
ekranie ma się
do wykonywanych
czynności
4. Znalezienie
potrzebnej informacji
5. Trudność
w odczytaniu
informacji na ekranie
6. Zbyt wiele kolorów
na ekranie
7. Konieczność
zapamiętywania zbyt
wielu informacji
podczas wykonywania
zadania
8. Zrozumienie nazwy
relacji (powiązań)
miedzy pojęciami
Rozkład ocen dla
ontologii WSWO (w %)
70
28
2
to nie jest problem
46
to jest drobny problem
52
to jest istotny problem
2
to nie jest problem
48
to jest drobny problem
48
to jest istotny problem
4
to nie jest problem
71
to jest drobny problem
24
to jest istotny problem
4
to nie jest problem
65
to jest drobny problem
33
to jest istotny problem
2
to nie jest problem
67
to jest drobny problem
28
to jest istotny problem
4
to nie jest problem
70
to jest drobny problem
30
to jest istotny problem
0
to nie jest problem
37
to jest drobny problem
54
to jest istotny problem
9
Tab. 2. Rozkład ocen potencjalnych trudności związanych z wizualnym wyszukiwaniem
informacji opartym na sieci semantycznej dla aplikacji dla ontologii WSWO. Źródło:
opracowanie własne.
Analizując odpowiedzi uczestników eksperymentu ze względu na ocenę to
jest istotny problem można zauważyć, że w przypadku trudności nr 7 nikt
nie zaznaczył tej odpowiedzi, natomiast w pozostałych kształtuje się to od
2% (trudności nr 1, 2, 5) przez 4% (trudności nr 3, 4, 6) kończąc na 9%
(trudność nr 8). W porównaniu ze wstępnymi badaniami, mimo że w tym
przypadku była to bardziej rozbudowana ontologia pod względem liczby
vol. 10, nr 3 (38), 2012
213
Helena Dudycz
pojęć, jak i relacji (a zatem i wyświetlana sieć semantyczna), uzyskano lepsze
wyniki (zdecydowanie mniej osób wskazało przy którejkolwiek trudności,
iż to jest istotny problem).
To samo dotyczy oceny to nie jest problem, gdzie wartości dominujące
kształtują się od 65% (trudność nr 5) do 71% (trudność nr 4). W przypadku trudności nr 3 oceny to nie jest problem oraz to jest drobny problem
są identyczne, czyli 48%. Natomiast w przypadku trudności nr 2 oraz 8
dominującą odpowiedzią jest to jest drobny problem (odpowiednio: 52%
oraz 54%). Dane te wymagają komentarza. Wskazania uczestników badania
dla trudności nr 2, które, analizując je z ocenami trudność nr 3, sugerują,
aby przy kolejnym eksperymencie w trakcie szkolenia zwrócić szczególną
uwagę na wyjaśnienie wykonywania zadań. Zwłaszcza, że trudności nr 4, 5
oraz 6, związane ze znalezieniem informacji wyświetlonej w postaci wizualizacji sieci semantycznej, nie stanową problemu dla uczestników niniejszego
eksperymentu.
Natomiast trudność nr 8 wstawiono do kwestionariusza dopiero przy
prowadzeniu badania z aplikacją zawierającą ontologię WSWO. Uzyskane
odpowiedzi, w porównaniu z realizacją poleceń do wykonania (tzw. test
zadaniowy)11, są tutaj cenne. Po pierwsze skłaniają do przeanalizowania
zaproponowanych nazw relacji w zbudowanej konceptualizacji ontologii
WSWO. Po drugie zaś należy rozważyć, czy przed kolejnym eksperymentem
w czasie szkolenia dla uczestników niemających wiedzy na temat analizy
ekonomicznej nie zrobić wprowadzenia na temat relacji między wskaźnikami.
Taki wniosek sformułowano również, gdy przeanalizowano dane dotyczące
poprawności wykonanych zadań (Dudycz 2012b). W przypadku polecenia
nr 5 (test zadaniowy), gdzie należało podać operację arytmetyczną, jaką
należy wykonać, aby obliczyć dany wskaźnik, wystąpił największy procent
niepoprawnych odpowiedzi (10%) spośród wszystkich realizowanych zadań
(Dudycz 2012b). Przy kolejnym badaniu trzeba zweryfikować, jak będzie się
kształtowała poprawność wykonania zadania oraz wskazania przy trudności
nr 8, jeśli w trakcie krótkiego szkolenia wyjaśni się, że zależności między
wskaźnikami polegają na wykonywaniu różnych operacji arytmetycznych.
Podsumowując przeprowadzony eksperyment oraz uzyskane wyniki
w ramach niniejszego badania, trzeba je uznać za dość obiecujące, wskazujące na użyteczność zastosowania wizualizacji sieci semantycznej jako
wizualnego interfejsu w wyszukiwaniu informacji w trakcie procesu analizy
ekonomicznej wskaźników.
7. Podsumowanie i dalsze badania
W niniejszym artykule omówiono przeprowadzone badania dotyczące
oceny użyteczności zastosowania wizualizacji sieci semantycznej zbudowanej
na bazie konceptualizacji ontologii wielowymiarowego systemu wczesnego
ostrzegania. Przedstawiono zaproponowaną metodę badawczą składającą się
214
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
z dwóch faz. Omówiono przeprowadzone badania, czyli przedstawiono założenia eksperymentu, krótko scharakteryzowano jego uczestników oraz przebieg, przeanalizowano otrzymane dane ze względu na ocenę użyteczności
interfejsu oraz identyfikację potencjalnych trudności związanych z zastosowanym sposobem interakcji człowiek–komputer.
Uzyskane wyniki z przeprowadzonego badania można uznać za dość
obiecujące i wskazujące na użyteczność zastosowania wizualizacji ontologii
wybranego wskaźnika ekonomicznego jako interfejsu użytkownik–system
w wyszukiwaniu informacji ze względu na powiązania kontekstowe. Wnioski
wynikające z tego eksperymentu potwierdzają, że bardzo ważną rolę w mapie
pojęć odgrywa zastosowanie właściwych oraz odpowiednich nazw relacji
między pojęciami. Wymaga to zarówno zwrócenia uwagi przy konceptualizacji ontologii dla danej dziedziny, jak i testowania już prototypu mapy
pojęć z udziałem użytkowników w celu ich weryfikacji i ewentualnej modyfikacji. Kontynuacja badań pozwoli również na doskonalenie funkcjonalności narzędzi do wizualizacji sieci semantycznej w mapie pojęć w kierunku
usprawnienia procesu wizualnej eksploracji danych z różnych systemów
informatycznych istniejących w przedsiębiorstwie i w jego otoczeniu. Jest
to też istotne w kontekście prowadzonych badań dotyczących dostosowania
tego produktu do wymogów związanych z ergonomią interfejsu.
Międzynarodowa firma zajmująca się konsultingiem oraz prowadzeniem
analiz rynku, Pierre Audoin Consultants (PAC), przygotowała w 2007 r.
raport. W tym opracowaniu wskazano cztery najważniejsze kryteria, którymi
powinna się kierować kadra kierownicza przedsiębiorstw w wyborze systemu
informatycznego. Jednym z nich jest ergonomia: „Użytkownicy końcowi
lubią pracować na oprogramowaniu, które jest łatwe w użyciu i opiera się
na przejrzystej logice” (Pierre Audoin Consultants 2007).
Informacje o autorce
Dr Helena Dudycz – Katedra Technologii Informacyjnych, Uniwersytet
Ekonomiczny we Wrocławiu. E-mail: [email protected].
Przypisy
1
Analizę danych dotyczących testu zadaniowego, czyli poprawności realizacji poleceń
i prawdziwości uzyskanych informacji oraz oceny łatwości znalezienia informacji,
omówiono w: Dudycz 2012b.
2
Tekst dotyczący przedstawionego badania powstał w ramach projektu badawczego
nr NN111 2840 38 pt. Wizualna eksploracja danych z wykorzystaniem mapy pojęć
w analizie wskaźników oceniających funkcjonowanie przedsiębiorstwa, finansowanego
przez Ministerstwo Nauki i Szkolnictwa Wyższego.
3
Na zagadnienie doświadczenia związanego z procesem podejmowania decyzji oraz
tworzoną ontologią dla obszarów powiązanych z organizacją zwrócono uwagę m.in.
w artykule: Sanin, Szczerbicki i Toro 2007.
vol. 10, nr 3 (38), 2012
215
Helena Dudycz
4
Badania są prowadzone cyklicznie.
5
Taka realizacja zadań miała na celu zapoznanie się uczestników z modułem OntoGraf
zanim przystąpili do wykonywania poleceń w aplikacji dla wybranego obszaru analizy
ekonomicznej, czyli dziedziny, która dla większości uczestników badania wstępnego
była nieznana. Wyniki z tej części badań wstępnych opisano w: Dudycz i Korczak
2011.
6
Szerzej badanie to opisano w: Dudycz 2011c.
7
W badaniu wstępnym uczestniczyły 42 osoby w wieku 23–30 lat, które podzielono
na trzy grupy użytkowników: z wykształceniem tylko informatycznym, informatyczno-ekonomicznym, nieinformatycznym.
8
W badaniu interfejsu użytkownika za pomocą testów użytkownika jest zalecenie, że
należy przeprowadzić szkolenie, aby uczestnik eksperymentu dokładnie poznał interfejs,
ponieważ najczęściej celem takiego badania jest identyfikacja trudności w realizacji
zadań. W tym przypadku następuje ocena funkcjonalności programu oraz interfejsu.
9
Zakres kwestionariuszy omówiono w: Dudycz 2012b.
10
Wyniki z tej części badania przedstawiono w: Dudycz 2012b.
11
Tę cześć kwestionariusza, jak również otrzymane wyniki z przeprowadzonego badania, przedstawiono w: Dudycz 2012b.
Bibliografia
Aguilar-Ruiz, J.S. i F.J. Ferrer-Troyano 2005. Visual Data Mining. Journal of Universal
Computer Science, nr 11 (11), s. 1749–1751.
Ahmed, K. i G. Moore 2006. Applying Topic Maps to Applications. The Architecture
Journal, http://msdn.microsoft.com/en-us/library/bb245661.aspx.
Andaroodi, E., Andres, F., Ono, K. i P. Lebigre 2004. Developing a Visual Lexical Model
for Semantic Management of Architectural Visual Data, Design of Spatial Ontology
for Caravanserais of Silk Roads. Journal of Digital Information Management, nr 4
(2), s. 151–160.
Dudycz H. 2010a. Conceptualization of Ontology of Return on Investment in Order to
Generate it in Topic Map Standard, w: J. Korczak, H. Dudycz i M. Dyczkowski
(red.) Advanced Information Technologies for Management – AITM’2010, s. 87–100.
Wrocław: Wrocław University of Economics.
Dudycz, H. 2010b, Topic Map for Notation of Ontology of Return on Investment Indicator. Applied Technologies & Innovations, nr 3 (3), s. 1–14.
Dudycz, H. 2011a. Analiza metod budowania ontologii dla wskaźników ekonomicznych
w celu zapisania jej w standardzie mapy pojęć, w: W. Chmielarz, J. Kisielnicki, T. Parys
i O. Szumski (red.) Zastosowania systemów informatycznych zarządzania. Problemy
Zarządzania, zeszyt specjalny 2011, s. 44–53. Warszawa: Wydawnictwo Naukowe
Wydziału Zarządzania UW.
Dudycz, H. 2011b. Approach to the conceptualization of an ontology of an early warning system, w: P. Jałowiecki, P. Łukasiewicz i A. Orłowski (red.) Information Systems
in Management XI. Data Bases, Distant Learning, and Web Solutions Technologies,
s. 29–39. Warszawa: SGGW.
Dudycz, H. 2011c. Wstępne badania zastosowania standardu mapy pojęć w analizie
wskaźników ekonomicznych. Ocena wyszukiwania informacji w ontologii modelu Du
Ponta, w: W. Chmielarz, J. Kisielnicki i O. Szumski (red.) Informatyka 4 przyszłości.
Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego,
s. 180–196. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania UW.
216
Problemy Zarządzania
Badanie użyteczności wizualizacji w semantycznym wyszukiwaniu informacji...
Dudycz, H. 2012a. An Attempt of the Heuristic Evaluation of Visualization in Searching
Economic Information in Topic Maps, w: M. Bajec i J. Eder (red.) CAiSE 2012
Workshops, LNBIP 112, s. 130–142. Berlin Heidelberg: Springer-Verlag.
Dudycz, H. 2012b. Wizualizacja w semantycznym wyszukiwaniu informacji. Studium
przypadku: wielowymiarowy system wczesnego ostrzegania, w: Systemy wspomagania
organizacji SWO’2012, Katowice: Prace Naukowe Uniwersytetu Ekonomicznego
w Katowicach (w druku).
Dudycz, H. i J. Korczak 2011. Próba oceny wizualizacji informacji w sieciach semantycznych – studium przypadku, w: T. Porębska-Miąc i H. Sroka (red.) Systemy wspomagania organizacji SWO’2011, s. 22–43. Katowice: Prace Naukowe Uniwersytetu Ekonomicznego w Katowicach.
Eilrich, L., Andres, F., Sillaume, G. i M. Backes 2009. Foresting User Experience in order
to Improve the Quality of a Digital Library, The Workshop on Advanced Technologies
for Digital Libraries 2009, Trento, s. 13–16.
Falconer, S.M. 2009. Cognitive Support for Semi-automatic Ontology Mapping, Dissertation,
Canada: Department of Computer Science, University of Victoria.
Garshol, L.M. i G. Moore 2005. Topic Maps – Data Model. ISO/IEC JTC 1/SC34,
January, http://www.isotopicmaps.org/sam/sam-model.
Grand, B.L. i M. Soto 2000. Information Management – Topic Maps Visualization, http://
www.gca.org/papers/xmleurope2000/pdf/s29-03.pdf.
Grand, B.L. i M. Soto 2010. Topic Maps, RDF Graphs, and Ontologies Visualization,
w: V. Geroimenko i C. Chen (red.) Visualizing the Semantic Web. XML-Based Internet and Information Visualization, s. 59–79. London: Springer-Verlag.
ISOO/IEC 13250:2000 2000. Information Technology – SGML Applications – Topic Maps,
Geneva: International Organization for Standardization, http://www.y12.doe.gov/sgml/
sc34/document/0322_files.
Keim, D.A. 2002. Information Visualization and Visual Data Mining. IEEE Transactions
on Visualization and Computer Graphics, nr 1 (7), s. 110–107.
Korczak, J. i H. Dudycz 2009. Approach to Visualisation of Financial Information using
Topic Maps, w: B.F. Kubiak i A. Korowicki (red.) Information Mangement, s. 88–89.
Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego.
Lazar, J., Feng, J.H. i H. Hochheiser 2010. Research Methods in Human-Computer Interaction, John Wiley &Sons.
Pepper, S. 2000. The TAO of Topic Maps: Finding the Way in the Age of Information,
Proceedings of XML Europe, GCA, http://www.ontopia.net/topicmaps/materials/tao.
html.
Pierre Audoin Consultants 2007. How IT Empowers the Proactive Enterprise, http://www.
pac-online.com/backoffice/servlet/fr.pac.page.download.document.DocumentView;
jsessionid=F64382AB03ACC2912E3943D4A7608C54;__sid__=pac-online?doc
Id=WhitePaper_Pro_Enterprise&dtyId=white_paper&pathFile=%2Fhome%2Fpac
%2FLenya%2Fbuild%2Flenya%2Fwebapp&fileName=WhitePaper_Pro_Enterprise.
pdf&mth=open.
Pimentel, M.P., Suárez, J. i F.S. Caparrini 2009. Topic Maps for Philological Analysis,
w: L. Maicher i L.M. Garshol (red.) Linked Topic Maps. Fifth International Conference on Topic Maps Research and Applications, s. 29–39. Leipzig: Leipziger Beiträge
zur Informatik.
Rath, H.H. 2001. Making Topic Maps More Colorful, http://www.gca.org/papers/xmleurope2000/pdf/s29-01.pdf.
Sanin, C., Szczerbicki, E. i C. Toro 2007. An OWL Ontology of Set of Experience
Knowledge Structure. Journal of Universal Computer Science, nr 2 (13), s. 209–223.
Sikorski, M. 2010. Interakcja człowiek-komputer, Warszawa: Wydawnictwo PJWSTK.
vol. 10, nr 3 (38), 2012
217
Helena Dudycz
Sikorski, M. 2011. Badania użyteczności usług on-line: pozainformatyczne determinanty
satysfakcji klienta, w: W. Chmielarz, J. Kisielnicki, T. Parys i O. Szumski (red.) Zastosowania systemów informatycznych zarządzania Problemy Zarządzania, zeszyt specjalny
2011, s. 44–53. Warszawa: Wydawnictwo Naukowe Wydziału Zarządzania UW.
Sikorski, M. 2012. User-System Interaction Design in IT Projects, Gdańsk: Gdansk University of Technology.
Sikorski, M. i I. Garnik 2010. Towards Methodology for User Experience Measurement
in On-line Services, w: J. Korczak, H. Dudycz i M. Dyczkowski (red.) Advanced
Information Technologies for Management – AITM’2010, s. 244–254. Wrocław: Wrocław
University of Economics.
Tullis, T. i B. Albert 2008. Measuring the User Experience. Collecting, Analyzing, and
Presenting Usability Metrics, Morgan Kaufmann.
Weber, G.E., Eilbracht, R. i S. Kesberg 2008. Topic Maps as Application Data Model
for Subject-centric Applications, w: L. Maicher i L.M. Garshol (red.) Subject-centric
computing. Fourth International Conference on Topic Maps Research and Applications,
TMRA 2008, s. 1–9. Leipzig: Leipziger Beiträge zur Informatik.
Wienhofen, L.W.M. 2010. Using Graphically Represented Ontologies for searching Content on the Semantic Web, w: V. Geroimenko i C. Chen (red.) Visualizing the Semantic Web. XML-Based Internet and Information Visualization, s. 137–153. London:
Springer-Verlag.
Wurzer, J. i S. Smolnik 2008. Towards an Automatic Semantic Integration of Information, w: L. Maicher, L.M. Garshol (red.) Subject-centric Computing. Fourth International Conference on Topic Maps Research and Applications, TMRA 2008, s. 169–179.
Leipzig: Leipziger Beiträge zur Informatik.
Yi, M. 2008. Information Organization and Retrieval Using a Topic Maps-Based Ontology: Results of a Task-Based Evaluation. Journal of the American Society for Information Science and Technology, nr 59, s. 1898–1911.
218
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 219 – 228
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.13
Repozytoria projektu SYNAT
jako nowe możliwości pozyskiwania wiedzy
dla systemów edukacyjnych
Jerzy Kisielnicki
W artykule przedstawiono projekt SYNAT jako nowe przedsięwzięcie mające
na celu utworzenie w kraju, powiązanej z odpowiednimi rozwiązaniami na
świecie, uniwersalnej, otwartej, repozytoryjnej platformy hostingowej i komunikacyjnej dla sieciowych zasobów wiedzy dla nauki, edukacji i otwartego
społeczeństwa wiedzy. Projekt ten analizowano pod kątem jego relacji z systemami edukacji, a zwłaszcza e-edukacją. Jego realizacja powinna przyczynić
się do wzrostu jakości systemów edukacji i tym samym przyczynić się do znaczącej poprawy pozycji Polski zarówno w Unii Europejskiej, jak i na świecie.
1. Wstęp
E-edukacja jako element rozwoju gospodarki jest zarówno istotny, jak
i specyficzny. Wpływ e-edukacji na gospodarkę jest różnorodny. Zależy
on od wielu czynników. Jednym z najbardziej istotnych zadań, jakie stoją
przed e-edukacją, jest zapewnienie stałego zasilania we współczesną wiedzę.
Dlatego, aby system edukacji był nowoczesny, musi stale mieć aktualne
zasoby informacji i wiedzy. Zasilanie takie wymaga dostępu do odpowiednich
repozytoriów. Repozytoria zdefiniowane są, między innymi przez R. Crow
(2002), jako kolekcje cyfrowe, gromadzące, przechowujące i udostępniające
dorobek intelektualny społeczności naukowej jednego lub wielu uniwersytetów lub innych placówek naukowych. Repozytoria coraz powszechniej
wkraczają w struktury wyższych uczelni i instytucji naukowych, zmieniając
jednocześnie paradygmat komunikowania się w nauce. Zasób repozytoriów
jest określony przez instytucje będące jej właścicielem, a treść ma charakter:
naukowy, kumulacyjny i ciągły. Zasoby dostępne są w trybie Open Access
(OA) oraz cechuje je interoperacyjność. Obecnie obserwuje się ogromny
wzrost liczby funkcjonujących repozytoriów na świecie, jak również publikacji
podejmujących ten temat.
E-edukacja jest szansą dla wielu ludzi pragnących zdobyć wiedzę i nową
pozycję w firmie. Jest też pewnym zagrożeniem, ponieważ nie jest dostępna
dla każdego, a jej poziom nie zawsze jest zadowalający.
vol. 10, nr 3 (38), 2012
219
Jerzy Kisielnicki
Obecnie są prowadzone prace nad realizacją strategicznego programu
o nazwie SYNAT, którego jednym z celów jest dostarczenie odbiorcom
informacji i wiedzy, która dotyczy osiągnięć naukowych. Jednym z odbiorców zawartych w niej najnowszych zasobów wiedzy mają być platformy
edukacyjne.
Program SYNAT jest skrótem sformułowania SYstem Informacji
Naukowo-Technicznej (w języku angielskim: Information System for Science
and Technique) (por. Niezgódka 2009; Górecka-Hajkiewicz 2012; J. Kisielnicki 2011a, 2011b). Realizacja tego programu ma na celu utworzenie
w kraju, powiązanej z odpowiednimi rozwiązaniami na świecie, uniwersalnej, otwartej, repozytoryjnej platformy hostingowej i komunikacyjnej dla
sieciowych zasobów wiedzy dla nauki, edukacji i otwartego społeczeństwa
wiedzy.
Ja odpowiadam za jedno z 17 zadań wchodzących w skład realizowanego
projektu. Zadanie to opracowanie modelu długoterminowego finansowania,
zapewniającego trwałość systemu informacji naukowo-technicznej.
E-edukcja to zbiór różnych form i procedur działania. Można postawić
również hipotezę, że obecny model e-edukacji to model multimedialny.
Natomiast model, który może być konkurencyjny na rynku usług edukacji, to
model elastyczny, a najlepiej model inteligentnego, elastycznego nauczania.
To również model zasilany wiedzą z różnego typu repozytoriów, w tym ze
wspomnianej wcześniej platformy systemu SYNAT.
Podstawowa hipoteza robocza, która będzie uzasadniana w artykule,
jest następująca. W warunkach współczesnego rozwoju ICT (informacyjno-komunikacyjnej technologii) w Polsce edukacja, a zwłaszcza e-edukacja
jest strategią, która powinna wspierać tradycyjną edukację wyższą, chociaż
nie jest jeszcze strategią konkurencyjną na rynku usług edukacji. Jednak
organizacje, które nie będą stosować strategii mieszanej, zostaną wyeliminowane z rynku usług informacyjnych. Jednym z promowanych rozwiązań jest
ścisłe powiązanie systemu edukacji z repozytoriami wchodzącymi w zakres
działań krajowego systemu informacji naukowo-technicznej, którego elementem jest SYNAT.
W artykule przedstawiono wybrane problemy dotyczące analizy tego
zagadnienia.
2. E-edukacja – mapa problemu i miejsce w nim
projektu SYNAT
We współczesnym świecie coraz większą wagę przywiązuje się do edukacji
i to nie tylko w szkołach, uczelniach, placówkach naukowych, ale również
do szkolenia pracowników w przedsiębiorstwach i innych podmiotach gospodarki. Wyszkolony pracownik jest bowiem źródłem przewagi konkurencyjnej nad innymi funkcjonującymi w sektorze firmami. Szkoląc go, tworzymy
i powodujemy tym samym wzrost kapitału intelektualnego w organizacji.
220
Problemy Zarządzania
Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy...
Szkolenie to jedna z podstawowych metod kreowania kapitału intelektualnego przedsiębiorstwa, które może być realizowane za pomocą wielu
strategii. Jedną z nich jest szkolenie przez specjalizujące się w tym firmy,
które w tym celu stosują różnego rodzaju formy, w tym e-edukacji. Stosunkowo niewiele firm decyduje się na szkolenie swoich pracowników tylko
w technologii e-edukacji. W praktyce najczęściej spotykaną strategią jest
szkolenie pracowników poprzez strategię mieszaną (blended-learning), czyli
taką, która uzupełniona jest o zajęcia z trenerem.
Na podstawie przeprowadzonych własnych analiz, prac moich współpracowników i literatury przedmiotu prowadzę badania mające za zadanie
ustalenie podstawowych efektów i zagrożeń związanych z zastosowaniem
e-edukacji jako strategii konkurencyjnej na rynku usług edukacji wyższej.
Opinie na temat e-edukacji zbierałem w różnych ośrodkach akademickich
w trakcie stypendiów zagranicznych oraz jako ekspert i przewodniczący
komisji akredytacyjnych PKA (byłem przez dwie kadencje członkiem zespołu
ds. studiów ekonomicznych). Przeprowadzone rozważania dotyczą w szczególności takich kierunków nauczania jak: ekonomia, zarządzanie i marketing,
finanse i bankowość, ekonometria i informatyka. Zdaję sobie sprawę, że
na innego typu studiach, np. medycznych, możemy spotkać zupełnie inną
sytuację.
W wielu ośrodkach akademickich istnieją dość duże problemy, które
można nazwać skrótowo „brakiem minimum kadrowego”. I tu e-edukacja może w dość zasadniczy sposób rozwiązać istniejące trudności. Czy to
nie jest tylko teoretyczny punkt widzenia? W artykule będę też próbował
odpowiedzieć na to pytanie. Moje dyskusje z rektorami, władzami uczelni
(w tym założycielami i kanclerzami), a także z kadrą wykładowców pozwoliły
mi na prezentację pewnych uogólnień związanych z próbą odpowiedzi na
pytanie: W jakich warunkach e-edukacja jest strategią konkurencyjną na
rynku usług edukacji wyższej i w jakich warunkach zastąpi w znaczącym
stopniu edukacje tradycyjną?
W literaturze przedmiotu wymienione są różne strategie edukacji, jak
i kryteria podziału. E-edukacja stanowi bowiem jeden z elementów przyjętej
strategii edukacyjnej. Jej rola w systemie edukacji wciąż rośnie. W pracach
analizujących możliwe strategie na specjalną uwagę zasługują monografie
M. Rosenberga (2001 i 2005). Przedstawia on w nich drogę rozwoju e-learningu od e-treningu oraz analizę różnych strategii. J. Bersih (2004), który jest
zwolennikiem strategii mieszanych, wyróżnia 16 różnych możliwych mediów
stosowanych w nauczaniu i, stosując tzw. „road map”, selekcjonuje, jakie rozwiązania powinny być stosowane w zależności od rozwiązywanego problemu.
Najczęściej wymienianym kryterium podziału jest poziom nauczania.
W rozważaniach zajmę się edukacją na poziomie studiów wyższych zarówno
pierwszego i drugiego stopnia, jak i studiów podyplomowych. Realizacja tego
właśnie typu studiów wymaga stałego zasilania tzw. kontentu. Analizując
strategię, możemy zastosować również jej podział według formy kontaktu ze
vol. 10, nr 3 (38), 2012
221
Jerzy Kisielnicki
słuchaczami. Ten to właśnie podział przyjęto jako podstawowy. Podstawowe
strategie e-edukacji przedstawiono w tabeli 1.
Współpraca ze
słuchaczem
Cel
Horyzont
czasu
System
zarządzania
procesem
nauczania
Platforma
nauczania
Samokształcenie
Asynchroniczna
Synchroniczna
Konwergencyjna
– mieszana
(blended learning)
Tab. 1. Podstawowe rodzaje strategii e-edukacji – „mapa strategii”. Źródło: opracowanie
własne.
Jak przedstawiono w tabeli 1, można wydzielić następujące cztery podstawowe strategie współpracy ze słuchaczem: samokształcenie, asynchroniczna, synchroniczna, konwergencyjna. Strategie te mogą być realizowane
w różny sposób.
I tak, realizując strategię synchroniczną (w której celem jest bezpośrednia nauka, a więc nauka i jej odbiór w tym samym czasie), możemy się
przygotowywać do realizacji w przyszłości strategii bardzie zaawansowanej
– asynchronicznej, gdzie uczący korzystają z systemu edukacyjnego, gdzie
chcą i kiedy chcą. W tym systemie można przyjąć, iż stosowana jest zasada
„tam, gdzie jest mój laptop, tam jest moja sala wykładowa”.
Każda z wymienionych uprzednio strategii może być wspomagana przez
dwa systemy zarządzania procesem nauczania: LMS (Learning Management
System) oraz LCMS (Learning Content Management System). System LMS
umożliwia administrowanie kursami i prezentowanie przedstawianych treści.
System taki umożliwia monitorowanie postępów w nauce studenta oraz
określanie praw dostępu do poszczególnych modułów i kursów dla poszczególnych użytkowników. Zaawansowane LMS-y pozwalają na realizowanie
studiów we wszystkich rodzajach strategii kształcenia. Systemy LCMS są
bardziej zaawansowane technologicznie. Oprócz funkcji systemu LMS, posiadają dodatkowe moduły służące do tworzenia treści dydaktycznych – tzw.
kursów WBT (Web Based Training). Systemy LMS mogą jedynie prezentować
takie multimedialne treści dydaktyczne.
Każda z wymienionych wcześniej strategii może być realizowana przy
pomocy różnych środków sprzętowo-programowych, czyli tzw. platform. Najpopularniejszą platformą open source jest Moodle. Na Moodle zbudowany
jest między innymi Wirtualny Campus UMCS (http://ekonomia.kampus.
umcs.lublin.pl), jak też funkcjonuje COME, czyli placówka Uniwersytetu
Warszawskiego powołana do zdalnego nauczania. Termin Moodle jest skró222
Problemy Zarządzania
Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy...
tem od Modular Object-Oriented Dynamic Learning Environment – środowisko nauczania zdalnego za pomocą sieci teleinformatycznych, dostępne przez
przeglądarkę internetową. Platforma e-learningowa Moodle została oparta
na oprogramowaniu Apache, PHP i MySQL lub PostgreSQL. Można ją
uruchomić w systemach operacyjnych zarówno Linux, jak i MS Windows lub
Mac OS X, NetWare 6. Moodle jest udostępniany za darmo jako oprogramowanie open source. Podobne platformy dla e-edukacji to miedzy innymi:
FirstClass, Blackboard, Scholar360, WebCT, Desire2Learn, LON-CAPA.
Do przedstawionej w tabeli 1 „mapy strategii e-edukacji” powinno się
jeszcze dodać takie elementy jak zasilanie platformy w wiedzę. Wymienić w
tym zakresie można zastosowanie Internetu – Based Learning (por R. Saade
2003 i 2006) – lub platform dostarczających wiedzę, na przykład SYNAT
(Kisielnicki 2011a, 2011b). Właśnie zastosowanie projektowanego programu
SYNAT pozwoli na bezpośrednie zasilane systemu edukacyjnego najnowszą wiedzą, co będzie skutkowało dostarczaniem słuchaczom najnowszej
literatury przedmiotu.
Wzorem do naśladowania rozwiązań w zakresie e-edukacji mogą być
serwisy edukacyjne działające przy renomowanych uczelniach: HBS Working
Knowledge (Harvard Business School), Insead Knowledge (działający przy
elitarnej szkole biznesu INSEAD) oraz Knowledge@Wharton (The Wharton
School, University of Pennsylvania). Wszystkie te trzy serwisy oferują dostęp
(po darmowej rejestracji) do obszernej biblioteki artykułów poruszających
tematykę szeroko pojętego zarządzania w ramach wyraźnie wyodrębnionych
sekcji, takich jak: biznes, marketing, finanse, zarządzanie strategiczne itp.
Pisząc o e-edukacji, należy również wspomnieć o prekursorze stosowanej na szeroką skalę e-edukacji, jakim jest grupa Phoenix, stworzona na
University of Phoenix (mają kilkadziesiąt punktów e-edukacji na świecie
i w ich systemie studiuje około 200 tysięcy ludzi na całym świecie).
3. SYNAT jako dostarczyciel kapitału intelektualnego
dla e-edukacji
Analizując literaturę przedmiotu, a zwłaszcza prace K.E. Sveiby’ego
(2001, 2006), można zauważyć trzy etapy w rozwoju koncepcji kapitału
intelektualnego. Etap pierwszy to lata osiemdziesiąte, kiedy to pojęcie kapitału intelektualnego ograniczano tylko do zarządzania zasobami ludzkimi.
Drugi etap w rozwoju badań nad zagadnieniem kapitału intelektualnego to
lata 1991–1997. Jest to czas rozwoju Internetu, który staje się, w pełnym
tego słowa znaczeniu, siecią globalną, siecią powszechnie dostępną na całym
(prawie!) świecie. Obecnie znajdujemy się na trzecim etapie rozwoju nauk
o kapitale intelektualnym. Postulaty takie znajdujemy w licznych opracowaniach, nie tylko wspominanego już K.E. Sveiby’ego (2006), ale także
u P. Lambego (2007) czy B. Levitta i J. Marcha (1988). W dniu dzisiejszym zarządzanie wiedzą zostaje włączone jako integralny element strategii
vol. 10, nr 3 (38), 2012
223
Jerzy Kisielnicki
zarządzania. Gospodarka oparta na zarządzaniu wiedzą jest możliwa tylko
i wyłącznie wtedy, gdy organizacja dysponuje kapitałem intelektualnym i jednocześnie potrafi go zdobywać, kreować i wykorzystywać w sposób efektywny.
Zarządzanie jest procesem składającym się z wielu czynników. Autorzy,
tacy jak wspomniany wcześniej K.E. Sveiby (2006), C. Lee i J. Yang (2000)
czy B. Levitt i J. March (1988), coraz częściej patrzą na organizację jak
na łańcuch wartości (Value Network), który rozumiany jest jako „interakcja pomiędzy osobami odgrywającymi różne role i powiązanymi różnymi
relacjami, tworzącymi zarówno niematerialne wartości (wiedza, idee), jak
i wartość materialną (pieniądze)”. Wewnątrz organizacji wiedza zdobywana
w różny sposób wpływa na system aktywów przedsiębiorstwa, które z kolei
wzajemnie na siebie oddziaływają (rysunek 1). Poprzez proces zarządzania wiedzą tworzy się cykl, w którym następuje nieustanne oddziaływanie
zasobów między sobą (rysunek 2). Tworzy się w ten sposób zamknięte koło
relacji, w którym można wyróżnić następujące po sobie procesy:
1. Aktywa materialne (w tym aktywa finansowe) organizacji, które są zaangażowane w proces edukacji.
2. Poprzez edukacje zwiększane są zasoby niematerialne.
3. Zasoby niematerialne, czyli tzw. kapitał intelektualny zawarty w platformie SYNAT, wykorzystywany w celu powiększania zasobów materialnych
organizacji.
Aktywa
finansowe
Aktywa
materialne
E-edukacja
Aktywa
niematerialne
Rys. 1. System finansowych, materialnych i niematerialnych aktywów i ich wpływ na
edukację. Źródło: opracowanie własne.
Istotny jest wpływ czynników znajdujących się poza strukturą wewnętrzną
organizacji, którą może zapewnić SYNAT. Współczesne organizacje są zmuszone do nieustannej komunikacji z otoczeniem, gdyż niejednokrotnie to
bodźce wpływające spoza organizacji stanowią o jej dalszym sukcesie bądź
porażce rynkowej. Stąd też coraz bardziej powszechna staje się opinia, iż
224
Problemy Zarządzania
Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy...
jednym z najważniejszych, a może nawet i kluczowym aspektem jest dbałość
o budowę efektywnego systemu transferu i konwersji wiedzy do oraz z organizacji. Transfer ten (por. rysunek 2) musi być dwukierunkowy, gdyż w dzisiejszych warunkach coraz częściej mamy do czynienia z rozmyciem granic
i koniecznością kooperowania z coraz to szerszym otoczeniem. Takie właśnie
zadania są postawione w realizowanym programie SYNAT. Dzięki SYNAT-owi możliwy będzie transfer i konwersja wiedzy z różnych repozytoriów.
Struktura
zewnętrzna
Kompetencje
indywidualne
$
Transfery wiedzy,
konwersja wiedzy
Struktura
wewnętrzna
Rys. 2. Obraz zasilania wiedzą organizacji edukacyjnej. Źródło: K.E. Sveiby 2005. Dziesięć
sposobów oddziaływania wiedzy na tworzenie wartości, E-mentor, nr 2 (9).
4. E-edukacja w strategii projektu SYNAT
Przedstawiając modele biznesowe strategii projektu SYNAT, trzeba
określić jej cel, za który przyjmujemy: dostęp do zawartości repozytoriów
funkcjonujących w ramach KSINT nie jest pod żadnym względem ograniczony (np. tylko do środowiska akademickiego i naukowego), ale otwarty
dla wszystkich, w tym dla edukacji (nie tylko dla e-edukacji).
Przeprowadzona analiza światowych rozwiązań podobnego typu systemów (zob. raporty programu SYNAT) wykazała, że przestrzeń rozwiązań
dopuszczalnych w zakresie strategii jego budowy jest różnorodna.
W tabeli 2 przedstawiono zależności strategii tylko od dwóch zmiennych,
a mianowicie od systemu koordynacji, czyli systemu zarządzania, i rozwiązania finansowego.
Można wskazać też inne warianty strategii budowy SYNAT jako elementu
Krajowego Systemu Informacji Naukowo-Technicznej. W okresie wysokiego
popytu na opracowania naukowe i równoczesnej postkryzysowej sytuacji
państwa mamy do czynienia z wieloma dylematami. W praktyce trudno
vol. 10, nr 3 (38), 2012
225
Jerzy Kisielnicki
jest stosować jedną strategię, najczęściej mamy do czynienia ze strategiami
hybrydowymi. Większość stosuje w różnych wariantach strategię I (centralizacja i finansowanie z budżetu państwa w różnych formach). Ale jaką
rekomendować w istniejących warunkach strategię dla Polski?
System zarządzania
Budżet państwa finansuje
funkcjonowanie platformy
SYNAT
Opłaty za korzystanie
z SYNAT pobierane
od wszystkich użytkowników
Scentralizowany system
koordynacji
Strategia I
Strategia III
Zdecentralizowany
system koordynacji
Strategia II
Strategia IV
Tab. 3. Strategie realizacji projektu SYNAT. Źródło: J. Kisielnicki 2011a. Docelowy model
biznesowy dla instytucji eksploatujących platformę SYNAT jako podstawy Krajowego Systemu
Informacji Naukowo Technicznej KNSIT, materiały konferencji SYNAT, Warszawa: Uczelnia
Łazarskiego.
Strategia I. Scentralizowana równocześnie ze względu na system koordynacji i finansowanie wyłącznie z budżetu państwa, a użytkownicy mają
nieodpłatny dostęp do zasobów zgromadzonych w cyfrowych repozytoriach.
Bardzo atrakcyjny, ale mało realny pomysł z uwagi na permanentny kryzys
finansów publicznych. Wydaje się też bardzo kosztowny i trudny do urzeczywistnienia. Często w instytucjach powstających w wyniku tej strategii
następuje rozrost biurokracji i w konsekwencji zmniejsza się skuteczność
takich instytucji. W kontekście e-edukacji problemem są dwa systemy odpłatności uczestników.
Strategia II. Hybrydowa – zarządzanie w zasadzie zdecentralizowane,
natomiast koszty eksploatacji płatne z budżetu centralnego i częściowo też
płatne przez użytkowników. Ze względu na sposób finansowania strategia
podobna do poprzedniej, różnica dotyczy systemu koordynacji.
Wydaje się, że w Polsce dominuje strategia II – nie istnieje scentralizowany system koordynacji, ale budżet państwa finansuje większość projektów naukowych i powstających w ich wyniku publikacji. Bardzo silnym
wzmocnieniem realizacji strategii II mogą być przykłady funkcjonowania
rozwiązań Open Access. Komisja Europejska w swoich regulacjach wprowadziła specjalną klauzulę, tzw. Clause 39. Zobowiązuje ona do udostępniania
publikacji powstających w wyniku takich projektów jak PR7 w repozytoriach
Open Access. Przyjęcie takiego rozwiązania mogłoby być podstawą strategii
zasilania platformy SYNAT w najnowsze i wartościowe publikacje naukowe,
które byłyby uwzględniane w podręcznikach szkolnych i akademickich.
Strategia III. Zdecentralizowany system zarządzania oraz pełna odpłatność za dostęp do zasobów ulokowanych na platformie SYNAT uiszczana
przez wszystkich użytkowników. Trudno ją rekomendować ze względu na
fundamentalne założenie o pełnej otwartości dostępu do zasobów repozy226
Problemy Zarządzania
Repozytoria projektu SYNAT jako nowe możliwości pozyskiwania wiedzy...
toriów w KSINT, chociaż jej elementy obecnie funkcjonują w Polsce. Dotyczy to np. udostępniania danych, które zbiera Główny Urząd Statystyczny,
a które w większości są udostępnianych za opłatą.
Strategia IV. Rynkowa – wszystko jest płatne, platforma jest własnością
prywatną, bez udziału Skarbu Państwa. Ta strategia ma wielu zwolenników.
Zakłada się w niej, że państwo nie partycypuje w pokrywaniu kosztów związanych z funkcjonowaniem systemu informacji naukowo-technicznej, sponsorami publikowania i archiwizowania utworów w otwartych repozytoriach
są podmioty prywatne, opłaty pobierane są też od użytkowników. Autorzy
podręczników szkolnych i akademickich płaciliby za korzystanie z materiałów
zawartych w repozytorium systemu SYNAT. Wśród zwolenników takiego rozwiązania jest, jak się wydaje, na pierwszym miejscu Ministerstwo Finansów.
5. Uwagi końcowe – rekomendacje w zakresie
projektu SYNAT i jego roli w e-edukacji
Platforma SYNAT ma na celu przyczynienie się do wzrostu kapitału
intelektualnego Polski, doprowadzając do wzrostu konkurencyjności naszej
gospodarki. Jak pisze Z. Gackowski (2012), jest to element spirali tworzenia kapitału intelektualnego. Jednym z istotnych elementów tej spirali
jest edukacja a zwłaszcza e-edukacja. Realizacja tego postulatu może być
przeprowadzona na wiele sposobów. Wszystkie jednak muszą uwzględniać
istotny dla procesu edukacji łańcuch Data-Information-Knowledge-Wisdom
(DIKW). Jak już podkreślałem, jestem zwolennikiem dostępu bezpłatnego
i rozwoju rozwiązań Open Access, co w bardzo istotny sposób wpływa na
wzrost jakości publikacji nie tylko naukowych, ale też edukacyjnych.
Jak wcześniej wskazywano, instytucje określone jako repozytoria to serwery sieciowe, które umożliwiają najczęściej równoległą (oprócz papierowej)
publikację w Internecie oraz długotrwałą archiwizację i udostępnianie treści
kręgom osób uprawnionych (np. pracownikom naukowym, nauczycielom,
studentom, członkom stowarzyszeń zawodowym) lub szerokiej publiczności,
bez dyskryminacji i zbędnych ograniczeń. Dlatego też realizacja projektu
SYNAT powinna się przyczynić do wzrostu jakości systemów edukacji i tym
samym przyczynić się do znaczącej poprawy pozycji Polski zarówno w Unii
Europejskiej, jak i na świecie. Aktualna pozycja w rankingach światowych
(65.–70. miejsce) nie jest dla nas satysfakcjonująca. Można mieć nadzieję,
że takie właśnie projekty jak SYNAT poprawią sytuację i spowodują nie
tylko wzrost samego kapitału intelektualnego, ale także przyczynią się do
wzrostu naszej konkurencyjności.
Informacje o autorze
Prof. zw. dr hab. Jerzy Kisielnicki – Kierownik Zakładu Projektowania Systemów
Informatycznych, Wydział Zarządzania Uniwersytetu Warszawskiego.
E-mail: [email protected].
vol. 10, nr 3 (38), 2012
227
Jerzy Kisielnicki
Bibliografia
Bersih, J. 2004. The Blended Learning Book, John Wiley & Sons.
Crow, R. 2002. The Case for Institutional Repositories: a SPARC Position Paper, Washington, http:www.arl.org/sparc/IR/ir.html, dostęp: 26.04.2011.
Gackowski, Z. 2012. The Helix of Human Cognition: Knowledge Management According
to DIKW, E2E, and the Proposed View. Informing Science: the International Journal
of an Emerging Transdiscipline, nr 15.
Górecka-Hajkiewicz, M. (red) 2012. Proponowany model biznesowy dla instytucji eksploatującej platformę SYNAT, raport z badań, Warszawa: Uczelnia Łazarskiego.
Kisielnicki, J. 2011a. Docelowy model biznesowy dla instytucji eksploatujących platformę
SYNAT jako podstawy Krajowego Systemu Informacji Naukowo Technicznej KNSIT,
materiały konferencji SYNAT, Warszawa: Uczelnia Łazarskiego.
Kisielnicki J. 2011b. Krajowy System Informacji Naukowo-Technicznej KNSIT jako znaczący element budowy systemu społeczeństwa informacyjnego, w: Informatyka 4
przyszłości. Miejsce i rola serwisów internetowych w rozwoju społeczeństwa informacyjnego, W. Chmielarz, J. Kisielnicki, O. Szumski (red.), Warszawa: Wydawnictwo
Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego.
Köhler, M., Arndt, H.W. i T. Fetzer 2008. Information Society as Seen by EU Citizens,
The Gallup Organization.
Lambe, P. 2007. Organising Knowledge: Taxonomies, Knowledge and Organisational
Effectiveness, Chandos Publishing.
Lee, C.C. i J. Yang 2000. Knowledge Value Chain. Journal Management of Development,
nr 4 (21).
Levitt, B. i J. March 1988. Organizational Learning. Annual Review of Sociology, nr 14.
Niezgódka, M. 2009. Modele otwartego komunikowania w nauce i edukacji – perspektywy dla Polski, w: Otwartość w nauce – Open Access i inne modele, Warszawa:
materiały konferencji PAN
PAN 2009. Public Trust in Science and Industry-supported Research and Education,
materiały konferencji PAN, Warszawa.
Rosenberg, M.J. 2001. E- Learning, Strategies for Delivering Knowledge in the Digital Age,
Mc Graw Hill
Rosenberg, M.J. 2006. Beyond E-Learning: Approaches and Technologies to Enhance
Knowledge, Learning and Performance, Pfeiffer.
Saadé, R. 2006. Motivation in Internet-Based Learning Mediums. Information & Management.
Saadé, R. i B. Bahli 2005. The Impact of Cognitive Absorption on Perceived Usefulness
and Perceived Ease of Use in On-line Learning: An Extension of the Technology
Acceptance Model. Information & Management, nr 2 (42), s. 317–327.
Saadé, R. i I. Galloway 2005. Understanding the acceptance of multimedia applications
for learning. Issues in Informing Sciences and Information Technology, nr 2, s. 287–296.
Sveiby, K.E. 2001. Intellectual Capital and Knowledge Management, http://www.sveiby.
com.
Sveiby, K.E. 2005. Dziesięć sposobów oddziaływania wiedzy na tworzenie wartości.
E-mentor nr 2 (9).
228
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 229 – 247
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.14
Postawy pracowników branży IT
wobec zatrudniających organizacji
jako wyzwanie dla rozwoju
firm informatycznych
Jerzy Rosiński
Autor artykułu, na podstawie danych badawczych, przedstawia postawy
informatyków wobec zatrudniających ich organizacji. Specyficzne dla pracowników IT traktowanie zatrudniających ich firm może być charakterystyczne dla
szerszej grupy wysoko specjalizowanych pracowników wiedzy.
1. Wstęp
Obszarem, który może być wartościowy dla eksploracji naukowej, wydaje
się stosunek pracowników branży IT do zatrudniającej organizacji. Sposób
postrzegania współpracowników oraz całej organizacji to znaczący element
regulacyjny, wpływający na zachowania jednostki. Dotyczy to nie tylko
zachowań celowych jednostki, ale także szerszego kontekstu funkcjonowania
i adaptacji do środowiska pracy (Łaguna 2010: 80–82). Jak wskazują studia
przypadków firm z sektora IT, nieznajomość postaw pracowników wobec
organizacji może stanowić znaczącą przyczynę zmniejszenia efektywności,
a nawet upadku firmy1 (Chibelushi i Trigg 2012: 103–126).
W firmach z branży IT można liczyć się z modyfikacjami w zakresie
postrzegania przez pracowników organizacji, gdyż jak wskazują badania
N.K. Lankton i in. (2010: 300–307), już samo wykorzystywanie urządzeń
IT zmienia nawyki zachowania. Także stosowanie technologii informacyjnych w zarządzaniu organizacją modyfikuje charakter i sposób funkcjonowania firmy (Hempel 2004: 164–165). Znaczenie modyfikujące dla kultury
organizacji ma nawet rodzaj użytkowanego oprogramowania stosowanego
do zarządzania procesami organizacyjnymi (Shih i Huang 2010: 271–281).
W firmach z branży IT tego rodzaju zjawiska – wysycenie sprzętem komputerowym, użycie technologii informatycznych w procesach zarządzania
– wydają się szczególnie nasilone.
Niestety na podstawie dostępnych badań trudno rozstrzygnąć charakter
postaw pracowników IT odnośnie organizacji, w której pracują. Istnieją
wprawdzie współczesne badania postaw pracowników branży IT wobec
zatrudniającej organizacji, ale wiążą one postrzeganie i ocenę organizacji
vol. 10, nr 3 (38), 2012
229
Jerzy Rosiński
raczej z czynnikami pochodzącymi z systemu rodzinnego, takimi jak kapitał
kulturowy (Mauno i in. 2011: 147–166; Steinfield i in. 2010: 1156–1166)
czy łączenie życia osobistego i zawodowego (Nitzsche i in. 2011: 407–421).
2. Zaangażowanie współczesnych pracowników IT
w organizację – przegląd literatury
Można przypuszczać, że pracownicy IT będą odnosić się z rezerwą do
swoich organizacji: badani przez A. Marks i C. Lockyer (2005: 219–237)
programiści identyfikowali się z zespołem, a nie z organizacją. Do podobnych
wniosków można dojść na podstawie analizy danych badawczych odnoszących
się do szerszej grupy – pracowników wiedzy o eksperckim poziomie kompetencji specjalistycznych. Wywiady przeprowadzone przez N. Kinnie i J. Swart
(2012: 21–38) na grupie 150 wysoko specjalizowanych pracowników wiedzy
(professionals) z różnych branż wskazały, że istnieje grupa pracowników
wiedzy, którzy starają się połączyć korzyści dla organizacji z korzyściami
dla klienta i dla swojej kariery zawodowej (tzw. sytuacja wygrana–wygrana–
wygrana). Jednak najczęściej mamy do czynienia z łączeniem 2 z 3 elementów, np. korzyści dla klienta i dla swojego rozwoju zawodowego, co może
prowadzić do konfliktów w trzecim, pomijanym obszarze – w tym przypadku
dbaniu o interesy organizacji. Oznacza to, że dbając o swój rozwój zawodowy i interesy organizacji, pracownik może na dalszym planie sytuować
potrzeby klienta (rysunek 1).
Organizacja
Klient
Zawód/środowisko
zawodowe
Rys. 1. Kierunki zaangażowania pracowników wiedzy. Źródło: opracowanie własne na
podstawie N. Kinnie i J. Swart 2012. Committed to Whom? Professional Knowledge Worker
Commitment in Cross-boundary Organizations. Human Resource Management Journal,
nr 1 (22), s. 24.
Inaczej niż w tradycyjnych modelach ery industrialnej, pracownicy nie
są zaangażowani tylko w realizację interesów zatrudniającej ich organizacji.
Równoległym obszarem zaangażowania są relacje z klientami lub ze środowi230
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
skiem zawodowym (Kinnie i Swart 2012: 30). Z punktu widzenia pracownika
mamy raczej do czynienia z korzystnym współistnieniem różnych obszarów
zaangażowania, choć z punktu widzenia pracodawcy może tu dochodzić do
rozbieżności interesów (Nęcki 1995: 151–156) czy też negatywnego zaangażowania pracownika w organizację (Bugdol 2006: 84)2.
Coraz częściej zwraca się uwagę, iż w związku z rozwojem wysoko specjalizowanej pracy opartej na wiedzy, pracownicy czują się w większym stopniu
związani ze swoim środowiskiem zawodowym niż z aktualnym pracodawcą
(Alvesson 2004: 21–38). Pracownicy wiedzy, czując się posiadaczami swoich
umiejętności i wiedzy zawodowej, mogą chętniej rozwijać swoje kompetencje,
opierając się na zewnętrznych sieciach kontaktów – wymianie wiedzy między ekspertami z różnych organizacji (Scarbrough 1999: 5–16). Dlatego przy
wyborze kierunku zaangażowania możemy mieć do czynienia z preferencją
zaangażowania zawierającego element: „zawód/środowisko zawodowe”. Najprawdopodobniej preferowanym zaangażowaniem będzie kierunek: klient–środowisko zawodowe, przy stopniowym marginalizowaniu organizacji.
Dane z badan prowadzonych przez N. Kinnie i J. Swart (2012) mogą być
charakterystyczne także dla pracowników wiedzy z branży IT – jako osób
silnie zmotywowanych pracą w środowisku „wysyconym wiedzą” (knowledge-intensive environments) (Marks i Lockyer 2005: 219–237). Dla modyfikacji
postaw pracowników IT wobec organizacji istotna wydaje się występująca
u pracowników wiedzy potrzeba identyfikacji zawodowej i budowanie tożsamości, opierając się na grupie zawodowej. Oznacza to, że pracownicy IT
częściej czują się np. programistami niż pracownikami konkretnej firmy
(Rosiński i Filipkowska 2009: 216–217). Przesłanki odnośnie kształtowania
postaw pracowników IT wobec organizacji możemy identyfikować także
w charakterystykach tzw. agenta wiedzy (Perechuda 2005: 141–145). Mimo
różnic pojęciowych3, warto brać pod uwagę charakterystyki agenta wiedzy
– wszak wiele prac w firmach IT jest wykonywanych na podstawie struktury projektowej. Opisami, które mogą być przydatne do wnioskowania
na temat postaw pracowników IT wobec organizacji, są charakterystyki
agentów wiedzy trafne w odniesieniu do pracowników wiedzy i ekspertów
organizacyjnych:
– czasowy charakter pracy i mobilność (niekiedy łącznie zwane nomadycznością);
– niski poziom lojalności wobec firmy, zastąpiony lojalnością dla projektu
lub grupy zawodowej;
– funkcjonowanie osoby na zasadach mikrofirmy (występują tu elementy rynku, wartości firmy, rozpoznawalności marki – nazwiska, PR
– np. aktywności na zawodowych forach dyskusyjnych).
Funkcjonowanie na rynku jako mikrofirma sprzedająca swój kapitał
intelektualny w kolejnych projektach i lojalność wobec grupy zawodowej
może powodować, że pracownicy branży IT będą z rezerwą odnosić się do
swoich organizacji.
vol. 10, nr 3 (38), 2012
231
Jerzy Rosiński
Postawy wobec pracodawcy mogą zmieniać się w czasie. Niestety, jak
zwraca uwagę J. Meyer (2011: 307), istnieje stosunkowo niewielka liczba
doniesień badawczych wiążących funkcjonowanie pracowników IT ze stażem
pracy. Autorzy badający pracowników IT i biorący pod uwagę zmienną czasu,
koncentrowali się raczej na osobach zarządzających (Van Olst i Mbungela
2009), w mniejszym stopniu zaś interesowali się samymi pracownikami
branży IT.
Badania pracowników prowadzone w organizacjach z branży IT koncentrowały się dotychczas na opisywaniu zależności pomiędzy wiekiem pracowników a ich innowacyjnością4 (Nishimura i in. 2004; Rouvinen 2002: 575–580;
Schneider 2008: 37–54). Drugi nurt badań odnosił się do wieku pracownika
i efektywnego użytkowania narzędzi informatycznych przy wykonywaniu
zadań zawodowych5 (Arning i Ziefle 2008: 89–93; Friedberg 2003: 511–529;
Schleife 2006: 325–348; Tijdens i Steijn 2005: 60–73; Verworn i Hipp 2009:
180–197). Wartościowe dla tego nurtu wydają się zwłaszcza badania jakie
prowadzili L. Borghans i B. ter Weel (2002: 139–173) oraz J. de Koning
i A. Gelderblom (2006: 467–490). Wymienieni badacze wskazali na ciekawą
zależność: wraz z wiekiem zmniejszała się skłonność do użytkowania narzędzi
informatycznych, przy czym dotyczyło to także osób pracujących na bogato
wyposażonych stanowiskach. Innymi słowy, firmy inwestowały w urządzenia
i oprogramowanie dla pracowników o długim stażu pracy, jednak udoskonalenia te nie były wykorzystywane w codziennej pracy. Badania prowadzono
jednak w znacznym stopniu poza branżą IT.
Pojawiają się także doniesienia badawcze wskazujące na czynniki modyfikujące postawy pracowników wobec technologii informacyjnych. Kwestionowany jest spadek innowacyjności i mniejsze chęci do korzystania z narzędzi informatycznych – wskazywane są nawet pozytywne efekty wysycenia
środowiska pracy narzędziami informatycznymi (Ebling i Janz 1999; Gera
i Gu 2004). Szeroko zakrojone badania, prowadzone w 1251 firmach na
terenie Niemiec wskazują, że zmiany zachodzące wraz z wiekiem pracownika
(spadek innowacyjności, niechęć do używania narzędzi IT) mają miejsce
znacznie częściej u osób, które nie uczestniczyły w specjalnie przygotowanych
działaniach rozwojowych (szkoleniach), adresowanych do osób po 50. roku
życia. Osoby rozwijające swoje umiejętności za pomocą dopasowanych dla
nich narzędzi nie podlegały w tym samym stopniu zjawiskom negatywnym, co
osoby pozbawione wsparcia rozwojowego (Bertschek i Meyer 2010: 13–14).
Istniejące skąpe i niejednoznaczne doniesienia badawcze wskazują, iż
postawy pracowników wobec technologii stosowanych w firmach branży IT
zmieniają się wraz z wiekiem. Młodsze osoby (do 30. roku życia) oceniają
technologie informacyjne lepiej w porównaniu z osobami powyżej 30. roku
życia. Ma to wpływ także na użytkowanie samych narzędzi informatycznych
(Meyer 2011: 305–324). Jednak publikacja ta odnosi się do narzędzi, a nie
organizacji. Stąd wyniki badań mogą wprowadzać w błąd: mówiąc o stosunku
do organizacji, należałoby wziąć pod uwagę nie tylko stronę techniczną,
232
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
ale też elementy związane z przynależnością do grupy zawodowej (może to
modyfikować postawy wobec organizacji). Innymi słowy, w firmach z branży
IT możemy mieć do czynienia z odrębnymi postawami wobec organizacji
i wobec narzędzi czy technologii informacyjnych stosowanych w danym miejscu pracy. Obserwacje dotyczące generacyjnych różnic w zakresie postaw
wobec pracy stwierdzano u pracowników spoza branży IT (Jamka 2004: 346.
Cyt. za Sikorski 1997: 87). Nie ma jednak regularnych i potwierdzonych
doniesień badawczych odnoszących się do specyfiki pracowników branży IT.
3. Hipotezy i procedura badań
Wobec skąpych doniesień badawczych pojawia się obszar możliwości
dla uzyskania nowych danych. Na podstawie dostępnej literatury możliwe
jest postawienie hipotez odnoszących się do postaw pracowników branży
IT wobec zatrudniających organizacji (hipoteza 1. i 2.), dotyczą one jednak
obszaru w początkowym stadium eksploracji naukowej.
Hipoteza 1: Informatycy bardziej krytycznie postrzegają zatrudniające ich
organizacje niż inni pracownicy.
Hipoteza 2: Trwałość krytycznej postawy różnicuje informatyków od osób
spoza branży. Krytyczne postawy informatyków wobec zatrudniającej organizacji nie zmieniają się wraz ze zwiększaniem się
stażu pracy.
Pracownika nowej gospodarki poszukiwano wśród osób zatrudnionych
w branży IT (część szerzej pojętej gospodarki nowych technologii – high),
ich opisy konfrontowano z charakterystykami pracowników sprzedaży (rynek
FMCG) i osobami zatrudnionymi w instytucjach publicznych (urzędnicy)
– grupę tę określano jako „innych” (można uznać, że jest to część gospodarki low tech). Taki dobór próby badawczej powoduje, że wyniki możemy
odnosić głownie do branży IT, ale także podjąć próbę uogólnienia wyników
dla pracowników branży nowych technologii, czy jeszcze szerzej odnosić do
pracowników wiedzy będących wysoko kwalifikowanymi ekspertami.
Ogółem przebadano 468 osób, w tym 228 pracowników branży IT i 240
osób spoza niej6. Pierwszym elementem celowego wyboru był dobór pracowników z branży IT i osób spoza branży jako grupy kontrolnej. O przydzieleniu do grupy pracowników IT decydowało kryterium przynależności
ze względu na wykonywaną pracę w organizacji z branży IT. Powodowało
to, że do badań zostały zaproszone wyłącznie osoby zajmujące się bezpośrednio tworzeniem, testowaniem i wdrażaniem aplikacji, administratorzy
sieci oraz osoby zarządzające grupami projektowymi. Wewnątrz grupy osób
zaproszonych do badań stosowany był wybór losowy.
Celowym wyborem było także umieszczenie w grupie pracowników IT
osób pracujących w organizacjach o zróżnicowanej wielkości – osoby badane
vol. 10, nr 3 (38), 2012
233
Jerzy Rosiński
rekrutowano z organizacji zatrudniających 30–50 osób poprzez organizacje
liczące ponad 100 osób aż do firm zatrudniających kilkaset osób w jednym
oddziale i ponad tysiąc w całej firmie na terenie Polski (tabela 1).
Grupa pracowników
IT
Inni
– 99 osób – duża organizacja (powyżej
1000 osób w Polsce), zatrudniająca
w dziale, gdzie prowadzono badania
około 300 osób
– 51 osób z organizacji zatrudniającej
około 150 osób
– 36 osób z organizacji zatrudniającej
około 50 osób
– 29 osób z dużej organizacji
zatrudniającej w dziale, gdzie było
prowadzone badanie, około 100 osób
– 13 osób z organizacji zatrudniającej
około 30 osób
– 119 osób – handlowcy i kierownicy
sprzedaży (bezpośrednio nadzorujący
prace sprzedawców) z branży FMCG
– 52 osób – pracownicy firm z sektora
MSP nie związanego z nowymi
technologiami
– 40 osób – pracownicy administracyjni
i kierownicy bezpośrednio nadzorujący
pracę administracji (sektor publiczny)
– 17 osób – pracownicy administracyjni
(organizacja komercyjna)
– 5 osób – sprzedawcy (przedstawiciele
handlowi) branża farmaceutyczna
– 7 osób – kierownicy sprzedaży
sprawujący bezpośredni nadzór nad
sprzedawcami – handel detaliczny
Łącznie: 228 osób
Łącznie: 240 osób
Tab. 1. Zestawienie liczności osób badanych ze względu na wielkość i charakter organizacji,
w których wykonują swoją pracę. Źródło: opracowanie własne.
W zakresie doboru osób do grupy kontrolnej (osoby spoza branży IT
– opisywani jako „grupa kontrolna” lub „inni”) stosowano także dobór
celowo-losowy. Do badań zapraszano wyłącznie osoby spoza branży IT,
nie mające w codziennej pracy związku z tworzeniem oprogramowania
czy administrowaniem siecią. Dobór osób do tej grupy wzorowany był na
klasycznych7 badaniach8. J.D. Couger i R.A. Zawacki (1980). Cyt. za: Prasad i in. (2007: 349–372), w których grupę kontrolną stanowili pracownicy
sprzedaży i usług. W obecnych badaniach mamy także grupę sprzedawców
oraz pracowników administracyjnych z sektora publicznego i komercyjnego
Do tej grupy nie byli włączani pracownicy administracyjni (np. sekretarki,
księgowe) z firm z branży IT.
Badania prowadzone były za pomocą ankiety zawierającej 34 pytania
zamknięte, odnoszące się do postrzegania organizacji, relacji z przełożonymi oraz współpracownikami. Pytania do ankiety zostały zebrane w wyniku
wywiadów z menedżerami i pracownikami branży IT. Narzędzie przetestowano w badaniach pilotażowych, odrzucając lub zmieniając treść wybranych
pytań.
234
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
4. Prezentacja wyników badań
Po zebraniu wyników badań sprawdzono, czy wskaźniki kwestionariusza
tworzą strukturę czynnikową W tym celu obliczono wskaźniki KMO oraz
test sferyczności Bartletta-Boxa (zob. tabela 2). Wartość KMO (Kaisera-Meyera-Olkina) wyniosła 0,78, była więc zadowalająca (Zakrzewska 1994:
55). Test sferyczności Bartletta w obydwu pomiarach odrzucił hipotezę,
że poszczególne itemy są nieskorelowane i nie ma wśród nich struktury
czynnikowej. W kolejnym kroku ustalono liczbę czynników, jaką zawiera
kwestionariusz, oraz ich wartości własne i procent wariancji wyjaśnionej
przez czynniki (po rotacji). Wyniki tego kroku analizy zawiera tabela 3.
Wskaźniki
Wynik
Miara KMO adekwatności doboru próby
0,78
Test sferyczności Bartletta
chi2
3016,33
df
561
p
<0,001
Tab. 2. Adekwatność doboru próby i test sferyczności dla kwestionariusza stosowanego
w badaniach. Źródło: opracowanie własne.
Czynnik
Wartość własna
% wariancji
wyjaśnionej
% skumulowany
wariancji wyjaśnionej
1
3,84
11,28
11,28
2
2,08
6,11
17,39
3
2,07
6,09
23,48
4
1,82
5,36
28,84
5
1,79
5,27
34,12
6
1,58
4,64
38,76
7
1,47
4,34
43,10
8
1,34
3,95
47,05
9
1,28
3,77
50,81
10
1,28
3,75
54,56
11
1,25
3,67
58,23
Tab. 3. Wartości własne czynników i procent wariancji wyjaśnionej. Źródło: opracowanie
własne.
Uzyskane czynniki poddano dalszej analizie. Biorąc pod wykres osypiska
(scree plot) oraz interpretowalność, do ostatecznej analizy przyjęto siedem
pierwszych czynników. Uzyskane czynniki posiadały zadowalające ładunki
czynnikowe (powyżej 0,5) oraz możliwa była sensowna merytorycznie synteza
pytań ankiety wchodzących w skład danego czynnika9.
vol. 10, nr 3 (38), 2012
235
Jerzy Rosiński
Czynnik 1. Uznanie ze strony firmy można określić także jako „ogólną
przychylność firmy”. Im bardziej nasilony jest ten czynnik, tym bardziej
firma dba o rozwój kompetencji swoich pracowników; osoby zatrudnione
spotykają się także z wyrazami uznania ze strony przełożonych, brak jest
zachowań autorytarnych ze strony kadry zarządzającej czy też okazywania
wyższości. Wymiar ten odnosi się raczej do „przychylności organizacji” w jej
formalnym aspekcie funkcjonowania (kariera, rozwój, ocena pracownicza).
Czynnik 2. Familiarność organizacji mówi o dystansie władzy i więzi
pomiędzy osobami pracującymi w firmie. Im silniej zaznaczony ten czynnik,
tym można mówić o mniejszym dystansie władzy, a większym bliskości czy
też swojskości relacji. Wymiar ten odnosi się raczej do „przychylności organizacji” w jej nieformalnym aspekcie funkcjonowania (codzienne sytuacje,
kontakty w miejscu wykonywania pracy i w miejscu odpoczynku podczas
przerw w pracy)10.
Czynnik 3. Identyfikacja zadaniowa to chęć odniesienia sukcesu właśnie
w tej firmie. Nie musi to jednak oznaczać identyfikacji z wartościami organizacyjnymi, możemy mieć w tym wypadku do czynienia z uczestnictwem
kalkulatywnym (Etzioni 1985: 159–174) w organizacji (zob. także czynnik 6.
– motywatory materialne). Oznacza to, że pracownik jest silnie zorientowany
na realizację zadań na rzecz danej organizacji, jednak postawa ta wynika
z uznania danej firmy za najlepsze miejsce dla realizacji osobistych celów
i zaspokojenia własnych potrzeb.
Czynnik 4. Obowiązkowość mówi o dotrzymywaniu zobowiązań zarówno
wobec osób we własnym zespole (najczęściej w zespole projektowym), jak
i wobec osób w organizacji (tzw. klienta wewnętrznego).
Czynnik 5. Formalizacja relacji międzyludzkich11 odnosi się do jakości
współpracy, kontaktów, bycia razem przy wykonywaniu zadań organizacyjnych. Im wyższe nasilenie tego czynnika, tym pracownicy wyrażają mniejszą
ochotę do wspólnej pracy. Wysoki wynik w tym czynniku może także wskazywać na formalizację relacji pomiędzy „informatykami” a „biznesem” czy
„administracją” – innymi słowy formalne relacje mogą dotyczyć styku różnych działów organizacji (zob. item 2. w czynniku 5.). Czynnik 5. nie odnosi
się wyłącznie do relacji szef–podwładny (dystans władzy opisuje także czynnik 2.), zakres czynnika 5. dotyczy także relacji pomiędzy współpracownikami.
Czynnik 6. Motywatory materialne to waga, jaką przywiązują pracownicy do
motywatorów o charakterze materialnym (zarówno płacowych, jak i pozapłacowych). Im większe wysycenie danego czynnika, tym większe znaczenie
osobiste mają dla pracowników motywatory materialne oferowane przez
firmę
236
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
Czynnik 7. Indywidualizm to pozytywna ewaluacja przez pracowników autonomii działania rozumianej jako dystans emocjonalny do relacji z przełożonym i grupą oraz nonkonformizm wobec wybranych zasad firmowych.
W kolejnym kroku prowadzonych analiz skupiono się na opisie specyfiki funkcjonowania pracowników sektora IT w zakresie opisywanym przez
7 czynników użytego w badaniach kwestionariusza. Szczegółowe wyniki
badań kwestionariuszowych zostały przedstawione w tabelach 4 i 5. Prezentowane zmienne niezależne to:
– praca – pracownicy IT, tzw. high tech (określeni w tabeli jako „informatycy”) lub pracownicy spoza branży IT, tzw. low tech (określeni w tabeli
jako „grupa kontrolna”);
– staż – pracownicy o stażu do 3 lat lub pracownicy o stażu 4 lata i większym.
Przy wyodrębnieniu podgrup ze względu na zmienną „praca” (tabela 4)
mamy do czynienia z 5 istotnymi statystycznie różnicami (na 7 czynników
ankiety). Są to w kolejności: uznanie ze strony firmy, familiarność organizacji, identyfikacja zadaniowa, formalizacja relacji międzyludzkich, indywidualizm. W zakresie czynników: obowiązkowość, motywatory materialne
nie ma istotnie statystycznych różnic między grupami.
Wyodrębnione podgrupy osób badanych
ze względu na zmienną niezależną „praca”
Czynniki ankiety
informatycy
grupa kontrolna
p
odchylenie
odchylenie
średnia
średnia
standardowe
standardowe
1. Uznanie ze strony firmy
1,67
0,46
2,10
0,60
<0,001
2. Familiarność organizacji
1,26
0,42
2,41
0,76
<0,001
3. Identyfikacja zadaniowa
2,39
0,52
1,90
0,47
<0,001
4. Obowiązkowość
1,46
0,51
1,49
0,51
0,566
5. Formalizacja relacji
międzyludzkich
3,27
0,48
2,82
0,55
<0,001
6. Motywatory materialne
1,74
0,65
1,68
0,66
0,111
7. Indywidualizm
2,90
0,47
2,64
0,48
<0,001
Tab. 4. Zależności między zmienną niezależną „praca” a wyodrębnionymi czynnikami.
Źródło: opracowanie własne.
Wyniki związane ze zmienną „staż” (tabela 5) wskazują, iż wraz ze stażem pracy rośnie przekonanie pracowników o zyskiwaniu uznania ze strony
firmy (czynnik 1.) oraz postrzeganie przez osoby zatrudnione organizacji
jako bardziej przyjaznej (czynnik 2.).
vol. 10, nr 3 (38), 2012
237
Jerzy Rosiński
Wyodrębnione podgrupy osób badanych
ze względu na zmienną niezależną „staż”
Czynniki ankiety
krótki staż
średnia
długi staż
odchylenie
średnia
standardowe
p
odchylenie
standardowe
1. Uznanie ze strony
firmy
1,74
0,55
1,97
0,57
0,023
2. Familiarność
organizacji
1,54
0,72
2,01
0,85
<0,001
3. Identyfikacja
zadaniowa
2,27
0,53
2,08
0,55
0,217
4. Obowiązkowość
1,44
0,52
1,49
0,50
0,546
5. Formalizacja relacji
międzyludzkich
3,11
0,50
3,00
0,59
0,791
6. Motywatory
materialne
1,66
0,61
1,74
0,68
0,094
7. Indywidualizm
2,82
0,48
2,74
0,50
0,630
Tab. 5. Zależności między zmienną niezależną „staż” a wyodrębnionymi czynnikami. Źródło:
opracowanie własne.
W tabelach 6 i 7 oraz na rysunkach 2 i 3 zawarto wyniki dotyczące
znaczących statystycznie interakcji między zmiennymi niezależnymi.
W zakresie postrzegania familiarności organizacji (czynnik 2.) pracownicy
branży IT mają podobny obraz organizacji, niezależnie od długości stażu.
W zakresie postrzegania familiarności organizacji pracownicy IT różnią się
znacząco od osób z innych branż, niezależnie od długości stażu pracy.
Natomiast niechęć do wspólnego wykonywania pracy (czynnik 5.) wzrasta
u pracowników IT znacząco wraz ze stażem pracy. Pracownicy IT, niezależnie od stażu pracy, są zawsze znacząco mniej nastawieni na współpracę
niż osoby spoza branży. Jednakże, porównując pracowników IT z małym
i dużym stażem, stwierdzamy nasilanie się niechęci do współpracy w grupie
pracowników o dłuższym stażu. U osób spoza branży IT mamy do czynienia
z odwrotną tendencją, tzn. pracownicy o dłuższym stażu są bardziej skłonni
do współpracy niż pracownicy o krótszym stażu.
Zmienne niezależne
(interakcja)
F(1, 460)
p
Czynnik 2.
Familiarność organizacji
grupa × staż
5,95
0,015
Czynnik 5.
Formalizacja relacji
międzyludzkich
grupa × staż
9,47
0,002
Czynnik
Tab. 6. Czynniki, dla których zachodzi istotna statystycznie interakcja zmiennych. Źródło:
opracowanie własne.
238
Problemy Zarządzania
vol. 10, nr 3 (38), 2012
praca × staż
praca × staż
Czynnik
Czynnik 2.
Familiarność
organizacji
Czynnik 5.
Formalizacja
relacji
staż
praca
staż
praca
Zmienna
niezależna
–0,07
–1,20
–0,15
3 lata i mniej
vs. 4 lata i więcej
3 lata i mniej
vs. 4 lata i więcej
informatycy
vs. nieinformatycy
informatycy
vs. nieinformatycy
3 lata i mniej
vs. 4 lata i więcej
3 lata i mniej
vs. 4 lata i więcej
informatycy
vs. nieinformatycy
informatycy
vs. nieinformatycy
informatycy
grupa kontrolna
3 lata i mniej
4 lata i więcej
informatycy
grupa kontrolna
3 lata i mniej
4 lata i więcej
0,569
0,243
0,18
–0,90
–0,37
Różnica
średnich
Porównanie podgrup
wyodrębnionych
ze względu na zmienną
niezależną
Podgrupa
wyodrębnia ze względu
na zmienną niezależną
<0,001
0,005
0,030
0,029
<0,001
<0,001
<0,001
0,407
p
Tab. 7. Szczegółowe dane dotyczące charakteru relacji pomiędzy zmiennymi dla czynników, w których zachodzi istotna statystycznie interakcja
zmiennych. Źródło: opracowanie własne.
Interakcja
zmiennych
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
239
Jerzy Rosiński
Wartości dla Czynnika 2.
(Familiarność organizacji)
3,0
2,5
2,0
1,5
1,0
0,5
0
Informatycy
staż do 3 lat
Informatycy
staż 4 lata i więcej
Grupa kontrolna
staż do 3 lat
Grupa kontrolna
staż 4 lata i więcej
Grupy osób badanych
Wartości dla Czynnika 5.
(Formalizacja stosunków międzyludzkich)
Rys. 2. Dane dla czynnika 2. (familiarność organizacji). Porównanie grup (ANOVA, efekty
proste) o krótszym i dłuższym stażu, osobno w grupach pracowników branży IT (na rysunku
oznaczonych jako „informatycy”) i grupy kontrolnej. Źródło: opracowanie własne.
4,0
3,5
3,0
2,5
2,0
1,5
1,0
0,5
0
Informatycy
staż do 3 lat
Informatycy
staż 4 lata i więcej
Grupa kontrolna
staż do 3 lat
Grupa kontrolna
staż 4 lata i więcej
Grupy osób badanych
Rys. 3. Dane dla czynnika 5. (formalizacja stosunków międzyludzkich). Porównanie grup
(ANOVA, efekty proste) o krótszym i dłuższym stażu, osobno w grupach pracowników branży
IT (na rysunku oznaczonych jako „informatycy”) i grupy kontrolnej. Źródło: opracowanie
własne.
5. Omówienie wyników badań
W pierwszej kolejności przeanalizowane zostały istniejące różnice pomiędzy grupami, występujące w części ankiety odnoszącej się do postrzegania
organizacji (tabela 3). Na podstawie tych danych można uznać, iż badane
osoby z branży IT, w porównaniu z innymi pracownikami:
240
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
– uważają swoje organizacje za nieprzykładające wagi do o rozwoju kompetencji swoich pracowników; uznają także, iż rzadko spotykają się z pozytywną informacją zwrotną, wyrazami uznania ze strony przełożonych
(czynnik 1 – uznanie ze strony firmy);
– postrzegają zatrudniające ich organizacje jako mało przyjazne pracownikom, odznaczające się dużym dystansem władzy i mniej przyjazną atmosferą pomiędzy współpracownikami (czynnik 2 – familiarność organizacji);
– posiadają silną, jednoznaczną postawę związaną z chęcią odniesienia
sukcesu właśnie w tej organizacji; są silnie zorientowani zadaniowo (czynnik 3 – identyfikacja zadaniowa);
– niechętnie odnoszą się do wspólnego wykonywania pracy w obrębie grupy
specjalistów IT lub współpracy przy wykonywaniu zadaniu z innymi działami (czynnik 5 – formalizacja relacji międzyludzkich);
– cenią swoją autonomię zawodową, postawa ta może się przejawiać w formie dystansu wobec przełożonych czy też nieuznawania zasad organizacyjnych uznanych za „zagrażające wolności” (czynnik 7 – indywidualizm).
Ponadto czynnik 7 w skojarzeniu z czynnikami 1, 2, 3 może informować
o jeszcze jednej charakterystycznej właściwości osób z sektora IT – „kosmopolitycznej” orientacji zawodowej (Merton 1982: 436–437).
Wyniki tej samej części ankiety, analizowane pod kątem zmiennej „staż”
(tabela 4) przynoszą informacje, iż wspomniane wcześniej:
– postrzeganie przez pracowników IT swoich organizacji jako mało przyjaznych jest niezależne od stażu pracy;
– nie następuje efekt występujący w grupie kontrolnej – postrzegania organizacji jako bardziej przyjaznej wraz ze wzrostem stażu pracy.
O ile w przypadku grupy kontrolnej, wraz ze stażem pracy rośnie przekonanie pracowników o zyskiwaniu uznania ze strony firmy (tabela 4, czynnik 1) oraz postrzeganie przez osoby zatrudnione organizacji jako bardziej
przyjaznej (tabela 4, czynnik 2.), to w grupie pracowników IT zależność ta
nie pojawia się.
Dane mogące świadczyć, o posiadaniu przez pracowników IT krytycznego
i trwałego obrazu organizacji pojawiają się ponownie w danych z interakcji
zmiennych „staż” i „praca” (czynniki 2. i 5. ankiety; zob. tabele 5 i 6)
Zaprezentowane wyniki pozwalają pozytywnie zweryfikować obie hipotezy badawcze. Oznacza to, że w świetle przedstawionych badań:
1. Informatycy bardziej krytycznie postrzegają zatrudniające ich organizacje
niż inni pracownicy.
2. Trwałość krytycznej postawy różnicuje informatyków od osób spoza
branży. Krytyczne postawy informatyków wobec zatrudniającej organizacji nie zmieniają się wraz ze zwiększaniem się stażu pracy.
Należy przy tym zaznaczyć, że trwałość postaw odnosi się jedynie do
postawy wobec organizacji. Wraz z upływem czasu zmienia się nastawienie wobec współpracowników – w grupie pracowników IT wraz ze stażem
pracy zmniejszała się skłonność do współpracy. Należy jednak zaznaczyć, że
vol. 10, nr 3 (38), 2012
241
Jerzy Rosiński
problematyka współpracy w organizacjach IT jest złożona i wprowadzenie
wiarygodnych wniosków wymaga prezentacji większej ilości danych. Obecnie
prezentowane wyniki pozwalają jedynie stwierdzić trwałą postawę krytyczną
wobec organizacji przy jednoczesnych zmianach postaw w innych obszarach.
6. Interpretacja i wnioski
W zakresie postrzegania zatrudniającej organizacji mamy do czynienia
z krytycznym obrazem aktualnie zatrudniającej firmy. Typowym sposobem
funkcjonowania w organizacji pracowników IT może być uczestnictwo kalkulatywne12. Pracownicy IT uznają firmy, w których pracują, za systemy, gdzie:
– panuje mało przyjazna atmosfera, istnieje duży dystans władzy w relacjach
z przełożonymi oraz nieprzyjazna atmosfera pomiędzy pracownikami;
– brak jest pozytywnej informacji zwrotnej ze strony przełożonych;
– nie rozwija się kompetencji pracowników13.
W zakresie postrzegania familiarności organizacji pracownicy IT różnią
się znacząco od osób z innych branż, niezależnie od długości stażu pracy.
U pracowników spoza branży IT negatywny obraz organizacji zmienia się
w czasie – pracownicy o dłuższym stażu widzą organizację jako bardziej
przyjazną dla pracowników14. Natomiast pracownicy IT, niezależnie od
stażu pracy, postrzegają zatrudniające ich organizacje jako mało przyjazne
– zarówno pracownicy o krótszym, jak i o dłuższym stażu wyrażają swoje
negatywne oceny pod adresem pracodawcy. Co prawda wraz z upływem
czasu negatywizm w postrzeganiu pracodawcy maleje, jednak zarówno pracownicy o krótkim, jak i o długim stażu postrzegają pracodawcę znacząco
gorzej, niż czynią to osoby spoza IT wobec swoich organizacji.
Wspomniane negatywne komponenty mogą nie mieć odzwierciedlenia
w systemach: ocen, wynagrodzeń, rozwoju kompetencji czy też w ilości wyposażenia i przyjazności miejsc codziennej pracy. Może być to raczej poznawcze
uzasadnienie przyjętej postawy identyfikacji z grupą zawodową, przy jednoczesnym braku identyfikacji z zatrudniającą organizacją. Oznacza to, że
pracownik stara się nadać sens sytuacji, w której się znajduje, i szuka punktu
odniesienia nie w grupie pracowników tej samej firmy, ale w grupie osób
wykonujących ten sam zawód. Skoro za istotną uznaje grupę zawodową, to jej
będzie nadawał wysoką wartość, umniejszając jednocześnie wartość aktualnego
pracodawcy. Taką interpretacją może uzasadniać współistniejąca z negatywną
oceną potrzeba odniesienia sukcesu w tej właśnie konkretnej organizacji.
O ile sama postawa może mieć przyczyny w rynku pracy – łatwość świadczenia usług w branży IT dla rozproszonych geograficznie, często wirtualnych
organizacji czy organizacji sieciowych15 – czy też jest po prostu powszechną
tendencją występująca na rynku pracy (Bugdol 2006: 23–24), to konsekwencje na poziomie funkcjonowania jednostki są możliwe do opisania za pomocą
242
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
mechanizmów z obszaru psychologii, związanych na przykład z redukcją
dysonansu poznawczego i zachowaniem spójności postawy.
Konsekwencjami organizacyjnymi tego rodzaju postaw mogą być dla
organizacji uczącej się trudności w uczeniu się całej organizacji. Wyzwaniem
jest zbudowanie współpracy i chęci kooperacji wśród jednostek realizujących
jako priorytet swoje indywidualne interesy.
Kolejnym zadaniem dla organizacji jest minimalizowanie rotacji pracowników – opisane w artykule postawy pracownicze mogą powodować
traktowanie firmy jako krótkiego przystanku w karierze. Stąd wyzwanie
polegające na takim stawianiu zadań, aby były wyzwaniami dla pracowników i dawały przekonanie o rozwoju zawodowym w tej właśnie organizacji.
Warto rozważyć także przedefiniowanie roli szkoleń w organizacji. O ile
ze strony organizacji mogą być one traktowane jako dowód zaufania do
pracownika i chęci utrzymania go w firmie, o tyle ze strony osoby zatrudnionej znaczenie szkoleń może być rozumiane wąsko i czysto utylitarnie
– jako zwiększenie swojej wartości na otwartym rynku pracy (i to na koszt
obecnego pracodawcy).
W zakresie relacji ze współpracownikami u pracowników branży IT
możemy wyspecyfikować elementy różnicujące, w porównaniu z postrzeganiem tego typu relacji przez osoby pracujące poza IT. Elementem odróżniającym osoby pracujące w IT w zakresie postrzegania relacji ze współpracownikami jest postrzeganie atmosfery pomiędzy współpracownikami jako
mało przyjaznej. Przekonanie to może wynikać z silnej rywalizacji z innymi
osobami z branży (na otwartym rynku pracy pracowników IT), inne osoby
uznawane są za potencjalną konkurencję, dlatego atmosfera postrzegana
jest jako mało przyjazna.
Taka postawa wobec współpracowników jest poważnym wyzwaniem
dla organizacji – wszak zaufanie jest ważnym czynnikiem pozwalającym
na transfer wiedzy pomiędzy osobami w organizacji. Postrzeganie klimatu
organizacyjnego jako mało przyjaznego może utrudnić dzielenie się wiedzą
pomiędzy współpracownikami.
Ważnym wnioskiem dla całości wyników dotyczących specyfiki funkcjonowania branży IT, wydaje się interpretacja faktu, iż wszystkie różnice dotyczące branży IT ujawnione zostały na podstawie ankiety: brak jest różnic
pomiędzy IT, a nie-IT wykazywanych za pomocą metod służących do pomiaru
elementów osobowościowych (obraz siebie, rola zespołowa), Może to wynikać z charakteru użytych narzędzi, jednak warto rozważyć interpretację, iż
różnice pomiędzy pracownikami branży IT a osobami spoza branży wynikają
z czynników społecznych (środowiskowych), a nie indywidualnych (osobowościowych). Taką interpretację potwierdzają także przytoczone wcześniej
różnicujące dla branży IT wyniki związane z oddziaływaniem stażu pracy
(a więc przebywania w danym środowisku).
vol. 10, nr 3 (38), 2012
243
Jerzy Rosiński
7. Podsumowanie
Przytoczone dane przynoszą informacje na temat specyfiki funkcjonowania pracowników branży IT. Jednak wraz z rozwojem gospodarki opartej na
wiedzy, informacje odnoszące się do branży IT mogą być charakterystyczne
dla szerszej grupy wysoko specjalizowanych pracowników wiedzy. Charakterystyczne dla pracowników sektora IT uczestnictwo kalkulatywne może
być elementem specyficznym głównie dla wirtualnych organizacji (Sikorski
1998: 151–153. Cyt. za: Gableta i Pyszczek-Pietroń 2004: 48).
Na uwagę zasługują ujawnione w badaniach elementy opisowe tej grupy
zawodowej, a zwłaszcza:
– brak przywiązania się pracownika do organizacji i negatywna ocena pracodawcy, przy jednoczesnej aprecjacji niezależności zawodowej;
– postrzeganie organizacji i zespołu jako środowiska wysoce rywalizacyjnego;
– koncentracja na osobistym rozwoju zawodowym i sukcesie indywidualnym.
Elementy te, wraz ze wspomnianym uczestnictwem kalkulatywnym, mogą
stanowić interesujące dane dla praktyków zarządzania w organizacjach uzależniających swój sukces rynkowy od efektywności wysokiej klasy specjalistów
– mogą być wskazówką dla modyfikowania działań w obrębie systemów motywacyjnych i ścieżek rozwoju. Pozwalają zrozumieć zachowania specjalistów
nie tylko na poziomie organizacji, ale też w zespole projektowym – toteż
mogą być inspirujące dla liderów projektów czy kierowników liniowych.
Informacje o autorze
Dr Jerzy Rosiński – adiunkt w Katedrze Negocjacji Instytutu Ekonomii
i Zarządzania Uniwersytetu Jagiellońskiego. E-mail: [email protected].
Przypisy
1
C. Chibelushi i D. Trigg (2012) formułują tego rodzaju wniosek na podstawie opisów
przypadków dwóch organizacji z branży IT, należących do małych i średnich firm
(MSP). W odniesieniu do firm sektora MSP opisywane przez autorów prawidłowości mogą dotyczyć także nieumiejętności kierowania zmianą w firmie – zarządzania
organizacją podczas kryzysów rozwojowego: kryzysu przywództwa (zob. Greiner 1972.
Cyt. za: Clarke 1997: 14–15; Greiner 1997). Jednak nawet tego rodzaju przyczyny
wiążą się z nieznajomością postaw pracowników i ich specyficzną dynamiką w sytuacji zmiany (Blanchard 2007: 170–178).
2
Z pewnością taka sytuacja jest wyzwaniem dla budowania przez dział HR strategii
personalnych. Konieczne staje się także rozwijanie umiejętności menedżerskich.
3
O agencie wiedzy mówimy, gdy na rzecz firmy pracuje specjalista nie będący jej
stałym pracownikiem.
4
Mimo że wymienieni autorzy prowadzili badania w podobnych firmach, doszli do
zróżnicowanych wniosków. K.G. Nishimura oraz P. Rouvinen stwierdzają, że wraz
244
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
z wiekiem innowacyjność pracowników maleje. Natomiast K. Schleife stwierdza, iż
do pewnego wieku innowacyjność rośnie, potem znacznie spada (tzw. wykres odwróconego U). Dyskusyjna jest granica spadku innowacyjności, którą sytuuje się od 40.
do 55. roku życia. Granica ta jest zależna od indywidualnych decyzji autorów publikacji co do podziału grup osób badanych.
5
Ten nurt badań stara się opisać dwa ważne trendy: zmiany struktury wiekowej wśród
pracowników oraz wysycanie środowiska pracy urządzeniami informatycznymi. Wszyscy wymienieni autorzy dochodzą do podobnego wniosku: wraz z wiekiem zmniejsza
się skłonność pracowników do wykorzystania narzędzi informatycznych. Podobnie jak
w przypadku pierwszego nurtu badań, granica zmiany postaw pracowników (spadek
zainteresowania narzędziami IT) jest wyznaczana indywidualnie przez poszczególnych
autorów. Dla opisywanych publikacji granica ta wynosi od 50. do 60. roku życia.
6
Płeć uznawana była za znaczący czynnik różnicujący i w niniejszych badaniach była
czynnikiem monitorowanym. W sytuacji różnoliczności grup rozważać można było
zmniejszanie liczności aż do osiągnięcia efektu równoliczności. Zaletą tego rozwiązania jest uzyskanie planu zrównoważonego, tzn. po tyle samo osób w komórkach.
Jednak zasadniczą wadę stanowi radykalna utrata szansy na uzyskanie wyniku istotnego statystycznie, jeśli taki efekt w populacji istnieje. Aby równoważyć do pewnego
stopnia różnoliczności, użyto analiz wariancji w wersji sumy kwadratów TYP III. Ten
sposób obróbki danych bierze pod uwagę różnoliczności osób w poszczególnych
komórkach.
7
Ze względu na szerokie cytowanie w literaturze naukowej przez ponad 30 lat.
8
Warto zwrócić uwagę, że badania te były prowadzone przed zmianami związanymi
z zaistnieniem komputerów w prywatnych domach, nie wspominając o Internecie.
Stąd nawet dokładne odwzorowanie metodologii, wykraczające poza sposób doboru
grupy kontrolnej, miałoby wartościowy aspekt poznawczy. Wszak prowadzone badania odnosiłyby się do zupełnie nowego środowiska, cechującego się: mobilnością,
zindywidualizowaniem i scaleniem technologii z życiem prywatnym.
9
Możliwe było również przyjęcie 9 czynników do dalszych interpretacji (wtedy przekroczone zostałoby 50% skumulowanej wariancji). Jednak zwiększenie liczby czynników byłoby nieuzasadnione ze względów merytorycznych – niskiej interpretowalności zestawu złożonego z 9 czynników w porównaniu z zestawem 7 czynników. To
właśnie zestawienie 7 czynników zostało poddane ocenie i pozytywnie ocenione we
wcześniejszych publikacjach naukowych (Rosiński i Marcinkowski 2010: 181–202).
10
Jedno z pytań wchodzących w skład czynnika 2.: „Mogę spokojnie zostawić kubki
po dniu pracy, ktoś je umyje” zmieniło swoją funkcję. Na etapie budowania narzędzia
(podczas wywiadów) element ten był w opinii respondentów wskaźnikiem świadczącym o braku współpracy, irytującym elementem codziennej pracy. W badaniu ankietowym został on zinterpretowany przez osoby badane jako indykator przyjaznej
atmosfery w organizacji.
11
Pewną niespodzianką okazało się pytanie: „Mogę spokojnie zostawić kubki po dniu
pracy, ktoś je umyje”. O ile na etapie badań jakościowych poprzedzających budowanie ankiety kwestia brudnych kubków była jedną z najbardziej drażliwych spraw
irytujących pracowników. To w ankiecie pytanie to przestało wskazywać problem
organizacyjny, a zaczęło być indykatorem nieformalnej atmosfery.
12
Uczestnictwo kalkulatywne związane jest m.in. z poszukiwaniem przez pracownika
głownie zysku materialnego, pracownik podporządkowuje się władzy przełożonego
wynikającej z dysponowania przez szefa środami finansowymi, ignorując jednocześnie
wszelkie wartości jakie promuje organizacja. Zob. także dane dotyczące postrzegania
przez pracowników IT własnej kariery oraz współpracowników – te dane świadczą
o kalkulatywnym uczestnictwie w organizacji.
vol. 10, nr 3 (38), 2012
245
Jerzy Rosiński
13
Może być to pochodna wysokiego poziomu oczekiwań, który nie jest zaspokajany
przez organizację – jest to wyraźny motyw sygnalizowany na poziomie indywidualnego
funkcjonowania pracowników IT.
14
Wyniki te mogą świadczyć o postępującym procesie socjalizacji pracownika w organizacji.
15
Stąd wynikają trudności w identyfikacji z miejscem i „szyldem” – wszak można świadczyć pracę dla kilku firm jednocześnie, nie opuszczając mieszkania.
Bibliografia
Arning, K. i M. Ziefle 2008. Development and Validation of a Computer Expertise
Questionaire for Older Adults. Behaviour and Information Technology, nr 1 (27),
s. 89–93.
Bertschek, I. i J. Meyer 2010. IT is Never too Late for Changes? Analysing the Relationship Between Process Innovation, IT and Older Workers. ZEW Discussion Paper,
nr 10-053.
Borghans, L. i B. ter Weel 2002. Do Older Workers Have More Trouble Using a Computer than Younger Workers? Research in Labor Economics, nr 21, s. 139–173.
Bugdol, M. 2006. Wartości organizacyjne. Szkice z teorii organizacji i zarządzania, Kraków:
Wydawnictwo Uniwersytetu Jagiellońskiego.
Chibelushi, C. i D. Trigg 2012. Internal Self-assessment for ICT SMEs: A Way Forward.
International Journal of Business Performance Management, nr 2 (13), s. 103–126.
Couger, J.D. i R.A. Zawacki 1980. Motivating and Managing Computer Personnel, New
York: Wiley.
Ebling, G. i N. Janz 1999. Export and Innovation Activities in the German Service
Sector: Empirical Evidence at the Firm Level. ZEW Discussion Paper, nr 99-53.
Friedberg, L. 2003. The Impact of Technological Change on Older Workers: Evidence
from Data on Computer Use. Industrial and Labor Relations Review, nr 3 (56),
s. 511–529.
Gableta, M. i A. Pyszczek-Pietroń 2004. Funkcjonowanie pracownika w wirtualnych
warunkach gospodarowania, w: Z. Wiśniewski i A. Pocztowski (red.) Zarządzanie
zasobami ludzkimi w warunkach nowej gospodarki, Kraków: Oficyna Ekonomiczna.
Gera, S. i W. Gu 2004. The Effect of Organizational Innovation and Information and
Communications Technology on Firm Performance. International Productivity Monitor, nr 9, s. 37–51.
Hempel, P.S. 2004 Preparing the HR Profession for Technology and Information Work.
Human Resource Management, nr 2–3 (43), s. 163–177.
Kinnie, N. i J. Swart 2012. Committed to Whom? Professional Knowledge Worker Commitment in Cross-boundary Organizations. Human Resource Management Journal,
nr 1 (22), s. 21–38.
Koning de, J. i A. Gelderblom 2006. ICT and Older Workers: No Unwrinkled Relationship. International Journal of Manpower, nr 5 (27), s. 467–490.
Lankton, N.K., Wilson, E.V. i E. Mao 2010. Antecedents and Determinants of Information Technology Habit. Information & Management, nr 47, s. 300–307.
Łaguna, M. 2010. Przekonania na własny temat i aktywność celowa. Badania nad przedsiębiorczością, Gdańsk: GWP.
Marks, A. i C. Lockyer 2005. Debugging the System: The Impact of Dispersion on the
Identity of Software Team Members. International Journal of Human Resource Management, nr 2 (16), s. 219–237.
Mauno, S., Kiuru, N. i U. Kinnunen 2011. Relationships between Work-Family Culture
and Work Attitudes at Both the Individual and the Departmental Level. Work and
Stress, nr 2 (25), s. 147–166.
246
Problemy Zarządzania
Postawy pracowników branży IT wobec zatrudniających organizacji jako wyzwanie...
Meyer, J. 2011. Workforce Age and Technology Adoption in Small and Medium-sized
Service Firms. Small Business Economics, nr 3 (37), s. 305–324.
Nęcki, Z. 1995. Negocjacje w biznesie, Kraków: Wydawnictwo PSB.
Nishimura, K.G., Minetaki, K., Shirai, M. i F. Kurokawa 2004. Effects of Information
Technology and Ageing Work Force on Labor Demand and Technological Progress in
Japanese Industries: 1980–1998, w: P. Onofri (red.) The Economics of an Ageing Population: Macroeconomic Issues, Boston: Kluwer Publishing.
Perechuda, K. 2005. Dyfuzja wiedzy w przedsiębiorstwie sieciowym. Wirtualizacja i kompozycja, Wrocław: Wydawnictwo Akademii Ekonomicznej im. Oskara Langego we
Wrocławiu.
Prasad, J., Enns, H.G. i T.W. Ferratt 2007. One size Does not Fit All: Managing IT
Employees’ Employment Arrangements. Human Resource Management, Special Issue:
Human Resource Management of Information Technology Employees, nr 3 (46),
s. 349–372.
Rosiński, J. i A. Filipkowska 2009. Pracownicy wiedzy – jak rozwijać kompetencje specjalistyczne z korzyścią dla pracownika i organizacji, w: E. Skrzypek i A. Sokół (red.)
Zarządzanie kapitałem ludzkim w gospodarce opartej na wiedzy, s. 213–228. Warszawa:
Instytut Wiedzy i Innowacji.
Rouvinen, P. 2002. Characteristics of Product and Process Innovators: Some Evidence
from the Finnish Innovation Survey. Applied Economics Letters, nr 9, s. 575–580.
Schneider, L. 2008. Alterung und technologisches Innovationspotential. Eine- LinkedEmployer-Employee-Analyse Zeitschrift fuer Bevoelkerungswissenschaft, nr 1 (33),
s. 37–54.
Schleife, K. 2006. Computer Use and the Employment Status of Older Workers.
LABOUR: Review of Labour Economics and Industrial Relations, nr 2 (20), s. 325–348.
Shih, C.-C. i S.-J. Huang 2010. Exploring the Relationship between Organizational Culture and Software Process Improvement Deployment. Information & Management,
nr 47, s. 271–281.
Sikorski, C. 1997. Profesjonalizm. Filozofia zarządzania nowoczesnym przedsiębiorstwem,
Warszawa: Wydawnictwo Naukowe PWN.
Sikorski, C. 1998. Ludzie nowej organizacji. Wzory kultury organizacyjnej wysokiej tolerancji niepewności, Łódź: Wydawnictwo Uniwersytetu Łódzkiego.
Steinfield, C., Scupola, A. i C. López-Nicolás 2010. Social Capital, ICT Use and Company Performance: Findings from the Medicon Valley Biotech Cluster. Technological
Forecasting and Social Change, nr 7 (77), s. 1156–1166.
Tijdens, K. i B. Steijn 2005. The Determinants of ICT Competencies among Employees.
New Technology, Work and Employment, nr 1 (20), s. 60–73.
Verworn, B. i C. Hipp 2009. Does the Ageing Workforce Hamper the Innovativeness
of Firms? Evidence from Germany. International Journal of Hurman Resource Management and Development, nr 2/3 (9), s.180–197.
Zakrzewska, M. 1994. Analiza czynnikowa w budowaniu i sprawdzaniu modeli psychologicznych, Poznań: Wydawnictwo Naukowe UAM.
vol. 10, nr 3 (38), 2012
247
Problemy Zarządzania, vol. 10, nr 3 (38): 248 – 261
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.15
Podstawowe aspekty tworzenia
systemów grafiki kognitywnej
Olga Pilipczuk, Dima Shamroni
W artykule przedstawiono pojęcie i podstawowe założenia koncepcji grafiki
kognitywnej. Opisano jej znaczenie w procesie rozwoju technologii informatycznych oraz historię powstania systemów grafiki kognitywnej. Ponadto w artykule zaprezentowano architekturę klasycznych systemów grafiki kognitywnej
i jej podstawowe moduły. Uwagę poświęcono też systemowi NovoSpark®Visualizer,
jego strukturze, metodologii i specyfice wizualizacji. Przedstawiono przykład
rozwiązywania problemu wyboru strategii cenowej w systemie korporacji
NovoSpark. W zakończeniu omówiono perspektywy rozwoju systemów grafiki
kognitywnej oraz kierunki dalszych badań w tej dziedzinie.
1. Wprowadzenie
Wraz z rozwojem społeczeństwa gwałtownie wzrasta ilość informacji
wymagających przetwarzania i jednocześnie zwiększa się poziom złożoności
analizy tych informacji. Nawet przetwarzanie maszynowe nie zawsze pozwala
wyekstrahować nową wiedzę z dostępnych danych. W chwili obecnej rozwiązanie wielu zadań przewyższa nie tylko możliwości umysłowe człowieka,
ale i możliwości analityczne systemów komputerowych. Dlatego powstaje
potrzeba poszukiwania nowych sposobów przetwarzania danych. Jednym
z takich sposobów jest wizualizacja dostępnych informacji przeprowadzona
z wykorzystaniem podejścia kognitywnego. Głównym zadaniem grafiki kognitywnej jest częściowa automatyzacja funkcji procesu poznania. Współczesne
systemy grafiki kognitywnej zazwyczaj wspierają procesy poznania źródła
problemu. Specjaliści przewidują, że kolejnym etapem w rozwoju systemów
tej klasy będzie wdrożenie modułu inteligentnego w celu stworzenia reguł
i doboru najlepszych wariantów decyzyjnych. Celem artykułu jest omówienie głównych aspektów tworzenia systemów grafiki kognitywnej oraz
przedstawienie koncepcji i architektury systemu NovoSpark Visualizer –
jako jednego z najbardziej symbolicznych przykładów systemu stosującego
podejście kognitywne.
248
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
2. Systemy grafiki kognitywnej – krok ku przyszłości
Definicja pojęcia grafiki kognitywnej po raz pierwszy została wprowadzona w 1991 r. w pracy naukowej A. Zenkina, opisującej badania nad
właściwościami różnych pojęć w teorii liczb. Według Zenkina grafika kognitywna jest to „zespół sposobów i metod prezentacji graficznej problemu,
który pozwała albo zobaczyć rozwiązanie od razu, albo uzyskać przynajmniej
podpowiedź” (Zenkin i Pospelov 1991). Innymi słowy, jest to rodzaj grafiki
maszynowej, który łączy wizualizację graficzną z procesami kognitywnymi
zachodzącymi w umyśle człowieka podczas podejmowania decyzji. Główną
przyczyną powstania koncepcji grafiki kognitywnej stało się to, że wiedza
werbalna lub symboliczna o obiekcie, zjawisku lub sytuacji rzadko jest w stanie zapewnić taką wyraźną percepcję i zrozumienie, jaką może dać percepcja
wzrokowa. Grafika kognitywna pozwala użytkownikowi zobaczyć źródło lub
nowy sposób rozwiązywania problemu, które wcześniej, przy wykorzystaniu
tradycyjnych narzędzi analizy danych, nie były widoczne. Podejście kognitywne zakłada, że informacja przedstawiona w postaci kształtu i koloru lub
ich zmiany zostaje przyswojona o wiele szybciej niż informacja w postaci
tekstowej.
Powstanie koncepcji grafiki kognitywnej zainicjowało tworzenie szeregu
systemów informatycznych zwiększających efektywność podejmowania decyzji. Początkowo systemy te miały prostą architekturę i w małym stopniu
różniły się od tradycyjnych systemów grafiki komputerowej. Z biegiem
czasu zwiększał się poziom zaawansowania systemów grafiki kognitywnej,
zaczęły pojawiać się systemy wspierające nie tylko wizualizację analizowanych danych, ale również dobierające najlepszy wariant decyzyjny dla
użytkownika. Systemy te znalazły zastosowanie w medycynie, ekonomice
i zarządzaniu, statystyce, budownictwie, architekturze, matematyce, fizyce,
mikroelektronice itp.
Dzisiaj najbardziej zaawansowane systemy grafiki kognitywnej stosuje
się w astronautyce i medycynie. Na przykład przy wystartowaniu rakiety
uruchamia się około dwudziestu procesów. Procesy te w systemie zostają
przedstawione za pomocą kognitywnego okrągłego diagramu, na którym za
pomocą spektrum barw określa się stan obiektu. Jeśli jakiś z parametrów
odbiega od normy, to odpowiedni kolor na obrazie wskazuje miejsce, które
wymaga naprawy. Oprócz tego system grafiki kognitywnej pomaga pokazać proces zbliżenia kosmonauty do stacji kosmicznej nie tylko podczas
nauki w centrum przygotowania kosmonautów, ale również podczas lotu
kosmicznego.
Ciekawe rozwiązania można znaleźć w diagnostyce medycznej. Na jednym
z wydziałów uniwersytetu przeprowadzono badania nad pacjentami chorymi
na astmę. System stworzony do diagnostyki tej choroby pozwala nie tylko
za pomocą spektrum barw śledzić zmianę parametrów stanu organizmu, ale
również za pomocą kształtów w postaci gwiazdy kontrolować odchylenie
vol. 10, nr 3 (38), 2012
249
Olga Pilipczuk, Dima Shamroni
parametrów od normy. „Gwiazdy” oprócz zmiany rozmiaru w zależności
od normy zmieniają również kształt, stają się bardziej gładkie w przypadku
zmiany jednych parametrów i bardziej ostre w przypadku zmiany innej grupy
parametrów. Zmienić się może również liczba ramion gwiazdy. „Gwiazdy”
przedstawiono w postaci obrazów trójwymiarowych, istnieje możliwość śledzenia ich zmiany na różnych płaszczyznach. Obrazy kognitywne stworzone
w systemie pozwalają lekarzowi szybko ocenić ogólny stan choroby pacjenta
i podjąć natychmiastowe działania.
Systemy grafiki kognitywnej bardzo pomocne są również w zarządzaniu,
a szczególnie w procesie podejmowania decyzji w warunkach niepewności
oraz w przypadku potrzeby szybkiego reagowania na zmieniające się warunku
otoczenia: na giełdzie, w procesie wyboru strategii firmy, podczas kryzysu
gospodarczego itd.
Podsumowując, można stwierdzić, że w procesie tworzenia systemu grafiki
kognitywnej trzeba uwzględnić następujące wymagania (Zenkin i Pospelov
1991):
1. System powinien tworzyć takie modeli reprezentacji wiedzy, które byłyby
w stanie zapewnić jednolite sposoby prezentacji obiektów charakterystycznych dla myślenia logicznego i obrazów-rysunków powstałych na
skutek uruchomienia myślenia obrazowego.
2. System powinien wizualizować informacje niepoddające się opisowi liczbowemu lub słownemu.
3. System powinien zawierać przejścia od obserwowanych obrazów do
sformułowania hipotezy na temat mechanizmów i procesów ukrytych
w dynamice tych obrazów.
System grafiki kognitywnej może zostać stworzony jako osobna struktura lub jako moduł wizualizacji kognitywnej w strukturze innego systemu
informatycznego. Tak moduł grafiki kognitywnej może zostać z powodzeniem zaimplementowany w systemach informowania kierownictwa w celu
dostarczenia informacji o procesach i obiektach odbiegających od normy,
w systemach wspomagania decyzji w celu wizualizacji wyników symulacji
niezbędnej do pojęcia decyzji, w systemach ekspertowych w celu prezentacji
wiedzy specjalistów i w wielu innych systemach.
Najważniejszym modułem w systemach grafiki kognitywnej jest moduł
wizualizacji. Bez prawidłowej wizualizacji danych nie ma możliwości podjęcia
poprawnej decyzji. W chwili obecnej większość systemów grafiki kognitywnej
proponuje wizualizację bazującą na wykorzystaniu klasycznych i rozmytych
map kognitywnych. Spośród nich warto wymienić następujące systemy:
iThink, Sytuacja, Kompas, IPU RAN, Kanva i inne.
Należy jednak podkreślić, że architektura systemów grafiki kognitywnej
w dużym stopniu zależy od rodzaju zadania, które chcemy rozwiązać za
ich pomocą. Obecnie możemy wyróżnić systemy „wizualizacji kognitywnej”
i systemy „doradztwa kognitywnego”.
250
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
Za jedno z głównych zadań systemu „wizualizacji kognitywnej” uważa
się zwiększenie poziomu kognitywności dynamiki procesu poprzez przedstawienie wszystkich danych w ramach jednego integralnego obrazu. Taki
system staje się niezbędny w przypadkach pojawienia się potrzeby podjęcia natychmiastowej decyzji, gdy podjęcie niepoprawnych decyzji może
doprowadzić do znacznych strat finansowych albo stworzyć zagrożenie dla
życia człowieka. System zazwyczaj zaprogramowany jest w taki sposób, aby
uwzględniał sytuacje anomalnie i kryzysowe, pozostawiając funkcję podjęcia decyzji użytkownikowi. W tej sytuacji podejście kognitywne zakłada,
że informacja przedstawiona w postaci kształtu, koloru, zmiany proporcji
kształtu, zmiany koloru przyswaja się o wiele szybciej niż informacja słowna
lub liczbowa. Taką koncepcję zastosowano w systemach: Novospark®Vizualizer, Tasmo-bit, Kogra, Dikobraz i innych.
System grafiki kognitywnej składa się zazwyczaj z następujących zintegrowanych modułów: hurtowni danych, modułu analitycznego, modułu
wizualizacji, serwera, warstwy semantycznej. Na rysunku 1 przedstawiono
architekturę standardowego systemu „wizualizacji kognitywnej”. Centralnym
punktem systemu jest hurtownia danych, która wspiera proces konsolidacji
informacji, a także ułatwia dostęp do danych, kontroluje spójność informacji
i zwiększa prędkość przetwarzania danych. Niektóre systemy wykorzystują
również wirtualną hurtownię danych, która zapewnia dostęp do danych
przechowywanych w dowolnych relacyjnych bazach danych.
SYSTEM GRAFIKI KOGNITYWNEJ
Moduł analityczny
Moduł wizualizacji
Warstwa semantyczna
Bazy danych: MS SQL, Oracle itd.
Hurtownia danych
Rys. 1. Architektura klasycznego systemu grafiki kognitywnej. Źródło: opracowanie własne.
vol. 10, nr 3 (38), 2012
251
Olga Pilipczuk, Dima Shamroni
STREFA EKSPERTA
Źródło danych 1
Źródło danych 2
Konsolidacja danych
Analiza, Data Mining
Wizualizacja danych
Wyniki analizy
Wyniki wizualizacji
STREFA UŻYTKOWNIKA
Rys. 2. Architektura systemu grafiki kognitywnej z podziałem na strefy użytkowania. Źródło:
opracowanie własne.
STREFA EKSPERTA
Źródło danych 1
Źródło danych 2
Konsolidacja danych
Ustalenie preferencji
Analiza, Data Mining
Wizualizacja danych
Doradztwo
Wyniki analizy
Wyniki wizualizacji
STREFA UŻYTKOWNIKA
Rys. 3. Architektura systemu grafiki i doradztwa kognitywnego. Źródło: opracowanie własne.
252
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
Często w systemach grafiki kognitywnej funkcje eksperta zostają oddzielone od funkcji zwykłego użytkownika (rysunek 2). Użytkownik końcowy
ma dostęp tylko do wyników analizy i ich wizualizacji.
Druga grupa systemów opiera się na procesach modelowania kognitywnego, analizy kognitywnej, prognozowania kognitywnego oraz na procesie
podejmowania decyzji. W tym przypadku system przyjmuje na siebie funkcję
podejmowania decyzji.
Niektóre systemy oprócz wymienionych modułów posiadają w swojej
strukturze moduł analizy preferencji (rysunek 3). Do takich systemów należy
na przykład system Kanva. Niestety systemy grafiki kognitywnej nie należą
do tanich rozwiązań. Im bardziej funkcjonalny jest system, tym koszt systemu
jest większy. W szczególności dotyczy to systemów z funkcją doradztwa
kognitywnego.
3. Koncepcja i architektura systemu
NovoSpark®Visualizer
Maksymalny wymiar obrazów danych wielowymiarowych zależy od
wymiaru narzędzi prezentacji danych, takich jak papier lub ekran komputera.
Oznacza to, że do wizualizacji stanu statycznego można wykorzystać maksymalnie trójwymiarową przestrzeń. Natomiast dla danych dynamicznych,
gdzie jeden z wymiarów zostaje zarezerwowany dla przedziałów czasowych,
maksymalny wymiar obrazu ogranicza się do dwóch wymiarów.
W przypadku odwzorowania trzech i więcej powiązanych parametrów
tradycyjne metody wizualizacji danych (wykresy, diagramy, piktogramy
i inne) nie radzą sobie z przedstawionymi wcześniej wymaganiami dotyczącymi przedstawienia i późniejszej interpretacji obrazów (Chernoff 1973;
Bajaj 1999; Cleveland 1993; Friendly 2008; Friedman 2008; D’Ocagne 1885;
Inselberg 1985; Inselberg 2009).
Główną ideą koncepcji systemu jest wizualizacja stanu systemu jako
całości, która polega na wizualizacji wszystkich parametrów opisujących stan
systemu w jednym integralnym obrazie. Metodologia przyjęta w systemie
dotyczy zarówno statycznych stanów systemu, jak i dynamiki zmian stanu
systemu (Eidenzon i Shamroni 2011).
Podsumowując, możemy stwierdzić, że wizualizacja integralnego stanu
systemu musi spełniać następujące wymagania:
– używać wartości wszystkich parametrów systemu do tworzenia obrazu
stanu bez utraty informacji;
– posiadać nie więcej niż dwa wymiary obrazu stanu;
– dynamika zmian stanu powinna być zaprezentowana w jednym obrazie
statycznym.
System NovoSpark®Visualizer służy do analizy i wizualizacji danych
wielowymiarowych. Moduł wizualizacji składa się z zestawu podmodułów
dla systemu operacyjnego Windows XP/Vista/7.
vol. 10, nr 3 (38), 2012
253
Olga Pilipczuk, Dima Shamroni
Interfejs użytkownika został stworzony zgodnie ze standardami Microsoft
dla aplikacji Windows i umożliwia wykonanie takich funkcji jak:
– skoordynowana i interaktywna wizualizacja danych, obrazów i wyników
analizy;
– elastyczna konfiguracja interfejsu;
– dostępność wszystkich funkcji poprzez menu użytkownika;
– pomóc kontekstowa i pomoc dynamiczna.
Moduł wizualizacji daje możliwość tworzenia dwóch rodzajów obrazów:
tradycyjnych i integralnych. Obrazy integralne w systemie otrzymuje się za
pomocą krzywych Novospark, krzywych Andrew i współrzędnych równoległych. W systemie można uzyskać następujące rodzaje obrazów: obraz obserwacji wielowymiarowej, obraz procesu wielowymiarowego, obraz przedziału
wielowymiarowego. Na rysunku 4 pokazano okno wizualizacji z integralnym
obrazem. Użytkownik ma do wyboru szeroki wachlarz opcji do pracy z obrazami: różne rodzaje projekcji i przekształceń obrazu, możliwość tworzenia
„chmury” przedziału wielowymiarowego, możliwość określenia obserwacji
anomalnych, możliwość wyboru spektrum barw, możliwość wyboru podzbioru danych i innych ważnych opcji. Do obrazów tradycyjnych w systemie
zalicza się histogramy, wykresy liniowe, diagramy punktowe, współrzędne
biegunowe i inne.
Pilipczuk 4.pdf 1
10/19/12 12:01 PM
Rys. 4. Wizualizacja danych wielowymiarowych w systemie NovoSpark Visualizer. Źródło:
opracowanie własne.
System również tworzy możliwość przeprowadzenia szeregu analiz tradycyjnych: analizy czynnikowej, analizy skupień, analizy regresji, samoorganizujących map Kohonena itd. Szczegółową architekturę systemu przedstawiono
na rysunku 5.
254
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
Prezentacja
Projekt NovoSpark®Visualizer
Obraz
Open GL
Raporty
Kontrola
manipulacji
Renderowanie
w formacie
HTML
Dostęp do danych
FlexCell Grid
Framework wizualizacji
Dołączalne moduły
wizualizacji
Dołączalne moduły
analizy danych
Import danych
Narzędzia wczytywania danych
Narzędzie
formatowania
danych
Wartości
oddzielone
przecinkami
Wartości
oddzielone
separatorem
MS Access
MS SQL
Server
ODBC
Rys. 5 Architektura systemu NovoSpark®Visualizer. Źródło: opracowanie własne.
NovoSpark Visualizer jest aplikacją komputerową implementująca paradygmat okienkowy multi-SDI, typowy dla popularnych „Office-like” aplikacji użytkowników. Każdy projekt w systemie przedstawia się w postaci
oddzielnego okna i zapisuje się jako plik projektu, co oznacza, że można
im manipulować niezależne od innych okien projektu. Istotą każdego
projektu NovoSpark Visualizer jest komponent oparty na renderowaniu
OpenGL, który pokazuje wielowymiarowy obraz kompozytowy wszystkich
zbiorów danych przedstawionych w oknie projektu za pomocą opatentowanej metody wizualizacji stworzonej i ciągle rozwijanej przez korporację
NovoSpark. Mechanizm renderujący zapewnia możliwość wyboru różnych
sposobów wizualizacji danych i różnych opcji transformacji obrazu, które
mogą zostać zmienione przez użytkownika w celu otrzymania najbardziej
reprezentatywnego i informatywnego obrazu wielowymiarowych zbiorów
danych. Strukturę i zawartość każdego zbioru danych można przeglądać
i modyfikować w oknie obsługującym FlexCell Grid, optymalnym do pracy
z dużymi ilościami danych. Okna danych można przemieszczać i dołączać
do dowolnej krawędzi okna projektu w celu dokonania szybkiej i łatwej
konfiguracji przestrzeni projektu.
NovoSpark Visualizer Framework składa się z dołączonych modułów
analizy i wizualizacji danych, które można wczytać osobno od aplikacji głównej. Niektóre dołączone moduły, zawierające metody eksploracji danych
i diagramy wizualne, można pobrać ze strony korporacji NovoSpark, a także
kilka niestandardowych modułów od partnerów firmy NovoSpark zintegrowanych z aplikacją główną. Framework zawiera API (interfejs programowy
aplikacji) do manipulacji na wewnętrznych strukturach danych i generowania
raportów w formacie HTML.
W dolnej warstwie architektury systemu znajduje się warstwa danych,
która stanowi podstawę do pobierania i formatowania danych ze źródeł
vol. 10, nr 3 (38), 2012
255
Olga Pilipczuk, Dima Shamroni
zewnętrznych. Biblioteka standardowych narzędzi do wczytywania danych
obsługuje różne typy plików tekstowych i „3rd party” baz danych, podczas, gdy narzędzie formatowania danych zapewnia kompatybilność danych
pochodzących z różnych źródeł i wczytywanych do tego samego projektu.
4. Wykorzystanie systemu NovoSpark®Visualizer
podczas wyboru strategii cenowej
Systemy grafiki kognitywnej rozpowszechniły się w ostatnich latach
w zarządzaniu, szczególnie przy podejmowaniu decyzji strategicznych. W celu
zaprezentowania, jak system grafiki kognitywnej może pomóc w procesie
podejmowania decyzji menedżerskich, w artykule przedstawiono przykład
ośrodka rekreacyjno-sportowego. Dział promocji i marketingu otrzymuje
zadanie przeanalizowania częstotliwości wizyt w ośrodku i stworzenia
nowej oferty cenowej, uwzględniającej otrzymane wyniki. Podczas badania
została obliczona średnia liczba wizyt klientów w określonych przedziałach
czasowych według poszczególnych dni tygodnia i poszczególnych miesięcy
w 2011 r. W tabelach 1, 2, 3 przedstawiono otrzymane dane.
Przedziały
czasowe
Poniedziałek Wtorek
Środa
Czwartek Piątek Sobota Niedziela
8.00–9.00
8,3
12,2
10,0
13,3
14,5
22,5
10,1
9.00–10.00
8,6
14,2
15,4
17,1
16,3
28,9
33,5
10.00–11.00
22,1
26,3
20,5
25,5
21,1
35,4
36,3
11.00–12.00
25,0
26,9
22,2
29,5
35,5
60,5
51,2
12.00–13.00
21,3
23,5
25,9
31,1
34,7
72,3
55,5
13.00–14.00
25,8
19,0
30,2
27,4
37,4
68,4
60,4
14.00–15.00
25,6
18,4
31,1
29,5
39,4
73,5
57,7
15.00–16.00
33,4
34,2
32,7
35,3
42,6
66,6
55,1
16.00–17.00
34,4
45,1
38,5
46,5
65,2
63,7
45,5
17.00–18.00
42,2
51,8
43,3
56,6
64,7
41,9
42,4
18.00–19.00
50,1
55,7
48,6
58,2
60,5
34,9
25,3
19.00–20.00
38,9
40,1
46,2
42,0
37,3
45,1
18,1
20.00–21.00
27,5
26,0
32,2
40,2
24,2
22,9
17,2
21.00–22.00
12,6
18,9
16,1
25,7
10,3
12,8
15,8
22.00–23.00
5,3
8,9
7,7
10,3
2,1
12,2
8,0
Tab. 1. Frekwencja klientów basenu w roku 2011. Źródło: opracowanie własne.
256
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
Przedziały
czasowe
Poniedziałek
Wtorek Środa Czwartek Piątek Sobota Niedziela
8.00–9.00
7,2
11,2
11,7
13,6
14,5
2,2
2,8
9.00–10.00
8,5
17,5
14,5
14,4
16,7
8,7
3,8
10.00–11.00
21,1
24,2
22,8
14,9
21,3
15,1
16,2
11.00–12.00
26,5
26,5
23,4
18,5
25,1
20,5
21,7
12.00–13.00
20,3
22,7
27,6
20,2
34,4
22,1
25,1
13.00–14.00
27,5
20,6
31,9
28,5
37,5
28,5
25,4
14.00–15.00
24,7
16,6
32,7
35,3
39,8
33,9
27,3
15.00–16.00
33,5
35,4
35,5
28,4
42,2
26,3
25,9
16.00–17.00
35,6
31,5
37,5
27,7
35,5
23,3
23,7
17.00–18.00
24,2
26,9
34,0
22,2
34,7
21,1
22,1
18.00–19.00
21,3
26,7
21,7
19,7
30,2
24,5
15,5
19.00–20.00
17,5
22,3
14,5
10,2
27,1
15,3
8,5
20.00–21.00
6,3
7,7
11,1
11,2
14,1
12,4
7,6
21.00–22.00
5,4
5,8
7,4
6,3
5,5
6,6
3,1
22.00–23.00
0,0
0,5
0,7
0,7
1,3
2,7
0,5
Tab. 2. Frekwencja klientów SPA w roku 2011. Źródło: opracowanie własne.
Przedziały
czasowe
Poniedziałek
8.00–9.00
6,2
8,4
10,6
7,7
14,3
22,7
10,2
9.00–10.00
8,7
14,4
15,5
9,5
16,1
28,5
23,8
10.00–11.00
12,2
16,2
20,1
15,3
21,2
35,7
26,5
11.00–12.00
15,3
16,5
22,2
19,5
25,5
30,2
21,6
12.00–13.00
11,5
13,7
25,5
21,1
24,4
32,4
25,6
13.00–14.00
15,5
19,3
20,3
27,5
27,6
38,1
27,1
14.00–15.00
20,2
18,6
21,1
29,8
29,8
33,5
30,2
15.00–16.00
23,7
24,2
22,7
35,6
32,2
33,6
25,4
16.00–17.00
24,1
25,5
28,8
32,2
35,5
33,3
25,8
17.00–18.00
22,3
31,1
33,5
36,5
34,4
31,2
25,3
18.00–19.00
20,1
25,6
28,9
28,6
30,1
24,9
22,1
19.00–20.00
18,0
20,1
26,3
22,1
17,2
21,3
8,4
20.00–21.00
17,5
16,9
22,6
20,2
14,5
12,4
3,9
21.00–22.00
8,9
12,8
11,1
15,4
10,2
2,5
0,7
22.00–23.00
0,1
1,2
0,2
1,0
0,4
2,2
0,3
Wtorek Środa
Czwartek Piątek Sobota Niedziela
Tab. 3. Frekwencja klientów siłowni w roku 2011. Źródło: opracowanie własne.
vol. 10, nr 3 (38), 2012
257
Olga Pilipczuk, Dima Shamroni
Wszystkie dane, zawarte w tabelach 1, 2, 3, można przedstawić w systemie
za pomocą jednego integralnego obrazu w przestrzeni trójwymiarowej – jak
to pokazano na rysunku 6. Obraz został pokolorowany zgodnie z wartością
funkcji za pomocą spektrum barw, przy czym kolorem niebieskim zaznaczono najmniejsze znaczenie funkcji, kolorem czerwonym zaś największe.
W systemie istnieje również możliwość przedstawienia powyższego obrazu
w przestrzeni dwuwymiarowej (rysunek 7). Na obrazie jako 0 oznaczono
poniedziałek, 1 – wtorek itd.
Rys. 6 Integralny obraz w przestrzeni trójwymiarowej. Źródło: opracowanie własne.
Rys. 7. Integralny obraz w przestrzeni dwuwymiarowej. Źródło: opracowanie własne.
W jaki sposób powstał kolor każdego punktu na obrazie, można dowiedzieć się, wykorzystując funkcję inspekcji, która pokazuje wpływ poszczególnych dni i ich koloru na wartość funkcji w tym punkcie (rysunek 8).
258
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
W celu zaprezentowania, jak obraz może pomóc w szybkim odnalezieniu
źródła problemu, stworzono rysunek 9. Oś X przedstawia poszczególne dni
tygodnia, natomiast oś Y przedziały czasowe. Przy pierwszym spojrzeniu
od razu widać, w jakich dniach i godzinach popyt na usługi basenu był
największy. Są to: piątek od 16.00 do 19.00, a także sobota i niedziela od
godziny 12.00 do 17.00. Najniższy popyt odnotowujemy codzienne od 22.00
do 23.00. Oprócz tego łatwo jest zauważyć niski popyt w dni robocze do
godziny 15.00, a szczególnie od 8.00 do 9.00. Przy projektowaniu nowej
strategii cenowej warto jest rozpatrzyć wcześniejsze zamknięcie i późniejsze otwarcie basenu w celu redukcji kosztów utrzymania, natomiast w dni
robocze do godziny 15.00 wprowadzenie zniżki albo promocyjnej oferty
połączonej z innymi usługami ośrodka.
Rys. 8. Integralny obraz w przestrzeni trójwymiarowej z wybranym punktem. Źródło:
opracowanie własne.
SRQLHG]LDáHN
ZWRUHN
ĞURGD
F]ZDUWHN
SLąWHN
VRERWD
QLHG]LHOD
Rys. 9. Obraz frekwencji klientów basenu. Źródło: opracowanie własne.
vol. 10, nr 3 (38), 2012
259
Olga Pilipczuk, Dima Shamroni
5. Perspektywy rozwoju systemów
grafiki kognitywnej
Jak już wcześniej zaznaczono, dzisiaj najwięcej systemów grafiki kognitywnej skupia się na wizualizacji danych, pozostawiając podjęcie decyzji
użytkownikowi. Powstało również kilka systemów posiadających w swojej
strukturze funkcję wsparcia procesu decyzyjnego i doboru najlepszego
wariantu decyzyjnego. W chwili obecnej rozwój systemów grafiki kognitywnej idzie właśnie w tym kierunku, czyli w kierunku połączenia wizualizacji
kognitywnej i decydowania kognitywnego. Sensowne wydaje się również
zastosowanie metod sztucznej inteligencji w grafice kognitywnej i odwrotnie – zastosowanie elementów grafiki kognitywnej w metodach sztucznej
inteligencji. Dlatego takie połączenie będzie kierunkiem dalszych badań
autorów. Oprócz tego, bez względu na to, że skuteczność zastosowania
grafiki kognitywnej została już udowodniona wiele razy, istnieje wiele dziedzin, w których jeszcze nie próbowano jej zastosować. Dlatego kolejnym
krokiem badawczym powinno zostać wprowadzenie grafiki kognitywnej do
nowych branż gospodarki i dziedzin nauki.
6. Zakończenie
Tworzenie systemów grafiki kognitywnej jest zadaniem bardzo skomplikowanym. Najważniejszym modułem systemu jest moduł wizualizacji danych.
Wizualizacja powinna spełniać nie tylko swoją pierwotną funkcję – funkcję
prezentacji danych, każdy obraz powinien też nieść w sobie rozwiązanie
problemu. Podczas projektowania systemu grafiki kognitywnej projektant
powinien rozumieć cały proces zachodzący w umyśle decydenta podczas
analizy obrazu i nawet tworzyć dodatkowe moduły wspierające ten proces
i proponujące najlepszy wariant decyzyjny.
Informacje o autorach
Dr Olga Pilipczuk – Katedra Zarządzania i Inżynierii Wiedzy, Uniwersytet
Szczeciński. E-mail: [email protected].
Dr Dima Shamroni – Korporacja NovoSpark, Kanada.
E-mail: [email protected].
Bibliografia
Bajaj, Ch. i B. Krishnamurthy 1999. Data Visualization Techniques, Wiley Computer
Books.
Chernoff, H. 1973. The Use of Faces to Represent Points in K-Dimensional Space
Graphically. Journal of the American Statistical Association, nr 68 (342), s. 361–368.
Cleveland, W. 1993. Visualizing Data, New Jersey: Hobart Press.
260
Problemy Zarządzania
Podstawowe aspekty tworzenia systemów grafiki kognitywnej
D’Ocagne, M. 1885. Coordonnées Parallèles et Axiales: Méthode de transformation géométrique et procédé nouveau de calcul graphique déduits de la considération des coordonnées parallèlles, Paris: Gauthier-Villars.
Eidenzon, D. i D. Shamroni 2011. Multidimensional Data Visualization, materiały konferencyjne “Conference on Probabilistic Methodologies in Water and Wastewater
Engineering”, Toronto.
Friedman, V. 2008. Data Visualization and Infographics. Graphics, Monday Inspiration,
14.01.2008.
Friendly, M. 2008. Milestones in the history of thematic cartography, statistical graphics,
and data visualization, http://www.math.yorku.ca/SCS/Gallery/milestone/milestone.pdf.
Inselberg, A. 1985. The Plane with Parallel Coordinates. Visual Computer, nr 1 (4),
s. 69–91.
Inselberg, A. 2009. Parallel Coordinates: VISUAL Multidimensional Geometry and its
Applications, Springer.
Zenkin, A. i D. Pospelov 1991. Kognitywna grafika komputerowa, Moskwa: Nauka.
vol. 10, nr 3 (38), 2012
261
Problemy Zarządzania, vol. 10, nr 3 (38): 262 – 270
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.7172.1644-9584.38.16
Gry komputerowe w organizacji
– uwarunkowania psychologiczne
Michał Mijal
Artykuł podsumowuje obecny stan wiedzy z zakresu zastosowania gier komputerowych w organizacji i ich uwarunkowań psychologicznych. Wymienia
i opisuje najważniejsze aspekty, które należy brać pod uwagę przy projektowaniu i wykorzystaniu gier komputerowych w szkoleniach, oraz wskazuje najważniejsze zagrożenia związane z użytkowaniem gier w procesach dydaktycznych.
Sugeruje także najistotniejsze kierunki dalszych badań z tego zakresu oraz
najbardziej perspektywiczne obszary zastosowań gier komputerowych w organizacji.
1. Wstęp
Nauka jest efektywniejsza, gdy sprawia przyjemność (Lepper i Cordova
1992: 203). Stwierdzenie to leży u podstaw zastosowania gier komputerowych
do celów szkoleniowych. Celem niniejszego artykułu jest eksploracja i opis
psychologicznych uwarunkowań związanych z zastosowaniem gier komputerowych (na PC, konsole i urządzenia przenośne, w tym telefony i tablety)
w organizacji. Ponieważ temat ten jest dość obszerny i obejmuje zarówno
klasyczne gry komputerowe, gry symulacyjne, jak i elektroniczne implementacje gier planszowych, głównym przedmiotem opisu będą uwarunkowania
psychologiczne ich zastosowań oraz przydatność gier w realizowaniu różnych
funkcji organizacyjnych, nie zaś klasyfikacja samych gier.
Obszarem w organizacji, gdzie gry znajdują najczęściej zastosowanie, jest
zarządzanie zasobami ludzkimi, a zwłaszcza rekrutacja i szkolenia. Oczywiście to nie wyczerpuje możliwych zastosowań gier komputerowych – są
one używane także w finansach i zarządzaniu kryzysowym (prognozowanie), marketingu (promocja i reklama produktów i firm) oraz w obszarach
nietypowych: symulowaniu zachowań (Green 2011) czy w projektowaniu
(Sharma i in. 2009).
Spośród znaczącej liczby uwarunkowań psychologicznych, omówione
zostaną przede wszystkim te dotyczące zastosowania gier komputerowych
w szkoleniach i rozwoju pracowników. Ze względu na objętość artykułu
pozostałe uwarunkowania zostaną zasygnalizowane jedynie, gdy pośrednio
wpływają także na proces zdobywania przez pracowników nowej wiedzy
262
Problemy Zarządzania
Gry komputerowe w organizacji – uwarunkowania psychologiczne
lub umiejętności. Wybór został dokonany z uwzględnieniem jednego kryterium – czy opisywane aspekty psychologiczne są z jednej strony na tyle
istotne, a z drugiej strony na tyle praktyczne, żeby zainteresować badaczy
zajmujących się zarządzaniem także w najbliższej przyszłości. Dlatego też,
siłą rzeczy, artykuł nie zawiera pełnego przeglądu obecnego stanu wiedzy
z omawianej tematyki, ale ma stanowić kompendium najważniejszych zdaniem autora trendów w badaniach psychologicznych nad grami komputerowymi w szkoleniach i rozwoju pracowników.
Temat gier komputerowych w organizacji jest o tyle istotny, że współcześnie gry urosły do rangi medium równorzędnego kinematografii1 i cały
czas zyskują na znaczeniu. Wraz z przenikaniem gier komputerowych do
głównego nurtu rozrywki zaczęto je także coraz powszechniej wykorzystywać
w różnych obszarach funkcjonowania organizacji. Ponieważ jednak jest to
stosunkowo młoda dziedzina, mimo coraz większej uwagi badaczy istnieje
jeszcze wiele jej aspektów słabo lub w ogóle nieopisanych. Duża część analiz
poświęconych grom komputerowym bazuje na badaniach prowadzonych od
kilkudziesięciu lat w psychologii, socjologii, pedagogice i innych naukach
społecznych. Gry są także opisywane od strony technologii w nich stosowanej, opierając się na różnych działach informatyki i matematyki.
2. Ramy pojęciowe
Od razu należy wyjaśnić, że różnice pomiędzy klasycznymi grami „analogowymi” (realizowanymi bez użycia sprzętu elektronicznego) a grami
komputerowymi są współcześnie coraz bardziej rozmyte. O ile gry komputerowe dają duże możliwości ukrycia mechanizmów rządzących rozgrywką
oraz pozwalają przerzucić na komputer lub inne urządzenie większość
obliczeń wykonywanych wcześniej ręcznie, o tyle gry planszowe pozwalają
lepiej zaangażować uczestników, a komunikacja pomiędzy uczestnikami jest
mniej ustrukturyzowana i spontaniczniejsza (Cushman-Roisin i in. 2000).
Oczywiście istnieje jeszcze cały szereg różnic związanych między innymi
ze stosowaną technologią, ale te wymienione powyżej są najważniejsze.
Można także znaleźć w literaturze doniesienia o tym, że gry komputerowe
bardziej zwiększają motywację do nauki niż stosowane w porównywalnych
warunkach klasyczne gry planszowe (Ke 2008), ale brak jest innych danych
potwierdzających to zjawisko.
Podobnie różnica pomiędzy grami a symulacjami jest współcześnie mało
wyraźna i ulega zatarciu, głównie dzięki mocy obliczeniowej komputerów.
Symulacje – w odróżnieniu od gier – obejmują zwykle dużą liczbę zmiennych
i danych potrzebnych do podejmowania decyzji (Gredler 2004), ale – dzięki
przerzuceniu koniecznych obliczeń na sprzęt – z punktu widzenia użytkownika są dość podobne i określenia gry i symulacje są wobec tego często
stosowane zamiennie. Dlatego określenie gry będzie używane w niniejszym
artykule do opisu obu kategorii.
vol. 10, nr 3 (38), 2012
263
Michał Mijal
3. Główne uwarunkowania
Historia badań psychologicznych nad grami komputerowymi jest dość
ściśle związana z rozwojem samych gier komputerowych, chociaż z racji
młodego wieku tego medium systematyczne i mocno osadzone w teorii
analizy zaczęto publikować dopiero kilkanaście lat temu. Jednym z pierwszych artykułów na ten temat był tekst Richarda Bartle’a (1996) na temat
podziału uczestników gier sieciowych ze względu na ich motywację do grania.
Na jego podstawie przeprowadzono następnie trwające kilka lat badanie
kwestionariuszowe2, mające na celu eksperymentalne zweryfikowane koncepcji Bartle’a. Dzieli ona graczy na cztery grupy: zdobywców (Achievers),
odkrywców (Explorers), zabójców (Killers) i dusze towarzystwa (Socializers)3.
Na podstawie wyników tego badania – początkowo pomyślanego wyłącznie
dla użytkowników tzw. MUD-ów – tworzy się profil gracza, który później
pomaga w analizowaniu, jakie elementy w grze są atrakcyjne dla jej konkretnego uczestnika. Dzięki temu można projektować gry skierowane do
węższej grupy osób, nastawionych na konkretny rodzaj interakcji.
Z koncepcji Bartle’a wyrosły inne typologie i klasyfikacje dzielące graczy
na grupy poszukujące w grach różnych bodźców. Najczęściej przytaczana jest
typologia Marca LeBlanca (Salen i Zimmerman 2004), wyróżniająca 8 typów
przyjemności, których poszukiwanie napędza graczy do podejmowania gry:
– zmysłowe (sensation) – wszystko, czego można doświadczać zmysłami;
– fantasy – wymyślone światy i przyjemność uczestniczenia w nich;
– narracyjne (narrative) – doświadczanie rozwoju wydarzeń;
– wyzwanie (challenge) – rozwiązywanie problemów w grze;
– wspólnota (fellowship) – przyjaźń, współpraca i poczucie wspólnoty;
– odkrywanie (discovery) – szukanie i odnajdowanie czegoś nowego;
– ekspresja (expression) – wyrażanie siebie i tworzenie nowych rzeczy;
– poddanie (submission) – podążanie według reguł za grą.
Obie wymienione koncepcje podejmują próbę uporządkowania zasad
i celów interakcji graczy ze środowiskiem gier komputerowych poprzez
sklasyfikowanie motywów, jakimi kierują się osoby siadające do rozgrywki.
Stanowią także dobry punkt wyjścia przy określaniu, do jakiej grupy docelowej jest skierowana dana gra i jakie cele za jej pomocą chcą osiągnąć
jej twórcy. Przy projektowaniu szkoleniowych gier komputerowych należy
dokładnie zaplanować, jakie kompetencje i wśród jakich uczestników będą
rozwijane. Przytoczone typologie ułatwiają ten proces i pozwalają lepiej
dopasować treść i formę gry do potrzeb szkoleniowych.
Istnieją także prawidłowości charakterystyczne dla całej populacji, które
oddziałują w podobny sposób na większość graczy. Najważniejsze z nich to:
– wirtualna waluta i jej przelicznik,
– reaktancja.
– efekt podarowanego postępu,
– efekt jednostki,
264
Problemy Zarządzania
Gry komputerowe w organizacji – uwarunkowania psychologiczne
– motywacja gracza a jego zaangażowanie,
– bariery wejścia (mentalne i fizyczne),
– oszustwa.
Wirtualna waluta występująca często w grach komputerowych pozwala
wykonywać operacje znane ze świata rzeczywistego, czyli kupno, sprzedaż,
licytowanie itp. W przypadku gier szkoleniowych zwykle waluta jest przydzielana równo wszystkim uczestnikom, jednak w przypadku sieciowych gier
komercyjnych istnieje możliwość dokupienia waluty wirtualnej za prawdziwą
gotówkę. Zwykle przelicznik pieniądza realnego do wirtualnego jest dość
skomplikowany i uniemożliwia proste określenie, ile kosztuje wirtualne
dobro w walucie rzeczywistej. Wynika to z pewnej prostej prawidłowości
znanej z psychologii: im trudniej przeliczyć obcy nominał na własny, tym
częściej rezygnuje się z porównywania wartości i podejmuje decyzję zakupową (Poundstone 2010). Tym samym nierówny przelicznik powoduje, że
gracze będą wydawali częściej i więcej. Równocześnie subiektywne poczucie
niesprawiedliwego przydziału dóbr może zniszczyć zaangażowanie gracza,
a tym samym również efekt szkoleniowy (Adams 1963).
W grach komputerowych występuje także zjawisko znane i opisane w psychologii już wiele lat temu – reaktancja. Jeśli gracz jest postawiony przed
koniecznością podjęcia jakiejś decyzji, a wybór będzie oznaczał zawężenie
przyszłych możliwości działania w grze, decyzja ta będzie odwlekana tak
długo, jak to będzie możliwe (por. Dowd i Wallbrown 1994). Widać to
szczególnie wyraźnie w grach fabularnych, gdzie decyzje gracza wpływają
na rozwój opowiadanej przez grę historii – decyzja związana z wyborem
jednej ze ścieżek postępowania jest zwykle opóźniana do ostatniej chwili.
Jednak także w symulacjach ekonomicznych można zaobserwować to zjawisko – wybór strategii organizacji powoduje, że kolejne wybory są jego
logiczną konsekwencją, a pewne opcje stają się graczom niedostępne. Dlatego uczestnicy starają się zwykle zrealizować maksymalnie dużo innych
zadań przed podjęciem tej jednej, nieodwracalnej decyzji.
Kolejnym istotnym uwarunkowaniem, które ma wpływ na zaangażowanie
uczestników w grę komputerową, jest tzw. efekt podarowanego postępu
(Endowed Progress Effect) – jeśli gracz otrzyma informację, że już na
początku wykonał część zadań potrzebnych do osiągnięcia celu, zwiększa
to prawdopodobieństwo jego osiągnięcia oraz skraca czas realizacji (Nunes
i Dreze 2006). Prawidłowość ta ma zresztą zastosowanie nie tylko w grach
komputerowych, ale także w marketingu, gdzie można ją wykorzystać, np.
zamiast wręczając klientowi kupon na darmowy produkt po zakupie dziesięciu, wręcza mu się analogiczny kupon z darmowym dwunastym produktem,
ale pierwsze dwa pola są już odznaczone. Powoduje to wrażenie częściowej
realizacji zadania i ułatwia podjęcie kolejnych kroków. W przypadku gier
komputerowych w organizacji można to wykorzystać na przykład w szkoleniach, dając graczom na początku rozgrywki jakieś zasoby, będące w koń-
vol. 10, nr 3 (38), 2012
265
Michał Mijal
cowym etapie kryterium zwycięstwa. W ten sposób zwiększa się motywację
uczestników i ułatwia rozpoczęcie.
Podobnie jest w przypadku zdobywania kolejnych elementów potrzebnych do ukończenia gry lub tzw. achievementów4. Bezpośrednio po takim
zdarzeniu wydzielana jest do mózgu poprawiająca samopoczucie dopamina.
Wraz z postępem rozgrywki nasz mózg rozpoznaje momenty, w których
zostaniemy czymś nagrodzeni, i dopamina jest wydzielana także przed taką
chwilą, co powoduje, że wysoki poziom satysfakcji z rozgrywki utrzymuje
się przez cały czas jej trwania, a gracz nie chce się oderwać od monitora
(Fiorillo i in. 2003).
Pokrewnym zagadnieniem jest tzw. efekt jednostki (Unit Effect). Polega
on na odmiennym postrzeganiu prezentowanych wartości i różnic pomiędzy
nimi w zależności od rozmiaru liczby, a w oderwaniu od jednostek (Pandelaere i in. 2011). W grach komputerowych jest to widoczne choćby przy
zdobywaniu tzw. punktów doświadczenia za wykonanie różnych zadań –
nawet za najmniejsze dostaje się kilkadziesiąt lub kilkaset punktów, a za duże
można zdobyć milion i więcej. Gdyby zachowano proporcje i zredukowano
wszystkie liczby, gracz miałby wrażenie zdobywania mniejszej liczby punktów,
a proporcje i różnice pomiędzy małymi i dużymi zadaniami byłyby odbierane
jako mniejsze niż w pierwszym opisanym przypadku. W ten sposób także
zwiększa się zaangażowanie gracza w rozgrywkę i daje się mu subiektywne
poczucie wykonania dużego postępu na drodze do sukcesu.
Ciekawe spostrzeżenie dotyczące wyjaśnienia popularności gier komputerowych rozgrywanych z perspektywy pierwszej osoby (tzw. FPS) zaproponowali
Przybylski, Rigby i Ryan (2010). Stworzyli oni model motywacji, w którym
warunkiem zaangażowania gracza jest zaspokojenie trzech grup potrzeb: kompetencji, autonomii i relacji (competence, autonomy, and relatedness). Gry
FPS doskonale zaspokajają wszystkie trzy grupy – kompetencja związana jest
z wrażeniem kontroli nad poczynaniami awatara w grze i kolejnymi postępami
(np. wspomnianymi już Trofeami), autonomia zaspokajana jest poprzez złudzenie wolności, jakie dają gry FPS, a relacje – dzięki trybowi dla wielu graczy.
W rzeczywistości organizacyjnej koncepcja ta może być wykorzystywana do
projektowania gier edukacyjnych lub szkoleniowych. Szczególnie w połączeniu
z innymi badaniami. Greitemeyer i inni (2012) wskazują, że wieloosobowe
gry FPS – będące w mediach synonimem rozrywki stymulującej zachowania
agresywne – mogą być wykorzystywane do kształtowania postaw i zachowań
kooperacyjnych. Wystarczy postawić przed uczestnikami zadanie wymagające współpracy do osiągnięcia wspólnego celu, aby stymulować współpracę
nie tylko pomiędzy graczami, ale także pomiędzy graczami a osobami nie
grającymi. Wpływ ten jest stosunkowo stały i niezależny od osób i sytuacji.
Osobnym zagadnieniem opisywanym przez teoretyków gier komputerowych i coraz popularniejszym w praktyce w ostatnich latach są bariery wejścia
do rozgrywki. Istotną barierą wejścia w świat gry jest na przykład potrzeba
nauczenia się mechaniki gry oraz obsługi interfejsu. Dlatego w ostatnich
266
Problemy Zarządzania
Gry komputerowe w organizacji – uwarunkowania psychologiczne
latach coraz większą popularnością cieszą się kontrolery do gier wykorzystujące ruchy całego ciała gracza: Wii Remote, PS Move i Kinect (Skalski i in.
2011). W świetle badań kontrolery ruchowe ułatwiają naukę i zaangażowanie
w rozgrywkę, co przekłada się na uczestnictwa i większy komfort obsługi.
Uczestnicy chętniej i dłużej pozostają w grze, a po jej zakończeniu wyżej
oceniają jej realizm. Właśnie z tego powodu gry stosowane w organizacjach
będą prawdopodobnie w coraz większym stopniu korzystać z tego sposobu
komunikacji z graczem (por. np. Kato 2010).
Oczywiście istnieją ograniczenia w stosowaniu tej techniki – symulacje
zarządzania zasobami nadal będą prawdopodobnie wymagać obsługi bardziej klasycznego interfejsu (przynajmniej w najbliższej przyszłości), ale wraz
z rozwojem techniki również tutaj możliwa jest rezygnacja z klawiatury.
Już kilkanaście lat temu futurolodzy przewidywali wprowadzenie trójwymiarowych przestrzeni nawigacyjnych, które pozwalają wykonywać nawet
dość skomplikowane operacje na zbiorach danych i wydawać polecenia,
do których dotychczas konieczne było posługiwanie się myszą i klawiaturą
(por. np. Burmester i in. 2000). Obecnie jest to raczej kwestia ograniczeń
technologicznych niż koncepcyjnych i prawdopodobnie jedynie kwestią czasu
jest zastosowanie jeszcze bardziej zaawansowanych technicznie interfejsów
w grach wykorzystywanych w organizacjach.
Istotnym elementem gier komputerowych są także oszustwa. Czasem
dokonywane nieświadomie, z wykorzystaniem błędów w programie (tzw.
bugów), czasem celowo je eksploatujące, a w pewnych sytuacjach popełniane
świadomie, z wykorzystaniem zewnętrznych programów modyfikujących
samą grę (specyfika i gatunek gry determinuje programy wykorzystywane
do oszustw – por. Jeung i Lui 2008). Psychologiczne uwarunkowania oszustw
w grach są stosunkowo proste i można je podzielić na kilka grup:
– związane z graczem – np. samoocena (Oren 2008), Machiawelizm
(Cooper i Peterson 1980);
– związane z mechanizmami rozgrywki – np. nagradzanie uczestników
w sposób postrzegany przez nich jako niesprawiedliwy (por. Wicker
i Bushweller 1970), brak zabezpieczeniem przed oszustwami (por. Wilson i Kelling 1982);
– związane z interakcją z innymi graczami – np. dysproporcja pomiędzy umiejętnościami i możliwościami różnych graczy (Schwieren i Weichselbaumer
2009), możliwość bezkarnego lub anonimowego oszukiwania (Constantiou 2012), postrzeganie oszukiwania przez współgraczy (LaSalle 2009).
Oczywiście nie wyczerpuje to katalogu możliwych motywów i rodzajów
oszustw podczas rozgrywek, ale obejmuje te najważniejsze oraz najczęściej
spotykane i opisywane w literaturze. Ze wszystkimi można walczyć na dwa
główne sposoby: oddziałując na program komputerowy (czyli zabezpieczając go przed oszustwami) lub na samych graczy (tworząc im motywację
wewnętrzną do grania fair lub ściśle ich kontrolując). Ten pierwszy sposób
wymaga działania ex ante, podczas gdy ten drugi – ex post.
vol. 10, nr 3 (38), 2012
267
Michał Mijal
4. Podsumowanie
W świetle przytoczonych badań gry komputerowe w szkoleniach mogą
być stosowane w wielu obszarach, do kształtowania zarówno pożądanych
zachowań, jak i postaw. Szczególnie interesujące wydaje się kształtowanie
tzw. kompetencji miękkich, które najskuteczniej ćwiczy się w sytuacjach
wymagających aktywnego zaangażowania uczestnika oraz interakcji z innymi
ludźmi. Gry komputerowe dają możliwość wchodzenia w interakcje także
osobom słabiej radzącym sobie z sytuacjami społecznymi i z tego powodu
doskonale nadają się do stosowania w grupach niejednorodnych pod względem poziomu kompetencji społecznych.
Strona techniczna gier komputerowych powala już teraz używać ich
względnie niewysokim kosztem, co ułatwia dostęp także mniejszym firmom,
a także organizacjom sektora pozarządowego.
Dalsze badania powinny objąć przede wszystkim eksperymentalne
potwierdzenie skuteczności różnego rodzaju ćwiczeń i gier oraz stworzenie
pełnej i kompletnej bazy teoretycznej do tworzenia edukacyjnych gier komputerowych. Jest to o tyle istotne, że w ostatnich latach wzrasta popularność
gier w edukacji (por. np. Kebritchi i Hirumi 2008), ale nadal brak jest kompleksowego opracowania teoretycznego, które osadzałoby tę część sektora
edukacyjnego w szerszej perspektywie, uniezależniając go jednocześnie od
dotychczasowych badań obejmujących wyłącznie tradycyjne gry i symulacje.
Informacje o autorze
Dr Michał Mijal – Zakład Teorii i Metod Organizacji, Katedra Teorii Organizacji
Wydziału Zarządzania Uniwersytetu Warszawskiego.
E-mail: [email protected].
Przypisy
1
Światowy rynek gier komputerowych i wideo już w roku 2011 odnotował obroty
przewyższające obroty na rynku filmowym (en.wikipedia.org/wiki/Video_game_industry, dostęp: 13.07.2012).
2
www.gamerdna.com/quizzes/bartle-test-of-gamer-psychology, dostęp 12.07.2012.
3
Te cztery typy powstają z przecięcia dwóch wymiarów: działanie–interakcja oraz gracze–świat gry (Bartle 1996).
4
Trofea i osiągnięcia to jeden z elementów współczesnych gier. Gracz otrzymuje tytuł/
/medal/odznaczenie po spełnieniu określonych wymogów. W rozbudowanych produkcjach wysokobudżetowych lista trofeów przekracza czasem kilkaset pozycji. Wprowadzenie osiągnięć do gier jest też często autoparodiowane przez samych twórców,
np. w grze cRPG „Risen” za zabicie 10 kurczaków zdobywa się trofeum „Pogromca
drobiu”.
268
Problemy Zarządzania
Gry komputerowe w organizacji – uwarunkowania psychologiczne
Bibliografia
Adams, J.S. 1963. Inequity in Social Exchange, w: J. Berkowitz, Advances in Experimental Social Psychology, Vol. 2. New York: Academic Press, DOI: 10.1016/S00652601(08)60108-2.
Bartle, R.A. 1996. Hearts, Clubs, Diamonds, Spades: Players who Suit MUDs. Journal
of MUD Research, nr 1 (1), http://www.brandeis.edu/pubs/jove/HTML /v1/bartle.html.
Burmester, M., Komischke, T. i L. Wust 2000. Innovative User Interfaces in Automation
Engineering by Application of Usability Engineering Methods Shown by the Example of a Three-Dimensional Plant Representation. International Journal of Human-Computer Interaction, nr 3–4 (12), s. 359–373, DOI: 10.1080/10447318.2000.9669064.
Constantiou, I., Legarth, M. i K. Olsen 2012. What Are Users’ Intentions towards Real
Money Trading in Massively Multiplayer Online Games? Electronic Markets, nr 2
(22), s. 105–115.
Cooper, S. i Ch. Peterson 1980. Machiavellianism and Spontaneous Cheating in Competition. Journal of Research in Personality, nr 1 (14), s. 70–75, DOI: 10.1016/00926566(80)90041-0.
Cushman-Roisin, B., Rice, III, N.J. i M.A. Moldaver 2000. A Simulation Tool for Industrial Ecology. Creating a Board Game. Journal of Industrial Ecology, nr 4 (3), DOI:
10.1162/108819899569601.
Dowd, E.T. i F. Wallbrown 1994. Psychological Reactance and Its Relationship to Normal Personality Variables. Cognitive Therapy & Research, nr 6 (18), s. 601–612.
Fiorillo, Ch,D., Tobler, Ph.N. i W. Scultz 2003. Discrete Coding of Reward Probability
and Uncertainty by Dopamine Neurons. Science, nr 5614 (299), DOI: 10.1126/
science.1077349.
Gredler, M. 2004. Games and Simulations and Their Relationships to Learning, Mahwah:
Lawrence Erlbaum Associates.
Green, D.R. 2011. ‘Tit-for-tat’ in Cell Biology. Nature Reviews. Molecular Cell Biology,
nr 2 (12), DOI: 10.1038/nrm3054.
Greitemeyer, T., Traut-Mattausch, E. i S. Osswald 2012. How to Ameliorate Negative
Effects of Violent Video Games on Cooperation: Play It Cooperatively in a Team.
Computers in Human Behavior, nr 28, s. 1465–1470, DOI: 10.1016/j.chb.2012.03.009.
Kato, P.M. 2010. Video Games in Health Care: Closing the Gap. Review of General
Psychology, nr 2 (14), s. 113–121, DOI: 10.1037/a0019441.
Ke, F. 2008. Computer Games Application within Alternative Classroom Goal Structures: Cognitive, Metacognitive, and Affective Evaluation. Education Tech Research,
nr 56, s. 539–556, DOI 10.1007/S11423-008-9086-5.
Kebritchi, M. i A. Hirumi 2008. Examining the Pedagogical Foundations of Modern
Educational Computer Games. Computers & Education, nr 51, s. 1729–1743, DOI:
10.1016/j.compedu.2008.05.004.
LaSalle, R.E. 2009. The Perception of Detection, Severity of Punishment and the Probability of Cheating. Journal of Forensic Studies in Accounting & Business, nr 2 (1),
s. 93–112.
Lepper, M.R. i D.I. Cordova 1992. A Desire to Be Taught: Instructional Consequences
of Intrinsic Motivation. Motivation and Emotion, nr 3 (16), s. 187–208, DOI: 10.1007/
BF00991651.
Nunes, J.C. i X. Dréze 2006. The Endowed Progress Effect: How Artificial Advancement
Increases Effort. Journal of Consumer Research, nr 4 (32), s. 504–512, DOI:
10.1086/500480.
Pandelaere, M., Briers, B. i C. Lembregts 2011. How to Make a 29% Increase Look
Bigger: The Unit Effect in Option Comparisons. Journal of Consumer Research, nr 2
(38), s. 308–322, DOI: 10.1086/659000.
Poundstone, W. 2010. Priceless: the Myth of Fair Value (and How to Take Advantage of
It). New York: Hill and Wang.
vol. 10, nr 3 (38), 2012
269
Michał Mijal
Przybylski, A.K., Rigby, C.S. i R.M. Ryan 2010. A Motivational Model of Video Game
Engagement. Review of General Psychology, nr 2 (14), s. 154–166, DOI: 10.1037/
a0019440.
Salen, K. i E. Zimmerman 2004. Rules of Play. Game Design Fundamentals, Massachusets Institute of Technology Press.
Schwieren, Ch. i D. Weichselbaumer 2009. Does Competition Enhance Performance or
Cheating? A Laboratory Experiment. Journal of Economic Psychology, nr 3 (31),
s. 241–253, DOI: 10.1016/j.joep.2009.02.005.
Sharma, D., Shaban, A., Riddell, A., Kalsi, V., Arya, M. i P. Grange 2009. Video-Games
Station or Minimally Invasive Skills Training Station? Journal Compilation. BJU
International, nr 104, s. 159–162, DOI: 10.1111/j.1464-410X.2009.08478.x.
Skalski, P., Tamborini, R., Shelton, A., Buncher, M. i P. Lindmark 2011. Mapping the
Road to Fun: Natural Video Game Controllers, Presence, and Game Enjoyment.
New Media & Society, nr 2 (13), s. 224–242, DOI: 10.1177/1461444810370949.
Wicker, A.W. i G. Bushweller 1970. Perceived Fairness and Pleasantness of Social
Exchange Situations: Two Factorial Studies of Inequity. Journal of Personality & Social
Psychology, nr 1 (15), s. 63–75, DOI: 10.1037/h0029208.
Wilson, J.Q. i G.L. Kelling 1982. Broken Windows. The Atlantic Monthly, marzec.
Yeung, S.F. i J.C.S. Lui 2008. Dynamic Bayesian Approach for Detecting Cheats in
Multi-player Online Games. Multimedia Systems, nr 4 (14), s. 221–236, DOI: 10.1007/
s00530-008-0113-5.
270
Problemy Zarządzania
Problemy Zarządzania, vol. 10, nr 3 (38): 271 – 273
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.xxxx/xxx
Recenzja książki Janusza Wielkiego
Modele wpływu przestrzeni elektronicznej
na organizacje gospodarcze
Witold Chmielarz
Recenzowana książka ma charakter wyjątkowy. Gospodarka elektroniczna po gwałtownym wysypie publikacji na ten temat w latach 2001–2008
zaczęła od trzech lat przezywać swoisty kryzys zapomnienia. Ukazujące się
publikacje jedynie dotykały tego zagadnienia lub prześlizgiwały się po temacie, żadna nawet nie usiłowała analizować ani tego zjawiska, ani determinant
jego rozwoju. Uznano, że wszystko zostało już na ten temat powiedziane
i nic się nie zmienia. A gospodarka elektroniczna, pomimo szalejących na
świecie znamion kryzysu, nadal przeżywała rozwój czy przynajmniej nie
wykazywała takiego załamania lub zastoju jak inne części gospodarki tradycyjnej. Przyczyny wydawały się oczywiste – wyjątkowo niskie koszty aplikacji,
implementacji i obsługi raczej zachęcały niż zniechęcały do uczestnictwa
w procesach zachodzących w gospodarce wirtualnej. Jednak nie stało się
to przedmiotem zbyt licznych publikacji. Wydawało się raczej, że temat ten
po wykorzystaniu początkowych założeń i charakterystyce pojawiających się
narzędzi przestał interesować autorów. Nikt również nie kwapił się dogłębnie
zanalizować czy przeprowadzić badania rozwijające w konstruktywny sposób
funkcjonowanie e-handlu, e-aukcji lub bankowości elektronicznej.
Dopiero obszerna, licząca przeszło 300 stron monografia Janusza Wielkiego (wcześniejszego autora książki Elektroniczny marketing poprzez Internet,
wydanej przez PWN w 2000) przywraca właściwą rangę temu zagadnieniu.
Szczególnie imponujące są odniesienia literaturowe. Aby napisać trzy rozdziały swojej książki, autor wykorzystał w sposób twórczy ponad siedemset
pozycji literaturowych, z których 30 stanowiły pozycje literaturowe autora.
Jest to o tyle istotne, że przygotowywał się on do tej publikacji przez szereg lat, a każde następne badanie i artykuł układały się we wzór, który
zaowocował tą znaczącą publikacją.
Podstawowe hipotezy badawcze postawione w pracy koncentrują się
wokół oddziaływania Internetu jako technologii informacyjnej na organizacje gospodarcze. I nie byłoby w tym stwierdzeniu nic odkrywczego, gdyby
nie fakt, że autor jako pierwszy zwraca uwagę na zwrotność tej relacji.
To również organizacje gospodarcze silnie wpływają na rozwój Internetu
vol. 10, nr 3 (38), 2012
271
Recenzje
poprzez rosnące wymagania swoich użytkowników w tym zakresie. Bez tych
wymagań nie byłoby dziś tak szeroko rozwiniętych usług mobilnych, bez
tych wymagań nie rozwijałyby się tak szybko metody komunikacji głosowej.
Podkreślając wartości merytoryczne publikacji, należy stwierdzić, że jest
to opracowanie wartościowe, integrujące niewątpliwie dotychczasową wiedzę
na temat Internetu i przestrzeni elektronicznej poprzez wieloaspektowy
przegląd procesów zachodzących w przestrzeni internetowej oraz nowe,
kompleksowe spojrzenie na współistnienie organizacji i infrastruktury
gospodarki elektronicznej, oparte na bardzo (może nawet zbyt) dogłębnej
analizie olbrzymiej listy publikacji (jest tu chyba wszystko, co na ten temat
napisano w Polsce i za granicą w ostatnich latach), podkreślając gruntowną
wiedzę autora i swobodę jego poruszania się w teorii obejmującej omawiane
zagadnienia.
Ponadto, pomimo występowania w tekście elementów znanych z innych
publikacji, warto podkreślić, że autorowi udało się dokonać nowego ich
przeglądu, mającego za cel systematyzację wiedzy w perspektywie innej od
dotychczasowych dokonań. A rzeczą podstawową stało się stworzenie przez
niego nowej klasyfikacji i typologii wpływu przestrzeni elektronicznej na
funkcjonowanie organizacji. Ostatecznym wyrazem poglądów autora, weryfikującym jego założenia badawcze, jest próba stworzenia deskryptywnego
modelu oddziaływania przestrzeni elektronicznej na otoczenie organizacyjne
poprzez identyfikację czynników oddziaływania oraz relacji pomiędzy nimi
powodującymi określone skutki praktyczne.
Autor podjął się realizacji bardzo obszernego i wielowątkowego tematu
w trzech rozdziałach. W rozdziale pierwszym charakteryzuje przede wszystkim przemiany zachodzące we współczesnej gospodarce w procesie konwersji do ery postindustrialnej. Z tego punktu widzenia przedstawia rozwój
gospodarki elektronicznej oraz określa miejsce i rolę technologii informatycznych w kształtowaniu gospodarki postindustrialnej. Szczególne znaczenie przypisuje Internetowi, jako podstawowemu narzędziu i elementowi
tej transformacji, oraz jego wpływowi na tworzenie podstaw gospodarki
elektronicznej. Rozdział ten był autorowi niezbędny do późniejszych analiz;
jego drobiazgowość (niemal encyklopedyczność) nasuwa podejrzenie, że
chciał on przekazać swoją całą olbrzymią wiedzę na ten temat czytelnikowi.
Jest to bardzo dobre dla czytelnika spoza sfery informatyki ekonomicznej,
lecz dla profesjonalistów może być nieco nużące.
Rozdział drugi jest poświęcony analizom wpływu Internetu na rozwój
organizacji gospodarczych. Rozpoczyna się od zdefiniowania i doprecyzowania wirtualizacji organizacji oraz głównych trzech kategorii organizacji
działających w sferze elektronicznej. Następnie – co wynika z logiki badania – przedstawiono proces tworzenia wartości przez organizację wirtualną
i korelację jej z fazami rozwoju Internetu. Ponadto autor rozpatruje uwarunkowania funkcjonowania organizacji z klientami, dostawcami i partnerami
biznesowymi.
272
Problemy Zarządzania
Recenzje
Ostatni rozdział zawiera analizy oddziaływania przestrzeni elektronicznej na organizacje gospodarcze i ich otoczenie. Na początku definiowana
jest przestrzeń elektroniczna wraz z jej elementami składowymi. Następnie
dokonywana jest jej analiza, wraz z charakterystyką interesariuszy funkcjonujących w otoczeniu organizacji. Końcowa część rozdziału poświęcona jest
tworzeniu modeli wpływu bezpośredniego i pośredniego podmiotów operujących w przestrzeni elektronicznej na organizacje oraz relacji odwrotnej
– wpływu organizacji i jej wymagań na przestrzeń elektroniczną.
Ze względu na obszerność analiz, autorskie klasyfikacje i nowe podejście
do modelowania sfery elektronicznej oraz jej wpływu na rozwój organizacji
(i vice versa) omawianą książkę można polecać jako niezbędny i aktualny
podręcznik w zakresie biznesu elektronicznego. Ma więc szansę stać się
istotną pomocą dydaktyczną na wykładach i ćwiczeniach dla studentów na
wydziałach, gdzie w programie występują przedmioty związane z informatyka gospodarczą. Ponadto może się stać cenną pozycją dydaktyczną dla
odbiorców nie tylko akademickich, ale również wywodzących się z kręgów
praktyki gospodarczej.
Wielki, J. 2012. Modele wpływu przestrzeni elektronicznej na organizacje gospodarcze, Wrocław: Wydawnictwo Uniwersytetu Ekonomicznego we Wrocławiu
(książka złożona do publikacji).
vol. 10, nr 3 (38), 2012
273
Problemy Zarządzania, vol. 10, nr 3 (38): 274 – 279
ISSN 1644-9584, © Wydział Zarządzania UW
DOI 10.xxxx/xxx
Recenzja książki Zbigniewa Banaszaka,
Sławomira Kłosa, Janusza Mleczko
Zintegrowane systemy zarządzania
Tomasz Parys
Systemy informatyczne na stałe zagościły w codziennym życiu. Są obecne
niemal na każdym kroku. W domach – na komputerach, w sprzęcie AGD,
w komunikacji miejskiej – w nowoczesnych autobusach, a także telefonach i innych urządzeniach codziennego użytku. Jednak systemy działają
nie tylko dla wygody czy rozrywki ich użytkowników. Są w chwili obecnej
motorem napędowym cywilizacji, pracują i zarabiają. Dziś niemal każde
przedsiębiorstwo korzysta z komputerów, po to aby zautomatyzować procesy, zmniejszyć pracochłonność, zredukować koszty, a w rezultacie zarobić
więcej. W niektórych branżach jest to bardzo istotna część biznesu, dziś
trudno wyobrazić sobie np. duży, ogólnokrajowy bank, nieposiadający obsługi
w kanale bankowości elektronicznej czy choćby nawet wewnętrznego systemu
umożliwiającego komunikację miedzy poszczególnymi oddziałami a centralą. Realizując potrzeby odbiorców, poszczególni producenci rozwiązań
informatycznych wprowadzają do swoich produktów usprawnienia i nowe
funkcje, w naturalny sposób przyczyniając się do zwiększenia różnorodności systemów. Naturalną konsekwencją takiego stanu rzeczy jest potrzeba
klasyfikacji nowo powstałych rozwiązań, zarówno w zakresie technicznym,
jak i użytkowym (biznesowym). To powoduje, że na rynku wydawniczym
pojawia się dużo pozycji podejmujących próbę klasyfikacji i opisu zastosowań
systemów informatycznych w gospodarce.
Przykładem takiej pozycji jest recenzowana monografia, która ukazała się
w roku 2011 nakładem Polskiego Wydawnictwa Ekonomicznego. Wpisuje się
dobrze w literaturę przedmiotu z zakresu informatyki gospodarczej. Dobrze
komponuje się z innymi pozycjami dotyczącymi problematyki zastosowania
systemów zarządzania oraz ich implementacji informatycznych. Podkreślić
należy, iż piśmiennictwo z tego zakresu jest bardzo bogate. Do najważniejszych pozycji należą: monografia Zintegrowane systemy informatyczne – dobre
praktyki wdrożeń pod redakcją J. Kisielnickiego, M. Pańkowskiej i H. Sroki,
która ukazała się nakładem PWN w 2012 r., monografia autorstwa J. Kisielnickiego pt. MIS – Systemy informatyczne zarządzania, którą w swej ofercie
umieściło wydawnictwo Placet w 2008 r., monografia autorstwa P. Lecha
274
Problemy Zarządzania
Recenzje
pt. Zintegrowane systemy zarządzania ERP/ERP II. Wykorzystanie w biznesie,
wdrażanie opublikowana przez wydawnictwo Difin w 2003 r., dwutomowa
monografia autorstwa A. Januszewskiego pt. Funkcjonalność informatycznych
systemów zarządzania, którą opublikowało wydawnictwo PWN w roku 2009,
wznawiając ją w roku 2011, monografia napisana przez Z. Klonowskiego
pt. Systemy informatyczne zarządzania przedsiębiorstwem. Modele rozwoju i właściwości funkcjonalne, która ukazała się nakładem Oficyny Wydawniczej Politechniki Wrocławskiej w 2004 r., monografia Zintegrowane systemy informatyczne w zarządzaniu przygotowana pod redakcją C. Olszak i H. Sroki, którą
opublikowało Wydawnictwo Akademii Ekonomicznej w Katowicach w roku
2001, oraz skrypt zespołu autorskiego pod redakcją Z. Kabzy o identycznie
brzmiącym tytule tj. Zintegrowane systemy zarządzania, który został opublikowany przez Oficynę Wydawniczą Politechniki Opolskiej w 2002 r. Recenzowana monografia stanowi cenne uzupełnienie literatury z tego zakresu,
prezentując omawiane zagadnienie z perspektywy inżynierii produkcji.
Recenzowana praca ukazała się ramach serii wydawniczej zatytułowanej
„Zarządzanie i inżynieria produkcji”. Jej zawartość została wyznaczona z jednej strony przez ramy merytoryczne, z drugiej przez minima programowe dla
kierunku zarządzanie i inżynieria produkcji. Monografia jest podręcznikiem
akademickim obejmującym, co podkreślają autorzy we wstępie, „hasła programowe wymienione w minimach kierunku (...). Wymienione tam zagadnienia pokrywają podstawowe obszary funkcjonalności przedsiębiorstwa”.
Niniejsza publikacja, podobnie jak cała seria, jest godną uznania inicjatywą
środowiska akademickiego, mającą na celu ujednolicenie materiałów dydaktycznych ze wspomnianego zakresu. Jest to zamierzenie tym bardziej oczekiwane, że dowolność w określaniu zakresu tematycznego poszczególnych
przedmiotów (opisanych w tzw. sylabusach) na rożnych uczelniach jest duża.
Monografia jest, jak już wspomniano, podręcznikiem akademickim przygotowanym przez pracowników naukowych polskich politechnik i uniwersytetów, mających wieloletnie doświadczenie dydaktyczne, a zatem znających
oczekiwania studentów.
Recenzowana publikacja składa się z czterech rozdziałów, z których każdy
zawiera podsumowanie oraz pytania kontrolne.
Rozdział I zawiera omówienie zagadnień związanych z przepływem produkcji, które znajdują swoje odzwierciedlenie w systemie informatycznym
przedsiębiorstwa. Przedstawiono zasoby i procesy jako elementy kluczowe
dla przeprowadzenia produkcji. Przybliżono struktury wyrobów, podano
definicje procesów wytwarzania oraz scharakteryzowano modele zarządzania produkcją i zarządzanie zdolnościami produkcyjnymi. Omówiono także
podstawowe problemy związane z zarządzaniem logistycznym pod kątem
sterowania zapasami i zarządzania składowaniem (zarządzanie magazynami).
Jako zakończenie rozdziału I ukazano współczesne systemy zarządzania TPP
(technicznym przygotowaniem produkcji) z zaakcentowaniem roli systemów
informatycznych w tym procesie.
vol. 10, nr 3 (38), 2012
275
Recenzje
Rozdział II pracy zawiera prezentację strategii zarządzania przepływem produkcji. Przedstawia podstawowe paradygmaty wykorzystywane we
współczesnych strategiach zarządzania przepływem produkcji. Omówiono
koncepcję JiT (Just in Time) jako narzędzie sterowania przepływem produkcji oraz koncepcję systemu zintegrowanego ERP (Enterprise Resource
Planning) jako narzędzie sterowania przepływem materiałów i zasobów
przedsiębiorstwa. Dla obu powyższych koncepcji przybliżono możliwości
zastosowań oraz podstawowe ograniczenia. W rozdziale II zawarto także
prezentację techniki zoptymalizowanej produkcji OPT (Optimized Production
Technology) oraz powstałej na jej bazie tzw. teorii ograniczeń TOC (Theory
of Constraints). Zaprezentowano je jako strategie alternatywne w stosunku
do przedstawionych wcześniej, tj. JiT oraz ERP. Jako zamknięcie rozważań
w rozdziale II ujęto zasady, jakie należy uwzględnić przy przygotowywaniu
strategii zarządzania przepływem produkcji.
Kolejny rozdział monografii, oznaczony logicznie jako III, jest najobszerniejszym rozdziałem w całej monografii. Stanowi on zasadniczą merytorycznie
część pracy i poświęcony został systemom informatycznym wspomagającym
zarządzanie przedsiębiorstwem. Ukazuje rozwój zastosowań systemów informatycznych wspomagania zarządzania w kontekście oferowanego przez ich
poszczególne rodzaje wsparcia wybranych zakresów funkcjonalnych działania
przedsiębiorstwa. Zdefiniowano tu podstawowe pojęcia dotyczące danych,
informacji oraz procesów informacyjno-decyzyjnych. Przedstawiono także
technologie systemów informatycznych zarządzania, które zaprezentowane
zostały w kontekście specyfikacji technicznej oraz uwarunkowań technicznych związanych z budową i funkcjonowaniem. Przybliżono także specyfikę
systemów wspomagających poszczególne zakresy działania przedsiębiorstwa.
Zaprezentowano systemy wspomagające zarządzanie relacjami z klientami
CRM (Customer Relationship Management), systemy wspomagające konstrukcję i technologię PLM (Product Lifecycle Management), systemy działające w obszarze zaopatrzenia materiałowego i gospodarki magazynowej MRP
(Material Requirement Planning) oraz systemy wspomagające planowanie
i sterowanie produkcją MRP II (Manufacturig Resource Planning). W rozdziale swoje miejsce znalazły także systemy pomocnicze z punktu widzenia
inżynierii produkcji, takie jak systemy informowania kierownictwa (SIK)
oraz zarządzania logistyką na przykładzie systemu zarządzania łańcuchem
dostaw (Supply Chain Management).
Ostatni, czwarty rozdział pracy, stanowiący podsumowanie rozważań
zawartych w poprzednich rozdziałach, koncentruje się na komputerowo
zintegrowanym zarządzaniu. Traktuje on o zagadnieniach związanych
z wdrażaniem i wykorzystaniem systemów informatycznych w roli narzędzia
kontrolingowego, wspomagającego proces kontroli przychodów i kosztów.
Prezentuje także tematykę związaną z zarządzaniem operacyjnym oraz przybliża proces wdrażania zintegrowanych systemów informatycznych wspomagających zarządzanie. Omówiono tu podstawowe składowe takiego procesu,
276
Problemy Zarządzania
Recenzje
tj. potrzeby przedsiębiorstwa, wybór systemu, metodykę wdrożenia, zarządzanie wdrożeniem (harmonogramem) oraz typowe zagrożenia. Rozdział
IV zawiera także, zamieszczone w punktach 4.2.4 oraz 4.2.5, fragmenty
dotyczące funkcjonowania przedsiębiorstwa w warunkach współczesnego
rynku, który w coraz większym stopniu staje się rynkiem zdominowanym
przez narzędzia elektroniczne, a tym samym wirtualnym. Zawarto w nich
odniesienie do e-gospodarki oraz organizacji wirtualnych, co powoduje, że
oba te podpunkty są najmniej techniczne w całej pracy.
Materiał teoretyczny zamieszczony w poszczególnych rozdziałach został
zilustrowany licznymi studiami przypadków i przykładami. Szczególnie w rozdziale III doskonale wpływają one na zrozumienie omawianej tematyki
i dobrze obrazują logikę działania charakteryzowanych systemów.
Zakres merytoryczny monografii jest ogromny. Porusza ona tak wiele
zagadnień, że większość z nich musiała, ze względu na ograniczenia wyznaczone rozmiarem publikacji, zostać przedstawiona jedynie w podstawowym
zakresie. Minimalistyczne ujęcie jest także wynikiem założeń serii wydawniczej, w ramach której książka została wydana. Choć niektóre zagadnienia
wymagałyby szerszej prezentacji, podkreślić należy, iż recenzowana monografia wypełnia treść określoną w jej tytule i stanowi dla zainteresowanych
dobry przewodnik do własnych badań i poszukiwań.
Monografia, jak przystało na pracę naukową, zawiera imponujący, liczący
w sumie 316 punktów wykaz literatury. Został on podzielony przez autorów na dwie części. Literatura podstawowa, która składa się z 98 pozycji,
jest zamieszczona na końcu monografii. Literatura uzupełniająca, licząca
218 pozycji, została wydana w formie elektronicznej na dołączonej do publikacji płycie CD. Literatura podstawowa zawiera w zdecydowanej większości
publikacje w języku polskim (co było zamierzeniem autorów). W języku
obcym jest 10 pozycji, z czego 8 w języku angielskim, po jednej w słowackim
i niemieckim. Literatura podstawowa zawiera tylko jedno źródło internetowe. Literatura dodatkowa to wykaz 196 pozycji drukowanych i 22 źródeł
internetowych. W zdecydowanej większości aktualność adresów internetowych poddana została weryfikacji w latach 2008–2009. Jako uzupełnienie
zamieszczono także listę 18 adresów witryn internetowych producentów
oraz dostawców oprogramowania omawianego w treści pracy.
Wspominając o literaturze, nie sposób pominąć faktu, iż jest ona bardzo
różnorodna. Znalazły się w niej monografie będące wynikiem konferencji
naukowych, monografie publikowane jako efekt projektów badawczych, prowadzonych przez różne ośrodki akademickie, czasopisma, specjalistyczne
witryny internetowe, materiały firmowe producentów i dystrybutorów oprogramowania oraz raporty publikowane przez niezależne firmy analityczne.
Książka jest napisana prostym, łatwym w odbiorze językiem, co pomaga
zrozumieć bardzo specjalistyczną, obszerną jej treść. Autorzy, zgodnie z zasadami logiki, wyjaśniają poszczególne zagadnienia, przechodząc od ogólnych
ku bardziej szczegółowym. Monografia przytacza w swej treści bardzo dużo
vol. 10, nr 3 (38), 2012
277
Recenzje
definicji, które zostały usystematyzowane w postaci (zamieszczonego na CD)
słownika. Elementem, który znacznie ułatwia poruszanie się po monografii,
jest zawarty w książce indeks.
Integralną część książki stanowi załączona płyta CD. Zapisano na niej
materiały uzupełniające w dwóch formach: przeglądalnej off-line strony
internetowej w formacie HTML oraz liczącego 83 strony pliku PDF. Treścią
tychże materiałów jest prezentacja 8 studiów przypadku oraz 6 przykładów
prezentujących działanie i obrazujących zakres zastosowań systemów informatycznych wspomagających zarządzanie.
Choć zakres merytoryczny monografii jest bardzo obszerny, można wskazać elementy, których zabrakło w pracy. Nie należy ich uważać za minusy
pracy, lecz rozpatrywać w kategorii propozycji uzupełnień. Lista tychże
sugestii nie jest długa i zawiera następujące propozycje. W pracy zabrakło
odniesienia do modelu ERP II (Extended Resource Planning) jako elementu
tzw. rozszerzonego przedsiębiorstwa (Extended Enterprise), które – przekraczając dotychczasowe granice organizacji – wykorzystuje nowoczesne techniki
informatyczne i otwiera się na swoje otoczenie (klientów, dostawców oraz
firmy współpracujące) integrując tym samym omówione w pracy systemy
takie jak CRM czy SCM.
Kolejnym elementem, który dobrze uzupełniłby tematykę, jest kwestia
ryzyka wdrożeniowego i związanych z nim barier wdrożeniowych systemów
informatycznych. Zagadnienie to zostało wprawdzie w pracy zasygnalizowane
(pkt. 4.3.5), jednak biorąc pod uwagę wagę tego problemu, ilość poświęconego miejsca trzeba uznać za niewystarczającą. Doskonałym uzupełnieniem
byłoby także zamieszczenie porównania omawianych i prezentowanych dość
obszernie w załączniku na CD systemów informatycznych pod kątem np. ich
funkcjonalności czy zakresu zastosowań.
Wymienione powyżej uwagi nie wpływają na wysoką wartość merytoryczną monografii, natomiast ich zasygnalizowanie było konieczne w celu
wskazania kierunków uzupełnień, przypadku ewentualnych kolejnych wydań
tejże monografii.
Podsumowując, należy wyrazić uznanie dla dużego wysiłku autorów, włożonego w przygotowanie tak obszernej, zarówno w sensie fizycznym (rozmiar
książki), jak i merytorycznym (zakres poruszanych zagadnień), publikacji.
Jest ona dobrze przygotowana pod względem edytorskim. Podkreślić należy,
jak to już wcześniej zauważono, iż recenzowana pozycja uzupełnia dostępną
literaturę z zakresu informatyki gospodarczej, stanowiąc, można powiedzieć,
niezbędną pozycję w księgozbiorze każdego zainteresowanego tą tematyką.
Konkludując, można stwierdzić, że recenzowana praca jest obowiązkową
pozycją dla każdego studenta zainteresowanego zarówno technicznym aspektem wspomagania zarządzania produkcją, jak i zastosowaniem systemów
informatycznych wspomagających zarządzanie przedsiębiorstwem. Powinna
się znaleźć jako polecana pozycja w każdej bibliotece szkoły wyższej mającej
w swojej ofercie studia z omawianego zakresu.
278
Problemy Zarządzania
Recenzje
Monografia w zamyśle autorów miała być, jak sami to trafnie sformułowali, „usystematyzowanym kompendium wiedzy z zakresu teorii i praktyki
zintegrowanych systemów zarządzania”. Lektura książki pozwala stwierdzić,
że cel ten udało się im w pełni zrealizować.
Wypada wyrazić nadzieję, iż autorzy (w zespole lub osobno) będą kontynuować swoją pracę i wzbogacać rynek wydawniczy w tak wartościowe
i przydatne, nie tylko dla studentów, pozycje.
Banaszak, Z., Kłos, S. i J. Mleczko 2011. Zintegrowane systemy zarządzania,
Warszawa: Polskie Wydawnictwo Ekonomiczne.
vol. 10, nr 3 (38), 2012
279
Problemy Zarządzania, vol. 10, nr 3 (38): 280 – 286
ISSN 1644-9584, © Wydział Zarządzania UW
Contents and Abstracts
Information systems
in process driven
business organizations
Ewa Ziemba, Iwona Obłąk
The article deals with the Business Process Orientation (BPO) and
information systems supporting this approach. At the beginning the Business
Process (BP) concept and Business Process Management (BPM) approach
are introduced. Next, the article describes main processes in organizations
and information systems, which support them. Then, the BPM lifecycle is
presented and information systems maintaining their steps. The important
role of Business Process Management Systems (BPMS), the system designed
for managing business processes, is also indicated here. This study is based
on an analysis of literature, empirical experience, as well as the critical
thinking and inductive inference methods.
On selection criteria
of management project methods
Witold Chmielarz
The primary goal of this study is the identification of the project
management amongst traditional (heavy) and modern (agile) methods
of information systems analysis and design. Recently, the approach
to information systems project management is changing in fast and
multidirectional ways. The classic theory of analysis and design and the
current pragmatics are becoming more different. It seems that the use of
agile design methods, at least partially minimize arising differences. The
analysis is trying to answer the identified questions in this field and showing
how to select proper method for given case of project management.
280
Problemy Zarządzania
Contents and Abstracts
The risk in implementation process
of integrated information systems
– a classification attempt in terms
of barriers and actions burdened with it
Tomasz Parys
The main goal of this article is to show the risk and his place in
implementation process of an integrated information system. The basic
questions connected with the specific of the implementation project were
brought closer. The definition of the risk was passed, and presented the
areas of his occurrence. The principal part of this paper is an introduction
of the author’s conception of classification of risk. It contains the description
of individual categories in the context of all activities connected with risk.
An analysis of the challenges connected
with management of the electronic space
by contemporary business organizations
Janusz Wielki
This paper relates to the issues connected with management of the
electronic space in the context of growing utilization of the Internet by
contemporary business organizations. The paper is composed of four
parts. In the first one, a short overview of the basic aspects connected
with the electronic space and its management is presented. The next two
parts form the core of this paper. First, an analysis of the preventive and
protecting activities connected with on-line operations, as the key element
of management of the electronic space, is provided. Next, the possibilities
for active influence on the electronic space, as a complementary element of
its management, are presented and discussed. Finally, the most significant
conclusions, suggestions and recommendations are offered.
Innovative e-business models
– perspectives of development
Włodzimierz Szpringer
In the case of innovative e-business models, the Internet is something
that enables existence of such firms (e.g. search engines). In another sense,
all these are innovative models that build on the progress of ICT, respond
vol. 10, nr 3 (38), 2012
281
Contents and Abstracts
to customer demand and thereby gain a competitive advantage. Innovation
activity associates e-business models with business strategy, organization and
technology. It is important to have the overall vision of the model. The close
relationship of innovation in services and technology should also be noted.
Innovations in services have been often studied in isolation from technology,
which in the face of dynamic market changes, business, and customers may
lead to misleading conclusions. Thus, a new service in an environment of new
technologies may lead to the formation of new models of e-business. In the
era of globalization and dynamic changes in the market the key features of
e-business models should be their innovative character, flexibility, openness
and generating added value for stakeholders. In the field of research, there
is also an innovative approach to financing, the importance of social media,
engaging users to contribute goods and services, mobile services, Cloud
Computing two-(multi)-sided-business models. It is important also to take
into account the convergence of devices and digitalization of content that
lead to the formation of a new sector: telecommunications, services IT,
media and entertainment sector – (TIME-Sector – Telecommunications,
IT, Media, Entertainment). A value chain is a key concept, which defines
the architecture of business models.
Crowdfunding systems development
– models, expectations,
and circumstances
Dariusz T. Dziuba
The article presents the concept of internet crowdfunding – its economic
and legal implications. Crowdfunding market (as a segment of electronic
market) is estimated and analyzed. We present: crowdfunding definitions;
typology of models and reward strategies; market characteristics and analyses
of donations, loan-based and investment models, including ASSOB.com.au
as the example of equity-based investment model. Special attention has been
laid to the set of circumstances – benefits and limitations (economic and
legal risks) related to its development, especially for investors (donators)
and entrepreneurs.
282
Problemy Zarządzania
Contents and Abstracts
Application of rough sets to identify
the behavior rules of consumer
for the purposes of multi-agent
simulation model
Małgorzata Łatuszyńska, Agata Wawrzyniak,
Barbara Wąsikowska, Fatimah Furaji
This paper presents the possibility of application of the rough set
theory in procedure of building a multi-agent model of consumer behavior.
Discussed are: multi-agent simulation, methods of gathering and processing
data and rough set theory in the context of identification of market behavior
rules of consumers. In addition to these, the paper presents an example
of a simulation model of consumer behavior in the electrical appliances
market which was built with applying the proposed research procedure.
Kohonen neural networks in data analysis.
A usage attempt in data mining regarding
geographic regions in Poland
Mirosława Lasek, Ada Myzik
In the article the authors present results of analyses aimed at detecting
dependencies in the collected data, their graphical presentation and
interpretation with the aid of Kohonen neural network. For illustration
of data analyses with Kohonen techniques, examples concerning varied
restaurants and catering business objects, business entities, sport facilities
in provinces of Poland are presented. Analyses were performed on simple
data sets as well as on more complex sets with many observations and
variables. For the purpose of data analyses and the results’ interpretation,
SAS software was used.
On-line services in a mobile context
– a qualitative observational study
Krzysztof Redlarski, Marcin Sikorski
This paper presents results of an observational study aimed to identify
factors affecting users’ willingness to access on-line services using mobile
devices such as Smartphone, tablet or laptop. In this observational study
vol. 10, nr 3 (38), 2012
283
Contents and Abstracts
7 users over 14 days were recording their on-line activity in connection
to the motivating or de-motivating factors to use a specific mobile device
in a particular context. As a result, four types of mobile contexts have
been identified (home, travel, desktop, outside) and main types of on-line
services (mail/contacts, travel planning, news, information search, shopping
and entertainment). This study also helped to identify generic characteristics
of typical on-line-services-related tasks, in which one of available mobile
devices (Smartphone, tablet or laptop) have been preferred by users as the
most convenient access point.
Corporate architecture
evaluation methods
Małgorzata Pańkowska
Architecture in Information Technology domain constitutes a synergy of
science and art of design of complex structures to ensure usefulness and to
control the evolution of that complexity. The paper covers presentation of
standards and essential models of enterprise architecture development. In
the second part of the paper the author focuses on models for assessing
the architecture, including methods and models of business -IT alignment,
software architecture evaluation methods and corporate architecture maturity
methods. The last part of the paper includes the corporate architecture
multi-criteria evaluation model.
Economic effectiveness of telework
implementation for IT teams
in the public sector institutions
Mirosław Dyczkowski
The paper presents selected problems of economic effectiveness
evaluation of telework implementation for IT teams in the public sector
institutions. Telework is a form of employment which can be successfully
used in most of IT activities and professions. In need for rationalizing
constantly growing labor costs it is necessary to implement telework
programs in IT teams, also in public institutions. The author presented
a methodological background for a study on economic efficiency of such
programs based on the Cost-Benefits Analysis (CBA). Estimates of expected
benefits are based on Key Goal Indicators (KGI) and Key Performance
284
Problemy Zarządzania
Contents and Abstracts
Indicators (KPI) recommended in the PO7 Manage IT Human Resources
process of the COBIT® 4.1 model (Control Objectives for Information
and related Technology). The suggested approach is then verified on a real
example for IT telework program implemented in a large public institution,
and selected detailed effectiveness assessments are included in this article.
Research on usability of visualization
in searching information
based on the ontology
of an early warning system
Helena Dudycz
The goal of the article is introduction of research concerning
evaluation of application usability of visualization semantic network
built on the basis of ontology conceptualization of an early warning
system. Therefore there is short description of searching information
based on the visualization of semantic network. Following further there
is discussed the suggestion of research method related to verification of
usage topic map in the analysis of economic indicators. Introduced are
the presumptions of conducted experiment and its participants. Then,
there is a report and analysis of the data received. Finally, the future
directions of research were identified.
Repositories of the SYNAT project
as a new opportunity to gain knowledge
for the educational systems
Jerzy Kisielnicki
The paper presents the SYNAT project as a new venture to create in
the country a universal, open, repositories hosting platform for networking
and communication knowledge for science, education and open knowledge
society, associated with the corresponding solutions in the world. This
project is analyzed for its relationship with education systems in particular,
e-education. Its implementation should contribute to the quality of education
and thus contribute to a significant improvement in the Polish position in
the European Union and the world.
vol. 10, nr 3 (38), 2012
285
Contents and Abstracts
Attitudes of the IT staff against
employing organization as a challenge
for the development of IT businesses
Jerzy Rosiński
Author of the article, on the basis of research data, presents the attitudes
of the IT professionals towards their employing organizations. The specific
attitude of the IT employees towards their companies may be characteristic
for a wider group of highly specialized staff.
Basic aspects of creating
cognitive graphics systems
Olga Pilipczuk, Dima Shamroni
The article presents the term and basic assumptions of cognitive graphics
concept. It also describes the importance of cognitive graphics in the
development of information technology and the origins of cognitive graphics
systems. Furthermore, the article presents examples of classical architecture
of cognitive graphic systems and its basic modules. A special attention is
given to the NovoSpark®Visualizer system, to its structure, methodology
and specifics of visualization. Provided is an example of solving the problem
of choice of pricing strategy by using the NovoSpark®Visualizer system. In
conclusion, the prospects for the development of cognitive graphic systems
and directions for further research in this field are discussed.
Computer games in the organization
– psychological determinants
Michał Mijal
The article summarizes the present state of knowledge on usage of
the computer and video games in the organization and its psychological
determinants. It enumerates and describes the most important aspects to
consider while designing and using the computer and video games in training
and indicates the most important threats for the application of the games
in the didactic processes. It also suggests the main directions of further
research and the most perspective areas of the further usage of the computer
and video games in the organization.
286
Problemy Zarządzania
INFORMACJE DLA AUTORÓW
„Problemy Zarzadzania” to interdyscyplinarne pismo wydawane przez
Wydział Zarządzania Uniwersytetu Warszawskiego. Każdy z numerów kwartalnika ma wcześniej określony temat przewodni. W piśmie zamieszczane są materiały o charakterze naukowym, w tym szczególnie:
a) artykuły prezentujące z różnych perspektyw badawczych wszelkie problemy
zarządzania i ekonomii,
b) komunikaty z badań,
c) recenzje książek (polskich i zagranicznych) i omówienia artykułów zamieszczonych w periodykach naukowych i branżowych.
SKŁADANIE TEKSTU DO PUBLIKACJI
Teksty złożone w redakcji „Problemów Zarzadzania” nie mogą być w tym
samym czasie rozpatrywane pod kątem ich publikacji w redakcji innych czasopism, nie mogą być również opublikowane gdzie indziej wcześniej niż
w „Problemach Zarządzania”. Złożenie tekstu do publikacji oznacza zgodę na
zamieszczenie artykułu w kwartalniku w postaci drukowanej i elektronicznej.
Prosimy o nadsyłanie tekstów nawiązujących do określonych przez redakcję
tematów przewodnich kolejnych numerów (lista dostępna na stronie głównej
pisma: www.pz.wz.uw.edu.pl).
Redakcja oświadcza, że wersja papierowa jest wersją pierwotną czasopisma
„Problemy Zarządzania”.
Artykuły należy nadsyłać na e-mail: [email protected] i na adres:
„Problemy Zarządzania” – Redakcja
Wydział Zarządzania Uniwersytetu Warszawskiego
ul. Szturmowa 1/3, pok. B310
02-678 Warszawa
Tekst należy przesłać na adres mailowy redakcji ([email protected].
uw.edu.pl lub [email protected]) w pliku MS Word lub zgodnym (rtf) i pdf
oraz 1 egzemplarz w wersji papierowej (na adres redakcji) podpisany przez
Autora wraz z pisemnym oświadczeniem o nienaruszaniu praw osób trzecich
(formularz oświadczenia do pobrania ze strony www.pz.wz.uw.edu.pl – Informacje
dla Autorów). O zgodność wydruku i wersji elektronicznej musi zadbać Autor.
W przypadku tekstów współautorskich prosimy o wyraźne zaznaczenie procentowego udziału współautorów. Należy wyraźnie wskazać, na jaki adres redakcja
ma przesyłać korespondencję (w przypadku tekstów współautorskich prosimy
o wskazanie osoby, do której należy kierować korespondencję).
Autorzy odpowiadają za uzyskanie niezbędnych zezwoleń na publikację
materiałów, do których prawa autorskie są w posiadaniu osób trzecich.
Redakcja informuje, że ghostwriting oraz plagiatorstwo są przejawem nierzetelności naukowej i wszystkie wykryte przypadki będą demaskowane, włącznie z powiadomieniem odpowiednich podmiotów. Wszelkie przejawy nierzetelności naukowej, zwłaszcza łamania i naruszania etyki obowiązującej w nauce
będą w redakcji dokumentowane.
vol. 10, nr 3 (38), 2012
287
PROCEDURA RECENZOWANIA
1. Wszystkie nadesłane artykuły przechodzą na Kolegium przez procedurę
preselekcji, do recenzji zaś zostają przesłane artykuły wyłonione w toku
procedury.
2. Każdy (wyłoniony w toku preselekcji) artykuł jest recenzowany anonimowo
przez dwóch niezależnych, anonimowych recenzentów.
3. Recenzja ma formę pisemną i kończy się wnioskiem recenzenta o odrzuceniu lub dopuszczeniu do publikacji (wzór arkusza recenzji na stronie: www.
pz.wz.uw.edu.pl – Informacje dla Autorów).
4. Po otrzymaniu recenzji sekretarz redakcji informuje szczegółowo Autorów
o uwagach recenzentów odnośnie jego artykułu oraz o ostatecznej decyzji
co do publikacji.
5. Kryteria kwalifikacji lub odrzucenia tekstu: zgodność z tematem przewodnim
numeru; oryginalność zastosowanej metody badawczej oraz ujęcia tematu;
rzetelność przedstawienia dotychczasowych badań; jakość badań własnych
(jeśli dotyczy); aktualność badań/rozważań teoretycznych; poprawność merytoryczna, metodologiczna i wnioskowania; wkład tekstu w rozwój dyscypliny;
dobór literatury.
6. Redakcja nie zwraca prac, które nie zostały zakwalifikowane do druku.
7. Raz w roku redakcja umieszcza pełną listę recenzentów w numerze „4”
danego roku oraz na stronach internetowych: www.pz.wz.uw.edu.pl – Strona
główna.
OPRACOWANIE TEKSTU
A. Format tekstu
Objętość tekstu nie powinna przekraczać 20 standardowych stron maszynopisu (1 strona = 1800 znaków; czcionka Times New Roman; wielkość czcionki
12; odstęp między wierszami 1,5; marginesy 2,5). W przypadku recenzji książek
długość nadesłanego materiału to maksymalnie 6 stron.
Wszelkie ilustracje prosimy wyraźnie oznaczać, przesyłać w osobnych plikach
i zaznaczać w tekście, gdzie mają być umieszczone. Plik pdf prosimy przesyłać
z zamieszczonymi w tekście ilustracjami. Prosimy o nadsyłanie tekstu w formacie MS Word lub zgodnym (rtf). Wykresy powinny być sporządzone w formacie
Adobe Illustrator (ai) lub EPS, natomiast dane źródłowe do nich – w formacie
Excel 3.0 (xls). Ilustracje prosimy przygotowywać w formacie Adobe Illustrator
(ai) lub EPS. Wszelkie ilustracje powinny być czarno-białe. W przypadku, gdy
tekst zawiera fotografie prosimy o nadesłanie ich oryginału.
B. Układ tekstu
Tekst powinien zawierać następujące elementy (w podanej kolejności):
1) tytuł (w języku polskim i angielskim);
2) streszczenie określające prezentowane w artykule tezy (100–200 słów) w języku polskim i angielskim;
3) podtytuły (w tym wstęp i wnioski);
4) informacje o autorze (stopień naukowy, afiliacja, e-mail);
5) przypisy;
6) bibliografia.
288
Problemy Zarządzania
C. Przypisy, bibliografia, cytaty
Jeśli w tekście są przypisy autora, powinny być one w miarę możliwości
nieliczne i krótkie. Prosimy o umieszczanie przypisów na końcu tekstu, przed
bibliografią. Bibliografia powinna zawierać wyłącznie pozycje cytowane w tekście. W każdej pozycji w bibliografii autor obowiązany jest zamieścić przypisany
jej nr DOI (jeżeli taki posiada). Redakcja prosi o alfabetyczne sporządzanie
not bibliograficznych w następującym formacie:
1. Publikacje książkowe:
Kowalski, J. 2000. Tytuł książki, Miejsce wydania: Wydawnictwo, DOI: …… .
2. Publikacje książkowe redagowane:
Kowalski, J. (red.) 2000. Tytuł książki, Miejsce wydania: Wydawnictwo, DOI: ……
3. Rozdziały w publikacjach książkowych:
Kowalski, J. 2002. Tytuł rozdziału, w: Nowak J. (red.) Tytuł książki, s. 1–5. Miejsce
wydania: Wydawnictwo, DOI: …… .
4. Artykuły:
Kowalski, J. 2001. Tytuł artykułu. Tytuł pisma, Numer pisma, DOI: ……, s. 1–5.
5. Artykuły – wielu autorów:
Kowalski, J., Nowak, J. i A. Wiśniewski. 2001. Tytuł artykułu. Tytuł pisma, Numer
pisma, DOI: …… , s. 1–15.
Cytat w tekście, z odwołaniem do autora, powinien mieć następującą postać:
(autor rok wydania: strona), np. (Kowalski 2000: 67).
D. Poprawki
W przypadku konieczności dokonania poprawek lub skrótów tekst będzie
zwrócony autorowi, który zobowiązany jest nanieść poprawki w terminie wskazanym przez redakcję. Redakcja zastrzega sobie możliwość wprowadzenia do
tekstu drobnych poprawek i skrótów.
vol. 10, nr 3 (38), 2012
289

Podobne dokumenty