Rozdział 8. Teleinformatyczne technologie przyszłości w zarządzaniu
Transkrypt
Rozdział 8. Teleinformatyczne technologie przyszłości w zarządzaniu
tekst opublikowany w monografii „Metody badania i modele rozwoju organizacji” pod red. A.Stabryły i S.Wawaka, będącej pokłosiem VII konferencja naukowej SZANSE I BARIERY ROZWOJU ORGANIZACJI W SPOŁECZEŃSTWIE INFORMACYJNYM, Zakopane, 25-27 września 2012 r. Stanisław Dyrda – Narodowe Centrum Badań i Rozwoju Leszek Wisłowski – Forrester Research Inc Janusz Zawiła-Niedźwiecki – Politechnika Warszawska, Wydział Zarządzania Rozdział 8. Teleinformatyczne technologie przyszłości w zarządzaniu 8.1. Wprowadzenie Zjawiska omawiane w niniejszym artykule świadczą o wielkich przemianach współczesnej cywilizacji, na razie tylko technicznej, które w perspektywie do 10 lat diametralnie przeobrażą otaczającą nas rzeczywistość. Na marginesie uważamy za konieczne zwrócić uwagę również na to, że proces ten dotknie wszystkie aspekty życia prywatnego i społecznego do tego stopnia, że powinien być przedmiotem powszechnych dyskusji publicznych, gdyż niosąc postęp jakości życia wprowadzi też nieznany dotąd zakres ingerencji w prywatność. Zjawiska te to NBIC, Internet Przyszłości i Internet Rzeczy, sieci NGN oraz Przetwarzanie w Chmurze. NBIC (nano-bio-info-cogno) to ogół najnowszych technologii z dziedzin nanotechnologii, biotechnologii, informatyki i kognitywistyki. NBIC prowadzi do następujących przemian [3,4]: • modyfikacja genetyczna rodzaju ludzkiego, ekspansja jego potencjału poprzez nano-bio-info-cogno implanty, współdzielenie osobowości i danych z maszynami oraz innymi ludźmi, 1 • komunikacja mózg−mózg, mózg−maszyna, mózg−komputer, transfer osobowości ludzkiej do robotów, • czipy wszczepiane bezpośrednio do mózgu, • mapowanie całego świata w czasie rzeczywistym poprzez RFID do systemów rozszerzonej rzeczywistość. Około 2025 roku obraz ten ma stać się rzeczywistością [1]. Internet Rzeczy to połączenie wszystkich maszyn, urządzeń i wehikułów w sieć, tak aby umożliwić im zdecentralizowaną komunikację między sobą. Projekt ten ma za zadanie doprowadzenie do sytuacji, w której wszystkie przedmioty produkowane na świecie będą miały swój indywidualny radiowy numer rejestracyjny zapisany w czipie RFID (Radio Frequency Identification). W ten sposób każdy produkt będzie monitorowany od powstania aż do jego „śmierci”. Historia, lokacja geograficzna, stan, możliwości itp. produktu będą dostępne dla użytkowników na całym świecie. Wszystkie obiekty będą pozycjonowane na mapie świata poprzez GPS i inne technologie, a za pomocą internetowych przeglądarek typu obecnego Google będzie można poszukiwać przedmiotów, tak jak teraz poszukuje się informacji [2,9]. Mówi się, że rzeczom będzie nadawana tożsamość tak jak ludziom. Internet Przyszłości oraz Sieci NGN to według definicji International Telecommunication Union − Telecommunication Standardization sieć pakietowa realizująca usługi telekomunikacyjne i wykorzystująca szerokopasmowe techniki transportowe z gwarancją jakości usług, w której funkcje usługowe są niezależne od wykorzystywanych technik transportowych. Istotne znaczenie ma też wdrożenie protokołu IPv6 (Internet Protocol v.6), z uwagi na wyczerpywanie zasobu wolnych adresów obecnego Internetu IPv4 [11]. 2 Przetwarzanie w Chmurze (nazwa pochodzi od popularnego przedstawiania na rysunkach środowiska techniki telekomunikacyjnej, w tym Internetu, jako charakterystycznej chmury) to według definicji National Institute of Standards and Technology model świadczenia usług przetwarzania danych, pozwalający na dostęp na żądanie, przez sieć, do dzielonej puli zasobów (sieciowych, serwerowych, pamięci masowych, aplikacji i usług). Zasoby te mogą być zamawiane przez klientów i w odpowiedni sposób konfigurowane. 8.2. Zakres zjawisk określanych mianem Internetu Przyszłości oraz Internetu Rzeczy (1) Internet Przyszłości, Internet Rzeczy – geneza, podstawowe pojęcia Internet Przyszłości to termin określający rewolucyjną przebudowę obecnego Internetu przez kompleksowe działania, których celem jest opracowanie globalnej, dynamicznej platformy obejmującej infrastrukturę sieciową oraz aplikacje nowej generacji, wspierające wszelkiego rodzaju aktywności społeczne i gospodarcze, wykorzystujące inteligentne komponenty i interfejsy z zastosowaniem standardowych protokołów współpracy zapewniających łatwość integracji w sieci informacyjnej. Internet opracowany w latach 70. XX wieku wymaga gruntownego przeprojektowania. Konieczne jest pilne wprowadzenie skutecznych mechanizmów wspierających wirtualizację zasobów sieciowych, a także wdrożenie metod zapewniania gwarantowanej jakości usług (QoS), w szczególności przewidywalnego poziomu przepustowości (bandwith), opóźnienia (delay) i zmienności opóźnienia (jitter). Dotychczasowe 3 próby wprowadzenia w sieciach IP systemu sygnalizacji/sterowania transmisją i stosownej rezerwacji zasobów, np. architektury DiffServ (Differentiated Services), nie przyniosły zadowalających efektów. Od początku XXI wieku zrealizowano szereg projektów poświęconych przeprojektowaniu Internetu. Wśród nich warto wymienić: New Arch Project (2002−2003), 100×100 Clean Slate Project (2003−2005), FIND (od 2006), GENI (od 2007), AKARI Project (od 2006), 4WARD, Trilogy Project (2007−2013) [30]. Prowadzone są też prace nad opracowaniem protokołu internetowego nowej generacji − IPNG (Next Generation IP). Zostały one rozpoczęte jak tylko stało się jasne, że 32-bitowa przestrzeń adresowa protokołu IPv4. Nowy protokół IPv6 (z 1996 r.) operuje 128-bitową przestrzenią adresową (296 razy większą od IPv4). Zmianie uległ m.in. nagłówek – bardziej elastyczny ze względu na możliwość wprowadzania rozszerzeń. Liczba komputerów w Internecie i jego zastosowania uniemożliwiają praktycznie zamianę protokołu IPv4 na IPv6, migracja powinna więc zakładać równoległe w okresie przejściowym używanie przez urządzenia sieciowe obu protokołów, tj. wspieranie dwóch sieci. Takie podejście zostało zrealizowane w latach 1996−2006 w ramach projektu 6BONE. Jego uczestnicy dzięki tunelowaniu mogli korzystać z protokołu IPv4 (jedną z metod jest 6to4). Warto dodać, że powszechne wprowadzenie IPv6 będzie niezwykle skomplikowanym procesem również dlatego, że wymaga wsparcia w zakresie systemów operacyjnych, a także różnego rodzaju aplikacji: serwery pocztowe (SMTP, POP3, IMAP4, MAPI), serwery DHCP, DNS, 4 WINS, serwery FTP, WWW, oprogramowanie do monitorowania sieci itp. Prace nad wprowadzeniem IPv6 są prowadzone także w Polsce. Ogólnopolski projekt sieci Internetu IPv6 pozwolił na zbudowanie ogólnopolskiej struktury, obejmującej m.in. Poznańskie Centrum Superkomputerowo-Sieciowe, Politechnikę Poznańską, Politechnikę Warszawską, Politechnikę Gdańską, Politechnikę Śląską, Politechnikę Wrocławską, Instytut Łączności, AGH oraz Instytut Informatyki Teoretycznej i Stosowanej PAN. Budowa Internetu Przyszłości jest przejawem globalizacji i jednym z jej elementów napędowych, decydującym o powodzeniu realizacji koncepcji społeczeństwa informacyjnego i cyfrowej gospodarki. Internet Przyszłości obejmuje: Internet Osób (Internet of People), Internet Mediów (Internet of Media), Internet Energii (Internet of Energy), Internet Usług (Internet of Services) i Internet Rzeczy (Internet of Things) [28]. • Internet Energii definiuje dynamiczną strukturę sieciową, która steruje dostarczaniem energii w potrzebnej ilości, w żądanym czasie i do zadanego miejsca. • Internet Mediów adresuje potrzeby w zakresie skalowalnego kodowania i przetwarzania obrazów 3D, sieciowych gier komputerowych, kina cyfrowego, wirtualnych światów itp. • Internet Osób zajmuje sie sferą kontaktów między użytkownikami, zabezpieczeniem ich praw, w szczególności przeciwdziałaniem inwigilacji związanej z obserwacją zachowań użytkowników w sieci, zapewnieniem swobody wymiany myśli, idei, poglądów. IoP obejmuje też działania na rzecz sposobów 5 zwiększania komfortu życia, pracy, odpoczynku, a także przełamywaniem barier między dostawcami i konsumentami treści. • Internet Usług związany jest z opartymi na dedykowanym oprogramowaniu usługami dostarczanymi za pośrednictwem różnego rodzaju sieci oraz Internetu. Badania w obszarze IoS obejmują m.in. usługi gridowe, webowe, SOA, Web 3.0/X.0, semantic Web. Szczególnie widoczną tendencją w rozwoju Internetu jest ewolucja od sieci łączącej komputery do sieci łączącej różnego rodzaju inteligentne obiekty: pojazdy, sprzęt AGD, żywność, książki itp. Obiekty te opatrzone unikatowymi kodami lub adresami IP mogą komunikować się ze sobą, jak również z otoczeniem za pomocą odpowiednich czujników lub interfejsów, tworząc w ten sposób Internet Rzeczy (IoT). „Rzecz” w tym kontekście jest definiowana jako zmienny w czasie i przestrzeni obiekt (podmiot) fizyczny lub wirtualny, identyfikowany dzięki unikatowej nazwie, kodowi lub adresowi sieciowemu). Warto podkreślić, że IoT nie powinien być postrzegany jedynie jako rozszerzenie obecnego Internetu, ale jako nowe kompleksowe rozwiązanie o dobrze zarysowanej specyfice i infrastrukturze, rozwijane przez implementację zupełnie nowych usług. Stosowne aplikacje mogą pomóc w rozwiązywaniu różnego rodzaju aktualnych problemów społecznych. Np. monitorowanie stanu zdrowia może mieć znaczenie dla zapewnienia opieki nad osobami w podeszłym wieku, wymiana informacji między środkami transportu, elementami infrastruktury drogowej, systemami sterowania ruchem może przyczynić się do 6 usprawnienia komunikacji, a podobne rozwiązania pomogą w zarządzaniu inteligentnymi budynkami, w ochronie przyrody itp. Podstawowymi komponentami do budowy IoT są takie rozwiązania jak: RFID, Near Field Communication, WiFi, Bluetooth, ZigBee, 2D bar-kody, Internet Protocol Version 6 (IPv6), czujniki bezprzewodowe, sieci szerokopasmowych (ultrawide-band, 3G, 4G, technologie LTE itp.). Nie sposób także pominąć takich obszarów jak nanoelektronika, systemy wbudowane, Przetwarzanie w chmurze i szereg innych, których realne znaczenie dla rozwoju Internetu Rzeczy będziemy mogli ocenić dopiero przyszłości. Internet Rzeczy powinien umożliwić komunikację czegokolwiek/ kogokolwiek z czymkolwiek/ kimkolwiek, wszędzie i zawsze przy wykorzystaniu dowolnych usług czy sieci. Specyfika rozwiązań Internetu Rzeczy wynika z przewidywanej skali jego działania, obejmującej nawet setki miliardów obiektów (z których tylko bardzo niewielka cześć jest obecnie połączona z siecią), ich mobilności, różnorodności i złożoności. Jedną z przeszkód w rozwoju Internetu Rzeczy będzie konieczność zapewnienia współpracy z obecnie istniejącymi i rozwijanymi aplikacjami, które już dzisiaj bardzo obciążają sieć. Internet Rzeczy powstaje już dzisiaj [31]. W tym kontekście można wymienić szereg aplikacji, takich jak systemy zdalnego odczytu liczników energetycznych, połączone z siecią telefony komórkowe wyposażone w dodatkowe urządzenia jak np. czytniki kart płatniczych, ścisłe oznaczanie/numeracja produktów farmaceutycznych, partii surowców i półproduktów używanych do ich produkcji, systemy logistyczne zarządzające przemieszczaniem się obiektów, np. towarów w 7 magazynach lub środków transportu w transporcie drogowym czy kolejowym. (2) Główne wyzwania i kierunki prac rozwojowych Prace w zakresie rozwoju Internetu obejmą [27]: 1) powszechne wdrożenie protokołu IPv6, 2) zapewnienie rzeczywiście szerokopasmowej transmisji internetowej, 3) wdrożenie mechanizmów gwarantowanej jakości usług (np. architektury DiffServ), 4) zapewnienie właściwych relacji ekonomicznych w zakresie podziału zysków pomiędzy dostawcami treści oraz dostawcami usług transmisji danych, 5) zapewnienie wsparcia dla aplikacji mobilnych, 6) wprowadzenie rozwiązań wspierających rozwój Internetu Rzeczy m.in. w zakresie określania położenia geograficznego urządzeń podłączonych do Internetu, a także obiektów identyfikowanych za pomocą RFID, 7) wprowadzenie mechanizmów bezpieczeństwa danych, a także mechanizmów zapewniających ochronę prywatności użytkowników. (3) Niektóre zastosowania Internetu Przyszłości i Internetu Rzeczy Internet Rzeczy obejmuje ogromną liczbę potencjalnych pól zastosowań związanych z zarządzaniem różnego rodzaju urządzeniami, systemami i obiektami z wykorzystaniem technologii RFID, telemetrii, nawigacji GPS oraz nowej generacji interfejsów pozwalających na 8 korzystanie w trybie ciągłego dostępu z inteligentnego, aktywnego środowiska różnego rodzaju usług. Daje to szansę na znaczącą poprawę jakości życia codziennego, a także usprawnienie procesów biznesowych, w wielu wypadkach na obniżenie kosztów ich realizacji, a także bardziej precyzyjne określanie tych kosztów i sposobów ich właściwego adresowania. Wśród obszarów zastosowań można wymienić takie, jak np.: Usługi telemedyczne: począwszy od lokalizacji pacjenta, obiektów i urządzeń medycznych wewnątrz i na zewnątrz budynków po usługi zdalnego monitorowania stanu zdrowia pacjenta. Pozwoli to na szybkie udzielanie pomocy oraz zarządzanie informacją o stanie zdrowia pacjenta oraz jego historią w celu dostosowywania terapii do aktualnego stanu zdrowia. Usługi logistyczne i transportowe – obejmujący zarządzanie informacją o środkach transportu, magazynach, towarach, ładunkach, pasażerach, natężeniu ruchu, systemach sygnalizacji i zarządzania ruchem. Pozwoli to na optymalizację ruchu ludzi, towarów, środków transportu, akcesoriów (kontenerów, palet) itp., efektywne planowanie przedsięwzięć transportowych oraz pozyskiwanie i analizowanie informacji związanej z lokalizacją i przemieszczaniem się różnego rodzaju obiektów. Powstaną również nowe metody rozliczania różnego rodzaju opłat związanych z transportem osobowym i towarowym. Edukacja obejmująca rozwiązania zdalnej edukacji, ułatwiająca wykorzystanie usług kształcenia adresowanych tak do 9 konkretnych grup użytkowników, jak również do indywidualnych internautów. Obsługa funkcji społecznościowych, obejmująca m.in. wykorzystanie architektury Internetu Przyszłości do gromadzenia i analizy danych związanych z aktywnością użytkowników Internetu, w celu optymalnego zarządzania zasobami oraz predykcji potrzeb rozwoju spersonalizowanych rozwiązań i usług. Wsparcie usług multimedialnych wymagających specjalnych metod związanych z przesyłaniem dużej ilości danych z zachowaniem odpowiednich parametrów transmisji i wysokiej jakości przekazu dla dużej liczby jednoczesnych użytkowników. Chodzi nie tylko o szeroko pojętą rozrywkę masową i związane z nią przedsięwzięcia komercyjne, ale także telepracę, zdalny udział w konferencjach, spektaklach, koncertach. Wsparcie „Inteligentnych Miast” (Smart Cities) – związane z wykorzystaniem kompleksowych usług zapewniania komfortu życia mieszkańców. A podobnie np.: Inteligentna Energia (Smart Energy) – związana z dynamicznym zarządzaniem sieciami przesyłowymi i dystrybucyjnymi za pomocą punktów pomiarowych rozmieszczonych w wielu węzłach i łączach, które stanowią podstawę systemów Smart Grid, czy Inteligentne Budynki (Smart Buildings) itp. Warto zauważyć, że zastosowanie opisanych rozwiązań powinno stać się impulsem do rozwoju nowej generacji aplikacji informatycznych. Będą one wykorzystywały dane o położeniu geograficznym różnych obiektów, śledziły zmiany położenia, gromadziły dane historyczne, 10 dokonywały ich analizy, wykorzystywały je w nowy sposób, np. do płatności oraz rozliczeń (billingu). (4) Wybrane aspekty społeczne rozwoju Internetu Przyszłości i Internetu Rzeczy Rozwój Internetu jako platformy komunikacji, a także zapewnienie powszechnego dostępu do informacji oraz swobody jej wymiany w skali globalnej – to kierunki działania jednoznacznie społecznie akceptowane. Jednakże idea budowy Internetu Rzeczy nie jest przez wszystkich odbierana pozytywnie. Nadziejom na poprawę jakości życia towarzyszą często obawy przed utratą prywatności, a nawet poważnej części wolności osobistej, zaś w konsekwencji wykorzystywania dostępnej w globalnym systemie informacji o każdym człowieku, jego zachowaniach, poglądach, zwyczajach, preferencjach i upodobaniach, znajomych, kontaktach itp. Wielu polityków, rządy wielu państw UE, a także Komisja Europejska stoją na stanowisku, że rozwój Internetu Przyszłości i Internetu Rzeczy nie może być pozostawiony sektorowi prywatnemu i wymaga centralnych regulacji prawnych, którym będą podlegać wszyscy obywatele. Może to być postrzegane jako dążenie do zagwarantowania stosownych praw i wolności obywatelskich, ale może też rodzić obawy, że Regulator, korzystając ze swoich pełnomocnictw, będzie podejmował działania nieakceptowane lub nie w pełni akceptowane przez znaczną część społeczeństwa. Wydaje się, że dla najbardziej świadomej części społeczności internetowej zagrożenia te są niekiedy nawet bardziej istotne niż potencjalny wzrost komfortu życia. 11 Towarzyszące ideom rozwoju Internetu Rzeczy plany, rodzaju np. całkowitej rezygnacji z pieniądza fizycznego na rzecz pieniądza elektronicznego, czy też wykorzystania technologii biochipów RFID do wszczepiania niewielkich nadajników pod skórę – z jednej strony otwierają zupełnie nowe możliwości w zakresie podnoszenia wygody i bezpieczeństwa życia codziennego, a z drugiej strony mogą być odbierane jako narzędzia totalnej kontroli nad jednostką i społeczeństwem. Postępu nie można powstrzymać. Dla uniknięcia związanych z tym potencjalnych napięć społecznych konieczne jest zagwarantowanie przejrzystych mechanizmów zapewniania poufności danych, ochrony prywatności jednostki i jej wolności. Wartości te powinny być w jeszcze większym niż dotychczas stopniu chronione prawem. Powinny również powstać pozostające pod kontrolą społeczną mechanizmy organizacyjne i techniczne, w tym zorganizowane na nowych zasadach instytucje zaufania publicznego, które pozwolą rozproszyć wspomniane obawy. Ważnym jest też wsparcie działań propagowania etycznych zachowań we wszystkich środowiskach, które uczestniczyć będą we wdrażaniu nowych rozwiązań. Dotyczy to społeczności pracowników nauki, edukacji, administracji publicznej, a zwłaszcza pracowników sektora teleinformatycznego, na których będzie spoczywać odpowiedzialność za projektowanie, wdrażanie oraz eksploatację systemów i rozwiązań informatycznych nowej generacji. 12 8.3. Zakres zjawisk określanych mianem „Przetwarzanie w Chmurze” (1) Globalny rynek informatyczny Światowe inwestycje w rozwiązania informatyczne stale rosną, w szczególności w obszarze usług outsourcingu. Część z tych usług oraz wewnętrznych inwestycji to przetwarzanie w chmurze internetowej. Jednocześnie widoczne są narastające rozbieżności między oczekiwaniami komórek zajmujących się bezpośrednim prowadzeniem biznesu a nastawieniem komórek odpowiadających za usługi informatyczne. Komórki biznesowe potrzebują: • elastycznych zasobów informatycznych do eksperymentowania, • szybkiej integracji zróżnicowanych funkcjonalnie i technologicznie rozwiązań, • mniejszych ograniczeń stawianych przez informatykę w rozwoju usług informatycznych, • reaktywności serwisowej i funkcjonalnej, • szybszej dostawy aplikacji i rozwiązań. Z drugiej strony komórki informatyczne oczekują: • dużo wcześniejszego zgłaszania oczekiwań ze strony komórek biznesowych, • przewidywalności w rozwoju rozwiązań, • stabilności funkcjonalnej i technicznej tych rozwiązań, • uzasadnień dla zmian, • możliwości wczesnego wpływu na kształt i terminy wdrażania nowych zadań. 13 Rodzi to konflikty w sytuacjach, gdy komórki biznesowe oczekują szybkiej realizacji ich oczekiwań. Dodatkowo osoby odpowiadające za ryzyko biznesowe muszą równoważyć przesłanki decyzji o zmianach lub nowych rozwiązaniach pod kątem szybkości realizacji, wdrażania, elastyczności, zarządzania kolejnymi wersjami systemów w kontekście zagrożenia utratą kontroli, uzależnienia się od dostawcy lub technologii, długofalowego kosztu całkowitego dokonywanej inwestycji, a także bezpieczeństwa i wiarygodności dostawców. W związku z tym firmy kierują się pomiarem wartości inwestycji za pomocą kosztów: • uzyskania korzyści biznesowych, • wdrożenia użytkowników do używania rozwiązań informatycznych, • zapewniania elastyczności, • innowacyjności, • zwymiarowanego ryzyka biznesowego. Analizy wprowadzania usług typu przetwarzanie w chmurze dowodzą, że praktycznie wszystkie kategorie kosztów mogą zostać obniżone dzięki tego typu usługom. Jednocześnie wiedza na ten temat jest nadal promowana przede wszystkim w mediach i w środowiskach zawodowych, a wciąż brak zaangażowania środowisk naukowych. Tymczasem zjawisko usług przetwarzania w chmurze doczekało się już skomplikowanej taksonomii poczynionej z pozycji czysto pragmatycznozawodowych i prowadzi do ważnych paradygmatów. Szacuje się, że w 2011 r. około 730 mld USD zostało wydane na świecie na technologie bezpośrednio związane z przetwarzaniem w chmurze [1]. 14 (2) Taksonomia przetwarzania w chmurze Po raz pierwszy pojęcie Cloud computing (przetwarzanie w chmurze) użyto w 1996 r. [23]. Jego istotą nie jest samo posługiwanie się technologią, czyli zasobami sprzętowymi i oprogramowaniem, ale nowy model ich wykorzystywania. Najczęściej przytaczana jest następująca definicja National Institute of Standards and Technology − przetwarzanie w chmurze to model świadczenia usług przetwarzania danych, pozwalający na dostęp na żądanie, przez sieć, do dzielonej puli zasobów (sieciowych, serwerowych, pamięci masowych, aplikacji i usług). Zasoby te mogą być zamawiane przez klientów i w odpowiedni sposób konfigurowane, w zależności od potrzeb użytkowników, oraz dostarczane na żądanie i udostępniane przy minimalnym zaangażowaniu odbiorcy usługi. W zależności od rodzaju pozyskiwanych zasobów w przetwarzaniu w chmurze wyróżnia się trzy podstawowe modele tej usługi: • Infrastructure as a Service (IaaS), • Platform as a Service (PaaS), • Software as a Service (SaaS). IaaS polega na korzystaniu za pośrednictwem sieci, w tym Internetu, ze sprzętu informatycznego. Takim sprzętem jest predefiniowany wirtualny serwer lub poszczególne jego komponenty dobierane przez klienta według bieżącej potrzeby, tj.: • procesor rozumiany jako udostępnienie zakresu mocy przetwarzania wyrażonej w GHz, • pamięć operacyjna RAM wyrażona w GB, • pamięć dyskowa wyrażona w GB. 15 Korzystając z techniki wirtualizacji serwerów, użytkownik usługi może zbudować strukturę wielopoziomową, połączoną wirtualnymi sieciami (VLAN). Na tak przygotowanej infrastrukturze usługobiorca może zainstalować własne oprogramowanie systemowe, bazodanowe oraz aplikacje biznesowe. PaaS, dostarczając gotowe środowisko do tworzenia, instalowania, przetwarzania i uruchamiania własnych aplikacji biznesowych, posiada funkcjonalność IaaS rozbudowaną do poziomu systemów operacyjnych i baz danych. SaaS − w tym modelu użytkownik otrzymuje dostęp do aplikacji informatycznych, a płaci jedynie za faktyczne z nich korzystanie. Dostęp do nich uzyskuje tak samo jak w modelach PaaS i SaaS. W przeciwieństwie do tych modeli, wykorzystywane oprogramowanie należy do jego dostawcy i on też odpowiada za jego aktualizację i bezawaryjne działanie. Rodzaje trybów eksploatacji zasobów w chmurze: • chmura publiczna – współdzielone z innymi użytkownikami zasoby są dynamicznie dostarczane przez zewnętrznego dostawcę za pomocą Internetu; zasoby te mogą należeć do wielu dostawców; klienci korzystają z nich w trybie samoobsługi; • chmura prywatna – są to zasoby dynamicznie dostarczane przez wewnętrznego dostawcę za pomocą sieci, w tym Internetu; • chmura „klubowa” – rodzaj chmury prywatnej będącej w dyspozycji ograniczonej grupy podmiotów prywatnych; • chmura hybrydowa – chmura łącząca zasoby chmury prywatnej i publicznej, gdzie publiczne zasoby są wykorzystywane np. w 16 celach tworzenia kopii zapasowych lub w chwilach zwiększonego zapotrzebowania na moc przetwarzania. Przetwarzanie w chmurze stwarza iluzję nieskończonych zasobów dostępnych na żądanie. Pozwala pozbyć się dylematu, czy uda się obsłużyć wszystkich użytkowników, co będzie, gdy ich liczba wzrośnie, ile zgromadzić sprzętu poszczególnych rodzajów lub jak skalować aplikację. Odpowiada za obsługę dowolnie wahającego się obciążenia, a opłaty ponoszone są dokładnie za stopień wykorzystania zasobów [5,8]. Współczesna koncepcja przetwarzania w chmurze kształtuje się mniej więcej od 2005 r. Prowadziły do niej następujące linie ewolucji informatyki: • zmiany w modelach przetwarzania od samodzielnych jednostek mainframe, przez architekturę klient−serwer, do przetwarzania w sieciach, • zmiany w mocach obliczeniowych centrów danych nie tylko w odniesieniu do pojedynczych serwerów, ale i tych centrów jako całości, • zmiany w przepustowości i organizacji sieci łączności, • przeniesienie idei wirtualizacji z maszyn mainframe na całość zasobów informatycznych, • wprowadzenie modelu Service Oriented Architecture, co technicznie polegało na przeniesieniu konwencji komunikacji typu „przeglądarka” z relacji człowiek–maszyna na relację maszyna–maszyna, a umożliwiło elastyczne z perspektywy usług kształtowanie środowisk informatycznych. Te zmiany techniczne mają swoje konsekwencje organizacyjne, biznesowe i prawne. Przetwarzanie w chmurze zapewnia o wiele lepszą 17 strukturę kosztów. Następuje bowiem przenoszenie ciężaru kosztów z inwestycyjnych (capex) na rzecz operacyjnych (opex). Zmniejszanie kosztów inwestycyjnych obniża barierę podejmowania przedsięwzięć opartych na znaczącym wykorzystywaniu IT. Najważniejszym powodem jest zjawisko skali. Zasoby (moc obliczeniowa, przestrzeń dyskowa, zużywana energia, przepustowość sieci) oferowane są hurtowo. Konsekwencją jest potencjalna redukcja kosztów operacyjnych związanych z działaniem infrastruktury. Przetwarzanie w chmurze jest też swoistą analogią techniki just-intime w zarządzaniu produkcją, która pozwoliła zminimalizować, a czasem wykluczać tworzenie kosztochłonnych zapasów. Kompleksowe spojrzenie na stopień przekazania przetwarzania do chmury oraz zakres korzyści biznesowych z tego czerpanych prowadzą do klasyfikacji wskazującej 12 sposobów zróżnicowanego stosowania usługi przetwarzania w chmurze (rys. 8.1). 18 Rys. 8.1. Taksonomia przetwarzania w chmurze Źródło: [24]. (3) Modele biznesowe przetwarzania w chmurze Główne modele biznesowe są następujące (są one często łączone): • dostawcy usługi typu SaaS koncentrują się na aplikacjach biznesowych i świadczeniu usługi pod jedną marką (np. NetSuite, SuccessFactors, Taleo, WebEx, Workday); • dostawcy infrastruktury w chmurze koncentrują się na dostawie infrastruktury i platform usługowych (np. Amazon.com, GoGrid); • integratorzy chmury jako następcy tradycyjnych integratorów usług informatycznych − model ten łączy stare systemy, 19 systemy w chmurze i ich integrację z dostawcami usług infrastrukturalnych (np. HP, IBM); lokalni integratorzy stopniowo wchodzą w ten model; • budowniczowie chmury oferują klasyczny model konsultingowy, w którym usługodawca pomaga w budowie infrastruktury chmury prywatnej; • chmurowi dostawcy (Value Added Resellers) odsprzedający subskrypcje licencji rozwiązań przetwarzania w chmurze z dodatkowymi parametryzacjami i dodatkami (np. Capgemini); • katalizatorzy dostarczają chmury (Independent komponenty Service technologiczne Vendors) oprogramowania chmury (Cloud.com, Eucalyptus Systems, Microsoft, Oracle, VMware). (4) Czynniki wspierające lub ograniczające wprowadzanie usług przetwarzania w chmurze Odpowiedzialność klientów tej usługi jest wciąż duża. Początkowo jest to oczywista kwestia bezpieczeństwa danych oraz niezawodności systemów. Po wdrożeniu ujawnia się problem integracji z pozostałymi, a nieprzeniesionymi do przetwarzania w chmurze, systemami w firmie. Badania Forrester Research [25] pokazują, że najlepsze perspektywy rozwoju usług przetwarzania w chmurze mają aplikacje do wspierania pracy grupowej, klasyczne aplikacje biznesowe oraz infrastruktura bezpośredniego przetwarzania danych. (5) Wnioski dotyczące przetwarzania w chmurze Istotne jest zrozumienie, że przetwarzanie w chmurze już się zadomowiło i niewątpliwie pozostanie oraz że będzie się upowszechniać. 20 Korzystanie z usług przetwarzania w chmurze nie będzie prowadzić do likwidowania tradycyjnej komórki informatyki − usługi te będą uzupełniać możliwości biznesowych. wyboru nowych modeli technicznych i Odbiorcy usług muszą dostrzegać ich wzorcowe zróżnicowanie i dostosowywać funkcjonujący w ich organizacjach model techniczny i biznesowy do charakteru nowej usługi. Z kolei dostawcy usług przetwarzania w chmurze powinni dobrze zrozumieć dynamikę rozwoju rynku, grupę docelową ich klientów oraz nowe modele biznesowe. Punktem krytycznym staje się łączność teleinformatyczna, która łączy odległego użytkownika z niewidocznym dla niego centrum przetwarzania danych. Poza tym pojawiają się głównie korzyści, które są trzech rodzajów: Korzyści techniczne • Elastyczne wykorzystanie mocy obliczeniowej, korzystanie z której upodabnia się do posługiwania się np. energią elektryczną, gazem komunalnym, wodą komunalną, czyli do zasobu o określonych parametrach, który można pobrać z zewnątrz za uzgodnioną wcześniej opłatą. Również w przypadku obliczeń zaczyna być możliwe uruchomienie posiadanych maszyn (czyli oprogramowania) za pomocą pozyskanej z „gniazdka” energii (obliczeń w chmurze). • Łatwy dostęp do najnowszych technologii − za aktualizację oprogramowania, wykorzystaniem rozwój infrastruktury najnowszych technologii (chmury) i z trendów technologicznych odpowiedzialny jest dostawca usługi. 21 Korzyści finansowe • Brak konieczności inwestycji w sprzęt i brak kosztów początkowych instalacji i uruchomienia – niższe wydatki inwestycyjne i utrzymaniowe. • Możliwość zmniejszania kosztów związanych z zakupem licencji na oprogramowanie. • Możliwość szybszego wprowadzania produktów/usług na rynek i uzyskiwania korzyści finansowych. • Minimalizacja aktywów niepracujących, zwiększenie ROE, przewidywalność kosztów oraz przywiązanie kosztów do przychodów. Korzyści organizacyjne • Ograniczanie konieczności posiadania zaplecza w postaci zasobów informatycznych, co jest zastąpione przez usługi zewnętrzne. • Skrócenie czasu informatycznych wdrażania oraz potrzebnych skrócenie czasu rozwiązań tworzenia oprogramowania, dzięki czemu organizacja jest bardziej elastyczna i otwarta na zmiany. • Przeniesienie na dostawcę obowiązku zapewnienia odpowiedniego poziomu niezawodności działania usługi oraz bezpieczeństwa danych. • Podniesienie jakości usług i poziomu niezawodności usług − dostawcy są już w stanie zagwarantować dostępność usługi na poziomie 99,9%, m.in. dzięki temu, że procesy świadczenia usługi są wystandaryzowane i uproszczone. 22 • Łatwiejszy dostęp do aplikacji dla pracowników mobilnych, jako że możliwe jest zalogowanie się z dowolnego miejsca na ziemi i z wykorzystaniem urządzeń mobilnych. • Znacząca część ryzyka operacyjnego, i to bez zwiększenia ryzyka ogólnego, zostaje przeniesiona na dostawcę usługi, jako że to on odpowiada za zapewnienie ciągłości i bezbłędności działania aplikacji. Generalnie wzrasta bezpieczeństwo danych, systemów i stopień ich dostępności. Rys.8.2. Model biznesowy przetwarzania w chmurze i jego cechy Źródło: [26]. 8.4. Bezpośrednie konsekwencje przemian Podstawowe cechy zmian, jakie wprowadzają omawiane zjawiska (NBIC, Internet Przyszłości, Sieci nowej generacji i Przetwarzanie w chmurze), to: • upowszechnienie zastosowań najnowszych technologii w równym stopniu w sferze rozbudowanego biznesu, jak i w 23 sferze popularnej konsumpcji, czego przyczyną jest radykalne obniżanie kosztów jednostkowych rozwiązań oraz szybko rosnące zapotrzebowanie na jakość, wydajność, moc obliczeniową czy zasoby pamięci rozwiązań technicznych w sferze konsumpcyjnej; • przybliżanie pojmowania tożsamości obiektów składających się na środowisko techniczne otaczające człowieka z tożsamością ludzką (z wszystkimi tego konsekwencjami, także krańcowo niebezpiecznymi). Technologie NBIC i Internet Rzeczy pozwalają w nowy sposób ukształtować komunikację człowieka ze środowiskiem technicznym, nadając jej cechy naturalne dla człowieka, tak w sferze komunikacji werbalnej, jak i na poziomie sygnałów biologicznych. Nanotechnologie pozwoliły przełamać niedawne jeszcze bariery techniczne w technologiach informatycznych wiązanych dotychczas z klasyczną elektroniką, np. możliwe jest budowanie odpowiedników znanych nam komputerów z elementów na poziomie struktur atomowych. Internet Rzeczy sprzyja także bieżącemu gromadzeniu wiedzy statystycznej o wszelkich możliwych wskaźnikach funkcjonowania ludzi w układach społecznych oraz cech funkcjonowania środowiska technicznego „powołanego do życia”, aby służyło ludziom. Przetwarzanie w chmurze jest prawdopodobnie największą rewolucją upowszechnienia techniki, jakiej doświadczała w swej historii cywilizacja ludzka, porównywalną z umasowieniem wytworów rewolucji technicznej na początku XX w. Jest ono już powszechnie spotykane w sferze Internetu konsumenckiego. Dużo mniej jest upowszechnione w sferze biznesu. Niemniej jednak szacuje się [10], że w ciągu zaledwie 24 kilku lat korzystanie z przetwarzania w chmurze stanie się powszechne. Doprowadzi do tego: • standaryzacja przeglądarek i działających w nich aplikacji, • miniaturyzacja i standaryzacja urządzeń informatycznych, • dynamiczny rozwój urządzeń mobilnych. Nie bez znaczenia jest też fakt, że powszechne w sferze konsumenckiej korzystanie z usług i narzędzi opartych na przetwarzaniu w chmurze spowoduje na zasadzie oswojenia i przyzwyczajenia osobistego akceptację tego modelu usługi w zastosowaniach biznesowych. Szacuje się, że od 2009 roku rozpoczął się proces absorbowania modelu przetwarzania w chmurze w sferze biznesu. Prawdopodobnie będzie przebiegać w stopniowo zachodzących na siebie fazach [5,6]: • wdrożenia w chmurze aplikacji typu start-up, niedostateczna standaryzacja, niedostateczna konkurencja dostawców usług, obawy o bezpieczeństwo, • wewnętrzna migracja do chmury prywatnej, ale bez efektu skali, a tym samym bez odpowiednio znaczących oszczędności, • początkowa dominacja chmury prywatnej, pokonywanie obawy przed stosowaniem chmury publicznej, • przechodzenie do modelu przetwarzania na żądanie − potrwa ono przez czas wymiany pokoleniowej menedżerów biznesu, którzy, niestety, kierują się naturalną niechęcią do nowego. Prognozy ewolucji przetwarzania w chmurze [7,8]: • przetwarzanie w chmurze będzie tańsze, bardziej niezawodne, bezpieczniejsze i prostsze w użyciu; 25 • przetwarzanie w chmurze stanie się motorem napędzającym wzrost firm i przewagą konkurencyjną tych, którzy pierwsi przejdą na ten model; • koszty dostawców usługi przetwarzania w chmurze będą kształtować się na poziomie ok. 25% kosztów ponoszonych na prowadzenie własnego centrum przetwarzania danych; • przyszłość przetwarzania w chmurze jest związana z oprogramowaniem typu open source; • liderzy rynku szeroko wypracują rozumiane standardy przetwarzania w chmurze; pojawią się też standardy ISO w tym zakresie; • model SaaS będzie się rozwijać, podobnie jego usługi na bazie powstających i doskonalonych standardów. Prognozy ewolucji generowania oprogramowania w chmurze [7,8]: • szkielety aplikacji − takie jak obecnie Ruby on Rails, Apache Struts, Adobe Flex, PHP, Python – odegrają istotną rolę w upowszechnianiu przetwarzania w chmurze; • do przetwarzania w chmurze najczęściej będą powierzane: warstwa logiki aplikacji i warstwa danych; • mechanizmy składowania danych czeka radykalna ewolucja związana przede wszystkim z danymi nieustrukturyzowanymi oraz skalowaniem baz danych; • usługi zabezpieczania dopracują się dedykowanych rozwiązań związanych z przetwarzaniem w chmurze; • firmy prowadzące biznes oparty na udostępnianiu komercyjnym rozległych repozytoriów danych przygotują dedykowane 26 rozwiązania oferujące ich usługi w modelu przetwarzania w chmurze; • aplikacje wykorzystujące inne istniejące usługi (mashup) dodatkowo upowszechnią korzystanie z przetwarzania w chmurze, co zostanie dodatkowo wsparte dedykowanymi do tego celu narzędziami programistycznymi; • modele Platform as a Service i Framework as a Service staną się dominującym sposobem wytwarzania aplikacji; • posiadanie infrastruktury oraz narzędzi informatycznych przestanie być barierą zawodową, co zwiększy konkurencję; • koszt wytworzenia aplikacji zostanie sprowadzony do praktycznie pomijalnego poziomu. Sieci NGN mają rozwiązać najbardziej obecnie kłopotliwe ograniczenie globalnego rozwoju informatyki, jakim jest rażąco niski stopień wzrostu przepustowości łączy w porównaniu do dynamiki przyrostu wydajności sprzętu i oprogramowania oraz „apetytu” ludności na usługi konsumpcyjne bazujące na informatyce. 8.5. Konsekwencje dla zarządzania W rezultacie pojawiania się i utrwalania zjawisk, opisanych w niniejszym tekście, w sferze zorganizowania społeczeństwa oraz w sferze prowadzenia działalności gospodarczej nastąpią przełomowe zmiany. Nowoczesne technologie staną się relatywnie tanie, powszechnie dostępne, zaś ich funkcjonalność, a zwłaszcza zakres możliwej integracji, przekroczą dotychczasowe wyobrażenia. Swoboda w sięganiu po nie wyzwoli niespotykaną dotąd innowacyjność, bowiem dosłownie każdy będzie mógł zastosować różnorodne rozwiązania w obszarze swoich 27 umiejętności i zainteresowań, a wobec tego będą się pojawiać zupełnie nieoczekiwane dla ich wytwórców zastosowania tych rozwiązań. Z drugiej strony pojawią się poważne komplikacje w zakresie percepcji i absorpcji takiego postępu technicznego, prowadzące do pogłębiania podziałów pokoleniowych. W tym miejscu należy przytoczyć ważną obserwację prof. Muraszkiewicza [22], że różnica między środowiskiem a technologią polega na tym, że w środowisku się rodzimy, a technologia pojawia się w trakcie naszego życia. Wobec tego im więcej technologii pojawia się, tym bardziej zmieniają one środowisko, do którego jesteśmy przyzwyczajeni i w jakimś momencie pojawia się bariera niemożności adaptacji do dalszych innowacji. Ta bariera będzie się pojawiać w życiu ludzi coraz wcześniej. Odnośnie do zarządzania będzie to mieć następujące skutki: (1) Obniżanie wieku efektywnej aktywności menedżerów szczebla operacyjnego i pogłębionej elitarności stanowisk menedżerskich szczebla strategicznego Jest to konsekwencja odnosząca się także do zarządzania wiedzą, w tym obszarze pojawi się mocniejszy niż obecnie trend ku sublimowaniu poziomu mądrości (na bazie wybitnych doświadczeń) i wykorzystywaniu jej na poziomie zarządzania strategicznego. Inaczej mówiąc, będziemy świadkami szybkiej rotacji na szczeblach niższego i średniego poziomu zarządzania, wyjątkowości awansu na szczebel strategiczny (zarządy, rady nadzorcze) oraz jego długotrwałości. 28 (2) Pogłębianie udowodnionej wiedzy o wszelkich zjawiskach społecznych i gospodarczych, ważnej dla podejmowania decyzji Wszelkie obszary życia społecznego i gospodarczego będą na bieżąco obserwowane i rejestrowane w sposób pozwalający na dogłębną i precyzyjną analizę. Jej skuteczność będzie zależała od umiejętności przefiltrowania wyjątkowo obszernych danych i wyselekcjonowania właściwych. Będzie możliwe uzyskanie pełnego (a nie jak dotąd przybliżonego) obrazu typowych zagadnień typu – ile koszul koloru niebieskiego o wybranym rozmiarze kupili mieszkańcy danej gminy w wybranym okresie. Analizy będą zmierzać w kierunku właściwej selekcji danych w miejsce dotychczasowego szukania statystycznej prawidłowości. Tym samym podstawy podejmowania decyzji będą podatne na automatyzację pod warunkiem znalezienia właściwego źródła informacji i narzędzi właściwego ich przetworzenia. (3) Kosztowy model funkcjonowania podmiotów gospodarczych będzie ewoluował w kierunku zamiany kosztów stałych na zmienne Dominacja kosztów zmiennych w strukturze kosztów doprowadzi do powszechnej i pogłębiającej się proporcjonalności kosztów do prowadzonej działalności. Powodem tego będzie outsourcingowe świadczenie dowolnej aktywności, traktowanej przez usługobiorców jako świadczenie standardowe, tak jak obecnie dostawy wody, prądu czy usługi telefonicznej. Jest to ściśle związane z pozostałymi konsekwencjami omawianego rozwoju. 29 (4) Powszechne korzystanie z usług, które dotąd ze względu na barierę kosztów nabycia były dostępne tylko dla firm zamożniejszych Zjawisko to jest już obserwowane w zakresie usług przetwarzania w chmurze, otóż narzędzia informatyczne dotąd kierowane do dużych przedsiębiorstw są użytkowane także przez dużo mniejsze, które − płacąc proporcjonalnie do intensywności wykorzystywania − mogą sobie na to pozwolić. (5) Standaryzacja usług Specjalizacja w świadczeniu usług w niektórych dziedzinach, jak zwłaszcza szeroko rozumiana teleinformatyka, pod naciskiem oczekiwań rynku i nowych modeli outsourcingowych podlega standaryzacji na zasadzie krystalizowania się standardów de facto. Przypomina to powstawanie przed stu laty standardów dostarczania energii elektrycznej dla konsumentów masowych. (6) Zwiększona konkurencja i polaryzacja podmiotów gospodarujących Potwierdzenie znajdzie klasyczny model innowacyjności, w którym wykazuje się, że nowe pomysły powstają w małych podmiotach lub wręcz są dokonaniami pojedynczych osób, ale ich umasowienie i powszechna dostępność może być zapewniona tylko przez dysponujące odpowiednimi kapitałami korporacje. Tym samym należy spodziewać się wyraźnej polaryzacji sfery biznesowej na: 1) silnie konkurujące ze sobą i często przemijające drobne aktywności biznesowe o wysokiej innowacyjności, ale i wysokiej 30 podatności na turbulencje rynkowe, oraz 2) gigantów biznesowych, bardziej odpornych na wahania rynkowe. (7) Zmiana, zmiana i jeszcze raz zmiana Zmiana już dziś, podobnie jak ryzyko, jest główną cechą prowadzenia wszelkiej działalności, tak gospodarczej, jak administracyjnej, czy edukacyjnej lub dowolnej innej. Żartobliwe powiedzenie, że nie ma nic trwalszego niż zmiana powinno stać się przesłaniem współczesnych społeczeństw w obliczu zasygnalizowanych, coraz szybciej dokonujących się przemian i zjawisk postępu technologicznego w teleinformatyce. 8.6. Podsumowanie W XIX w. rewolucja przemysłowa odmieniła środowisko społeczne i zrodziła naukowe zarządzanie. Omówione przemiany, dokonają jeszcze większej rewolucji technicznej i spowodują potrzebę zweryfikowania podstaw dyscypliny zarządzania i wskazania elementów nowego paradygmatu zarządzania. Bibliografia [1] Belissent J., Globalne trendy IT w obszarze przetwarzania w chmurze, Forrester Research, Warszawa 2011 [2] Cellary W., Co dalej w technice informatycznej?, [w:] ZawiłaNiedźwiecki J., Rostek K., Gąsiorkiewicz A. (red.), Informatyka gospodarcza, C.H.Beck, Warszawa 2010 [3] Converging Technologies for Improving Human Performance (nanotechnology, biotechnology, information technology and cognitive science), National Science Foundation, 2002 [4] Scenarios for the Future of Technology and International Development, Fundacja Rockefelera, 2010 31 [5] Zgajewski M. i inni, Raport ’Przetwarzanie w chmurze (Cloud computing) w sektorze finansowym, Forum Technologii Bankowych Związku Banków Polskich, Warszawa 2012 [6] Łapiński K., Wyżnikiewicz B., Cloud computing – wpływ na konkurencyjność przedsiębiorstw i gospodarkę Polski, Instytut Badań nad Gospodarką Rynkową, Gdańsk 2011 [7] Mateos A., Rosenberg J., Chmura obliczeniowa, Helion, Warszawa 2011 [8] Sosinsky B., Cloud computing Bible, Wiley Publishing, 2011 [9] Internet of Things — An action plan for Europe, communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions, Brussels 18.6.2009 [10] Raport ‘Cloud computing, politics and adult social networking’, Pew Internet & American Life Project, 2008 [11] Bartosiewicz A., Potencjał funkcjonalny baz danych PLI CBD do wykorzystania po uruchomieniu PLI CBD, Yon-Consulting, 2010 (materiały niepublikowane UKE) [12] Krzyżanowski L., Podstawy nauk o organizacji i zarządzaniu, PWN, Warszawa 1994 [13] Rytel Z., Nauka organizacji i kierownictwa, Przegląd Organizacji 12/1934 [14] Adamiecki K., Harmonizacja jako jedna z głównych podstaw organizacji naukowej, Przegląd Techniczny 49/1924 [15] Hondenrich T. (red.), Encyklopedia filozofii, Zysk, Poznań 1999 [16] Sadowski W., Teoria podejmowania decyzji, PWN, Warszawa 1970 [17] Kozielecki J., Psychologiczna teoria decyzji, PWN, Warszawa 1977 [18] Szacki J., Historia myśli socjologicznej, PWN, Warszawa 2005 [19] Nadler G., Work Systems Design. The ideals Concept, Irwin, Homewood 1967 [20] Lichtarski J., Podstawy nauki o przedsiębiorstwie, Wydawnictwo AE we Wrocławiu, 2005 [21] Trzcieniecki J., Diagnostyczne i prognostyczne projektowanie organizatorskie, Przegląd Organizacji 7/1970 [22] Muraszkiewicz M., A second face of innovation, konferencja Przedsiębiorczość w czasach kryzysu, Brama Innovation Camp Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, Jachranka 28-29.12.2011 [23] Gillet S.E., Kapor M., The Self-governing Internet: Coordination by Design, MIT Press, 1996 32 [24] The Evolution Of Cloud computing Markets, Forrester Research, 2010 [25] The Three Stages Of Cloud Economics, Forrester Research, 2011 [26] Cloud Orchestration Models, Forrester Research, 2011 [27] „Analiza stanu i kierunki rozwoju elektroniki i telekomunikacji” – praca zbiorowa pod redakcją Józefa Modelskiego, Warszawa, 2010 [28] Vermesan O., Friess P., „Internet of Things – Global Technological and Societal Trends”, River Publishers, 2011 [29] Burakowski W. i inni “Specification of the IIP System – levels 1 and 2”, Raport Projektu Inżynieria Internetu Przyszłości, Warszawa 2010 [29] The EUROPEAN FUTURE INTERNET INITIATIVE (EFII), “White paper on the Future Internet PPP Definition”, January 2010 [30] http://www.future-internet.eu/activities.html [31] http://www.internet-of-things-research.eu Autorzy Stanisław Dyrda, Narodowe Centrum Badań i Rozwoju oraz Wyższa Szkoła Techniczno-Ekonomiczna (konsorcjum wyższych uczelni Futurus), wieloletni pracownik naukowo-dydaktyczny Politechniki Warszawskiej (Instytutu Sterowania i Elektroniki Przemysłowej), menedżer firm sektora telekomunikacji (Telekomunikacja Polska, Netia, Zephyr services, Prywatne Sieci Telekomunikacyjne) oraz informatyki (SPIN, ABG, Bull Polska, Telgaz, 7Bulls.com), Członek IEP (Independent Experts Panel) programu Eurostars prowadzonego przez EUREKA and European Community, współautor monografii „Informatyka Gospodarcza”. Leszek Wisłowski, Forrester Research Inc., gdzie odpowiada za rozwój specjalistycznych programów dla liderów informatyki – Forrester Leadership Boards. Posiada duże doświadczenie w budowaniu, zarządzaniu i transformacji działów informatyki, m.in. w Nestle, ERA GSM, Norwich Union, Energis, LOT. Pracował także dla znanych dostawców usług informatycznych i doradztwa m.in. SAP i Gartner. Janusz Zawiła-Niedźwiecki, Politechnika Warszawska, Wydział Zarządzania, Zakład Informatyki Gospodarczej. Naukowo specjalizuje 33 się w zagadnieniach zarządzania ryzykiem operacyjnym. Liczne publikacje z tej dziedziny, w tym współredaktor wydanej w 2008 r. monografii „Zarządzanie ryzykiem operacyjnym”. Pomysłodawca i redaktor naukowy fundamentalnej monografii „Informatyka gospodarcza” (4 tomy, 93 autorów) wydanej w 2010 r., a w 2011 r. nagrodzonej na Targach Wydawców Ekonomicznych. Równolegle zajmuje od lat kierownicze stanowiska w gospodarce (Giełda Papierów Wartościowych, Fund Services, Grupa PZU, Talex, ATMSI) i administracji (Komisja Nadzoru Finansowego, Urząd Komunikacji Elektronicznej). Przewodniczący Rady Fundacji im. Premiera Prof. Kazimierza Bartla. Członek Polskiej Komisji Akredytacyjnej. 34