Rozdział 8. Teleinformatyczne technologie przyszłości w zarządzaniu

Transkrypt

Rozdział 8. Teleinformatyczne technologie przyszłości w zarządzaniu
tekst opublikowany w monografii „Metody badania i modele rozwoju organizacji” pod
red. A.Stabryły i S.Wawaka, będącej pokłosiem VII konferencja naukowej SZANSE
I BARIERY ROZWOJU ORGANIZACJI W SPOŁECZEŃSTWIE INFORMACYJNYM,
Zakopane, 25-27 września 2012 r.
Stanisław Dyrda – Narodowe Centrum Badań i Rozwoju
Leszek Wisłowski – Forrester Research Inc
Janusz Zawiła-Niedźwiecki – Politechnika Warszawska, Wydział Zarządzania
Rozdział 8.
Teleinformatyczne technologie przyszłości w
zarządzaniu
8.1. Wprowadzenie
Zjawiska omawiane w niniejszym artykule świadczą o wielkich
przemianach współczesnej cywilizacji, na razie tylko technicznej, które
w perspektywie do 10 lat diametralnie przeobrażą otaczającą nas
rzeczywistość. Na marginesie uważamy za konieczne zwrócić uwagę
również na to, że proces ten dotknie wszystkie aspekty życia prywatnego
i społecznego do tego stopnia, że powinien być przedmiotem
powszechnych dyskusji publicznych, gdyż niosąc postęp jakości życia
wprowadzi też nieznany dotąd zakres ingerencji w prywatność. Zjawiska
te to NBIC, Internet Przyszłości i Internet Rzeczy, sieci NGN oraz
Przetwarzanie w Chmurze.
NBIC (nano-bio-info-cogno) to ogół najnowszych technologii z
dziedzin nanotechnologii, biotechnologii, informatyki i kognitywistyki.
NBIC prowadzi do następujących przemian [3,4]:
•
modyfikacja genetyczna rodzaju ludzkiego, ekspansja jego
potencjału
poprzez
nano-bio-info-cogno
implanty,
współdzielenie osobowości i danych z maszynami oraz innymi
ludźmi,
1
•
komunikacja mózg−mózg, mózg−maszyna, mózg−komputer,
transfer osobowości ludzkiej do robotów,
•
czipy wszczepiane bezpośrednio do mózgu,
•
mapowanie całego świata w czasie rzeczywistym poprzez RFID
do systemów rozszerzonej rzeczywistość.
Około 2025 roku obraz ten ma stać się rzeczywistością [1].
Internet Rzeczy to połączenie wszystkich maszyn, urządzeń i
wehikułów w sieć, tak aby umożliwić im zdecentralizowaną komunikację
między sobą. Projekt ten ma za zadanie doprowadzenie do sytuacji, w
której wszystkie przedmioty produkowane na świecie będą miały swój
indywidualny radiowy numer rejestracyjny zapisany w czipie RFID
(Radio Frequency Identification). W ten sposób każdy produkt będzie
monitorowany od powstania aż do jego „śmierci”. Historia, lokacja
geograficzna, stan, możliwości itp. produktu będą dostępne dla
użytkowników
na
całym
świecie.
Wszystkie
obiekty
będą
pozycjonowane na mapie świata poprzez GPS i inne technologie, a za
pomocą internetowych przeglądarek typu obecnego Google będzie
można poszukiwać przedmiotów, tak jak teraz poszukuje się informacji
[2,9]. Mówi się, że rzeczom będzie nadawana tożsamość tak jak ludziom.
Internet Przyszłości oraz Sieci NGN to według definicji
International
Telecommunication
Union
−
Telecommunication
Standardization sieć pakietowa realizująca usługi telekomunikacyjne i
wykorzystująca szerokopasmowe techniki transportowe z gwarancją
jakości
usług,
w
której
funkcje
usługowe
są
niezależne
od
wykorzystywanych technik transportowych. Istotne znaczenie ma też
wdrożenie protokołu IPv6 (Internet Protocol v.6), z uwagi na
wyczerpywanie zasobu wolnych adresów obecnego Internetu IPv4 [11].
2
Przetwarzanie w Chmurze (nazwa pochodzi od popularnego
przedstawiania na rysunkach środowiska techniki telekomunikacyjnej, w
tym Internetu, jako charakterystycznej chmury) to według definicji
National Institute of Standards and Technology model świadczenia usług
przetwarzania danych, pozwalający na dostęp na żądanie, przez sieć, do
dzielonej puli zasobów (sieciowych, serwerowych, pamięci masowych,
aplikacji i usług). Zasoby te mogą być zamawiane przez klientów i w
odpowiedni sposób konfigurowane.
8.2. Zakres zjawisk określanych mianem Internetu Przyszłości
oraz Internetu Rzeczy
(1) Internet Przyszłości, Internet Rzeczy – geneza,
podstawowe pojęcia
Internet Przyszłości to termin określający rewolucyjną przebudowę
obecnego Internetu przez kompleksowe działania, których celem jest
opracowanie
globalnej,
dynamicznej
platformy
obejmującej
infrastrukturę sieciową oraz aplikacje nowej generacji, wspierające
wszelkiego rodzaju aktywności społeczne i gospodarcze, wykorzystujące
inteligentne komponenty i interfejsy z zastosowaniem standardowych
protokołów współpracy zapewniających łatwość integracji w sieci
informacyjnej.
Internet opracowany w latach 70. XX wieku wymaga gruntownego
przeprojektowania. Konieczne jest pilne wprowadzenie skutecznych
mechanizmów wspierających wirtualizację zasobów sieciowych, a także
wdrożenie metod zapewniania gwarantowanej jakości usług (QoS), w
szczególności przewidywalnego poziomu przepustowości (bandwith),
opóźnienia (delay) i zmienności opóźnienia (jitter). Dotychczasowe
3
próby wprowadzenia w sieciach IP systemu sygnalizacji/sterowania
transmisją i stosownej rezerwacji zasobów, np. architektury DiffServ
(Differentiated Services), nie przyniosły zadowalających efektów.
Od
początku
XXI
wieku
zrealizowano
szereg
projektów
poświęconych przeprojektowaniu Internetu. Wśród nich warto wymienić:
New Arch Project (2002−2003), 100×100 Clean Slate Project
(2003−2005), FIND (od 2006), GENI (od 2007), AKARI Project (od
2006), 4WARD, Trilogy Project (2007−2013) [30]. Prowadzone są też
prace nad opracowaniem protokołu internetowego nowej generacji −
IPNG (Next Generation IP). Zostały one rozpoczęte jak tylko stało się
jasne, że 32-bitowa przestrzeń adresowa protokołu IPv4. Nowy protokół
IPv6 (z 1996 r.) operuje 128-bitową przestrzenią adresową (296 razy
większą od IPv4). Zmianie uległ m.in. nagłówek – bardziej elastyczny ze
względu na możliwość wprowadzania rozszerzeń.
Liczba
komputerów
w
Internecie
i
jego
zastosowania
uniemożliwiają praktycznie zamianę protokołu IPv4 na IPv6, migracja
powinna więc zakładać równoległe w okresie przejściowym używanie
przez urządzenia sieciowe obu protokołów, tj. wspieranie dwóch sieci.
Takie podejście zostało zrealizowane w latach 1996−2006 w ramach
projektu 6BONE. Jego uczestnicy dzięki tunelowaniu mogli korzystać z
protokołu IPv4 (jedną z metod jest 6to4).
Warto dodać, że powszechne wprowadzenie IPv6 będzie niezwykle
skomplikowanym procesem również dlatego, że wymaga wsparcia w
zakresie systemów operacyjnych, a także różnego rodzaju aplikacji:
serwery pocztowe (SMTP, POP3, IMAP4, MAPI), serwery DHCP, DNS,
4
WINS, serwery FTP, WWW, oprogramowanie do monitorowania sieci
itp.
Prace nad wprowadzeniem IPv6 są prowadzone także w Polsce.
Ogólnopolski projekt sieci Internetu IPv6 pozwolił na zbudowanie
ogólnopolskiej struktury, obejmującej m.in. Poznańskie Centrum
Superkomputerowo-Sieciowe, Politechnikę Poznańską, Politechnikę
Warszawską, Politechnikę Gdańską, Politechnikę Śląską, Politechnikę
Wrocławską, Instytut Łączności, AGH oraz Instytut Informatyki
Teoretycznej i Stosowanej PAN.
Budowa Internetu Przyszłości jest przejawem globalizacji i jednym
z jej elementów napędowych, decydującym o powodzeniu realizacji
koncepcji społeczeństwa informacyjnego i cyfrowej gospodarki. Internet
Przyszłości obejmuje: Internet Osób (Internet of People), Internet
Mediów (Internet of Media), Internet Energii (Internet of Energy),
Internet Usług (Internet of Services) i Internet Rzeczy (Internet of
Things) [28].
•
Internet Energii definiuje dynamiczną strukturę sieciową, która
steruje dostarczaniem energii w potrzebnej ilości, w żądanym
czasie i do zadanego miejsca.
•
Internet Mediów adresuje potrzeby w zakresie skalowalnego
kodowania i przetwarzania obrazów 3D, sieciowych gier
komputerowych, kina cyfrowego, wirtualnych światów itp.
•
Internet
Osób
zajmuje
sie
sferą
kontaktów
między
użytkownikami, zabezpieczeniem ich praw, w szczególności
przeciwdziałaniem inwigilacji związanej z obserwacją zachowań
użytkowników w sieci, zapewnieniem swobody wymiany myśli,
idei, poglądów. IoP obejmuje też działania na rzecz sposobów
5
zwiększania komfortu życia, pracy, odpoczynku, a także
przełamywaniem barier między dostawcami i konsumentami
treści.
•
Internet Usług związany jest z opartymi na dedykowanym
oprogramowaniu usługami dostarczanymi za pośrednictwem
różnego rodzaju sieci oraz Internetu. Badania w obszarze IoS
obejmują m.in. usługi gridowe, webowe, SOA, Web 3.0/X.0,
semantic Web.
Szczególnie widoczną tendencją w rozwoju Internetu jest ewolucja
od sieci łączącej komputery do sieci łączącej różnego rodzaju
inteligentne obiekty: pojazdy, sprzęt AGD, żywność, książki itp. Obiekty
te opatrzone unikatowymi kodami lub adresami IP mogą komunikować
się ze sobą, jak również z otoczeniem za pomocą odpowiednich
czujników lub interfejsów, tworząc w ten sposób Internet Rzeczy (IoT).
„Rzecz” w tym kontekście jest definiowana jako zmienny w czasie i
przestrzeni obiekt (podmiot) fizyczny lub wirtualny, identyfikowany
dzięki unikatowej nazwie, kodowi lub adresowi sieciowemu).
Warto podkreślić, że IoT nie powinien być postrzegany jedynie
jako rozszerzenie obecnego Internetu, ale jako nowe kompleksowe
rozwiązanie o dobrze zarysowanej specyfice i infrastrukturze, rozwijane
przez implementację zupełnie nowych usług. Stosowne aplikacje mogą
pomóc w rozwiązywaniu różnego rodzaju aktualnych problemów
społecznych. Np. monitorowanie stanu zdrowia może mieć znaczenie dla
zapewnienia opieki nad osobami w podeszłym wieku, wymiana
informacji między środkami transportu, elementami infrastruktury
drogowej, systemami sterowania ruchem może przyczynić się do
6
usprawnienia
komunikacji,
a
podobne
rozwiązania
pomogą
w
zarządzaniu inteligentnymi budynkami, w ochronie przyrody itp.
Podstawowymi
komponentami
do
budowy
IoT
są
takie
rozwiązania jak: RFID, Near Field Communication, WiFi, Bluetooth,
ZigBee, 2D bar-kody, Internet Protocol Version 6 (IPv6), czujniki
bezprzewodowe, sieci szerokopasmowych (ultrawide-band, 3G, 4G,
technologie LTE itp.). Nie sposób także pominąć takich obszarów jak
nanoelektronika, systemy wbudowane, Przetwarzanie w chmurze i szereg
innych, których realne znaczenie dla rozwoju Internetu Rzeczy będziemy
mogli ocenić dopiero przyszłości.
Internet Rzeczy powinien umożliwić komunikację czegokolwiek/
kogokolwiek z czymkolwiek/ kimkolwiek, wszędzie i zawsze przy
wykorzystaniu dowolnych usług czy sieci. Specyfika rozwiązań Internetu
Rzeczy wynika z przewidywanej skali jego działania, obejmującej nawet
setki miliardów obiektów (z których tylko bardzo niewielka cześć jest
obecnie połączona z siecią), ich mobilności, różnorodności i złożoności.
Jedną z przeszkód w rozwoju Internetu Rzeczy będzie konieczność
zapewnienia
współpracy
z
obecnie
istniejącymi
i
rozwijanymi
aplikacjami, które już dzisiaj bardzo obciążają sieć.
Internet Rzeczy powstaje już dzisiaj [31]. W tym kontekście można
wymienić szereg aplikacji, takich jak systemy zdalnego odczytu
liczników energetycznych, połączone z siecią telefony komórkowe
wyposażone w dodatkowe urządzenia jak np. czytniki kart płatniczych,
ścisłe
oznaczanie/numeracja
produktów
farmaceutycznych,
partii
surowców i półproduktów używanych do ich produkcji, systemy
logistyczne zarządzające przemieszczaniem się obiektów, np. towarów w
7
magazynach lub środków transportu w transporcie drogowym czy
kolejowym.
(2) Główne wyzwania i kierunki prac rozwojowych
Prace w zakresie rozwoju Internetu obejmą [27]:
1) powszechne wdrożenie protokołu IPv6,
2) zapewnienie
rzeczywiście
szerokopasmowej
transmisji
internetowej,
3) wdrożenie mechanizmów gwarantowanej jakości usług (np.
architektury DiffServ),
4) zapewnienie właściwych relacji ekonomicznych w zakresie
podziału zysków pomiędzy dostawcami treści oraz dostawcami
usług transmisji danych,
5) zapewnienie wsparcia dla aplikacji mobilnych,
6) wprowadzenie rozwiązań wspierających rozwój Internetu Rzeczy
m.in. w zakresie określania położenia geograficznego urządzeń
podłączonych do Internetu, a także obiektów identyfikowanych
za pomocą RFID,
7) wprowadzenie mechanizmów bezpieczeństwa danych, a także
mechanizmów
zapewniających
ochronę
prywatności
użytkowników.
(3) Niektóre zastosowania Internetu Przyszłości i Internetu
Rzeczy
Internet Rzeczy obejmuje ogromną liczbę potencjalnych pól
zastosowań związanych z zarządzaniem różnego rodzaju urządzeniami,
systemami i obiektami z wykorzystaniem technologii RFID, telemetrii,
nawigacji GPS oraz nowej generacji interfejsów pozwalających na
8
korzystanie w trybie ciągłego dostępu z inteligentnego, aktywnego
środowiska różnego rodzaju usług. Daje to szansę na znaczącą poprawę
jakości życia codziennego, a także usprawnienie procesów biznesowych,
w wielu wypadkach na obniżenie kosztów ich realizacji, a także bardziej
precyzyjne określanie tych kosztów i sposobów ich właściwego
adresowania.
Wśród obszarów zastosowań można wymienić takie, jak np.:
Usługi telemedyczne: począwszy od lokalizacji pacjenta,
obiektów i urządzeń medycznych wewnątrz i na zewnątrz
budynków po usługi zdalnego monitorowania stanu zdrowia
pacjenta. Pozwoli to na szybkie udzielanie pomocy oraz
zarządzanie informacją o stanie zdrowia pacjenta oraz jego
historią w celu dostosowywania terapii do aktualnego stanu
zdrowia.
Usługi logistyczne i transportowe – obejmujący zarządzanie
informacją o środkach transportu, magazynach, towarach,
ładunkach, pasażerach, natężeniu ruchu, systemach sygnalizacji i
zarządzania ruchem. Pozwoli to na optymalizację ruchu ludzi,
towarów, środków transportu, akcesoriów (kontenerów, palet)
itp., efektywne planowanie przedsięwzięć transportowych oraz
pozyskiwanie i analizowanie informacji związanej z lokalizacją i
przemieszczaniem się różnego rodzaju obiektów. Powstaną
również nowe metody rozliczania różnego rodzaju opłat
związanych z transportem osobowym i towarowym.
Edukacja obejmująca rozwiązania zdalnej edukacji, ułatwiająca
wykorzystanie
usług
kształcenia
adresowanych
tak
do
9
konkretnych grup użytkowników, jak również do indywidualnych
internautów.
Obsługa
funkcji
społecznościowych,
obejmująca
m.in.
wykorzystanie architektury Internetu Przyszłości do gromadzenia
i analizy danych związanych z aktywnością użytkowników
Internetu, w celu optymalnego zarządzania zasobami oraz
predykcji potrzeb rozwoju spersonalizowanych rozwiązań i usług.
Wsparcie usług multimedialnych wymagających specjalnych
metod związanych z przesyłaniem dużej ilości danych z
zachowaniem odpowiednich parametrów transmisji i wysokiej
jakości przekazu dla dużej liczby jednoczesnych użytkowników.
Chodzi nie tylko o szeroko pojętą rozrywkę masową i związane z
nią przedsięwzięcia komercyjne, ale także telepracę, zdalny
udział w konferencjach, spektaklach, koncertach.
Wsparcie „Inteligentnych Miast” (Smart Cities) – związane z
wykorzystaniem kompleksowych usług zapewniania komfortu
życia mieszkańców. A podobnie np.: Inteligentna Energia (Smart
Energy) – związana z dynamicznym zarządzaniem sieciami
przesyłowymi
i
dystrybucyjnymi
za
pomocą
punktów
pomiarowych rozmieszczonych w wielu węzłach i łączach, które
stanowią podstawę systemów Smart Grid, czy Inteligentne
Budynki (Smart Buildings) itp.
Warto zauważyć, że zastosowanie opisanych rozwiązań powinno
stać się impulsem do rozwoju nowej generacji aplikacji informatycznych.
Będą one wykorzystywały dane o położeniu geograficznym różnych
obiektów, śledziły zmiany położenia, gromadziły dane historyczne,
10
dokonywały ich analizy, wykorzystywały je w nowy sposób, np. do
płatności oraz rozliczeń (billingu).
(4) Wybrane aspekty społeczne rozwoju Internetu Przyszłości i
Internetu Rzeczy
Rozwój Internetu jako platformy komunikacji, a także zapewnienie
powszechnego dostępu do informacji oraz swobody jej wymiany w skali
globalnej – to kierunki działania jednoznacznie społecznie akceptowane.
Jednakże idea budowy Internetu Rzeczy nie jest przez wszystkich
odbierana pozytywnie. Nadziejom na poprawę jakości życia towarzyszą
często obawy przed utratą prywatności, a nawet poważnej części
wolności osobistej, zaś w konsekwencji wykorzystywania dostępnej w
globalnym systemie informacji o każdym człowieku, jego zachowaniach,
poglądach, zwyczajach, preferencjach i upodobaniach, znajomych,
kontaktach itp.
Wielu polityków, rządy wielu państw UE, a także Komisja
Europejska stoją na stanowisku, że rozwój Internetu Przyszłości i
Internetu Rzeczy nie może być pozostawiony sektorowi prywatnemu i
wymaga centralnych regulacji prawnych, którym będą podlegać wszyscy
obywatele. Może to być postrzegane jako dążenie do zagwarantowania
stosownych praw i wolności obywatelskich, ale może też rodzić obawy,
że Regulator, korzystając ze swoich pełnomocnictw, będzie podejmował
działania nieakceptowane lub nie w pełni akceptowane przez znaczną
część społeczeństwa. Wydaje się, że dla najbardziej świadomej części
społeczności internetowej zagrożenia te są niekiedy nawet bardziej
istotne niż potencjalny wzrost komfortu życia.
11
Towarzyszące ideom rozwoju Internetu Rzeczy plany, rodzaju np.
całkowitej rezygnacji z pieniądza fizycznego na rzecz pieniądza
elektronicznego, czy też wykorzystania technologii biochipów RFID do
wszczepiania niewielkich nadajników pod skórę – z jednej strony
otwierają zupełnie nowe możliwości w zakresie podnoszenia wygody i
bezpieczeństwa życia codziennego, a z drugiej strony mogą być
odbierane
jako
narzędzia
totalnej
kontroli
nad
jednostką
i
społeczeństwem.
Postępu nie można powstrzymać. Dla uniknięcia związanych z tym
potencjalnych napięć społecznych konieczne jest zagwarantowanie
przejrzystych mechanizmów zapewniania poufności danych, ochrony
prywatności jednostki i jej wolności. Wartości te powinny być w jeszcze
większym niż dotychczas stopniu chronione prawem. Powinny również
powstać pozostające pod kontrolą społeczną mechanizmy organizacyjne i
techniczne, w tym zorganizowane na nowych zasadach instytucje
zaufania publicznego, które pozwolą rozproszyć wspomniane obawy.
Ważnym jest też wsparcie działań propagowania etycznych zachowań we
wszystkich środowiskach, które uczestniczyć będą we wdrażaniu nowych
rozwiązań. Dotyczy to społeczności pracowników nauki, edukacji,
administracji
publicznej,
a
zwłaszcza
pracowników
sektora
teleinformatycznego, na których będzie spoczywać odpowiedzialność za
projektowanie, wdrażanie oraz eksploatację systemów i rozwiązań
informatycznych nowej generacji.
12
8.3. Zakres zjawisk określanych mianem „Przetwarzanie w
Chmurze”
(1) Globalny rynek informatyczny
Światowe inwestycje w rozwiązania informatyczne stale rosną, w
szczególności w obszarze usług outsourcingu. Część z tych usług oraz
wewnętrznych inwestycji to przetwarzanie w chmurze internetowej.
Jednocześnie
widoczne
są
narastające
rozbieżności
między
oczekiwaniami komórek zajmujących się bezpośrednim prowadzeniem
biznesu
a
nastawieniem
komórek
odpowiadających
za
usługi
informatyczne. Komórki biznesowe potrzebują:
•
elastycznych zasobów informatycznych do eksperymentowania,
•
szybkiej
integracji
zróżnicowanych
funkcjonalnie
i
technologicznie rozwiązań,
•
mniejszych ograniczeń stawianych przez informatykę w
rozwoju usług informatycznych,
•
reaktywności serwisowej i funkcjonalnej,
•
szybszej dostawy aplikacji i rozwiązań.
Z drugiej strony komórki informatyczne oczekują:
•
dużo wcześniejszego zgłaszania oczekiwań ze strony komórek
biznesowych,
•
przewidywalności w rozwoju rozwiązań,
•
stabilności funkcjonalnej i technicznej tych rozwiązań,
•
uzasadnień dla zmian,
•
możliwości wczesnego wpływu na kształt i terminy wdrażania
nowych zadań.
13
Rodzi to konflikty w sytuacjach, gdy komórki biznesowe oczekują
szybkiej realizacji ich oczekiwań.
Dodatkowo osoby odpowiadające za ryzyko biznesowe muszą
równoważyć przesłanki decyzji o zmianach lub nowych rozwiązaniach
pod kątem szybkości realizacji, wdrażania, elastyczności, zarządzania
kolejnymi wersjami systemów w kontekście zagrożenia utratą kontroli,
uzależnienia się od dostawcy lub technologii, długofalowego kosztu
całkowitego dokonywanej inwestycji, a także bezpieczeństwa i
wiarygodności dostawców. W związku z tym firmy kierują się pomiarem
wartości inwestycji za pomocą kosztów:
•
uzyskania korzyści biznesowych,
•
wdrożenia
użytkowników
do
używania
rozwiązań
informatycznych,
•
zapewniania elastyczności,
•
innowacyjności,
•
zwymiarowanego ryzyka biznesowego.
Analizy wprowadzania usług typu przetwarzanie w chmurze
dowodzą, że praktycznie wszystkie kategorie kosztów mogą zostać
obniżone dzięki tego typu usługom. Jednocześnie wiedza na ten temat
jest nadal promowana przede wszystkim w mediach i w środowiskach
zawodowych, a wciąż brak zaangażowania środowisk naukowych.
Tymczasem zjawisko usług przetwarzania w chmurze doczekało się już
skomplikowanej taksonomii poczynionej z pozycji czysto pragmatycznozawodowych i prowadzi do ważnych paradygmatów. Szacuje się, że w
2011 r. około 730 mld USD zostało wydane na świecie na technologie
bezpośrednio związane z przetwarzaniem w chmurze [1].
14
(2) Taksonomia przetwarzania w chmurze
Po raz pierwszy pojęcie Cloud computing (przetwarzanie w
chmurze) użyto w 1996 r. [23]. Jego istotą nie jest samo posługiwanie się
technologią, czyli zasobami sprzętowymi i oprogramowaniem, ale nowy
model ich wykorzystywania. Najczęściej przytaczana jest następująca
definicja National Institute of Standards and Technology − przetwarzanie
w chmurze to model świadczenia usług przetwarzania danych,
pozwalający na dostęp na żądanie, przez sieć, do dzielonej puli zasobów
(sieciowych, serwerowych, pamięci masowych, aplikacji i usług). Zasoby
te mogą być zamawiane przez klientów i w odpowiedni sposób
konfigurowane,
w
zależności
od
potrzeb
użytkowników,
oraz
dostarczane na żądanie i udostępniane przy minimalnym zaangażowaniu
odbiorcy usługi.
W zależności od rodzaju pozyskiwanych zasobów w przetwarzaniu
w chmurze wyróżnia się trzy podstawowe modele tej usługi:
•
Infrastructure as a Service (IaaS),
•
Platform as a Service (PaaS),
•
Software as a Service (SaaS).
IaaS polega na korzystaniu za pośrednictwem sieci, w tym
Internetu,
ze
sprzętu
informatycznego.
Takim
sprzętem
jest
predefiniowany wirtualny serwer lub poszczególne jego komponenty
dobierane przez klienta według bieżącej potrzeby, tj.:
•
procesor
rozumiany
jako
udostępnienie
zakresu
mocy
przetwarzania wyrażonej w GHz,
•
pamięć operacyjna RAM wyrażona w GB,
•
pamięć dyskowa wyrażona w GB.
15
Korzystając z techniki wirtualizacji serwerów, użytkownik usługi może
zbudować strukturę wielopoziomową, połączoną wirtualnymi sieciami
(VLAN). Na tak przygotowanej infrastrukturze usługobiorca może
zainstalować własne oprogramowanie systemowe, bazodanowe oraz
aplikacje biznesowe.
PaaS, dostarczając gotowe środowisko do tworzenia, instalowania,
przetwarzania i uruchamiania własnych aplikacji biznesowych, posiada
funkcjonalność IaaS rozbudowaną do poziomu systemów operacyjnych i
baz danych.
SaaS − w tym modelu użytkownik otrzymuje dostęp do aplikacji
informatycznych, a płaci jedynie za faktyczne z nich korzystanie. Dostęp
do nich uzyskuje tak samo jak w modelach PaaS i SaaS. W
przeciwieństwie do tych modeli, wykorzystywane oprogramowanie
należy do jego dostawcy i on też odpowiada za jego aktualizację i
bezawaryjne działanie.
Rodzaje trybów eksploatacji zasobów w chmurze:
•
chmura publiczna – współdzielone z innymi użytkownikami
zasoby są dynamicznie dostarczane przez zewnętrznego
dostawcę za pomocą Internetu; zasoby te mogą należeć do
wielu dostawców; klienci korzystają z nich w trybie
samoobsługi;
•
chmura prywatna – są to zasoby dynamicznie dostarczane przez
wewnętrznego dostawcę za pomocą sieci, w tym Internetu;
•
chmura „klubowa” – rodzaj chmury prywatnej będącej w
dyspozycji ograniczonej grupy podmiotów prywatnych;
•
chmura hybrydowa – chmura łącząca zasoby chmury prywatnej
i publicznej, gdzie publiczne zasoby są wykorzystywane np. w
16
celach
tworzenia
kopii
zapasowych
lub
w
chwilach
zwiększonego zapotrzebowania na moc przetwarzania.
Przetwarzanie w chmurze stwarza iluzję nieskończonych zasobów
dostępnych na żądanie. Pozwala pozbyć się dylematu, czy uda się
obsłużyć wszystkich użytkowników, co będzie, gdy ich liczba wzrośnie,
ile zgromadzić sprzętu poszczególnych rodzajów lub jak skalować
aplikację. Odpowiada za obsługę dowolnie wahającego się obciążenia, a
opłaty ponoszone są dokładnie za stopień wykorzystania zasobów [5,8].
Współczesna koncepcja przetwarzania w chmurze kształtuje się
mniej więcej od 2005 r. Prowadziły do niej następujące linie ewolucji
informatyki:
•
zmiany w modelach przetwarzania od samodzielnych jednostek
mainframe, przez architekturę klient−serwer, do przetwarzania
w sieciach,
•
zmiany w mocach obliczeniowych centrów danych nie tylko w
odniesieniu do pojedynczych serwerów, ale i tych centrów jako
całości,
•
zmiany w przepustowości i organizacji sieci łączności,
•
przeniesienie idei wirtualizacji z maszyn mainframe na całość
zasobów informatycznych,
•
wprowadzenie modelu Service Oriented Architecture, co
technicznie polegało na przeniesieniu konwencji komunikacji
typu „przeglądarka” z relacji człowiek–maszyna na relację
maszyna–maszyna, a umożliwiło elastyczne z perspektywy
usług kształtowanie środowisk informatycznych.
Te zmiany techniczne mają swoje konsekwencje organizacyjne,
biznesowe i prawne. Przetwarzanie w chmurze zapewnia o wiele lepszą
17
strukturę kosztów. Następuje bowiem przenoszenie ciężaru kosztów z
inwestycyjnych (capex) na rzecz operacyjnych (opex). Zmniejszanie
kosztów inwestycyjnych obniża barierę podejmowania przedsięwzięć
opartych na znaczącym wykorzystywaniu IT. Najważniejszym powodem
jest zjawisko skali. Zasoby (moc obliczeniowa, przestrzeń dyskowa,
zużywana energia, przepustowość sieci) oferowane są hurtowo.
Konsekwencją
jest
potencjalna
redukcja
kosztów
operacyjnych
związanych z działaniem infrastruktury.
Przetwarzanie w chmurze jest też swoistą analogią techniki just-intime w zarządzaniu produkcją, która pozwoliła zminimalizować, a
czasem wykluczać tworzenie kosztochłonnych zapasów.
Kompleksowe spojrzenie na stopień przekazania przetwarzania do
chmury oraz zakres korzyści biznesowych z tego czerpanych prowadzą
do klasyfikacji wskazującej 12 sposobów zróżnicowanego stosowania
usługi przetwarzania w chmurze (rys. 8.1).
18
Rys. 8.1. Taksonomia przetwarzania w chmurze
Źródło: [24].
(3) Modele biznesowe przetwarzania w chmurze
Główne modele biznesowe są następujące (są one często łączone):
•
dostawcy usługi typu SaaS koncentrują się na aplikacjach
biznesowych i świadczeniu usługi pod jedną marką (np.
NetSuite, SuccessFactors, Taleo, WebEx, Workday);
•
dostawcy infrastruktury w chmurze koncentrują się na dostawie
infrastruktury i platform usługowych (np. Amazon.com,
GoGrid);
•
integratorzy chmury jako następcy tradycyjnych integratorów
usług informatycznych − model ten łączy stare systemy,
19
systemy w chmurze i ich integrację z dostawcami usług
infrastrukturalnych (np. HP, IBM); lokalni integratorzy
stopniowo wchodzą w ten model;
•
budowniczowie
chmury
oferują
klasyczny
model
konsultingowy, w którym usługodawca pomaga w budowie
infrastruktury chmury prywatnej;
•
chmurowi dostawcy (Value Added Resellers) odsprzedający
subskrypcje licencji rozwiązań przetwarzania w chmurze z
dodatkowymi parametryzacjami i dodatkami (np. Capgemini);
•
katalizatorzy
dostarczają
chmury
(Independent
komponenty
Service
technologiczne
Vendors)
oprogramowania
chmury (Cloud.com, Eucalyptus Systems, Microsoft, Oracle,
VMware).
(4) Czynniki wspierające lub ograniczające wprowadzanie
usług przetwarzania w chmurze
Odpowiedzialność klientów tej usługi jest wciąż duża. Początkowo
jest to oczywista kwestia bezpieczeństwa danych oraz niezawodności
systemów. Po wdrożeniu ujawnia się problem integracji z pozostałymi, a
nieprzeniesionymi do przetwarzania w chmurze, systemami w firmie.
Badania Forrester Research [25] pokazują, że najlepsze perspektywy
rozwoju usług przetwarzania w chmurze mają aplikacje do wspierania
pracy grupowej, klasyczne aplikacje biznesowe oraz infrastruktura
bezpośredniego przetwarzania danych.
(5) Wnioski dotyczące przetwarzania w chmurze
Istotne jest zrozumienie, że przetwarzanie w chmurze już się
zadomowiło i niewątpliwie pozostanie oraz że będzie się upowszechniać.
20
Korzystanie z usług przetwarzania w chmurze nie będzie prowadzić do
likwidowania tradycyjnej komórki informatyki − usługi te będą
uzupełniać
możliwości
biznesowych.
wyboru
nowych
modeli
technicznych
i
Odbiorcy usług muszą dostrzegać ich wzorcowe
zróżnicowanie i dostosowywać funkcjonujący w ich organizacjach model
techniczny i biznesowy do charakteru nowej usługi. Z kolei dostawcy
usług przetwarzania w chmurze powinni dobrze zrozumieć dynamikę
rozwoju rynku, grupę docelową ich klientów oraz nowe modele
biznesowe.
Punktem krytycznym staje się łączność teleinformatyczna, która
łączy odległego użytkownika z niewidocznym dla niego centrum
przetwarzania danych.
Poza tym pojawiają się głównie korzyści, które są trzech rodzajów:
Korzyści techniczne
•
Elastyczne wykorzystanie mocy obliczeniowej, korzystanie
z której upodabnia się do posługiwania się np. energią
elektryczną, gazem komunalnym, wodą komunalną, czyli
do zasobu o określonych parametrach, który można pobrać
z zewnątrz za uzgodnioną wcześniej opłatą. Również w
przypadku obliczeń zaczyna być możliwe uruchomienie
posiadanych maszyn (czyli oprogramowania) za pomocą
pozyskanej z „gniazdka” energii (obliczeń w chmurze).
•
Łatwy dostęp do najnowszych technologii − za aktualizację
oprogramowania,
wykorzystaniem
rozwój
infrastruktury
najnowszych
technologii
(chmury)
i
z
trendów
technologicznych odpowiedzialny jest dostawca usługi.
21
Korzyści finansowe
•
Brak konieczności inwestycji w sprzęt i brak kosztów
początkowych instalacji i uruchomienia – niższe wydatki
inwestycyjne i utrzymaniowe.
•
Możliwość zmniejszania kosztów związanych z zakupem
licencji na oprogramowanie.
•
Możliwość szybszego wprowadzania produktów/usług na
rynek i uzyskiwania korzyści finansowych.
•
Minimalizacja aktywów niepracujących, zwiększenie ROE,
przewidywalność kosztów oraz przywiązanie kosztów do
przychodów.
Korzyści organizacyjne
•
Ograniczanie konieczności posiadania zaplecza w postaci
zasobów informatycznych, co jest zastąpione przez usługi
zewnętrzne.
•
Skrócenie
czasu
informatycznych
wdrażania
oraz
potrzebnych
skrócenie
czasu
rozwiązań
tworzenia
oprogramowania, dzięki czemu organizacja jest bardziej
elastyczna i otwarta na zmiany.
•
Przeniesienie
na
dostawcę
obowiązku
zapewnienia
odpowiedniego poziomu niezawodności działania usługi
oraz bezpieczeństwa danych.
•
Podniesienie jakości usług i poziomu niezawodności usług
− dostawcy są już w stanie zagwarantować dostępność
usługi na poziomie 99,9%, m.in. dzięki temu, że procesy
świadczenia usługi są wystandaryzowane i uproszczone.
22
•
Łatwiejszy dostęp do aplikacji dla pracowników mobilnych,
jako że możliwe jest zalogowanie się z dowolnego miejsca
na ziemi i z wykorzystaniem urządzeń mobilnych.
•
Znacząca część ryzyka operacyjnego, i to bez zwiększenia
ryzyka ogólnego, zostaje przeniesiona na dostawcę usługi,
jako że to on odpowiada za zapewnienie ciągłości i
bezbłędności działania aplikacji.
Generalnie wzrasta bezpieczeństwo danych, systemów i stopień ich
dostępności.
Rys.8.2. Model biznesowy przetwarzania w chmurze i jego cechy
Źródło: [26].
8.4. Bezpośrednie konsekwencje przemian
Podstawowe cechy zmian, jakie wprowadzają omawiane zjawiska
(NBIC, Internet Przyszłości, Sieci nowej generacji i Przetwarzanie w
chmurze), to:
•
upowszechnienie zastosowań najnowszych technologii w
równym stopniu w sferze rozbudowanego biznesu, jak i w
23
sferze popularnej konsumpcji, czego przyczyną jest radykalne
obniżanie kosztów jednostkowych rozwiązań oraz szybko
rosnące
zapotrzebowanie
na
jakość,
wydajność,
moc
obliczeniową czy zasoby pamięci rozwiązań technicznych w
sferze konsumpcyjnej;
•
przybliżanie pojmowania tożsamości obiektów składających się
na środowisko techniczne otaczające człowieka z tożsamością
ludzką (z wszystkimi tego konsekwencjami, także krańcowo
niebezpiecznymi).
Technologie NBIC i Internet Rzeczy pozwalają w nowy sposób
ukształtować komunikację człowieka ze środowiskiem technicznym,
nadając jej cechy naturalne dla człowieka, tak w sferze komunikacji
werbalnej, jak i na poziomie sygnałów biologicznych. Nanotechnologie
pozwoliły
przełamać
niedawne
jeszcze
bariery
techniczne
w
technologiach informatycznych wiązanych dotychczas z klasyczną
elektroniką, np. możliwe jest budowanie odpowiedników znanych nam
komputerów z elementów na poziomie struktur atomowych.
Internet Rzeczy sprzyja także bieżącemu gromadzeniu wiedzy
statystycznej o wszelkich możliwych wskaźnikach funkcjonowania ludzi
w układach społecznych oraz cech funkcjonowania środowiska
technicznego „powołanego do życia”, aby służyło ludziom.
Przetwarzanie w chmurze jest prawdopodobnie największą
rewolucją upowszechnienia techniki, jakiej doświadczała w swej historii
cywilizacja ludzka, porównywalną z umasowieniem wytworów rewolucji
technicznej na początku XX w. Jest ono już powszechnie spotykane w
sferze Internetu konsumenckiego. Dużo mniej jest upowszechnione w
sferze biznesu. Niemniej jednak szacuje się [10], że w ciągu zaledwie
24
kilku lat korzystanie z przetwarzania w chmurze stanie się powszechne.
Doprowadzi do tego:
•
standaryzacja przeglądarek i działających w nich aplikacji,
•
miniaturyzacja i standaryzacja urządzeń informatycznych,
•
dynamiczny rozwój urządzeń mobilnych.
Nie bez znaczenia jest też fakt, że powszechne w sferze
konsumenckiej korzystanie z usług i narzędzi opartych na przetwarzaniu
w chmurze spowoduje na zasadzie oswojenia i przyzwyczajenia
osobistego
akceptację
tego
modelu
usługi
w
zastosowaniach
biznesowych.
Szacuje się, że od 2009 roku rozpoczął się proces absorbowania
modelu przetwarzania w chmurze w sferze biznesu. Prawdopodobnie
będzie przebiegać w stopniowo zachodzących na siebie fazach [5,6]:
•
wdrożenia w chmurze aplikacji typu start-up, niedostateczna
standaryzacja, niedostateczna konkurencja dostawców usług,
obawy o bezpieczeństwo,
•
wewnętrzna migracja do chmury prywatnej, ale bez efektu
skali, a tym samym bez odpowiednio znaczących oszczędności,
•
początkowa dominacja chmury prywatnej, pokonywanie obawy
przed stosowaniem chmury publicznej,
•
przechodzenie do modelu przetwarzania na żądanie − potrwa
ono przez czas wymiany pokoleniowej menedżerów biznesu,
którzy, niestety, kierują się naturalną niechęcią do nowego.
Prognozy ewolucji przetwarzania w chmurze [7,8]:
•
przetwarzanie w chmurze będzie tańsze, bardziej niezawodne,
bezpieczniejsze i prostsze w użyciu;
25
•
przetwarzanie w chmurze stanie się motorem napędzającym
wzrost firm i przewagą konkurencyjną tych, którzy pierwsi
przejdą na ten model;
•
koszty dostawców usługi przetwarzania w chmurze będą
kształtować się na poziomie ok. 25% kosztów ponoszonych na
prowadzenie własnego centrum przetwarzania danych;
•
przyszłość
przetwarzania
w
chmurze
jest
związana
z
oprogramowaniem typu open source;
•
liderzy
rynku
szeroko
wypracują
rozumiane
standardy
przetwarzania w chmurze; pojawią się też standardy ISO w tym
zakresie;
•
model SaaS będzie się rozwijać, podobnie jego usługi na bazie
powstających i doskonalonych standardów.
Prognozy ewolucji generowania oprogramowania w chmurze [7,8]:
•
szkielety aplikacji − takie jak obecnie Ruby on Rails, Apache
Struts, Adobe Flex, PHP, Python – odegrają istotną rolę w
upowszechnianiu przetwarzania w chmurze;
•
do przetwarzania w chmurze najczęściej będą powierzane:
warstwa logiki aplikacji i warstwa danych;
•
mechanizmy składowania danych czeka radykalna ewolucja
związana przede wszystkim z danymi nieustrukturyzowanymi
oraz skalowaniem baz danych;
•
usługi zabezpieczania dopracują się dedykowanych rozwiązań
związanych z przetwarzaniem w chmurze;
•
firmy prowadzące biznes oparty na udostępnianiu komercyjnym
rozległych
repozytoriów
danych
przygotują
dedykowane
26
rozwiązania oferujące ich usługi w modelu przetwarzania w
chmurze;
•
aplikacje wykorzystujące inne istniejące usługi (mashup)
dodatkowo upowszechnią korzystanie z przetwarzania w
chmurze, co zostanie dodatkowo wsparte dedykowanymi do
tego celu narzędziami programistycznymi;
•
modele Platform as a Service i Framework as a Service staną
się dominującym sposobem wytwarzania aplikacji;
•
posiadanie
infrastruktury
oraz
narzędzi
informatycznych
przestanie być barierą zawodową, co zwiększy konkurencję;
•
koszt
wytworzenia
aplikacji
zostanie
sprowadzony
do
praktycznie pomijalnego poziomu.
Sieci NGN mają rozwiązać najbardziej obecnie kłopotliwe
ograniczenie globalnego rozwoju informatyki, jakim jest rażąco niski
stopień wzrostu przepustowości łączy w porównaniu do dynamiki
przyrostu wydajności sprzętu i oprogramowania oraz „apetytu” ludności
na usługi konsumpcyjne bazujące na informatyce.
8.5. Konsekwencje dla zarządzania
W rezultacie pojawiania się i utrwalania zjawisk, opisanych w
niniejszym tekście, w sferze zorganizowania społeczeństwa oraz w sferze
prowadzenia działalności gospodarczej nastąpią przełomowe zmiany.
Nowoczesne technologie staną się relatywnie tanie, powszechnie
dostępne, zaś ich funkcjonalność, a zwłaszcza zakres możliwej integracji,
przekroczą dotychczasowe wyobrażenia. Swoboda w sięganiu po nie
wyzwoli niespotykaną dotąd innowacyjność, bowiem dosłownie każdy
będzie mógł zastosować różnorodne rozwiązania w obszarze swoich
27
umiejętności i zainteresowań, a wobec tego będą się pojawiać zupełnie
nieoczekiwane dla ich wytwórców zastosowania tych rozwiązań. Z
drugiej strony pojawią się poważne komplikacje w zakresie percepcji i
absorpcji takiego postępu technicznego, prowadzące do pogłębiania
podziałów pokoleniowych. W tym miejscu należy przytoczyć ważną
obserwację prof. Muraszkiewicza [22], że różnica między środowiskiem
a technologią polega na tym, że w środowisku się rodzimy, a technologia
pojawia się w trakcie naszego życia. Wobec tego im więcej technologii
pojawia się, tym bardziej zmieniają one środowisko, do którego jesteśmy
przyzwyczajeni i w jakimś momencie pojawia się bariera niemożności
adaptacji do dalszych innowacji. Ta bariera będzie się pojawiać w życiu
ludzi coraz wcześniej.
Odnośnie do zarządzania będzie to mieć następujące skutki:
(1) Obniżanie wieku efektywnej aktywności menedżerów
szczebla operacyjnego i pogłębionej elitarności stanowisk
menedżerskich szczebla strategicznego
Jest to konsekwencja odnosząca się także do zarządzania wiedzą, w
tym obszarze pojawi się mocniejszy niż obecnie trend ku sublimowaniu
poziomu mądrości (na bazie wybitnych doświadczeń) i wykorzystywaniu
jej na poziomie zarządzania strategicznego. Inaczej mówiąc, będziemy
świadkami szybkiej rotacji na szczeblach niższego i średniego poziomu
zarządzania, wyjątkowości awansu na szczebel strategiczny (zarządy,
rady nadzorcze) oraz jego długotrwałości.
28
(2) Pogłębianie udowodnionej wiedzy o wszelkich zjawiskach
społecznych i gospodarczych, ważnej dla podejmowania
decyzji
Wszelkie obszary życia społecznego i gospodarczego będą na
bieżąco obserwowane i rejestrowane w sposób pozwalający na dogłębną
i precyzyjną analizę. Jej skuteczność będzie zależała od umiejętności
przefiltrowania wyjątkowo obszernych danych i wyselekcjonowania
właściwych. Będzie możliwe uzyskanie pełnego (a nie jak dotąd
przybliżonego) obrazu typowych zagadnień typu – ile koszul koloru
niebieskiego o wybranym rozmiarze kupili mieszkańcy danej gminy w
wybranym okresie. Analizy będą zmierzać w kierunku właściwej selekcji
danych
w
miejsce
dotychczasowego
szukania
statystycznej
prawidłowości. Tym samym podstawy podejmowania decyzji będą
podatne na automatyzację pod warunkiem znalezienia właściwego źródła
informacji i narzędzi właściwego ich przetworzenia.
(3) Kosztowy model funkcjonowania podmiotów
gospodarczych będzie ewoluował w kierunku zamiany
kosztów stałych na zmienne
Dominacja kosztów zmiennych w strukturze kosztów doprowadzi
do powszechnej i pogłębiającej się proporcjonalności kosztów do
prowadzonej działalności. Powodem tego będzie outsourcingowe
świadczenie dowolnej aktywności, traktowanej przez usługobiorców jako
świadczenie standardowe, tak jak obecnie dostawy wody, prądu czy
usługi
telefonicznej.
Jest
to
ściśle
związane
z
pozostałymi
konsekwencjami omawianego rozwoju.
29
(4) Powszechne korzystanie z usług, które dotąd ze względu na
barierę kosztów nabycia były dostępne tylko dla firm
zamożniejszych
Zjawisko to jest już obserwowane w zakresie usług przetwarzania
w chmurze, otóż narzędzia informatyczne dotąd kierowane do dużych
przedsiębiorstw są użytkowane także przez dużo mniejsze, które − płacąc
proporcjonalnie do intensywności wykorzystywania − mogą sobie na to
pozwolić.
(5) Standaryzacja usług
Specjalizacja w świadczeniu usług w niektórych dziedzinach, jak
zwłaszcza szeroko rozumiana teleinformatyka, pod naciskiem oczekiwań
rynku i nowych modeli outsourcingowych podlega standaryzacji na
zasadzie krystalizowania się standardów de facto. Przypomina to
powstawanie przed stu laty standardów dostarczania energii elektrycznej
dla konsumentów masowych.
(6) Zwiększona konkurencja i polaryzacja podmiotów
gospodarujących
Potwierdzenie znajdzie klasyczny model innowacyjności, w
którym wykazuje się, że nowe pomysły powstają w małych podmiotach
lub wręcz są dokonaniami pojedynczych osób, ale ich umasowienie i
powszechna dostępność może być zapewniona tylko przez dysponujące
odpowiednimi kapitałami korporacje. Tym samym należy spodziewać się
wyraźnej polaryzacji sfery biznesowej na:
1) silnie konkurujące ze sobą i często przemijające drobne
aktywności biznesowe o wysokiej innowacyjności, ale i wysokiej
30
podatności na turbulencje rynkowe, oraz 2) gigantów biznesowych,
bardziej odpornych na wahania rynkowe.
(7) Zmiana, zmiana i jeszcze raz zmiana
Zmiana już dziś, podobnie jak ryzyko, jest główną cechą
prowadzenia
wszelkiej
działalności,
tak
gospodarczej,
jak
administracyjnej, czy edukacyjnej lub dowolnej innej. Żartobliwe
powiedzenie, że nie ma nic trwalszego niż zmiana powinno stać się
przesłaniem współczesnych społeczeństw w obliczu zasygnalizowanych,
coraz
szybciej
dokonujących
się
przemian
i
zjawisk
postępu
technologicznego w teleinformatyce.
8.6. Podsumowanie
W XIX w. rewolucja przemysłowa odmieniła środowisko
społeczne i zrodziła naukowe zarządzanie. Omówione przemiany,
dokonają jeszcze większej rewolucji technicznej i spowodują potrzebę
zweryfikowania podstaw dyscypliny zarządzania i wskazania elementów
nowego paradygmatu zarządzania.
Bibliografia
[1] Belissent J., Globalne trendy IT w obszarze przetwarzania w
chmurze, Forrester Research, Warszawa 2011
[2] Cellary W., Co dalej w technice informatycznej?, [w:] ZawiłaNiedźwiecki J., Rostek K., Gąsiorkiewicz A. (red.), Informatyka
gospodarcza, C.H.Beck, Warszawa 2010
[3] Converging Technologies for Improving Human Performance
(nanotechnology, biotechnology, information technology and
cognitive science), National Science Foundation, 2002
[4] Scenarios for the Future of Technology and International
Development, Fundacja Rockefelera, 2010
31
[5] Zgajewski M. i inni, Raport ’Przetwarzanie w chmurze (Cloud
computing) w sektorze finansowym, Forum Technologii Bankowych
Związku Banków Polskich, Warszawa 2012
[6] Łapiński K., Wyżnikiewicz B., Cloud computing – wpływ na
konkurencyjność przedsiębiorstw i gospodarkę Polski, Instytut Badań
nad Gospodarką Rynkową, Gdańsk 2011
[7] Mateos A., Rosenberg J., Chmura obliczeniowa, Helion, Warszawa
2011
[8] Sosinsky B., Cloud computing Bible, Wiley Publishing, 2011
[9] Internet of Things — An action plan for Europe, communication from
the Commission to the European Parliament, the Council, the
European Economic and Social Committee and the Committee of the
Regions, Brussels 18.6.2009
[10] Raport ‘Cloud computing, politics and adult social networking’,
Pew Internet & American Life Project, 2008
[11] Bartosiewicz A., Potencjał funkcjonalny baz danych PLI CBD do
wykorzystania po uruchomieniu PLI CBD, Yon-Consulting, 2010
(materiały niepublikowane UKE)
[12] Krzyżanowski L., Podstawy nauk o organizacji i zarządzaniu, PWN,
Warszawa 1994
[13] Rytel Z., Nauka organizacji i kierownictwa, Przegląd Organizacji
12/1934
[14] Adamiecki K., Harmonizacja jako jedna z głównych podstaw
organizacji naukowej, Przegląd Techniczny 49/1924
[15] Hondenrich T. (red.), Encyklopedia filozofii, Zysk, Poznań 1999
[16] Sadowski W., Teoria podejmowania decyzji, PWN, Warszawa 1970
[17] Kozielecki J., Psychologiczna teoria decyzji, PWN, Warszawa 1977
[18] Szacki J., Historia myśli socjologicznej, PWN, Warszawa 2005
[19] Nadler G., Work Systems Design. The ideals Concept, Irwin,
Homewood 1967
[20] Lichtarski J., Podstawy nauki o przedsiębiorstwie, Wydawnictwo
AE we Wrocławiu, 2005
[21] Trzcieniecki J., Diagnostyczne i prognostyczne projektowanie
organizatorskie, Przegląd Organizacji 7/1970
[22] Muraszkiewicz M., A second face of innovation, konferencja
Przedsiębiorczość w czasach kryzysu, Brama Innovation Camp
Wydziału Elektroniki i Technik Informacyjnych Politechniki
Warszawskiej, Jachranka 28-29.12.2011
[23] Gillet S.E., Kapor M., The Self-governing Internet: Coordination by
Design, MIT Press, 1996
32
[24] The Evolution Of Cloud computing Markets, Forrester Research,
2010
[25] The Three Stages Of Cloud Economics, Forrester Research, 2011
[26] Cloud Orchestration Models, Forrester Research, 2011
[27] „Analiza stanu i kierunki rozwoju elektroniki i telekomunikacji” –
praca zbiorowa pod redakcją Józefa Modelskiego, Warszawa, 2010
[28] Vermesan O., Friess P., „Internet of Things – Global Technological
and Societal Trends”, River Publishers, 2011
[29] Burakowski W. i inni “Specification of the IIP System – levels 1 and
2”, Raport Projektu Inżynieria Internetu Przyszłości, Warszawa
2010
[29] The EUROPEAN FUTURE INTERNET INITIATIVE (EFII),
“White paper on the Future Internet PPP Definition”, January
2010
[30] http://www.future-internet.eu/activities.html
[31] http://www.internet-of-things-research.eu
Autorzy
Stanisław Dyrda, Narodowe Centrum Badań i Rozwoju oraz Wyższa
Szkoła Techniczno-Ekonomiczna (konsorcjum wyższych uczelni
Futurus), wieloletni pracownik naukowo-dydaktyczny Politechniki
Warszawskiej (Instytutu Sterowania i Elektroniki Przemysłowej),
menedżer firm sektora telekomunikacji (Telekomunikacja Polska,
Netia, Zephyr services, Prywatne Sieci Telekomunikacyjne) oraz
informatyki (SPIN, ABG, Bull Polska, Telgaz, 7Bulls.com), Członek
IEP (Independent Experts Panel) programu Eurostars prowadzonego
przez EUREKA and European Community, współautor monografii
„Informatyka Gospodarcza”.
Leszek Wisłowski, Forrester Research Inc., gdzie odpowiada za rozwój
specjalistycznych programów dla liderów informatyki – Forrester
Leadership Boards. Posiada duże doświadczenie w budowaniu,
zarządzaniu i transformacji działów informatyki, m.in. w Nestle, ERA
GSM, Norwich Union, Energis, LOT. Pracował także dla znanych
dostawców usług informatycznych i doradztwa m.in. SAP i Gartner.
Janusz Zawiła-Niedźwiecki, Politechnika Warszawska, Wydział
Zarządzania, Zakład Informatyki Gospodarczej. Naukowo specjalizuje
33
się w zagadnieniach zarządzania ryzykiem operacyjnym. Liczne
publikacje z tej dziedziny, w tym współredaktor wydanej w 2008 r.
monografii „Zarządzanie ryzykiem operacyjnym”. Pomysłodawca i
redaktor naukowy fundamentalnej monografii „Informatyka
gospodarcza” (4 tomy, 93 autorów) wydanej w 2010 r., a w 2011 r.
nagrodzonej na Targach Wydawców Ekonomicznych. Równolegle
zajmuje od lat kierownicze stanowiska w gospodarce (Giełda
Papierów Wartościowych, Fund Services, Grupa PZU, Talex, ATMSI) i administracji (Komisja Nadzoru Finansowego, Urząd
Komunikacji Elektronicznej). Przewodniczący Rady Fundacji im.
Premiera Prof. Kazimierza Bartla. Członek Polskiej Komisji
Akredytacyjnej.
34

Podobne dokumenty