magazyn o tym, co istotne w it

Transkrypt

magazyn o tym, co istotne w it
MAGAZYN
MAGAZYN O TYM, CO ISTOTNE W IT
4(24)/2016 | 18 zł (w tym 5% VAT ) | ISSN 2353-5628
KWIECIEN 2016
Organizacja pracy
deweloperów
i architektury różnego
poziomu
Koncepcja Security
by Design
Komponenty
infrastrukturalne
platform Big Data
Internet rzeczy wymusza
nowe formy płatności
bezgotówkowych
Partnerstwo IT z biznesem
zaczyna się od otwartej
komunikacji
O błędach początkującego
Product Ownera
Kinetise: każdy może
zbudować mobilną
aplikację
Narzędzia Google dla centrów danych rozwijane w Polsce
Borg, Kubernetes i wiele, wiele innych rozwiązań Google – oraz ich poszczególnych funkcji
– rozwijanych jest m.in. przez inżynierów w Warszawie. Tutejszy dział R&D zatrudnia już ponad 100 osób.
W tym roku chce przyjąć do pracy kilkadziesiąt kolejnych. Szybki wzrost związany jest z projektami
realizowanymi wokół Google Cloud Platform.
W
STĘPNIAK
Od dawna mówi się, że mamy bardzo uzdolnionych programistów. I coraz częściej przekonujemy się o tym sami, spotykając ich każdego
dnia na swojej drodze. Ostatnio w Google (piszemy o tym na str. 52). Jak się okazuje, polski dział R&D wyspecjalizował się w budowie
narzędzi do automatycznego dostosowywania zasobów IT do potrzeb użytkowników centrów danych tej firmy, zarówno wewnętrznych,
jak i zewnętrznych. To całkowicie polska domena w Google. Kierowany przez Jarka Kuśmierka zespół inżynierów w warszawskim biurze
pracował m.in. nad odpowiednimi modułami systemu Borg – służącemu do zarządzania centrami danych Google na potrzeby kilkudziesięciu tysięcy deweloperów tej firmy. Odpowiednie moduły stworzył również na potrzeby systemu Kubernetes, z którego korzystają
z kolei klienci Google Cloud Platform (GCP). Platforma ta służy firmom IT i programistom do tego, aby mogli uruchamiać kod własnych
aplikacji w chmurze. W przypadku tej ostatniej platformy, polscy inżynierowie stworzyli także jej front-end, m.in. Developers Console.
Polscy inżynierowie odpowiadają również za zarządzanie maszynami wirtualnymi w ramach GCP, w tym za automatyzację analizy informacji na temat tego, ile ich de facto potrzeba. W polskim dziale R&D pracuje już 100 inżynierów, a w tym roku zatrudnionych ma być
kilkudziesięciu kolejnych.
Polscy programiści pracują nie tylko dla dużych koncernów. Rozwijają także własne firmy, takie jak Kinetise. To polski start-up, który
wyrusza na podbój światowych rynków. Firma właśnie otwiera oddział w Stanach Zjednoczonych. Szansą na sukces ma być model biznesowy Mobile-Apps-as-a-Service. O planach rozwoju i ekspansji, pomyśle, preferencjach klientów związanych z aplikacjami mobilnymi
oraz porażkach i sukcesach rozmawiamy z Piotrem Pawlakiem, pomysłodawcą i prezesem Kinetise (str. 62).
Wsparciem dla polskich firm, które chcą zawojować międzynarodowe rynki, ma być Polski Fundusz Rozwoju (str. 6). Tłumacząc powód
powołania PFR, przedstawiciele Ministerstwa Rozwoju mówią, że rządowi zależy na dobrej integracji działań instytucji, takich jak Polska
Agencja Rozwoju Przedsiębiorczości, Agencja Rozwoju Przemysłu, Polska Agencja Informacji i Inwestycji Zagranicznych, Korporacja
Ubezpieczeń Kredytów Eksportowych czy Bank Gospodarstwa Krajowego, które prowadzą ważne działania rozwojowe. Jednocześnie
powstaje fundusz zarządzany przez Bank Gospodarstwa Krajowego, zasilony kwotą 300 mln euro z Programu Operacyjnego Inteligentny Rozwój. Ma – wspólnie ze spółkami Skarbu Państwa – wspierać polskie firmy na etapie komercjalizacji ich pomysłów.
Polecamy też materiały poświęcone temu, jak: internet rzeczy zmienia sposób, w jaki dokonujemy płatności (str. 10); przygotować infrastrukturę IT pod projekty Big Data (str. 26); zarządzić grupą programistów z punktu widzenia architekta systemów IT (str. 34); usprawnić
komunikację pomiędzy IT a biznesem (str. 44). Wart uwagi – w kontekście rosnącej popularności internetu rzeczy – jest tekst poświęcony podejściu do bezpieczeństwa przechowywanych i transmitowanych pomiędzy przedmiotami danych. Prezentujemy koncepcje Security by Design i Secure by Default (str. 38).
Piotr Waszczuk
zastępca redaktora naczelnego ITwiz
Andrzej Gontarz, Jarosław Grzegorzewski,
Berenika Kaczmarek-Templin, Jakub Kaniewski,
Jacek Kiciński, Paweł Klimczewski, Maciej Lasyk,
Marcin Maruta, Szymon Mydlarz, Paweł
Okopień, Michał Pośnik, Józef Jungbauer, Łukasz
Kolczyński, Rafał Malujda, Adrian Olszewski,
Paweł Pietrzyński, Patryk Rządziński, Borys
Stokalski, Krzysztof Waszkiewicz, Łukasz
Węgrzyn, Michał Wiatr, Krzysztof Wilniewczyc
ART DIRECTOR
Mariusz Podsiebierski
FOTO I WIDEO
Norbert Gajlewicz – 501 244 554
[email protected]
KOREKTA
Michalina Nowakowska
SALES MANAGER
Dominika Marszycka – 501 010 868
[email protected]
MARKETING MANAGER
Ewa Jadczak – 692 462 948
[email protected]
RYSUNKI
Janusz Kulik
PRENUMERATA
Agnieszka Sałacińska
[email protected]
Tekstów niezamówionych redakcja nie zwraca, zastrzegając sobie
prawo do ich skracania i opracowywania. Redakcja nie ponosi
odpowiedzialności za treść reklam.
Adresy poczty elektronicznej pracowników redakcji
i wydawnictwa ITwiz Media Group tworzone są według wzoru:
[email protected].
MAGAZYN
WYDAWCA
ITwiz Media Group sp. z o.o.
Rondo ONZ 1, 00–124 Warszawa
KRS: 0000498451
www.itwiz.pl; [email protected]
REDAKTOR NACZELNY
Adam Jadczak – 514 020 777
[email protected]
ZASTĘPCA REDAKTORA NACZELNEGO
Piotr Waszczuk – 600 550 711
[email protected]
REDAKTOR DZIAŁU CIO
Wanda Żółcińska
[email protected]
WSPÓŁPRACUJĄCY AUTORZY
Marek Adamczuk, Bogdan Bereza,
Tadeusz Chełkowski, Sebastian Christow,
Agnieszka Czarnecka, Aleksandra Eneje,
Wojciech Furmakiewicz, Przemysław Gamdzyk,
S
pis treści
BIZNES
PROJECT MANAGEROWIE
Powstanie holding koordynujący
wydawanie funduszy na innowacje............................................. 6
Partnerstwo zaczyna się od otwartej komunikacji.................44
Internet rzeczy zmienia sposób,
w jaki płacimy.................................................................................10
O błędach, które popełniłam
jako początkujący Product Owner.............................................48
Jak się miał agile w 2015? ...........................................................51
Digital transformation,
czyli dostosowanie do pokolenia Y............................................14
Firmy jedynie w 20%
wykorzystują potencjał cyfrowej transformacji.....................18
PROGRAMIŚCI
Narzędzia Google do zarządzania
centrami danych rozwijane w Polsce.........................................52
CIO
Specjaliści IT dzielą się wiedzą po godzinach..........................58
W PKN Orlen mamy już za sobą
dwie fale cyfryzacji.......................................................................20
RYNEK
Jak nie utonąć w otchłani Big Data............................................26
Kinetise: każdy może zbudować mobilną aplikację...............62
Data scientist – specjalista pilnie poszukiwany......................28
Chmura rozwiązaniem problemu
z doświadczeniami użytkowników.............................................66
Sprzętowe innowacje wbudowane w SPARC M7.....................30
Różnice w podejściu do IT
pomiędzy firmami uznawanymi za liderów..............................32
SAP Forum 2016: cyfrowa transformacja
jako szansa i zagrożenie...............................................................68
Nowości od Intela stworzone z myślą
o przetwarzaniu w chmurze........................................................70
ARCHITEKCI
Organizacja pracy deweloperów
i architektury różnego poziomu.................................................34
Data Center Intela w siedzibie głównej w Santa Clara...........71
Wydajność aplikacji tożsama z wydajnością biznesu............72
Cisco Forum 2016: po drugiej połowie szachownicy.............74
CSO
Czas pomyśleć o Security by Desing.........................................38
Cisco otwiera w Krakowie
EMEAR Security Operations Center..........................................75
Malware GozNym wziął
na celownik klientów 247 polskich banków............................42
ZAPRASZAMY DO ZAMAWIANIA PRENUMERATY
WWW.ITWIZ.PL/KIOSK
kwiecień 2016
ITWIZ MAGAZYN
3
CASE STUDY
PLC wdrożyła w
Transgourmet Polska
system Commvault 10
Transgourmet Polska (d. Selgros Cash & Carry) w ramach rozwoju infrastruktury
IT wymienił system do zarządzania i ochrony danych. Dotychczas wykorzystywane
rozwiązanie zostało zastąpione systemem spełniającym oczekiwania spółki
w zakresie odzyskiwania danych i zostało wdrożone w modelu nie ograniczającym,
a wręcz rozwijającym kompetencje lokalnego zespołu administratorów.
Selgros Cash & Carry to ogólnopolska sieć
hal handlu hurtowego. Oferuje zaopatrzenie dla osób prowadzących działalność gospodarczą. Firma ma 16 sklepów, w których
udostępnia prawie 40 000 artykułów i zatrudnia ponad 4000 pracowników. Pierwsza
hala Selgros Cash & Carry została otwarta
w Poznaniu w roku 1997. Sieć handlowa
w dalszym ciągu się rozwija, otwiera nowe
hale sprzedaży, w roku 2015 uruchomiono
też magazyn dowozowy Transgourmet Food
Service w Ożarowie Mazowieckim. Selgros
Cash & Carry z centralą w Poznaniu jest
częścią holdingu Transgourmet zajmującego się hurtową sprzedażą produktów
żywnościowych. Z kolei udziałowcem Transgourmet Holding SE jest COOP, druga co
do wielkości szwajcarska grupa handlu
artykułami spożywczymi zatrudniająca
54 tys. pracowników.
Usprawnienie procesu
zarządzania i ochrony danych
Od roku 2014 prowadzone są w Selgros
Cash & Carry projekty związane z unowo-
cześnianiem infrastruktury IT i usprawnianiem procesów biznesowych. Jednym
z elementów tych projektów było uporządkowanie procesu backupu. „Z perspektywy
odzyskania danych poprzedni system był
niewystarczający dla wciąż rozbudowywanej infrastruktury. Brak było np. możliwości
efektywnego i scentralizowanego backupu danych lokalnych z naszych hal. Trudno
było także pozyskać odpowiednie raporty.
Problemem było również to, że zarządzanie
backupem i archiwizacją danych przekazane
było częściowo w outsourcing – wspomina
Bartłomiej Stryczek, zastępca dyrektora IT
w Transgourmet Polska. „Tymczasem korzystamy z bardzo wielu różnorodnych systemów
IT i musimy zapewnić odpowiedni poziom
bezpieczeństwa danych w nich przechowywanych” – dodaje.
W związku z tym Transgourmet Polska zaczął szukać nowego rozwiązania do zarządzania i ochrony danych. Od tego systemu
– choć znajdującego się w back-office – zależy bezpieczeństwo systemów bizneso-
wych, w tym zastosowanie odpowiednich
polityk bezpieczeństwa. „Potrzebowaliśmy
narzędzia, które będzie dostosowane – w zakresie backupu i odtworzenia danych – do
wymogów opiekunów poszczególnych, stosowanych przez nas, aplikacji biznesowych.
Poprzednie rozwiązanie nie dawało takich
możliwości” – wyjaśnia Bartłomiej Stryczek.
„Jednocześnie wiadomo było, że – odpowiadając za całość wsparcia procesów biznesowych – możemy poświęcić tego typu projektom bardzo mało czasu. Na naszym partnerze
spoczywało więc znalezienie i zaproponowanie systemu do zarządzania i ochrony danych
z wartością dodaną” – dodaje.
Istotą backupu jest sprawność
odtworzeniowa
Ostatecznie wybrano – zaoferowane przez
poznańską firmę PLC Doradztwo Informatyczne, partnera S4E – rozwiązanie Commvault 10. „Najważniejszy z punktu widzenia Transgourmet Polska był przewidywalny
czas odtworzenia danych, tzw. sprawność
odtworzeniowa. Poprzedni system miał
CASE STUDY
tylko jedną bazę backupową, i tylko jedno
miejsce odtworzeniowe – lokalnie, w miejscu
przetwarzania danych. Teraz są dwa centra
backupu- w Centrali firmy i w drugim centrum danych , uruchomionym w 2015 roku.”
– tłumaczy Jerzy Ślebodziński, członek zarządu firmy PLC Doradztwo Informatyczne.
„Ponadto – w ramach projektu – opracowaliśmy kompleksową politykę bezpieczeństwa danych. Określono m.in. maksymalny
poziom retencji, czyli czasu utrzymywania
danych, a także maksymalny czas ich odtworzenia oraz ilości danych, które można
utracić bez wpływu na proces biznesowy,
w tym tzw. punkty odzysku” – dodaje. Na ten
ostatni aspekt wpływ mieli opiekunowie
aplikacji biznesowych. Liczba punktów odzysku zależy z jednej strony od ich potrzeb,
a z drugiej – od dostępnych zasobów pamięci masowych. Osiągnięto kompromis
pomiędzy tymi dwoma czynnikami.
Po deduplikacji wielkość backupu danych
w Transgourmet Polska to kilkanaście
terabajtów, przy wolumenie wykorzystywanych danych na poziomie ok. 120 TB.
W ramach projektu wdrożenia systemu
Commvault 10 zrezygnowano z archiwizacji danych na napędy taśmowe. Obecnie wykorzystywane są do tego znacznie szybsze w odczycie tradycyjne dyski
twarde na macierzach HPE MSA1040 SAN
Storage.
Backup ze wszystkich
systemów i lokalizacji
System Commvault 10 zapewnia backup
danych ze wszystkich systemów wspierających działalność Transgourmet Polska.
Łącznie w centrali firmy znajduje się kilkadziesiąt serwerów backupowanych plus 16
w lokalizacjach zdalnych w halach. Dane ze
sklepów archiwizowane są do głównego
centrum danych, a następnie tworzona
jest replika do zapasowego centrum danych, gdzie znajduje się środowisko odtworzeniowe systemów IT Transgourmet
Polska.
W roku 2015 dokonano również modernizacji sieci WAN. „Dzięki temu – mimo że proces backupu realizowany jest właściwie bez
przerwy – nie zakłóca on działania innych,
stosowanych przez nas, rozwiązań” – mówi
Bartłomiej Stryczek.
Proces odtworzenia pojedynczego pliku
to dziś zaledwie kilka minut. Oznacza to
bardzo dużą poprawę w stosunku do poprzednio wykorzystywanego rozwiązania.
Dotychczasowy system do zarządzania
i ochrony danych nie gwarantował także
sprawnego ich odtworzenia na bazie generowanych raportów.
Backup hybrydowy – czyli
backup maszyn wirtualnych
i backup od strony baz danych
Poprawę ochrony danych z systemów biznesowych Transgourmet Polska zapewnia
również zastosowanie tzw. backupu hybrydowego. Polega on na backupie maszyn
wirtualnych w zakresie ich dysków systemowych oraz niezależnym backupie danych produkcyjnych – takich jak pliki oraz
bazy danych, pozwalając osiągnąć lepszą
granularność backupu oraz odtwarzania
z zachowaniem pełnej spójności baz danych. W centrum danych Transgourmet
Polska jest ok. 100 wirtualnych serwerów.
„Backup tylko i wyłącznie maszyn wirtualnych (tzn. Snap shot) jest dużym uproszczeniem, ale niestety nie daje pełnej gwarancji
odtworzenia konsystentnych (spójnych) danych – zwłaszcza bazodanowych” – twierdzi
Jerzy Ślebodziński.
Jak wspomina Bartłomiej Stryczek, nawet
administratorzy – których trudno namówić do zmiany stosowanych rozwiązań –
szybko przekonali się do nowego narzędzia
Commvault 10. Obecnie w Transgourmet
Polska jest dwóch przeszkolonych specjalistów w zakresie zarządzania i ochrony danych. Kiedyś większość zadań spoczywała
na naszym partnerze. Poza tym – w przypadku poważniejszych problemów – firma
ma dostęp do wsparcia Commvault w języku polskim i dedykowanych, w ramach
podpisanej umowy wsparcia, inżynierów
firmy PLC Doradztwo Informatyczne.
Planowane jest kontynuowanie projektu
wdrożenia rozwiązania Commvault 10,
KORZYŚCI OSIĄGNIĘTE
W TRANSGOURMET POLSKA
PO WDROŻENIU COMMVAULT 10
Znacząca poprawa bezpieczeństwa
całego przedsiębiorstwa, poprzez
oddzielenie miejsca przetwarzania
danych od miejsca przechowywania
backupu. Procesy backupu
i odtworzenia odbywają się w dwóch
lokalizacjach.
Dopasowanie narzędzia do polityki
bezpieczeństwa firmy, w tym
wymogów opiekunów aplikacji
biznesowych.
Opracowanie kompleksowej polityki
bezpieczeństwa danych – określono
m.in. maksymalny poziom retencji
danych; maksymalny czas ich
odtworzenia; ilości informacji, które
można utracić bez wpływu na proces
biznesowy i punkty odzysku.
Zapewnienie 100-proc. spójności
backupowanych danych maszyn
wirtualnych, poprzez wprowadzenie
backupu hybrydowego.
Zwiększenie granularności procesu
backupu oraz odtworzenia danych.
Przyspieszenie procesu odtworzenia
danych, do zaledwie kilku minut.
Wypracowanie wewnętrznych
kompetencji, dzięki którym firma może
dziś szybko i samodzielnie odtworzyć
dane po awarii.
w tym upgrade do wersji 11. Dokupywane mają być m.in. kolejne licencje.
„Przyrost danych jest szybszy niż wcześniej
zakładaliśmy. Dodatkowo zamierzamy uruchomić 4 serwerownie wspierające rozwijający się biznes, co spowoduje dodatkowe
zwiększenie chronionego wolumenu danych. Procesem backupu objęty jest też
system poczty elektronicznej – Microsoft
Exchange. W tym przypadku stosujemy
backup granularny – archiwizację całej
bazy i pojedynczych skrzynek pocztowych,
z dokładnością do pojedynczego e-maila”
– podsumowuje Bartłomiej Stryczek.
BIZNES
BIZNES
Z Jadwigą Emilewicz, podsekretarz stanu w Ministerstwie Rozwoju,
rozmawiamy o koncentracji kapitału, skupieniu się na kilku najważniejszych
celach w polskiej gospodarce, Programie Operacyjnym Inteligentny Rozwój,
pomocy polskim firmom znajdującym się na etapie rozwoju, określanym
mianem tzw. doliny śmierci, oraz zmianie podejścia do pozyskiwania
funduszy unijnych, które w tej perspektywie mają charakter instrumentów
zwrotnych.
Powstanie
holding
koordynujący
wydawanie
funduszy
na innowacje
6
MAGAZYN
ITWIZ
kwiecień 2016
BIZNES
Nadzoruje Pani m.in. Program Inteligentny Rozwój z budżetem w wysokości ponad 10 mld euro oraz kończący
się Program Innowacyjna Gospodarka.
Czy fundusze z nowej transzy na lata
2014–2020 są już dostępne dla zainteresowanych?
Oczywiście. Prowadzimy już kilka konkursów, a jeden – na wzornictwo przemysłowe
i ochronę praw własności intelektualnej
– nawet już zamknęliśmy. Wszystkie informacje o trwających naborach wniosków
można znaleźć na stronie funduszeeuropejskie.gov.pl. Nowe fundusze wymagają
jednak od przyszłych beneficjentów zmiany podejścia do ich pozyskiwania. Trzeba
pamiętać, że część z nich ma charakter instrumentów zwrotnych. To duże wyzwanie.
W Programie Inteligentny Rozwój planujemy uruchomienie m.in. instrumentów
kapitałowych Starter i Biznest. Pierwszy
z nich, za pośrednictwem funduszy venture capital i funduszy zalążkowych, będzie
dokonywał selekcji, preinkubacji i inwestycji w przedsiębiorstwa, które funkcjonują krócej niż 7 lat lub nie prowadzą
działalności na żadnym rynku. Drugi zaś
ma pełnić funkcję pomostu pomiędzy finansowaniem zasiewowym oferowanym
w ramach Starter a fazą rozwoju innowacyjnych przedsiębiorstw, w której będą one
atrakcyjne dla kapitału oferowanego przez
aniołów biznesu. Koordynacją tych działań
zajmuje się Polska Agencja Rozwoju Przedsiębiorczości.
Jakiego typu firmy mają szansę na pozyskanie funduszy unijnych?
Mamy dziś problem z finansowaniem projektów nie na etapie inkubacyjnym, ale
w kolejnej fazie – to tzw. dolina śmierci.
Pojawiło się w Polsce wiele projektów, które mogą
przynieść duże korzyści naszej gospodarce.
Zamierzamy je wesprzeć. Chcemy, aby ich
pomysłodawcy zostali w kraju. Planujemy
stworzenie funduszy portfelowych, które nie będą
oczekiwały natychmiastowego zwrotu z inwestycji.
Zarządzać nimi będzie Bank Gospodarstwa
Krajowego. BGK otrzyma na ten cel 300 mln euro.
Jednocześnie chcemy zaangażować w te projekty duże, polskie
spółki Skarbu Państwa – choć otwarci jesteśmy też na firmy
prywatne.
Brakuje bowiem wsparcia na etapie komercjalizacji. Występują już wówczas duże
koszty związane z rozpoczęciem produkcji,
a nie ma jeszcze przychodów. Dolina śmierci
oznacza pojawienie się luki finansowej, kiedy projekt nie ma już funduszy publicznych,
a sektor prywatny nie jest jeszcze gotowy,
aby zaangażować się finansowo w określoną działalność.
Firmie brakuje funduszy na rozpoczęcie
produkcji lub uruchomienie usługi. Wiele
innowacyjnych projektów właśnie wówczas
upada. Pomysłodawcy są bliscy porzucenia
swojego pomysłu albo sprzedania go inwestorowi zagranicznemu. Znamy przypadki,
gdy w Polsce negocjacje dotyczące inwestycji – np. przez firmę komercyjną – trwają
kilka lat. Tymczasem w Dolinie Krzemowej
od decyzji do uruchomienia funduszy mijają zaledwie 2–3 dni, bo mają np. gotowe
wzory umów inwestycyjnych.
W jaki sposób wesprzeć firmy, które znalazły się w tzw. dolinie śmierci?
Rzeczywiście pojawiło się w Polsce wiele projektów, które mogą przynieść duże
Wszystkie nasze projekty zmierzają dziś do jednego celu – gromadzenia
kapitału na przyszłość. Do tej pory koncentrowaliśmy się raczej na
konsumpcji, ale nie oszczędzaniu. Tymczasem perspektywa
finansowa 2014-2020 jest ostatnią, w której
otrzymamy tak dużo funduszy. Musimy więc – dzięki
promocji działań zwiększających potencjał polskiej
gospodarki – zgromadzić kapitał na okres po roku
2020. Chcemy inwestować w projekty z dużą stopą
zwrotu.
korzyści polskiej gospodarce. Chcemy je
wesprzeć. Zależy nam, aby ich pomysłodawcy zostali w Polsce. Zamierzamy stworzyć fundusze portfelowe, które nie będą
oczekiwały natychmiastowego zwrotu
z inwestycji. Zarządzać nimi będzie Bank
Gospodarstwa Krajowego. Jednocześnie
chcemy zaangażować w te projekty duże,
polskie spółki Skarbu Państwa – jak Grupa
Azoty, PKN Orlen, KGHM Polska Miedź, czy
spółki energetyczne – choć otwarci jesteśmy też na firmy prywatne.
Podczas rozmów prowadzonych przeze
mnie z funduszami venture capital okazało się, że w Polsce wcale nie jest tak łatwo
„przebić się” z dobrymi, innowacyjnymi
pomysłami. Dlatego chcemy pójść drogą
Krzemowej Doliny. Tam ok. 40% firm zakładanych jest przez obcokrajowców. Z jednej
strony chcemy zachęcić do rozwoju działalności w naszym kraju Polaków – m.in.
tych, którzy wyjechali za granicę w ciągu
ostatnich 10 lat – a z drugiej – osoby z innowacyjnymi pomysłami z innych państw
Europy Środkowo-Wschodniej, np. z Ukrainy lub Białorusi. Atrakcyjne może być to, że
ich pomysły finansować będą duże, polskie
spółki.
W przypadku dużych firm, w tym spółek
Skarbu Państwa, mamy na razie ten problem, że nie są one otwarte na innowacyjne projekty...
Duże, polskie firmy muszą otworzyć się na
nowe pomysły. Osoby nimi kierujące muszą nauczyć się inwestować w innowacyjne
projekty, otworzyć się na start-upy. Firmy te
mają co prawda ugruntowaną pozycję na
świecie, ale z drugiej strony to właśnie te
kwiecień 2016
ITWIZ MAGAZYN
7
BIZNES
Stworzyliśmy – mający osobowość prawną – Polski
Fundusz Rozwoju koordynujący wydatkowanie
funduszy przez różne instytucje. Wiele z nich może
wspierać środkami unijnymi polskie
przedsiębiorstwa na różnym etapie ich rozwoju – NCBiR
w fazie badań podstawowych, PARP w momencie założenia spółki, która
ma doprowadzić do komercjalizacji ich wyników, a BGK wówczas, gdy
pomysłodawcy będą chcieli rozpocząć produkcję na skalę przemysłową.
Gramy do jednej bramki. Jeśli nasze marzenie się nie
spełni, Polska nie będzie rozwijać się tak szybko, jak
byśmy tego chcieli.
8
MAGAZYN
ITWIZ
kwiecień 2016
BIZNES
duże firmy najbardziej dotyka dziś problem
tzw. disruptive innovations. Innowacje te
zmieniają zastany porządek, rewolucjonizując kolejne branże. Chcemy, aby spółki
Skarbu Państwa miały swój udział w funduszach zarządzanych przez BGK. Na stworzenie tzw. funduszu funduszy przeznaczymy
ok. 300 mln euro.
Jaki jest cel powołania funduszu zarządzanego przez Bank Gospodarstwa Krajowego?
Wszystkie nasze projekty zmierzają dziś
do jednego celu – gromadzenia kapitału
na przyszłość. Do tej pory koncentrowaliśmy się raczej na konsumpcji, nie zaś
na oszczędzaniu. Tymczasem perspektywa finansowa 2014–2020 jest ostatnią,
w której otrzymamy tak dużo środków.
Musimy więc – dzięki promocji działań
zwiększających potencjał polskiej gospodarki – zgromadzić kapitał na okres
po roku 2020. Chcemy zatem inwestować
w projekty z dużą stopą zwrotu. Służyć
temu ma właśnie m.in. powołanie funduszy zarządzanych przez BGK. Znajdą
się w nich zarówno fundusze pochodzące
z Unii Europejskiej, jak i środki prywatne,
m.in. spółek Skarbu Państwa.
W jaki sposób zostaną podzielone środki
zarządzane przez BGK?
Planujemy powołanie tematycznych funduszy portfelowych, np. związanych z energetyką. Chcemy, aby osoby kierujące spółkami Skarbu Państwa nauczyły się doceniać
i wykorzystywać innowacje w swojej działalności. Dlatego też ich przedstawiciele
będą zasiadać w komitetach inwestycyjnych poszczególnych funduszy. Być może
dzięki temu w strukturach dużych, polskich
firm – jak na Zachodzie – powstaną fundusze typu corporate venture capital. Za wzór
stawiamy sobie największe międzynarodowe przedsiębiorstwa.
Inwestycje BGK nie będą jednak ograniczone wyłącznie do spółek państwowych.
Jesteśmy otwarci także na firmy prywatne.
Chcemy, aby przed uruchomieniem tych
środków, zespół zarządzający danym funduszem stworzył 3–4 standardowe umowy
inwestycyjne. Dzięki temu będzie je można
znacznie szybciej podpisywać, nawet w 2–3
miesiące. Obecnie negocjacje często trwają
Chcemy, aby pomysły z Polski charakteryzowały się
zarówno atrakcyjnym designem, jak
i innowacyjnością technologiczną, a przede
wszystkim, by były oferowane na świecie pod własną
marką. Identyfikujemy najbardziej perspektywiczne projekty i branże.
Wśród nich ma szansę znaleźć się przemysł kolejowy, a także polskie
drony czy drukarki 3D.
kilka lat. Przygotowujemy także instrumenty promocyjne.
BGK i duże polskie firmy będą inwestować w…
Chcemy, aby pomysły z Polski charakteryzował zarówno atrakcyjny design, jak
i innowacyjność technologiczna, a przede
wszystkim, by były oferowane na świecie
pod własną marką. Identyfikujemy najbardziej perspektywiczne projekty i branże.
Część z nich pojawia się w Planie na rzecz
Odpowiedzialnego Rozwoju, np. przemysł
kolejowy (Luxtorpeda 2.0) czy polskie drony. Ciekawym polskim pomysłem są bezzałogowce wykorzystywane do transportu
krwi. W obrębie dużych miast jest to problem ze względu na korki. Jesteśmy w kontakcie zarówno z Ministerstwem Zdrowia,
jak i z Polską Agencją Żeglugi Powietrznej.
Szpitale są bardzo zainteresowane tym
projektem. Polskim atutem jest również
zastosowanie drukarek 3D. Nad ich wykorzystaniem w praktyce zastanawia się
Polska Grupa Zbrojeniowa.
Innowacyjnymi projektami chcemy zainteresować szczególnie Ministerstwo Obrony Narodowej. W Stanach Zjednoczonych
i Izraelu to właśnie z projektów dla armii
pochodzi najwięcej innowacji. Dlatego
też przedstawiciel MON został członkiem Rady ds. innowacyjności powołanej
w styczniu 2016 roku przez Panią Premier.
Jej przewodniczącym jest minister rozwoju
Mateusz Morawiecki, a w skład wchodzą
także przedstawiciele takich resortów, jak
cyfryzacja, edukacja, nauka i szkolnictwo
wyższe oraz zdrowie.
Kiedy będzie wiadomo, które sektory gospodarki – jako strategiczne – otrzymają
wsparcie?
Szczegółowa strategia oparta na bazie
Planu na rzecz Odpowiedzialnego Rozwoju
będzie gotowa we wrześniu tego roku. Jej
projekt zamierzamy przedłożyć do konsultacji publicznych na przełomie czerwca
i lipca br.
Bank Gospodarstwa Krajowego i wspomniany wcześniej PARP, to nie jedyne instytucje, które mają środki z funduszy
europejskich w perspektywie finansowej
2014–2020…
Oczywiście tych instytucji jest dużo więcej.
13 kwietnia w KRS został zarejestrowany
Polski Fundusz Rozwoju SA, który powstał
na bazie spółki Polskie Inwestycje Rozwojowe SA. Rozpoczęliśmy ważny projekt dla
rozwoju społeczno-gospodarczego Polski, tworzenia nowej wspólnej platformy
efektywnych instrumentów rozwojowych
w ramach Polskiego Funduszu Rozwoju.
Jego organizacja przewiduje budowę grupy kapitałowej, konsolidującej główne instytucje wsparcia rozwoju gospodarczego
funkcjonujące w naszym kraju.
Zależy nam na dobrej integracji działań
instytucji, takich jak PARP, ARP, PAIIiZ,
KUKE czy BGK, które prowadzą ważne
działania rozwojowe. Chodzi o wsparcie
małych i średnich przedsiębiorstw, wzrost
innowacyjności, zwiększanie inwestycji,
w tym zagranicznych, oraz ekspansję polskich firm na międzynarodowych rynkach.
Te instytucje to robią, ale każda we własnym zakresie. Dlatego celem Polskiego
Funduszu Rozwoju jest integracja funkcji
i działań tych instytucji. Gramy do jednej
bramki. Chcemy maksymalnie skoncentrować kapitał, skupić się na kilku kluczowych celach. Jeśli nasze marzenie się nie
spełni, Polska nie będzie rozwijać się tak
szybko, jak byśmy tego chcieli…
Rozmawiał Adam Jadczak
kwiecień 2016
ITWIZ MAGAZYN
9
BIZNES
Z Aleksandrem Naganowskim, dyrektorem ds. rozwoju nowego biznesu
w polskim oddziale MasterCard Europe, rozmawiamy o przedmiotach, które
będą dokonywać określonych transakcji w naszym imieniu, zabezpieczeniach
w transakcjach bezgotówkowych, a także rozwiązaniach, które pozwalają zarządzać
rosnącą liczbą nowych sposobów płatności, tak aby zachować pełną kontrolę nad
nimi.
Internet rzeczy
zmienia sposób,
w jaki płacimy
Od lat mówi się o lodówkach, które za
nas będą zamawiać brakujące artykuły
spożywcze. Czy będą również od razu dokonywać za nas płatności? Jak internet
rzeczy zmienia sposób, w jaki korzystamy
dziś z elektronicznych płatności?
To bardzo ważny i dość naturalny trend
rynkowy. Bardzo szybko rozwija się rynek
urządzeń, które umożliwiają nam płacenie.
Jest coraz więcej komponentów używanych
w przedmiotach codziennego użytku – wearables, lodówkach czy samochodach – na
których można zapisywać dane karty płatniczej, pozwalając tym urządzeniom automatycznie dokonywać płatności. Często
funkcja płatnicza pojawia się w powszechnie stosowanych komponentach elektronicznych, które następnie wykorzystywane
są przez producentów sprzętu codziennego
użytku – od zegarków, poprzez lodówki, aż
po samochody.
10
MAGAZYN
ITWIZ
kwiecień 2016
Po naszej stronie ułatwia to tzw. technologia tokenizacji. MasterCard Digital Enablement Service (MDES) ułatwia podłączanie
kolejnych urządzeń do karty płatniczej
oraz odpowiednie zarządzanie takim powiązaniem. Każde urządzenie ma jeden,
niezmienny token. Nie jest to więc ten sam
zestaw danych, co na podstawowej karcie
plastikowej. Jest to jakby dodatkowa karta z numerem wiążącym dane urządzenie
z kartą właściwą. Dane integrowane są na
poziomie sieci MasterCard.
Banki w kolejnych krajach uruchamiają projekty mające na celu wdrożenie tej technologii – tzw. tokenizacji. W Polsce także
prowadzimy pierwsze projekty. Jesteśmy
przekonani, że nasz kraj jest na to przygotowany. W Polsce jest duży poziom akceptacji płatności mobilnych i zbliżeniowych.
Nie potrzebujemy więc już tak intensyw-
BIZNES
nie edukować użytkowników, jak np. jest to
konieczne w Europie Zachodniej. W Polsce
ponad 55% wszystkich transakcji płatniczych kartami MasterCard to transakcje
zbliżeniowe.
Jakie możliwości oferuje tokenizacja?
Przykładowo, dzięki MasterCard Digital
Enablement Service nasz samochód może
sam zapłacić za przejazd autostradą,
elektroniczna bransoletka za wodę, którą
kupimy na siłowni, a smartwatch za bilet
do kina. Idąc dalej, można sobie wyobrazić, że komputer w naszym samochodzie
– podłączony do czujników w różnych miejscach – będzie wiedział, że najwyższy czas
wymienić opony. Znając rozkład naszego
dnia – zamówi firmę, która podjedzie pod
nasz dom po godzinie 18., gdy wrócimy już
z pracy. Oczywiście, sam też za całą usługę
zapłaci. Dzięki tak dużej łatwości realizacji
płatności (nawet tych najmniejszych) za
pomocą kart płatniczych – wydawcy kart
zdobywają też więcej informacji o naszych
preferencjach i potrzebach i mogą lepiej
dostosować produkty do naszych potrzeb.
Czy są już przykłady płatności dokonywanych przez otaczające nas „przedmioty”?
Ważnym krokiem było pokazanie na targach CES 2016 w Las Vegas lodówki Samsung Family Hub z aplikacją Groceries by
MasterCard. Aplikacja jest preinstalowana
w lodówkach z tej grupy i w Stanach Zjednoczonych można, posługując się dużym
wyświetlaczem na lodówce, zamawiać produkty spożywcze z takich sieci e-sklepów,
jak FreshDirect i ShopRite. Kolejne sklepy
Dzięki MasterCard Digital Enablement Service nasz
samochód może sam zapłacić za przejazd autostradą,
elektroniczna bransoletka za wodę, którą kupimy na
siłowni, a smartwatch za bilet do kina. Idąc dalej,
można sobie wyobrazić, że komputer w naszym
samochodzie – podłączony do czujników w różnych
miejscach – będzie wiedział, że najwyższy czas
wymienić opony. Znając rozkład naszego dnia
– zamówi firmę, która podjedzie pod nasz dom po
godzinie 18., gdy wrócimy już z pracy. Oczywiście, sam też
za całą usługę zapłaci. Dzięki tak dużej łatwości realizacji płatności
(nawet tych najmniejszych) za pomocą kart płatniczych – wydawcy kart
zdobywają też więcej informacji o naszych preferencjach i potrzebach
i mogą lepiej dostosować produkty do naszych potrzeb.
mogą być dodawane do aplikacji dzięki naszemu programowi MyWebGrocer.
W aplikacji Groceries by MasterCard można
wybierać produkty, a następnie potwierdzić całe zamówienie czterocyfrowym kodem PIN. Docelowo – dzięki podłączeniu
do elektronicznego portfela MasterPass
– lodówka może również sama zapłacić za
dostarczone artykuły spożywcze. Aplikacja
Groceries by MasterCard uczy się też naszych nawyków żywieniowych i w przyszłości może sugerować konkretne produkty.
ty płatniczej, by umożliwić podłączenie
nowych sposobów płatności. Od lat mamy
płatności w telefonie i na tym przykładzie
możemy wyjaśnić działanie tokenizacji. MasterCard Digital Enablement Service tłumaczy operacje wykonywane w telefonie na
komunikaty podobne do tych, wysyłanych
podczas realizacji transakcji tradycyjną
kartą płatniczą. Nie trzeba więc przeprowadzać z każdym z akceptantów płatności
kartowych osobnego projektu integracyjnego.
Budujemy rozwiązania, które dostarczają całą gamę
usług związanych z zarządzaniem własnymi
płatnościami. Jednym z nich jest MasterCard In Control. Za jego
Również dostawcy portfeli cyfrowych, tzw.
Wallet Service Providers – de facto producenci sprzętu – tacy jak: Apple, Google czy
Samsung – wystarczy, że podłączą się do
naszej sieci i w sposób standardowy udostępniają usługi swojego portfela elektronicznego klientów banków na całym
świecie. Po naszej już stronie transakcje
przeprowadzane za pomocą dowolnego
urządzenia „tłumaczone” są na sposób
działania karty plastikowej.
zdefiniować budżet dzienny, miesięczny, ograniczenia
co do miejsc, gdzie nasza karta może zadziałać,
a gdzie nie, np. wykluczyć określone kraje. Można
blokować konkretne typy transakcji, np. na karcie
służbowej pozwolić płacić tylko za paliwo i hotel.
Jest coraz więcej urządzeń, za pomocą których możemy płacić, tokenów
i limitów, które im przyznajemy. Jak tym
wszystkim zarządzać?
Budujemy rozwiązania, które dostarczają
całą gamę usług związanych z zarządzaniem własnymi płatnościami. Jednym z nich
jest MasterCard In Control. Za jego pomocą możemy definiować dowolne reguły, np.
rodzaj transakcji, która powoduje, że klient
otrzymuje powiadomienie o próbie jej dokonania; blokowanie określonych typów
transakcji; blokowanie użycia naszej karty
Na czym dokładnie polega technologia
tokenizacji MasterCard?
To bardzo ważna idea związana z coraz
większą potrzebą konsumentów zmiany
tradycyjnej, plastikowej formy naszej kar-
pomocą możemy definiować dowolne reguły, np. rodzaj transakcji,
która powoduje, że klient otrzymuje powiadomienie o próbie jej
dokonania; blokowanie określonych typów transakcji; blokowanie
użycia naszej karty w ustalonych godzinach, np. nocnych; czy tworzenie
wirtualnych kart z własnymi limitami na potrzebę konkretnych
transakcji. Dzięki MasterCard In Control możemy
kwiecień 2016
ITWIZ MAGAZYN
11
BIZNES
Bardzo szybko rozwija się rynek
urządzeń, które umożliwiają płacenie.
Jest coraz więcej komponentów
używanych w przedmiotach
codziennego użytku – wearables,
lodówkach czy samochodach – na
których można zapisywać dane karty
płatniczej, pozwalając tym urządzeniom
automatycznie dokonywać płatności. Często funkcja
płatnicza pojawia się w powszechnie stosowanych
komponentach elektronicznych, które następnie
wykorzystywane są przez producentów sprzętu
codziennego użytku – od zegarków, poprzez lodówki,
aż po samochody.
12
MAGAZYN
ITWIZ
kwiecień 2016
BIZNES
w określonych godzinach, np. nocnych; czy
tworzenie wirtualnych kart z własnymi limitami na potrzebę konkretnych transakcji.
Dzięki MasterCard In Control możemy zdefiniować budżet dzienny, miesięczny, ograniczenia co do miejsc, gdzie nasza karta
może zadziałać, a gdzie nie, np. wykluczyć
określone kraje. Można też zawiesić na pewien czas działanie naszej karty, a potem
ponownie ją uruchomić. Można blokować
konkretne typy transakcji, np. na karcie
służbowej pozwolić płacić tylko za paliwo
i hotel. Jest to możliwe, ponieważ każda
transakcja, która dociera do banku, jest
scharakteryzowana wieloma parametrami,
takimi jak czas, kwota czy typ akceptanta
– np. stacja paliwowa, hotel, sklep spożywczy. Znacznik każdego z tych parametrów
znajduje się w kodzie transakcji.
To jednak ostatecznie bank z klientami
decyduje o kształcie finalnego rozwiązania – czy będzie to aplikacja mobilna, czy
też serwis internetowy, a także jak bardzo
skomplikowane funkcje będą dostępne
dla klientów. Widzimy jednak duże zainteresowanie tego typu rozwiązaniami,
bo zwiększają one zaufanie do transakcji
kartami. Dzięki temu klienci chętniej rezygnują z płatności gotówkowych na rzecz
bezgotówkowych.
W jaki jeszcze sposób zabezpieczane są
transakcje?
Jeżeli mówimy o tokenizacji – pozwala ona
w bezpieczny sposób podłączyć urządzenie
do karty płatniczej, oferując ten sam poziom bezpieczeństwa, co karta plastikowa
z procesorem. Komunikacja oparta jest na
danych z kryptoprocesora. Nie można więc
przejąć tej informacji i dokonać za jej pomocą innej transakcji. Do tego dochodzą
zabezpieczenia sieci MasterCard. Wiemy,
jakie tokeny są przyporządkowane danemu
urządzeniu i jakich transakcji powinniśmy
się spodziewać. Jakiekolwiek odstępstwo
– na przykład próba przeniesienia tokenu
z jednego urządzenia na drugie powoduje
blokadę transakcji płatniczej. Zablokować
można też samo urządzenie (na przykład
w przypadku jego zgubienia), a – mimo to
– nasza karta plastikowa oraz inne urządzenia do niej podpięte będą wciąż działać.
Jeśli urządzenie nie ma dedykowanego elementu bezpiecznego do przechowywania
Chcieliśmy dostosować nasze rozwiązania do coraz bardziej cyfrowego
świata. Powstało centralne rozwiązanie, które ustandaryzowało to
podejście i pozwala na dołączanie dowolnej technologii
przechowywania danych karty płatniczej do już wydanych przez banki
na całym świecie instrumentów płatniczych. Wcześniej, jako
organizacja płatnicza, łączyliśmy akceptantów kart
– sklepy i punkty usługowe – oraz wydawców kart.
Teraz dołączają do tego grona globalni producenci
urządzeń, tacy jak Apple. De facto właśnie wdrożenie
Apple Pay było pierwszym takim wdrożeniem na
rynku.
danych płatniczych (tzw. secure element
dostępny na przykład na kartach SIM czy
w iPhone’ach), dodatkowym zabezpieczeniem będzie przechowywanie większości informacji na temat karty płatniczej
w chmurze – jak jest to w rozwiązaniu MasterCard Cloud Based Payments. W tym
standardzie do urządzenia przesyłane są jedynie dane dotyczące pojedynczych transakcji. Ponadto można dziś dokonać weryfikacji klienta nie tylko na podstawie kodu
PIN, ale także za pomocą biometrii, poza
tym nie tylko na terminalu płatniczym, ale
też na naszym urządzeniu mobilnym.
Wykorzystujemy oczywiście znacznie szerszą gamę rozwiązań typu fraud detection.
Obserwujemy wszystkie transakcje płatnicze na świecie w każdej sekundzie i po
wykryciu charakterystycznego zachowania
wskazującego na nadużycie uruchamiamy
odpowiednie zabezpieczenia we współpracy z wydawcami i akceptantami kart.
Ponadto każdy bank w swoim systemie
kartowym określa własne reguły dotyczące liczby transakcji i kwot na danej karcie
płatniczej. Nasze rozwiązania wypełniają
też wymogi regulacji określających, w jaki
sposób banki powinny zabezpieczać płatności w internecie (tzw. regulacje Secure
Pay).
Wspomniał Pan o Mobile Wallet Providers, takich jak Apple. W jaki sposób MasterCard przygotował się do ich obsługi?
Wymagało to od nas bardzo dużych inwestycji. Chcieliśmy dostosować nasze
rozwiązania do coraz bardziej cyfrowego
świata. Powstało centralne rozwiązanie,
które ustandaryzowało to podejście i pozwala na dołączanie dowolnej technologii
przechowywania danych karty płatniczej do
już wydanych przez banki na całym świecie
instrumentów płatniczych. Wcześniej, jako
organizacja płatnicza, łączyliśmy akceptantów kart – sklepy i punkty usługowe
– oraz wydawców kart. Teraz dołączają do
tego grona globalni producenci urządzeń,
tacy jak wspomniany Apple. De facto właśnie wdrożenie Apple Pay było pierwszym
takim wdrożeniem na rynku. Obecnie ten
standard wykorzystują inni producenci
urządzeń mobilnych.
Jakie jeszcze trendy zmieniają dziś rynek
płatności bezgotówkowych?
Inny ważny trend, na który musimy odpowiedzieć, to fakt, że coraz większa część
handlu przenosi się do internetu. Klienci
oczekują więc rozwiązań, które ułatwią
im dokonywanie transakcji e-commerce
i m-commerce. Takim rozwiązaniem są
portfele cyfrowe, np. MasterPass, który
pozwala płacić kartą bez każdorazowego wpisywania jej danych, zapamiętując
dane karty płatniczej, ułatwiając płatność
i zwiększając poziom bezpieczeństwa.
Oczywiście, mimo tych ułatwień, niezbędna jest edukacja klientów. Znaczna ich
część wciąż obawia się dokonywania transakcji internetowych kartami płatniczymi,
bo nie wie, co ostatecznie przyśle sprzedawca. Dlatego nadal wielu kupujących wybiera płatność przy odbiorze. Tymczasem
warto pamiętać o zabezpieczeniu charakterystycznym dla każdej karty MasterCard
– prawie do zgłoszenia reklamacji dowolnej
transakcji (tzw. chargeback), prowadzącej
do zwrotu pieniędzy przez bank, gdy nie
otrzymamy tego, co zamówiliśmy.
Rozmawiał Adam Jadczak
kwiecień 2016
ITWIZ MAGAZYN
13
BIZNES
Z Simonem Kaluža, dyrektorem zarządzającym SAP Central & Eastern
Europe, rozmawiamy o cyfrowej transformacji, nowym pokoleniu konsumentów
i pracowników, narzędziach wspierających ich sposób komunikacji i projektach
zmieniających biznes klientów SAP.
Digital transformation,
czyli dostosowanie do
pokolenia Y
Jak się wydaje, dziś jednym z najważniejszych trendów jest tzw. cyfrowa transformacja. Odwiedza Pan wiele krajów
w Europie Środkowo-Wschodniej. W jaki
sposób klienci z tych państw podchodzą
do tego zjawiska? Czy w każdym kraju jest
ono rozumiane w ten sam sposób?
Wszyscy obecnie mówią o Big Data, social mediach, mobilności, internecie rzeczy (IoT), chmurze obliczeniowej. Każdy
z tych megatrendów to jednak elementy
składowe całego procesu zwanego „digital
transformation”. Warto jednak wpierw zastanowić się, dlaczego w ogóle rozmawiamy
o cyfrowej transformacji przedsiębiorstw.
Jeśli pomyślimy kim jest dziś nasz typowy
klient, musimy wziąć pod uwagę fakt, że
do roku 2020 aż 75% pracowników to będą
– w skali globalnej – tzw. Millennialsi, czyli
pokolenie Y. To osoby, które urodziły się już
w cyfrowym świecie. Nie korzystają oni już
nawet np. z e-maila, a do komunikacji używają serwisów społecznościowych. Pokolenie Y ma także specyficzny sposób kupowania, a raczej pozyskiwania dóbr. Zdarza
się, że po prostu je wynajmują. Stąd taka
popularność np. firm kojarzących kierowców i pasażerów, takich jak Uber czy Lyft.
14
MAGAZYN
ITWIZ
kwiecień 2016
Co to oznacza dla przedsiębiorstw?
Firmy powinny zaadaptować się do tego
nowego typu konsumenta i jego preferencji
oraz zrozumieć schemat działania nowego,
w 100-proc. cyfrowego pokolenia. Millennialsi stają się klientami, pracownikami, kolegami z pracy i dostawcami największych
przedsiębiorstw. Tę nową perspektywę
trzeba uwzględnić we wszystkich aspektach prowadzenia biznesu.
Zjawisko transformacji cyfrowej to de facto przemiana biznesu. IT może wesprzeć tę
zmianę, ale w głównej mierze dotyka ona
procesów i samej firmy. I w tym przypadku nie ma zbyt wielkich różnic pomiędzy
przedsiębiorstwami z Polski, Bułgarii czy
Rumunii. Różnica dotyczy jedynie tego, czy
dany rynek jest na tę zmianę gotowy.
Przykładowo, w Bułgarii rząd jako jeden
z priorytetów ustanowił wprowadzenie cyfrowej gospodarki. Inwestują więc
w kampusy naukowe, innowacje, promocję
– wśród dużych, międzynarodowych firm
technologicznych – tamtejszych uniwersytetów i ich absolwentów. Efektem jest
stworzenie wystarczającej masy krytycznej,
aby o cyfrowej transformacji mówili dziś
BIZNES
w Bułgarii wszyscy. I to mimo tego, że nie
jest to największy rynek na świecie.
Jak proces cyfrowej transformacji postępuje wśród polskich firm?
Zacznijmy od tego, że z perspektywy regionu, którym zarządzam, jestem pod
wrażeniem jak udaje się skutecznie przeprowadzić zmianę postrzegania SAP Polska
z dostawcy ERP na doradcę biznesowego
w czasach gospodarki cyfrowej. Dużo w tym
skutecznej pracy zarządu i menedżerów
w ostatnich dwóch latach. Jestem zadowolony z tej współpracy. Dlatego mamy wielu
klientów w Polsce, którzy zaadaptowali już
procesy digitalizacji biznesu. Wykorzystują
do tego np. nasze narzędzia typu Customer
Engagement – SAP Hybris – we wszystkich
kanałach kontaktu z klientami. To duży
dla nas rynek. Aż 30% naszych przychodów w Polsce związanych jest z projektami
cyfrowej transformacji. Wielu klientów ma
je na szczycie swojej listy priorytetów.
To, co jest bardzo ważne – i muszą zdać
sobie z tego sprawę także rządy, tak jak
we wspomnianej już Bułgarii – pokolenie Y
to również nowi wyborcy, przyzwyczajeni
do zupełnie innych sposobów komunikacji. Ich głosy należy zdobywać, promując
tematy związane z cyfrową transformacją
i e-Government. To ma wpływ na polityczne
wybory nowych pokoleń.
W Polsce mamy dedykowane Ministerstwo Cyfryzacji…
To bardzo dobrze, ale ważne jest też to, jakie
Minister Cyfryzacji ma kompetencje i jakim
budżetem dysponuje. Wracając do cyfrowej transformacji przedsiębiorstw. Zmiana ta wiąże się ze zmianą wewnętrznych
procesów. To, co sprawdzało się kiedyś,
przestaje przystawać do otaczającej nas
rzeczywistości. Sposób, w jaki adresujemy
Jeśli pomyślimy kim jest dziś nasz typowy klient,
musimy wziąć pod uwagę fakt, że do roku 2020 aż
75% pracowników w skali globalnej będą stanowić
tzw. Millennialsi, czyli pokolenie Y. To osoby, które urodziły
się już w cyfrowym świecie. To osoby, które nie znają pojęcia e-maila,
a do komunikacji używają serwisów społecznościowych. Pokolenie Y ma
także specyficzny sposób kupowania, a raczej pozyskiwania dóbr.
dzisiejsze potrzeby naszych klientów, musi
się zmienić.
Jak SAP przyczynia się do cyfrowej zmiany
dokonującej się u klientów?
Aby odpowiedzieć na to pytanie, muszę nieco cofnąć się w czasie. Tradycyjnie
mieliśmy do czynienia z trzema typami
interesariuszy – klientami, pracownikami
i dostawcami. Teraz powinniśmy brać pod
uwagę także dostępne zasoby, zwłaszcza
w kontekście internetu rzeczy. Rdzeniem
rozwiązań wspierających cyfrową transformację przedsiębiorstw są nasze aplikacje
wspomagające zarządzanie, kiedyś określane mianem systemu ERP, a teraz pakietem
rozwiązań biznesowych – Business Suite. To
wszystkie aplikacje wspierające wewnętrzne
działy firmy – finanse, magazyny, produkcję.
W tym kontekście mamy kilka produktów,
które wspierają proces cyfrowej zmiany, np.
SAP Cloud 4 Customers (C4C). C4C to nasz
system CRM oferowany w modelu chmurowym. Mamy też wspomniany już SAP Hybirs
– rozwiązanie integrujące różne kanały kontaktu z klientami. Jest to także rozwiązanie
typu VMS (Vendor Management System)
– SAP Fieldglass – do zarządzania dostawcami.
Tym, co jest jednak najważniejsze, jest konieczność komunikacji z klientami na różnych poziomach zaangażowania. Statyczny
CRM, który tylko rejestruje zdarzenia, już
To, co jest bardzo ważne – i muszą zdać sobie z tego sprawę także rządy,
tak jak we wspomnianej już Bułgarii – pokolenie Y to również
nowi wyborcy, przyzwyczajeni do zupełnie innych
sposobów komunikacji. Ich głosy należy zdobywać,
promując tematy związane z cyfrową transformacją
i e-Government. To ma wpływ na polityczne wybory
nowych pokoleń.
nie wystarczy. Przykładem ilustrującym
tę zmianę może być typowa firma telekomunikacyjna. Wszyscy operatorzy mówią
o segmentacji opartej na wieku, wielkości
wydatków ARPU, czy też tego, co robimy.
Powstają więc oferty dla studentów, emerytów, biznesmenów…
Jakiej więc segmentacji oczekują obecnie
klienci?
Coraz ważniejsze jest indywidualne traktowanie każdego klienta. Jeśli jednak chcesz to
zrobić, musisz mieć możliwość zrozumienia
zachowań pojedynczych konsumentów. Dziś
właściwie nie jesteśmy już indywidualnym
klientem, ale zestawem różnych osobowości.
Rano jesteśmy biznesmenem, prowadzącym
własną działalność gospodarczą. Po południu możemy grać na gitarze we własnym
zespole albo intensywnie trenować. Każda
z tych „osobowości” ma inne potrzeby. Najbardziej innowacyjne firmy wiedzą dokładnie, w jaki sposób mnie „traktować” w danym momencie mojego dnia czy tygodnia.
Wymaga to jednak pozyskiwania znacznie
większej liczby informacji, dotyczących
nie tylko mojej historii, ale także planów.
Aby to zrobić, oczywiście potrzebujemy
systemu CRM, ale też rozwiązań, które
wspierają kontakty z klientem na różne
sposoby. Czasami będzie to komunikacja
za pośrednictwem serwisów społecznościowych, a innym razem call center, poczta
elektroniczna, tradycyjny salon sklepowy,
aplikacja mobilna czy komunikat przesyłany na smartwatcha. SAP oferuje bogate
portfolio produktów wspierających tego
typu kontakty z konsumentami.
Wcześniej wspominaliśmy nie tylko
o klientach, lecz także nowej generacji
pracowników…
Dokładnie. Pomyślmy o pracowniku, który ma dołączyć do naszego zespołu po-
kwiecień 2016
ITWIZ MAGAZYN
15
BIZNES
Pomyślmy o pracowniku, który ma dołączyć
do naszego zespołu powiedzmy za 3–4 lata.
Osoba ta zapewne urodziła się, gdy działał już
Facebook. Do komunikacji wykorzystuje więc
serwisy społecznościowe lub internetowe
komunikatory. Wyobraźmy sobie co
się stanie, gdy pracownik
z pokolenia social media trafia do
naszej firmy, gdzie styka się
z papierowym systemem obiegu
dokumentów lub z rozbudowaną
komunikacją mailową?
16
MAGAZYN
ITWIZ
kwiecień 2016
BIZNES
wiedzmy za 3–4 lata. Osoba ta zapewne
urodziła się, gdy działał już Facebook. Do
komunikacji wykorzystuje więc serwisy
społecznościowe lub internetowe komunikatory. Wyobraźmy sobie co się stanie,
gdy pracownik ten trafia do naszej firmy,
gdzie styka się z papierowym systemem
obiegu dokumentów lub z rozbudowaną
komunikacją mailową?
rządzać tym coraz bardziej skomplikowanym środowiskiem, potrzebujemy narzędzi
wspierających zbieranie i analizę wielkich
zbiorów danych. W tym kontekście proponujemy klientom platformę SAP HANA
oferowaną w modelu chmury obliczeniowej.
Udostępniamy ją z pakietem narzędzi do
tworzenia interfejsów łączących przedmioty IoT.
Przyzwyczajenia Millennialsów odzwierciedlamy w takich narzędziach, jak SAP SuccessFactors – wspierające procesy HR, czy
SAP Jam – chmurowe narzędzie do komunikacji. To rozwiązania podobne do Facebooka i LinkedIn, można polubić swoje posty,
dzielić się informacjami, tworzyć grupy
pracujące nad wspólnymi projektami. Do
tego dochodzą możliwości komunikatorów
internetowych.
Przy tego typu projektach współpracujemy m.in. z firmą Siemens, która tworzy
np. roboty wykorzystywane w fabrykach samochodów. Na bazie SAP HANA powstało
narzędzie umożliwiające zarządzanie siecią takich robotów. Dzięki temu można
np. zmniejszyć długość przerw w produkcji, odpowiednio zarządzając dostępnością
części zapasowych.
Rozwiązania te oferują platformę do komunikacji opartą na zasadach wykorzystywanych w mediach społecznościowych,
a konkretnie na tworzeniu sieci powiązań.
Popularność tych rozwiązań wśród pokolenia Y obserwujemy także u siebie, w miarę
jak coraz więcej młodych ludzi dołącza do
nas. Jedno z pierwszych pytań, jakie zadają,
to czy mogą – wykorzystując social media
– komunikować się wewnątrz SAP. Dla nas
tradycyjne metody komunikacji to e-mail
i jakiś portal, gdzie znajdę niezbędne informacje i dokumenty.
Podobnie jest w przypadku zarządzania
łańcuchem dostawców i zakupu. Przyszłość
rozwiązań dla tych procesów widzimy
w tworzeniu sieci biznesowych połączeń.
Dlatego też kilka lat temu przejęliśmy firmę Ariba. Oferowane przez nią narzędzia
pozwalają na pełną automatyzację zarządzania łańcuchem dostaw i zakupów.
Umożliwiają stworzenie czegoś w rodzaju
wewnętrznego Amazona.
Na początku wspomniał Pan o internecie rzeczy, to czwarty element cyfrowej
transformacji?
Obecnie wszystko podłączane jest do internetu. Dotyczy to nie tylko urządzeń, ale
i przedmiotów codziennego użytku, takich
jak inteligentne bransoletki, smartwatche,
koszulki sportowe. Są firmy, które chwalą
się tym, że nie produkują już żadnej rzeczy
bez własnego adresu IP. Jeśli chcemy za-
Cyfrowa transformacja kojarzona jest
zwykle ze start-upami…
To prawda. Nas – ze względu na długoletnią historię – należałoby uznać za dinozaury. Tymczasem transformacja cyfrowa wymaga wewnętrznej zmiany od
dostawców. Najlepszym sposobem na
dokonanie tego jest współpraca z kimś,
kto działa bardzo szybko, kimś, kto niemalże w „locie” dokonuje korekt w swojej
wizji rozwoju. Dlatego rozpoczęliśmy globalny program skierowany do start-upów.
Oferujemy im narzędzia, na podstawie
których mogą rozwijać własne pomysły.
W tym roku wprowadzamy ten program do
Europy Środkowo-Wschodniej. Jednak już
w roku 2015 uruchomiliśmy go testowo.
Skierowany był do młodych firm wykorzystujących social media. Jego finał miał
miejsce w Bułgarii. Zgłosiło się 70 zespołów, z których do czołówki dotarło 30.
Trzech zwycięzców wspieramy w rozwoju ich pomysłów. Wzięli też udział w SAP
StartupFocus Program w Berlinie, w którym młode firmy opracowują rozwiązania
wykorzystujące możliwości platformy SAP
HANA. Fascynujące jest to, jak szybko powstają te pomysły, jak szybko tworzone
są biznesplany. Jedna z idei związana była
z obchodzonymi przez członków danej społeczności urodzinami. Poza tym, że oczywiście można było złożyć życzenia, jubilat
może zdecydować, aby zamiast kupować
mu prezenty, przekazać te fundusze na jakiś
cel charytatywny.
Powstałe w ramach SAP StartupFocus Program aplikacje – po przejściu przez proces certyfikacji – oferowane są następnie
naszym klientom. Jedna z nich pochodzi
z Polski. Start-upy otrzymują pieniądze
od klientów, którzy będą wykorzystywać
ich rozwiązanie na platformie SAP HANA.
Chcemy w ten sposób zachęcać coraz więcej przedsiębiorców w naszym regionie Europy Środkowo-Wschodniej do tworzenia
nowych, innowacyjnych firm.
W kontekście cyfrowej transformacji
mówi się także o API Economy, w której
główną rolę odgrywają aplikacje…
To właśnie przyszłość SAP, możemy dowolnie podłączać – dzięki API – rozwiązania
naszych partnerów, w tym firm biorących
udział w SAP StartupFocus Program. Choć
– w ogólnej perspektywie – widzimy problem
z kompatybilnością powstających aplikacji.
Przykładowo, Fitbit nie będzie mógł wymieniać danych z Apple Watch. Każdy wykorzystuje inną technologię do transmisji
danych. Tak naprawdę jednak opracowanie
protokołu komunikacyjnego nie jest trudne.
Wystarczy odpowiednia platforma. I to jest
w tym piękne. SAP HANA staje się powoli
podstawową platformą dla wszystkich naszych produktów. Ale oczywiście musimy
mieć także odpowiednio do niej dostosowany sprzęt. Stąd wiele globalnych umów
z największymi producentami serwerów.
SAP ma dużo rozwiązań oferowanych
w modelu chmurowym. Czy to strategiczny kierunek rozwoju Państwa produktów?
Chmura to tylko sposób na dostarczanie
naszych rozwiązań. Za kilka lat zjawisko
„cloud computingu” przestanie być poruszanym przez wszystkich tematem. Większość rozwiązań – tak, czy inaczej – będzie
dostępna w tym modelu. Zmieni się jedynie
percepcja klientów. Tak jak dziś nikt – jeśli
ktoś mówi o Gmail – nie myśli, że to rozwiązanie w chmurze, ani że nasze dane mogą
być przechowywane w Stanach Zjednoczonych. Dlatego zjawisko to będzie się stale
rozwijać, gdyż firmy chcą maksymalnie
upraszczać infrastrukturę IT, a ta staje się
commodity, jak elektryczność. Przedsiębiorstwa wyróżniać będzie warstwa biznesowa – procedur i procesów – a nie IT.
Rozmawiał Adam Jadczak
kwiecień 2016
ITWIZ MAGAZYN
17
BIZNES
Firmy
jedynie w
20%
wykorzystują potencjał
cyfrowej transformacji
Z analiz Cisco wynika, że obecnie firmy, które realizują strategię cyfrowej
transformacji, wykorzystały średnio tylko 20% potencjału digitalizacji. Jednocześnie,
zdaniem przedstawicieli Cisco, trudno jest wyobrazić sobie branżę, dla której zmiany
wpisujące się w trend cyfrowej transformacji nie niosłyby wartości biznesowej.
Analizę, której podsumowanie znalazło się
w raporcie Cisco „Digital Value at Stake”,
opracowano na podstawie oceny potencjalnych, nowych źródeł przychodów lub
oszczędności osiągalnych za sprawą cyfrowych innowacji w 16 badanych branżach,
a także obserwowanych i uzyskanych
– wskutek digitalizacji – zmian pozycji rynkowej przedsiębiorstw z poszczególnych
sektorów. Według ekspertów Cisco, na
cyfryzacji najbardziej skorzystają te firmy,
których strategie biznesowe będą polegać
na wykorzystaniu technologii IT w konwergencji z technologiami operacyjnymi.
Badanie Cisco pokazuje ponadto, że tylko nieliczne organizacje dysponują dziś
kompleksowym planem zmian w obliczu
cyfryzacji biznesu. Co więcej, statystycznie aż 45% firm obecnie ignoruje tego typu
zmiany. Tymczasem, jak pokazują badania
Cisco, za sprawą cyfrowej transformacji,
w ciągu 5 lat obecną pozycję rynkową utraci
ok. 40% firm. Z kolei tylko 25% organizacji podchodzi do cyfrowej transformacji
w sposób proaktywny. Analiza opiera się
18
MAGAZYN
ITWIZ
kwiecień 2016
WCIĄŻ NIEDOCENIANY WPŁYW
CYFROWEJ ZMIANY?
45%
firm obecnie ignoruje zmiany w obliczu
cyfryzacji biznesu, tylko nieliczne organizacje
dysponują dziś kompleksowym planem zmian
40%
firm w ciągu 5 lat, za sprawą cyfrowej
transformacji utraci obecną pozycję rynkową
25%
tylko tyle firm podchodzi do cyfrowej
transformacji w sposób proaktywny
na ocenie ponad 350 przypadków wykorzystania technologii cyfrowych oraz ich efektów biznesowych. Sześć spośród 16 branż
(produkcja przemysłowa, usługi finansowe, handel detaliczny, usługi ICT, służba
zdrowia i branża wydobywcza) składać się
będzie na niemal 75% całkowitej wartości
sektora prywatnego w nadchodzącej dekadzie.
Całkowita wartość potencjału cyfrowej
transformacji w perspektywie najbliższej
dekady jest wyceniana na 23,8 bln USD. Co
ważne, jest to wartość o 65% wyższa niż
zakładały to prognozy Cisco z roku 2013.
Kalkulacja Cisco uwzględnia przy tym
nakłady niezbędne do przeprowadzenia
transformacji biznesu za pomocą nowych
technologii. Zdaniem autorów badania, pokazuje ono faktyczną wartość, która jest
realna do osiągnięcia dzięki wykorzystaniu
nowych technologii.
„Oczywiście bariery wejścia w potrzebne
do realizacji cyfrowych zmian technologie są różne dla poszczególnych branż. Są
BIZNES
jednak niższe niż w przeszłości, zarówno
w kontekście uzyskania technologii, jak
i potrzebnego finansowania” – dodaje Michael Ganser, wiceprezes Cisco na region
Europy Centralnej. Obecnie głównym
czynnikiem ograniczającym potencjalne
efekty digitalizacji biznesu jest kultura
organizacyjna, która utrudnia wdrażanie
innowacji. „Największą barierą często jest
brak gotowości na zmiany. Kluczową rolę
w budowaniu otwartości firmy na zmianę
ma odpowiednie zaangażowanie zarządu”
– dodaje Michael Ganser.
transformacji pojawia się konieczność obserwowania zmian zachodzących nie tylko w bezpośrednim otoczeniu biznesowym, ale także
w innych sektorach gospodarki. Tak znaczne
rozszerzenie perspektywy wynika z faktu, że
oparta na technologiach cyfrowych zmiana,
w pozornie odległym sektorze gospodarki,
może stać się źródłem szans biznesowych albo
istotnych ryzyk w innych branżach” – dodaje
Michael Ganser.
Głównym wyróżnikiem pomiędzy różnymi
rozwiązaniami IT ma być natomiast warstwa oprogramowania. Dotyczy to zarówno
bezpieczeństwa, jak i funkcjonalności. „Obszar aplikacyjny dysponuje największą wartością, jeśli chodzi o potencjał innowacyjny”
– dodaje Michael Ganser. Efektem cyfrowej
transformacji mają być też zmiany w szeroko rozumianych zasadach współpracy
pomiędzy klientami a dostawcami. W celu
osiągnięcia przewagi konkurencyjnej – dla
obu stron – coraz częściej potrzebne staje
się wspólne zaangażowanie w tworzenie
innowacji.
Dodatkowe wyzwania będą się wiązać
z szybkością zachodzących zmian. „Dynamika cyfrowej transformacji oraz jej wpływ
na działalność biznesową wykracza poza
historyczne doświadczenia rynkowe. Firmy,
które pozostaną przy dotychczasowym sposobie działania – bez względu na trwającą
wokół transformację – mają wiele do stracenia” – kwituje Michael Ganser. Dodaje
przy tym, że – jak pokazują przykłady
z Francji, Włoch lub Niemiec – cyfrowa
transformacja nie omija również sektora
publicznego. Jednocześnie, jak podkreślają autorzy analizy Cisco, wdrażanie
technologii wspierających cyfrową transformację powinno iść w parze z rozwojem
narzędzi w obszarze bezpieczeństwa.
Musimy obserwować zmiany
także w innych sektorach
Liderzy cyfrowej transformacji
rosną ekspotencjalnie
Autorzy analizy podkreślają, że postępująca
digitalizacja biznesu będzie wymuszać na
osobach zarządzających zmianę spojrzenia
na otoczenie biznesowe. „Wskutek cyfrowej
Badanie Cisco dowodzą też, że firmy uznawane za liderów cyfrowej transformacji
– w tym Apple, Uber i Tesla – osiągają wyższą efektywność inwestycji w technologie
cyfrowe, ponieważ na bazie tych technologii tworzą nowe modele biznesowe, wykraczające poza dotychczasową specjalizację branżową. Z analiz Cisco wynika np.,
że tylko usprawnienie analityki w handlu
detalicznym może, w ciągu najbliższych 10
lat, przełożyć się na korzyści rzędu niemal
300 mld USD. Szacunki Cisco zakładają,
że w ubiegłym roku firmy z sektora handlu
detalicznego skonsumowały jedynie 15%
potencjalnych korzyści wynikających z digitalizacji biznesu.
Całkowita wartość
potencjału cyfrowej
transformacji
w perspektywie
najbliższej dekady jest
wyceniana na 23,8 bln
USD. Co ważne, jest to
wartość o 65% wyższa
niż zakładały to prognozy
Cisco z roku 2013. Kalkulacja
Cisco uwzględnia przy tym
nakłady niezbędne do
przeprowadzenia transformacji
biznesu na bazie nowych
technologii.
„Nasze badanie pokazuje, że maksymalizacja korzyści z cyfryzacji w sektorze prywatnym wymaga podważenia założeń, które do
tej pory decydowały o sukcesie wielu firm,
i ponownego spojrzenia na sposób organizacji i dostarczania przez firmy wartości ich
klientom” – mówi Kevin Bandy, Chief Digi-
Dynamika cyfrowej
transformacji oraz jej
wpływ na działalność
biznesową wykracza poza
historyczne
doświadczenia rynkowe.
Firmy, które pozostaną
przy dotychczasowym
sposobie działania – bez
względu na trwającą
wokół transformację
– mają wiele do stracenia.
Jak pokazują przykłady z Francji,
Włoch lub Niemiec, cyfrowa
transformacja nie omija także
sektora publicznego.
Jednocześnie, jak podkreślają
autorzy analizy Cisco, wdrażanie
technologii wspierających cyfrową
transformację powinno iść
w parze z rozwojem narzędzi
w obszarze bezpieczeństwa.
Michael Ganser, wiceprezes Cisco na
region Europy Centralnej
tization Officer w Cisco. W aktualnych realiach rynku przedsiębiorstwa muszą być
gotowe na systematyczne wprowadzanie
zmian obejmujących m.in. działalność operacyjną, kulturę, model przychodów, a także
kompetencje i rozwiązania technologiczne.
Piotr Waszczuk
kwiecień 2016
ITWIZ MAGAZYN
19
CIO
CIO
W PKN Orlen
mamy już za sobą dwie
fale cyfryzacji
Pierwszy okres intensywnej informatyzacji Polskiego Koncernu Naftowego
Orlen to lata 1995–2001, do czasu zakończenia konsolidacji rozwiązań IT po
połączeniu Petrochemii Płockiej z Centralą Produktów Naftowych. Kolejna
duża fala cyfrowej transformacji to przede wszystkim ostatnie lata i projekty
związane w dużej mierze z automatyzacją oraz wykorzystaniem możliwości,
jakie oferują nowoczesne technologie telekomunikacyjne i wirtualizacja.
Ten ostatni etap trwa. Oczywiście, pomiędzy tymi okresami również sporo
się działo. Przykładem dużej zmiany było chociażby wdrożenie w 2007 roku
kompleksowego systemu workflow zobowiązaniowego, należnościowego
i majątkowego.
20
MAGAZYN
ITWIZ
kwiecień 2016
CIO
Nie wiem, czy ktoś jeszcze pamięta, że kiedyś stosowano
komputery z pamięcią ferrytową. Takie właśnie rozwiązanie działało w Petrochemii Płockiej (do 30 czerwca 1993 r.
znanej pod nazwą Mazowieckie Zakłady Rafineryjne
i Petrochemiczne w Płocku) jeszcze na początku lat 90.
XX wieku. Wówczas jedną z podstawowych platform dla
rozwiązań IT w płockiej firmie był system mainframe, jak
również stopniowo wygaszana od strony funkcjonalnej maszyna Honeywell HB2040 (jedna z trzech takich w Polsce)
ze wspomnianą pamięcią.
„Pierwszy etap cyfrowej transformacji ówczesnej Petrochemii
Płockiej polegał m.in. na budowie w latach 1992–1994 sieci
rozległej, już wówczas opartej na światłowodach. Powodem
było dostrzeganie szansy, jaką mogła wnieść rozwijająca się
wówczas bardzo intensywnie technologia informatyczna dla
każdego w kontekście tzw. wysp z pojedynczymi rozwiązaniami, jakie działały w przedsiębiorstwie” – wspomina Jakub Kolbicz, dyrektor Biura Usług Informatycznych w PKN Orlen.
„Kolejne etapy to było wejście w architekturę klient-serwer,
coraz szersze wprowadzanie komputerów PC do użycia przez
pracowników Petrochemii Płockiej oraz wdrożenie centralnego systemu ERP – SAP R/3” – dodaje Piotr Wawak, dyrektor
Biura Aplikacji IT w PKN Orlen.
Od rozwiązań wyspowych do zintegrowanego
zarządzania przedsiębiorstwem
Projekt wdrożenia zintegrowanego systemu ERP – wspomagającego zarządzanie Petrochemią Płocką – rozpoczął
się ok. roku 1995. Nowy system wystartował 2 lata później.
W przypadku ówczesnej Petrochemii Płock od 1973 roku
w tym przedsiębiorstwie pracował komputer Honeywell
HB2040, działający w trybie wsadowym, jako platforma
do ewidencji majątku, gospodarki materiałowej, fakturowania, drukowania listy płac. Zawierał on także arkusze do raportowania produkcji. Z kolei nowsza generacja
sprzętu, w postaci dwóch komputerów mainframe, została
uruchomiona w końcówce lat 80. oraz na początku lat 90.
(wówczas była to najsilniejsza maszyna tej klasy w Polsce).
To rozwiązanie sprzętowe było platformą dla systemu finansowo-księgowego, materiałówki, gospodarki magazynowej, sprzedaży, obsługi kadrowej i płacowej, a także
arkuszy do raportowania produkcji. Za utrzymanie i rozwój
narzędzi odpowiadali głównie specjaliści IT.
Przed rokiem 1997 trudno było jednak mówić o dużych,
kompleksowych i zintegrowanych systemach IT, jakie obecnie mamy na myśli, choć istniejące wówczas rozwiązania
realizowały wiele przydatnych funkcji biznesowych. Z perspektywy czasu można powiedzieć, że wybór zintegrowanego systemu ERP pozwolił na dokonanie przełomu. To był
ogromny skok technologiczny. „Moje doświadczenia z innych
organizacji pokazują, że wówczas informatyka – w obliczu tego
typu rozwiązań – zaczęła być po raz pierwszy postrzegana
jako narzędzie istotnie wspierające organizację” – wspomina
Z perspektywy czasu można powiedzieć, że wybór
zintegrowanego systemu ERP pozwolił
na dokonanie przełomu. To był ogromny skok
technologiczny. W latach 90. informatyka
– w obliczu tego typu rozwiązań – zaczęła
być po raz pierwszy postrzegana jako
narzędzie istotnie wspierające
organizację.
Marek Frąckiewicz, dyrektor wykonawczy ds. informatyki
w PKN Orlen.
W tym okresie miały miejsce także inne duże inwestycje,
np. działający do teraz system kontroli dostępu, system
PI (platforma Real-time Enterprise Infrastructure), poczta elektroniczna, samoobsługa pracownicza (selfservice)
i wiele innych. Patrząc na priorytety Petrochemii Płock
w drugiej połowie lat 90., najważniejsze jednak było
wdrożenie scentralizowanego systemu ERP. Pozwolił on
na integrację danych w ramach całego przedsiębiorstwa
i częściową rezygnację z niektórych procesów opartych „na
formie papierowej”. Jednocześnie tak duża zmiana wymusiła modyfikację wielu procesów biznesowych i dostosowanie ich do nowego rozwiązania wspierającego zarządzanie.
Bez wątpienia system SAP R/3 był motorem dużych zmian
w firmie.
„System wspierający działalność Petrochemii Płockiej w pierwszej kolejności wdrażany był w obszarze rachunkowości, i to
użytkowników z tego obszaru należało dobrze przygotować
do korzystania z nowej technologii jako pierwszych. Następne
wdrażane moduły objęły procesy gospodarki materiałowej
i zaopatrzenia” – dodaje Piotr Wawak. „Warto również zwrócić uwagę, że w połowie lat 90. największym problemem był
brak odpowiednich kompetencji. I nie mówimy tylko o procesie
wdrożenia systemu ERP, ale także o podstawowych dziś umiejętnościach pracowników, takich jak obsługa komputera czy
posługiwanie się myszką” – wspomina Jakub Kolbicz. „Informatyzacja wzbudzała wówczas duże obawy. Dość powszechnie
stosowane były jeszcze np. maszyny do pisania, zadawano więc
nam pytanie, skoro tak dobrze się sprawdzają, to po co nam
komputery” – dodaje. Podczas realizacji projektów wdrożeń
narzędzi IT w tym okresie należało uwzględnić powyższe
aspekty, organizując dodatkowe szkolenia z podstawowych
umiejętności pracy z komputerem.
Kolejny etap rozwoju systemu ERP w Petrochemii Płockiej
związany był z połączeniem z Centralą Produktów Naftowych, w wyniku którego powstał Polski Koncern Naftowy
(od roku 2000 Polski Koncern Naftowy Orlen). System SAP
musiał objąć zakresem działania także procesy sprzedaży
detalicznej. Ten etap zakończono w roku 2001. Od tamtego
czasu system SAP stał się podstawowym rozwiązaniem
kwiecień 2016
ITWIZ MAGAZYN
21
CIO
1000
maszyn wirtualnych pracuje w centrum danych
PKN Orlen.
22
MAGAZYN
ITWIZ
kwiecień 2016
CIO
klasy ERP w PKN Orlen. W tym czasie zmierzono się również z tzw. problemem roku 2000, o którym było głośno na
całym świecie. W przypadku PKN Orlen był on stosunkowo
marginalny, m.in. dzięki wcześniejszej wymianie platformy
mainframe na rozwiązanie klient-serwer.
Stały dostęp do usług i systemów IT
Kolejna duża fala informatyzacji związana była z rewolucją, jaką niosła upowszechniająca się transmisja danych
w sieciach stacjonarnych i komórkowych. W roku 1996
na polskim rynku zaczęli działać trzej operatorzy GSM, ale
wówczas jeszcze informatyka i telekomunikacja traktowane były osobno. Realny postęp dało się zauważyć dopiero
w latach 2010–2012, kiedy nastąpiło znaczące obniżenie
kosztów i zwiększenie przepustowości sieci WAN.
„Dzięki temu architektura stosowanych rozwiązań ma teraz
inne znaczenie. Powodem jest bardzo łatwy dostęp do łączy
telekomunikacyjnych i ich ogólna niezawodność, dzięki czemu
lokalizacja systemów centralnych dla użytkowników przestała
mieć znaczenie. Istotnie za to wzrosło oczekiwanie stałego
i nieprzerwanego dostępu do usług. Obecnie mamy bardzo
krótkie przerwy serwisowe, a ewentualne niedostępności naszych systemów centralnych są redukowane do minimum”
– mówi Marek Frąckiewicz.
„W latach 90. XX wieku można było dokonywać pewnych
usprawnień w systemach IT praktycznie każdego dnia, gdy
pracownicy wychodzili z pracy. Rozwiązanie wspierające zarządzanie firmą mogło nie pracować przez część doby i nie
stanowiło to istotnego problemu dla firmy. Oczywiście trzeba
było uważać, aby nie doprowadzić do zbyt dużych zaległości
w przetwarzaniu danych. Dziś już nie możemy sobie na coś takiego pozwolić. Nastąpiła zbyt duża automatyzacja procesów
i wzrost powiązań między systemami” – dodaje Piotr Wawak.
Wymogi dotyczące dostępności rozwiązań IT zaczęły się
zmieniać ok. 2008 roku. Pokazywały to kolejne rozwiązania,
jakie były wdrażane w płockim koncernie. Jednym z nich
była wymiana rozwiązania stosowanego w obszarze stacji
paliw PKN Orlen. Zainstalowane na stacji aplikacje mogą
co prawda z powodzeniem działać bez łączności z centralą,
ale we właściwych momentach potrzebne są aktualizacje
informacji np. o nowych promocjach, stąd kwestia dostępności stała się tak ważna.
Obecnie nikogo już nie dziwią bardzo rozbudowane rozwiązania klastrowe umożliwiające praktyczne „obejście”
problemu istotnego skrócenia się okienek serwisowych.
Również uruchamianie np. dwóch centrów danych działających w trybie active-active jest jedną z metod adresujących
ten problem. PKN Orlen stosuje z powodzeniem właśnie
takie podejście.
Postępująca od kilku lat automatyzacja i centralizacja procesów biznesowych – dziś nazywana digitalizacją – zna-
kwiecień 2016
ITWIZ MAGAZYN
23
CIO
Rozwiązania typu Advanced Process
Control analizują bardzo dużo
parametrów z instalacji produkcyjnych
PKN Orlen i na tej podstawie wspierają
optymalizację ich pracy. Efektem jest
m.in. stabilizacja przebiegu procesu
i poprawa parametrów
optymalizujących koszt produkcji.
Dzięki tym wszystkim zmianom, PKN
Orlen może dziś centralnie zarządzać
produkcją w całej grupie. Administrując
siecią instalacji produkcyjnych, może uwzględniać,
jaką aktualnie ropę przerabia, na jakie produkty jest
właśnie największe zapotrzebowanie, w których
zakładach najbardziej efektywnie zostaną one
wyprodukowane, a także planowane prace
remontowe.
cząco ułatwiła współpracę zarówno w obrębie firmy, jak
i poza nią. „Pracownicy przestali być uzależnieni od dostępności w biurze uczestników poszczególnych kroków procesów.
Dziś praktycznie wszystko jesteśmy w stanie załatwić drogą
elektroniczną, czy jest to np. akceptacja faktury, czy też wniosku urlopowego, o ile ‘papier’ nie jest wymogiem wynikającym
np. z przepisów prawa” – komentuje Jakub Kolbicz.
Aby ułatwić zarządzanie całą infrastrukturą, w pierwszej
kolejności dokonano jej uproszczenia. Obecnie w PKN Orlen
mamy m.in. do czynienia z tzw. płaską siecią. Wszystkie
spółki Grupy Orlen – niezależnie od kraju, w którym działają
– znajdują się w jednej, wspólnej, zarządzanej centralnie
sieci. „Dla ponad 20 tys. użytkowników rozwiązań IT w Grupie
Orlen nie ma de facto znaczenia, gdzie się do niej podłączają.
Mają poczucie, jakby byli u siebie w biurze. Taka struktura
sieci ułatwia zapewnienie ciągłej dostępności rozwiązań IT”
– opowiada Piotr Zakrzewski, dyrektor Biura Infrastruktury
IT w PKN Orlen.
Uproszczenie struktury sieci pozwoliło m.in. na połączenie – w ramach jednej instancji – wszystkich systemów
SAP obsługujących większość spółek Grupy Orlen w Polsce. Umożliwiło również migrację do centralnego Data
Center kluczowych rozwiązań spółek zagranicznych. Dziś
korzystają one w spójny sposób z kompleksowych usług.
„Konsolidacja instancji SAP oraz procesów to aktualny trend
w zarządzaniu rozwiązaniami tego producenta” – wyjaśnia
Piotr Wawak. Obok aspektu sieci korporacyjnej, również
ważna była wirtualizacja zasobów sprzętowych. Pozwoliła
ona na usunięcie problemów wydajnościowych i wzrost
efektywności wykorzystania zasobów sprzętowych. Obec-
24
MAGAZYN
ITWIZ
kwiecień 2016
nie w centrum danych PKN Orlen pracuje ponad 1000 maszyn wirtualnych.
Automatyzacja zarządzania
systemami przemysłowymi
Ostatnie lata to także rosnące znaczenie bezpieczeństwa,
zwłaszcza w kontekście ochrony systemów przemysłowych,
które ponownie – w PKN Orlen już kilka lat temu – zostały
wydzielone do odseparowanych sieci. To również projekty
wdrożenia automatyki przemysłowej oraz te na jej styku
z IT, jak chociażby inwestycje w systemy typu APC (Advanced Process Control).
„Rozwiązania tego typu analizują bardzo dużo parametrów
z naszych instalacji produkcyjnych i na tej podstawie wspierają optymalizację ich pracy. Efektem jest m.in. stabilizacja
przebiegu procesu i poprawa parametrów optymalizujących
koszt produkcji” – tłumaczy Marek Frąckiewicz. Dzięki tym
wszystkim zmianom, PKN Orlen może centralnie zarządzać produkcją w całej grupie. „Zarządzając siecią instalacji produkcyjnych, możemy uwzględniać, jaką aktualnie
ropę przerabiamy, na jakie produkty jest właśnie największe
zapotrzebowanie, w których zakładach najbardziej efektywnie zostaną one wyprodukowane, a także planowane prace
remontowe” – dodaje.
Dla sporej części projektów od decyzji do realizacji
mija nie więcej niż kilka, kilkanaście miesięcy.
Ponadto niezwykle szybko zmieniają się potrzeby
biznesu. To wszystko wymaga od PKN Orlen
wewnętrznej zmiany, w której firma musi być
bardziej agile. Dlatego od kilku już lat wprowadzany
jest do PKN Orlen tzw. Bimodal IT. Obecnie
wyraźnie widać, że większość
projektów musi wejść w nowy, szybszy
tryb. Z kolei ze „starego świata”
przedstawiciele firmy chcą pozostawić
wysoką jakość i niezawodność
powstających rozwiązań. Połączenie
tych dwóch elementów to kolejne
wyzwanie dla organizacji.
Jedno z narzędzi wspierającego centralne zarządzanie produkcją powstało jako efekt projektu harmonogramowania
produkcji w ramach obszaru SCM (Supply Chain Management). Dzięki niemu PKN Orlen może lepiej prowadzić
procesy produkcyjne, biorąc przy tym pod uwagę optymalne obciążenia instalacji, plany sprzedażowe i możliwości
logistyczne. Warto zwrócić uwagę, że przy wytworzeniu
produktu głównego powstają także produkty uboczne, które również trzeba zagospodarować. Planując produkcję,
CIO
trzeba uwzględnić wszystkie te zależności, a potencjalnych
scenariuszy jest wiele. Wybranie najbardziej optymalnych
powoduje wzrost marży.
Internet rzeczy, rozwiązania
mobilne i Bimodal Company
Digitalizacja to także projekty związane np. ze śledzeniem
całego taboru kolejowego, którym transportowane są produkty PKN Orlen. Każda lokomotywa własna i każdy wagon
będący w użytkowaniu PKN Orlen został opatrzony odpowiednio urządzeniem GPS lub znacznikiem RFID. Ich celem
jest umożliwienie obserwacji i analizy przemieszczania się
taboru kolejowego.
Można więc powiedzieć, że PKN Orlen już od jakiegoś czasu prowadzi projekty, które można określić jako związane
z tzw. internetem rzeczy. „Kolejnym wdrożeniem z tego obszaru jest nowe rozwiązanie telemetrii na zbiornikach LPG na
naszych stacjach paliw” – mówi Piotr Wawak. Projekt jest
powiązany z harmonogramowaniem logistyki wtórnej, czyli
takim zarządzaniem transportem gazu z rozlewni na stacje paliw i do klienta końcowego, aby autocysterny miały
krótsze przebiegi, większe wypełnienie oraz by ograniczyć
możliwość wystąpienia braków gazu na stacjach paliwowych. „Implementacja nowej telemetrii w zakresie LPG, to
projekt digitalizacji na dużą skalę i element szerszego projektu
budowy platformy logistycznej w PKN Orlen, która obejmuje
zarówno transport kolejowy, jak i kołowy” – dodaje.
Łatwy dostęp do łączy
telekomunikacyjnych i ich ogólna
niezawodność sprawiły, że lokalizacja
systemów centralnych przestała mieć
dla użytkowników znaczenie. Istotnie
za to wzrosło oczekiwanie stałego
i nieprzerwanego dostępu do usług. Pion
IT w PKN Orlen ma obecnie bardzo krótkie przerwy
serwisowe. W latach 90. XX wieku można było
dokonywać pewnych usprawnień w systemach IT
praktycznie każdego dnia, gdy pracownicy wychodzili
z pracy. Dziś nie można sobie na coś takiego
pozwolić. Nastąpiła zbyt duża
automatyzacja procesów i wzrost
powiązań między systemami.
Biznes korzysta z wejścia
w nowoczesne technologie
Realizowane przez PKN Orlen projekty pokazują, jak bardzo
można dziś skorzystać biznesowo poprzez wejście w wybrane, nowoczesne technologie. „Aktualnie mamy do czynienia z ogromnym postępem. Naszym celem jest rozwijanie
nowych pomysłów tak szybko, jak tylko będzie potrzebował
tego biznes. Generalnie widać, że projekty bardzo przyspieszyły” – komentuje Marek Frąckiewicz. „Wdrożenie systemu SAP
w latach 90. XX wieku trwało 3 lata. Teraz – dla sporej części
projektów od decyzji do realizacji – mija nie więcej niż kilka,
kilkanaście miesięcy. Ponadto niezwykle szybko zmieniają się
potrzeby biznesu. To wszystko wymaga od nas wewnętrznej
zmiany, w której musimy być bardziej agile. Dlatego od kilku
już lat wprowadzamy do firmy tzw. Bimodal IT. Dzisiaj wyraźnie
widać, że większość projektów musi wejść w nowy, szybszy
tryb. Z kolei ze „starego świata” chcemy pozostawić wysoką
jakość i niezawodność powstających rozwiązań. Połączenie
tych dwóch elementów to kolejne wyzwanie dla organizacji.
Aby to się jednak udało, nie możemy mówić tylko o Bimodal
IT, ale raczej o Bimodal Company” – dodaje.
Wdrożenie koncepcji Bimodal Company w PKN Orlen wymaga zmian w całej firmie. Nie jest to łatwe, zważywszy, że
wiele procesów i stosowanych dziś rozwiązań kształtowało
się od początku informatyzacji PKN Orlen, a więc lat 90.,
a w niektórych przypadkach nawet lat 70. ubiegłego stulecia. Tymczasem przed PKN Orlen kolejna fala cyfrowej
zmiany. Tym razem związanej z powszechnym dostępem
do urządzeń mobilnych i wspomnianym internetem rzeczy,
którego koncepcję przemysł już realizuje w praktyce.
Adam Jadczak
NFON oszczędzi Ci kłopotów...
oraz do 50% kosztów.
nfon.com/pl
Telefonia nowej generacji!
Około 150 inteligentnych funkcji dostępnych dla każdego. Brak terminowej umowy, opłaty wyłącznie za rzeczywiście wykorzystywane
urządzenia, co umożliwia redukcję kosztów. Jakość głosu oraz poziom zabezpieczeń certyfikowane przez TÜV. Telefonia w chmurze dla
Twojego biznesu „Made in Germany”. Zainteresowany?
kwiecień 2016
ITWIZ MAGAZYN
25
CIO
FELIETON
Jak nie utonąć w otchłani
Zmiany – szczególnie w środowisku IT – są nieuniknione, ale mogą być dobre. Nie
ma jednego, a może nawet nie ma żadnego przepisu na sukces każdej zmiany. Jak
jednak pokazuje rynek, im bardziej jesteśmy otwarci na nie, tym łatwiej odnaleźć się
w nowej rzeczywistości.
W erze rosnącej dominacji rynku aplikacji
trzeciej generacji – opartych na mikroserwisach – i popularności rozwiązań Big
Data, administratorzy i menedżerowie
zarządzający infrastrukturą, bardziej niż
kiedyś, muszą dokładać starań, aby usługi infrastrukturalne były jak najbardziej
atrakcyjne. Atrakcyjne dla programistów,
analityków i coraz większej liczby zespołów,
które mają bezpośredni kontakt z szeroko
pojętym biznesem. Tym razem przyjrzymy
się mechanizmom Big Data.
Problemy, z jakimi mamy
do czynienia w analizie
dużych zbiorów danych
Z pewnością za nazwą Big Data kryje się
wiele definicji, potencjalnych korzyści i zagrożeń, ale jedno jest pewne – pojęcie to
jest już niemal „zużyte” w środowiskach IT.
Wielu mówi o analityce na dużych zbiorach
danych. Jednak świadomość tego, co i jak
realnie można osiągnąć w biznesie, stosując te mechanizmy, wciąż jeszcze nie jest za
wielka. Z rozmów z różnymi ludźmi wyni-
Pewnym obszarem, który może być pomocny w pracy
specjalistów od analizy danych, jest wirtualizacja
sieci. Analitycy pracują bowiem w zamkniętych
środowiskach, tzw. sandbox. Separacja takich
środowisk w klasycznych rozwiązaniach sieciowych
z zastosowaniem 802.1q to w dzisiejszych czasach
zdecydowanie za mało. Dopiero SDN pozwala w pełni
elastycznie i błyskawicznie klonować czy tworzyć nowe sieci skutecznie
odseparowane od siebie. Warto zatem rozważyć takie podejście już
teraz, bo nawet jeśli nie w platformach Big Data, to w chmurze
prywatnej takie mechanizmy będą niezbędne.
26
MAGAZYN
ITWIZ
kwiecień 2016
ka, że jeszcze mniejsza jest ta świadomość
wśród administratorów infrastruktury IT,
a interakcja z analitykami i programistami
kończy się na uruchomieniu dla nich serwera lub maszyny wirtualnej.
Aby to zmienić i nadążać za wymaganiami, warto zrozumieć, jakie komponenty
występują w typowych implementacjach
platform Big Data. Najpierw jednak przypomnijmy, z jakiego typu zagadnieniami
i problemami mamy do czynienia na prostych przykładach i jak można je rozwiązywać. Dobrym przykładem – z życia wziętym – może być sieć sklepów, do których
dostarczane są towary. Nawet w przypadku
dyskontów lub sklepów osiedlowych należy
zapewnić logistykę dostaw towarów. O ile
sprawa jest stosunkowo prosta, jeśli trzeba
wyposażyć placówkę w odpowiednią ilość
proszków do prania czy chusteczek – których okres przydatności do użycia jest pomijalnie długi – o tyle w przypadku produktów świeżych sprawa się mocno komplikuje.
Co do zasady problem wydaje się prosty.
Wystarczy przejrzeć dotychczasowe zamówienia i porównać z raportami sprzedaży,
CIO
a następnie wyciągnąć wnioski i przygotować zamówienie bardziej optymalne. Cel
jest jasny, jak najmniej ma się zmarnować,
ale nie może też zabraknąć wybranych towarów. Tylko jakimi wnioskami należy się
kierować? Wynikiem sprzedaży z dnia poprzedniego, całego tygodnia, czy może tylko z ostatnich 12 godzin? Jak zinterpretować posiadane wyniki, a co najważniejsze,
zobaczyć zależności od danych, które mogą
być osiągalne poza danymi paragonowymi? Niektóre z zależności są oczywiste,
np. wzrost zapotrzebowania na mak przed
Bożym Narodzeniem. Inne są zupełnie nieintuicyjnie powiązane. Jak np. zależność
sprzedaży od położenia geograficznego
sklepu, otoczenia handlowego, ciśnienia
atmosferycznego czy korelacji z kalendarzem rozgrywek piłkarskich. Wtedy właśnie
przydaje się Big Data.
Komponenty infrastrukturalne
platform Big Data
Za wizualizację tych danych w sposób przystępny dla przykładowego zamawiającego
nowe dostawy odpowiadają takie pakiety,
jak SAS Visual Analytics czy Microsoft Power BI. To na tym poziomie tworzone są wygodne, dynamiczne raporty, na podstawie
których można przeprowadzić wnioskowanie, a nawet od razu wygenerować wsad do
następnego zamówienia. Tutaj w zasadzie
z poziomu infrastruktury niewiele można
zbudować w nowej jakości, a przynajmniej
nie jest to łatwe.
Warstwa niżej należy do tzw. data scientist. W niej znajdziemy takie narzędzia, jak
RStudio, a nawet Microsoft Excel. Wszystko
zależy od tego, czego potrzebujemy i jak
zasobny portfel ma nasza organizacja. Tutaj
też wiele nie pomożemy, poza klasycznym
podejściem, polegającym na minimalizacji
czasu dostarczania i kosztów infrastruktury.
Pewnym obszarem, który może być pomocny w pracy specjalistów od analizy danych,
jest wirtualizacja sieci. Analitycy pracują
bowiem w zamkniętych środowiskach,
tzw. sandbox. Separacja takich środowisk
w klasycznych rozwiązaniach sieciowych
z zastosowaniem 802.1q to w dzisiejszych
czasach zdecydowanie za mało. Dopiero
SDN pozwala w pełni elastycznie i błyskawicznie klonować czy tworzyć nowe sieci
skutecznie odseparowane od siebie. Warto
zatem rozważyć takie podejście już dzisiaj,
bo nawet jeśli nie w platformach Big Data,
to w chmurze prywatnej takie mechanizmy
będą niezbędne.
Idąc dalej w stronę infrastruktury, dochodzimy do komponentów platformy Hadoop.
Tutaj wyróżniamy trzy najbardziej popularne dystrybucje: Horton Works, Cloudera i MapR. Oczywiście są też dystrybucje
komercyjne, ale – jak pokazują doświadczenia ostatnich lat – nie odnoszą wielkich
sukcesów. Być może jest tak dlatego, że ich
konsumentami są programiści, a Ci rzadko
są zainteresowani wielkimi korporacjami,
które z ich punktu widzenia nie wnoszą
wiele więcej niż drogie wsparcie produktu. Poza tym najczęściej są to dystrybucje
pozostające w tyle za rozwiązaniami open
source, a w przypadku Hadoop kolejne
wersje potrafią wnieść rewolucje, zamiast
ewolucji. Na platformie Hadoop wyróżniamy komponenty administracyjne (Ambari, Zookeeper czy Oozie), bezpieczeństwa
(Atlas, Falcon, Ranger i Knox) czy odpowiedzialne za przetwarzanie danych (Storm,
Spark, Hive i MapReduce).
Na koniec wszystkie dane składowane
są w systemie plików HDFS, gdzie trafiają
z wielu różnych źródeł w postaci nieustrukturyzowanej. Znajomość tej warstwy – choć
w całości poświęconej programistom
– może przydać się osobom odpowiedzialnym za infrastrukturę, choćby po to, aby
w ogóle móc być partnerem w dyskusji.
Elementy infrastrukturalne
Następną warstwą jest już infrastruktura…
z tym, że niekoniecznie wirtualna. Idea
platformy Hadoop zakłada użycie sprzętu tzw. commodity, czyli takiego, który
nie cechuje się zwiększoną odpornością
na awarie. Co za tym idzie, zakłada się, że
dowolny element platformy Hadoop może
w każdej chwili zniknąć i wcale nie trzeba
mu zapewniać wysokiej dostępności. Przetwarzanie równoległe powoduje, że platforma pracuje. Kluczowa jest wydajność.
Właśnie dlatego inżynierowie i architekci
rozwiązań Big Data często sceptycznie patrzą na platformy wirtualizacji czy chmury
typu Amazon, czy Microsoft Azure. Oceniają, że dodatkowa warstwa tylko zmniejszy
wydajność przy stosunkowo małych korzyściach. Oczywiście możliwości, jakie oferują
chmury publiczne, dają niesamowitą elastyczność przeprowadzania testów i przygotowywania modeli ekonometrycznych.
PRZYKŁADOWE WARSTWY
INFRASTRUKTURY BIG DATA
1
Wizualizacja danych (np. SAS Visual
Analytics czy Microsoft Power BI)
2
Warstwa dla data scientist
(np. RStudio, Microsoft Excel)
3
Platforma Hadoop, w tym komponenty
administracyjne (Ambari, Zookeeper
czy Oozie), bezpieczeństwa (Atlas,
Falcon, Ranger i Knox) czy
odpowiedzialne za przetwarzanie
danych (Storm, Spark, Hive
i MapReduce)
4
System plików HDFS, gdzie trafiają
wszystkie dane z wielu różnych źródeł
w postaci nieustrukturyzowanej
5
Infrastruktura IT
Jednak do „ciężkiej” produkcji – w szczególności w środowiskach, na które narzucono
dodatkowy rygor legislacyjny – nie mają
one wielkiego zastosowania.
Co więc może zrobić dział infrastruktury,
aby dorzucić swoją cegiełkę w budowaniu
wartości dla biznesu? Może automatyzować dostarczanie środowisk, ale z pełną
introspekcją w wydajność poszczególnych
komponentów. Oznacza to, że oferowane
w ramach portali samoobsługowych gotowe rozwiązania – zaprojektowane wraz
z programistami, analitykami i architektami – powinny dawać możliwość wnikliwego monitoringu ich wydajności, często na
poziomie procesów systemu operacyjnego.
Ułatwione powinny być akcje skalowania
środowiska – po pełną automatyzację
włącznie – a także utworzenie kopii zapasowej czy archiwum na potrzeby wersjonowania. Można też założyć, że przydatna będzie integracja z narzędziami klasy
DevOps, które pozwolą departamentom
rozwoju aplikacji na pozostanie w swoich
realiach funkcjonowania.
Jak widać, możliwości są nieco ograniczone,
ale jest ich kilka. Najważniejsze, by nie poprzestać na prostym generowaniu maszyn
w tym procesie – tę czynność z pewnością
da się łatwo zastąpić.
Krzysztof Waszkiewicz,
architekt
kwiecień 2016
ITWIZ MAGAZYN
27
CIO
Data
scientist
– specjalista pilnie poszukiwany
Specjaliści od analizy dużych zbiorów danych stali się jednymi
z najbardziej pożądanych pracowników na rynku pracy. Kim są
badacze danych? Jak uczyć się tego zawodu? Czym kierować się przy
wyborze pracodawcy?
Według danych Gartnera, do roku 2020
na świecie może być nawet 26 mld połączonych urządzeń tworzących nowe dane.
Rozwój nowych technologii w zakresie Big
Data – i co za tym idzie, potrzeba zarządzania coraz większą ilością danych i informacji
– przyczynił się do powstania nowej specjalizacji – data scientist. Historia tego zawodu
jest dość krótka, sięga 2008 roku, kiedy to
D. J. Patil i Jeff Hammerbacher – odpowiedzialni wtedy odpowiednio za analitykę
w LinkedIn i Facebook – użyli tego terminu
po raz pierwszy. Już kilka lat później Hal Varian, główny ekonomista Google, określił
ten zawód jako najbardziej pożądany w tym
dziesięcioleciu. A co tak naprawdę kryje się
pod nazwą data scientist?
Poszerzenie roli analityków
danych i statystyków
Specjaliści data science bardzo często zaczynali karierę jako analitycy danych lub
statystycy. Jednak ich rola znacznie się
poszerzyła w momencie, kiedy okazało
się, że o skutecznym rozwoju i przewadze
28
MAGAZYN
ITWIZ
kwiecień 2016
konkurencyjnej przedsiębiorstw decyduje umiejętność analizowania coraz większych zbiorów różnorodnych danych. Na
podstawie rekomendacji, opartych na tak
szerokich i zaawansowanych analizach,
przedsiębiorstwa są w stanie budować
nowe strategie i wytyczać właściwe kierunki działań.
W miarę rozwoju środowisk Big Data oraz
technologii przechowywania i przetwarza-
nia wielkich zbiorów danych – takich jak
Hadoop – znacząco zmienia się podejście
firm do wykorzystania danych w działalności biznesowej. Dane to dziś kluczowe
aktywa. Wymagają one analitycznego
podejścia, twórczej dociekliwości i umiejętności wydobycia z nich wartościowej
wiedzy, która zapewni przewagę konkurencyjną i wzrost biznesu. Do realizacji
tych zadań firma potrzebuje specjalistów,
których nazywamy data scientist.
W miarę rozwoju środowisk Big Data oraz technologii
przechowywania i przetwarzania wielkich zbiorów
danych – takich jak Hadoop – znacząco zmienia się
podejście firm do wykorzystania danych
w działalności biznesowej. Dane to dziś kluczowe
aktywa. Wymagają one analitycznego podejścia, twórczej
dociekliwości i umiejętności wydobycia z nich wartościowej wiedzy,
która zapewni przewagę konkurencyjną i wzrost biznesu. Do realizacji
tych zadań firma potrzebuje specjalistów, których nazywamy data
scientist.
CIO
Umiejętność rozwiązywania problemów,
komunikatywność oraz niezaspokojona ciekawość
dotycząca funkcjonowania różnych mechanizmów
– to tylko przykładowe umiejętności, które będą
atutem dla pracodawcy szukającego data scientist.
Oprócz tego należy mieć wiedzę w zakresie: statystyki, języka
programowania, np. SAS, R lub Python, bazy danych, m.in. MySQL oraz
PostSQL, wizualizacji danych czy technik raportowania. Data
scientist musi mieć też takie umiejętności, jak:
matematyka i informatyka, a także w obszarze
programowania, uczenia maszynowego,
zastosowania zaawansowanych narzędzi
analitycznych oraz wiedzy i praktyki biznesowej.
Zapotrzebowanie na „władców danych”
– jak czasami określa się specjalistów data
science − z roku na rok jest coraz większe.
Wystarczy wspomnieć, że według ankiety
firmy Glassdoor „25 Best Jobs in America”
z roku 2016, ta specjalizacja jest najbardziej
poszukiwanym zawodem w USA. Również
w Polsce firmy coraz śmielej zgłaszają zapotrzebowanie na tego typu pracowników.
Umiejętność rozwiązywania problemów,
komunikatywność oraz niezaspokojona ciekawość dotycząca funkcjonowania
różnych mechanizmów – to tylko przykładowe umiejętności, które będą atutem dla
pracodawcy. Oprócz tego należy posiadać
wiedzę w zakresie: statystyki, języka programowania np. SAS, R lub Python, bazy
danych, m.in. MySQL oraz PostSQL, wizualizacji danych czy technik raportowania.
Wybór kariery ukierunkowanej na data
science jest mądrym posunięciem. Gwarantuje szerokie możliwości zatrudnienia
oraz szansę na pracę w nowych technologiach lub biznesie, z dużym polem do
popisu w zakresie eksperymentowania
i kreatywności.
Jak zostać „władcą danych”?
Data scientist musi mieć bardzo szeroki
zakres umiejętności. Począwszy od takich
zagadnień, jak: matematyka i informatyka, poprzez programowanie, uczenie maszynowe, zastosowanie zaawansowanych
narzędzi analitycznych, a na wiedzy i praktyce biznesowej kończąc. Co ważne, aby
zdobyć wiedzę w tym zawodzie, nie trzeba
wyjeżdżać za granicę. Polskie uczelnie mają
w ofercie dydaktycznej kierunki studiów,
które pomagają zdobyć niezbędne umiejętności w tej specjalizacji. Wykształcenie
zdobyć można zarówno na certyfikowanych
ścieżkach studiów, jak i na kierunkach magisterskich oraz podyplomowych.
Przykłady uczelni, które oferują programy
nauczania w tym zakresie, to m.in. Szkoła Główna Handlowa w Warszawie, która
oferuje studia magisterskie: Advanced
Analytics – Big Data oraz podyplomowe:
Analizy Statystyczne i Data Mining w Biznesie, Akademia analityka – analizy statystyczne i data mining w biznesie oraz Inżynieria Danych – Big Data. Inne przykłady
studiów podyplomowych, które kształcą
w tej tematyce, to Systemy Informacyjne
i Analiza Danych w Szkole Głównej Gospodarstwa Wiejskiego, Metody statystyczne
w biznesie – warsztaty z oprogramowaniem
SAS na Uniwersytecie Warszawskim oraz
studia realizowane pod patronatem SAS na
Uniwersytecie Ekonomicznym w Poznaniu.
W ramach studiów przyszli adepci tego
zawodu poznają zagadnienia dotyczące
metod analizy statystycznej i data miningu, czyli eksploracji danych. Duży nacisk
kładzie się zwłaszcza na wiedzę praktyczną
i poznanie zagadnień od strony biznesowej.
Oczywiście w ramach prowadzonych zajęć
nie zapomina się o teorii, której zrozumienie i przyswojenie w tej dziedzinie jest koniecznością. Osoby interesujące się analizą sieci społecznościowych, text analytics,
scoringiem kredytowym, zastosowaniem
modeli mieszanych i wielopoziomowych
oraz innymi zagadnieniami analitycznymi
z pewnością znajdą coś dla siebie.
Istotne aspekty pracy
data scientist
Decydując się na zawód data scientist, warto – przy wyborze pracodawcy – przeanalizować takie kwestie, jak: przetwarzanie
dużych zbiorów danych w codziennej działalności tej firmy oraz możliwość mierzenia
się ze złożonymi wyzwaniami biznesowymi.
Ważnym czynnikiem jest również gotowość
i umiejętność wykorzystania wiedzy uzyskanej z danych w praktyce, w celu transformacji procesów i zwiększenia innowacyjności organizacji.
Bardzo istotnym aspektem pracy specjalisty data science jest dostęp do innowacyjnych i zaawansowanych technologii,
które umożliwiają szybką i wszechstronną
analizę różnych rodzajów danych, najlepiej
w czasie rzeczywistym. Ważne jest również,
aby pracodawca zapewniał udział w ciekawych i nowatorskich projektach, w różnych
branżach i obszarach biznesowych. W pracy
mamy okazję uczestniczyć w nowatorskich
wdrożeniach systemów Big Data, Enterprise
Fraud Management, Enterprise Risk Management, Real-Time Integrated Marketing
Management, które dają szansę na intensywny rozwój oraz podejmowanie złożonych wyzwań z obszaru data science.
Zawód data scientist jest doskonałym przykładem na to, jak rozwój nowych technologii w coraz większym zakresie wpływa na
zmiany na rynku pracy. Wraz z rosnącym
zapotrzebowaniem na innowacyjne rozwiązania, rośnie zapotrzebowanie przedsiębiorstw na nowe kompetencje i specjalizacje. Zaledwie dekadę temu nikt nie miał
pojęcia o zawodzie data scientist. Tymczasem teraz dla przedsiębiorców najważniejsze staje się zidentyfikowanie talentów
i przyciągnięcie ich do firmy, a następnie
szybkie przeszkolenie i wdrożenie w realizację zaawansowanych projektów. Nagła
popularność tego zawodu pokazuje też, że
organizacje coraz bardziej zmagają się z zalewem danych i potrzebują skutecznego,
a także kreatywnego połączenia różnego
rodzaju analiz.
Miłosz Trawczyński,
Business Consulting Manager
w SAS Institute Polska
Aneta Maksymiuk,
Analytical Consultant w SAS Institute Polska
kwiecień 2016
ITWIZ MAGAZYN
29
CIO
Sprzętowe innowacje
wbudowane w SPARC M7
Oracle – rozwijając rozwiązania sprzętowe przejęte wraz z Sun Microsystems
– wprowadził na rynek nowy procesor SPARC M7. Technologia ta ma zwiększać
bezpieczeństwo dzięki rozwiązaniom Security in Silicon i prędkość przetwarzania
analizowanych danych poprzez wykorzystanie technologii SQL in Silicon.
Jak wspomina Marek Świerad, wiceprezes Oracle, szef
Działu Hardware & Engineered Systems w regionie Europy Środkowo-Wschodniej, dzięki wprowadzonym ostatnio
innowacjom zmieniło się postrzeganie platformy SPARC,
zwłaszcza przez nowych klientów firmy. „Dziś ich pytania
częściej dotyczą bezpieczeństwa, niż szybkości przetwarzania
danych. Dotyczy to klientów w Polsce, Turcji, Rosji, Austrii, czy
w innych krajach naszego regionu. Z platformy SPARC korzystają dziś banki, operatorzy telekomunikacyjni, administracja
i sektor utilities” – twierdzi.
vOracle z 2013 roku z procesorami T5 i obecne platformy oparte na układach M7. Dodatkowa – dostępna dzięki
procesorowi M7 – moc wykorzystana jest np. do przetwarzania dużej ilości danych. Jednocześnie z każdą, kolejną
generacją układów SPARC spada cena jednostki mocy
obliczeniowej.
W Polsce serwery z procesorami SPARC M7 znalazły już
pierwszych nabywców. Równolegle sprzedawane są linie
T7 oraz – większe – M7. Na rynku dostępna jest także – wykorzystująca nowe układy Oracle – platforma Supercluster
M7. „Maszynę tę można określić mianem ‘konsolidacyjnej’,
a nie tylko bazodanowej. Można na niej uruchamiać wiele
różnych aplikacji jednocześnie. Oracle Supercluster działa
u jednego z klientów w sektorze telekomunikacyjnym. Wykorzystywana jest do obsługi systemów czasu rzeczywistego”
– opowiada Marek Świerad. W ostatnim roku finansowym
sprzedaż sprzętu Oracle w Polsce wzrosła o 40%, a przychody ogółem o ok. 25%.
Obecnie istotnym
czynnikiem
– decydującym o wyborze
platformy IT – jest
bezpieczeństwo. Klienci
dostrzegają, że tradycyjna
strategia – np. stosowanie zapór
w warstwie sieciowej – już nie
wystarcza. Pytają więc, co jeszcze
powinni zrobić. My oferujemy
rozwiązanie typu Security in Silicon,
które pojawiło się w procesorach SPARC
M7, ale także – dzięki funkcjonalności systemu
Bezpieczeństwo wbudowane w koprocesor
„Jest wielu klientów gotowych zmienić swoje platformy na
nasze, oparte na procesorze SPARC. Migracja dotyczy nie tylko
użytkowników technologii RISC, lecz także serwerów x86. Są
też klienci, którzy całą infrastrukturę opierają na rozwiązaniach Oracle. Można powiedzieć, że po latach ‘testowania’
naszej strategii sprzętowej, klienci przekonali się do naszych
platform” – dodaje.
Ostatnie kilka lat to inwestycje Oracle w procesor SPARC
M7. W efekcie, klienci obserwują dwukrotny wzrost wydajności z pojedynczego rdzenia procesora w porównaniu
z poprzednią generacją. W testach porównano maszyny
30
MAGAZYN
ITWIZ
kwiecień 2016
Na to nakłada się zmiana podejścia do bezpieczeństwa.
„Obecnie istotnym czynnikiem – decydującym o wyborze platformy IT – jest bezpieczeństwo. Klienci dostrzegają, że trady-
Solaris – umożliwia kontrolę użytkowników na
poziomie systemu operacyjnego. Jak widać,
współpraca przy jednoczesnym rozwoju sprzętu
i warstwy oprogramowania przynosi wymierne
korzyści. Gdy ma się pieczę nad jednym i drugim,
łatwiej jest to ze sobą zintegrować.
Marek Świerad, wiceprezes Oracle, szef Działu Hardware
& Engineered Systems w regionie Europy Środkowo-Wschodniej
CIO
cyjna strategia – np. stosowanie zapór w warstwie sieciowej
– już nie wystarcza. Pytają więc, co jeszcze powinni zrobić. My
oferujemy rozwiązanie typu Security in Silicon, które pojawiło
się w procesorach SPARC M7, ale także – dzięki funkcjonalności systemu Solaris – umożliwia kontrolę użytkowników na
poziomie systemu operacyjnego” – wyjaśnia Marek Świerad.
„Jak widać, współpraca przy jednoczesnym rozwoju sprzętu
i warstwy oprogramowania przynosi wymierne korzyści. Gdy
ma się pieczę nad jednym i drugim, łatwiej jest to ze sobą zintegrować” – dodaje.
W procesorze SPARC M7 zastosowano wiele akceleratorów
wspierających szyfrowanie. „Podobne rozwiązania wykorzystują oczywiście w swoich procesorach firmy Intel i IBM, ale
tym, co jest unikalne w naszym procesorze, jest ich zakres.
Szereg branż jest przyzwyczajonych do własnych algorytmów
szyfrowania. W SPARC M7 zawarto ich kilkanaście” – tłumaczy
Marek Świerad.
Dzięki SPARC M7 możemy szyfrować dane (w tym bazę
danych Oracle), bez strat wydajności, bo cały ten proces
odbywa się po stronie procesora. Szyfrowanie danym algorytmem można przerzucić na koprocesor. Poza tym można
odwołać się do systemu operacyjnego. „Dzięki temu nie
obciąża to bazy danych i aplikacji działających na platformie
SPARC” – przekonuje Marek Świerad. „Swego rodzaju ‘pozytywnym efektem ubocznym’ technologii Security in Silicon jest
wyłapywanie – na poziomie procesora – błędów w aplikacji.
Ponadto znacznie skraca się też proces ich debugowania. To
duża korzyść dla użytkowników naszej platformy. Przeprowadziliśmy testy wykorzystujące rozwiązania SAS Institute.
W czasie debugowania, którego czas skrócił się z 3 godzin
do kilku minut, znaleziono 4, wcześniej niewykryte błędy”
– podkreśla.
Narzędzia analityczne w procesorze M7
Drugą nową funkcją zawartą w procesorze SPARC M7 jest
SQL in Silicon wspierająca zastosowania analityczne. „To
kolejny element strategii Oracle podjętej w warstwie oprogramowania. Security in Silicon oraz SQL in Silicon to funkcje,
które do tej pory były realizowane programowo. Teraz zostały
przeniesione do koprocesora” – wyjaśnia Marek Świerad.
„Dzięki funkcji SQL in Silicon możemy zrealizować w praktyce ideę Real Time Enterprise. Pierwszym jej elementem była
baza Oracle z opcją in-memory, pozwalająca przeprowadzać
zapytania analityczne na danych źródłowych systemu transakcyjnego, bez opóźnień związanych z ich ładowaniem, czyszczeniem, transformacją i budowaniem systemów dla hurtowni.
Co ważne, zastosowanie tej technologii nie wymaga żadnej
zmiany po stronie aplikacji. Procesor SPARC M7 wspiera ten
proces w warstwie pamięci operacyjnej. Dzięki niemu baza
nie jest obciążana kompresją i dekompresją danych, a wiele
funkcji jest realizowanych na poziomie sprzętowym. Efektem
są niższe koszty wdrożenia takiego rozwiązania na sprzęcie
Oracle, gdyż można ograniczyć wielkość serwerów i ilość licen-
Dzięki funkcji SQL in Silicon możemy
zrealizować w praktyce ideę Real Time
Enterprise. Pierwszym jej elementem
była baza Oracle z opcją in-memory
pozwalająca przeprowadzać zapytania analityczne na
danych źródłowych systemu transakcyjnego, bez
opóźnień związanych z ich ładowaniem,
czyszczeniem, transformacją i budowaniem
systemów dla hurtowni. Co ważne, zastosowanie tej
technologii nie wymaga żadnej zmiany po stronie
aplikacji. Procesor SPARC M7 wspiera ten
proces w warstwie pamięci
operacyjnej. Dzięki niemu baza nie jest
obciążana kompresją i dekompresją
danych, a wiele funkcji jest realizowanych na
poziomie sprzętowym.
cji potrzebnych do wykorzystania technologii in-memory. Serwery z procesorami SPARC M7 i bazę in-memory zastosowała
w praktyce sieć sklepów B&H Photo Video, co doprowadziło
do ponad 80-krotnego przyspieszenia przetwarzania danych
w stosunku do tradycyjnego podejścia bazodanowego na tym
samym sprzęcie” – dodaje. Oracle udostępnił otwarte API
do wykorzystania koprocesorów analitycznych przez innych
deweloperów i producentów oprogramowania.
Oracle zamierza wprowadzić na rynek także procesory
o kodowej nazwie Sonoma. To równoległa linia procesorów, oparta na tej samej koncepcji co SPARC M7. Sonoma
znajdzie jednak zastosowane w „tańszej” wersji serwerów
SPARC. Co obniży dla klientów barierę wejścia w tę platformę. Sonoma nie będzie co prawda tak skalowalna jak
SPARC M7 – ma ograniczoną liczbę gniazd do dwóch – ale
dzięki wbudowanej magistrali InfiniBand serwery z tym
procesorem można skalować wszerz, zwłaszcza w rozwiązaniach chmurowych. Jak zapewniają przedstawiciele
Oracle, pozwala to łatwo tworzyć klastry obliczeniowe.
To rozwiązanie dużo tańsze, obniżające koszty związane
z łączeniem procesorów i budową w ten sposób dużych
maszyn obliczeniowych.
„W testach deweloperskich znajdują się już procesory kolejnej generacji. Typowy okres rozwoju procesorów – od wejścia
na deski kreślarskie do pojawienia się ich na rynku – to 4–5
lat. Można się więc spodziewać, że kolejna generacja naszych
procesorów pojawi się na rynku za ok. 2 lata” – podsumowuje
Marek Świerad.
Adam Jadczak
kwiecień 2016
ITWIZ MAGAZYN
31
CIO
Różnice
w podejściu do IT pomiędzy
rynkowymi liderami
Wzmocnienie produktywności, a jednocześnie ograniczenie kosztów funkcjonowania
IT oraz zwinności biznesowej organizacji niezmiennie zajmują wysoką pozycję wśród
priorytetów inwestycyjnych w obszarze nowych technologii. IT coraz częściej staje
się jednak motorem zmian biznesowych.
Wnioski z analizy Salesforce pozwalają sądzić, że czynnikiem napędzającym zmiany biznesowe – a konkretnie
budowanie przewagi konkurencyjnej po stronie IT – jest
przede wszystkim możliwość szybszego reagowania na
zmiany rynkowe i potrzeby klientów. Badanie pokazuje
też różnice w podejściu do IT oraz w priorytetach inwestycyjnych pomiędzy firmami uznawanymi za rynkowych
liderów a organizacjami, które uzyskują słabsze wyniki.
Analizę przeprowadzono w podziale na trzy odmienne obszary związane z wykorzystaniem rozwiązań IT w biznesie.
Dotyczą one zmieniającej się roli IT w organizacji, potrzeb
kompetencyjnych w obszarze teleinformatyki, a także wykorzystywanych technologii.
Większa presja, ale i większe budżety
Zdaniem większości ankietowanych przez Salesforce szefów IT, jednym z czynników w największym stopniu wpływających na przewagę konkurencyjną jest szybkość działania
firm. Priorytetem staje się więc możliwość skrócenia czasu
dostarczania nowych usług i aplikacji biznesowych. Niemal
trzy czwarte (72%) przedstawicieli przedsiębiorstw osiągających wyniki biznesowe lepsze od średniej twierdzi, że
u nich czas tworzenia i wdrażania nowych aplikacji zwykle
nie przekracza 3 miesięcy. W takim czasie nowe rozwiązania aplikacyjne jest w stanie wdrożyć tylko co druga (46%)
firma o słabych wynikach.
32
MAGAZYN
ITWIZ
kwiecień 2016
Trzy czwarte ankietowanych spodziewa się, że w najbliższych latach budżety na IT w ich organizacjach będą rosły. Priorytety inwestycyjne deklarowane przez większość
(68%) uczestników badania dotyczą migracji do środowisk cloud computing, wdrożenia aplikacji mobilnych oraz
poprawy bezpieczeństwa środowiska IT. Pozostała grupa
badanych zamierza inwestować w rozwiązania mobilne
wspierające sprzedaż i obsługę klienta, a także aplikacje
pozwalające zwiększyć produktywność pracowników.
Zmiany na styku sprzedaży,
marketingu i wykorzystywanych
przez firmy technologii zmuszają do
rekonstrukcji tradycyjnego podejścia
do zarządzania IT. Od szefów IT
oczekuje się wizji, jak z pomocą
innowacyjnych technologii
wszechstronnie wspierać biznes
– procesy wewnętrzne, efektywność i nowe modele
interakcji z klientami. W 60% ankietowanych firm
funkcjonuje rola szefa IT. Coraz częściej obejmuje
ona jednak aspekty biznesowe.
CIO
Co istotne, 55% ankietowanych uznaje za priorytet inwestycyjny rozwiązania zwiększające produktywność. Do pozostałych priorytetów zaliczane są narzędzia pozwalające
zwiększyć dostępność i przejrzystość danych (47%), a także
rozwiązania umożliwiające automatyzowanie i uelastycznienie procesów biznesowych (42%).
Chmura narzędziem zmiany
Wyniki analizy pozwalają sądzić, że na osiągane rezultaty
biznesowe wpływa także podejście do modelu cloud computing. Firmy, które deklarują wyniki poniżej przeciętnej,
częściej od pozostałych wykorzystują oprogramowanie
działające na bazie lokalnej infrastruktury. Z kolei organizacje osiągające najlepsze wyniki – chętniej sięgają po
rozwiązania oparte na modelu chmury hybrydowej. Firmy
takie częściej od pozostałych grup podejmują inicjatywy,
mające na celu systematyczne zwiększanie inwestycji
w obszarze IT.
Z analiz wynika też, że większość (80%) przedsiębiorstw
decydujących się na wdrożenie oprogramowania w chmurze deklaruje chęć ich wykorzystania, w celu zmiany dotychczasowego modelu działalności. Migracja w kierunku
rozwiązań opartych na modelu cloud computing staje się
priorytetem w zakresie obsługi wewnętrznych procesów
biznesowych. Kluczowa okazuje się elastyczność i innowacyjność aplikacji chmurowych.
Zdaniem autorów analizy, migracja rozwiązań wspierających procesy biznesowe w modelu cloud computing staje
się sposobem na szybsze wdrażanie innowacji, obniżenie
kosztów i uelastycznienie środowiska IT. Wykorzystanie modelu chmury obliczeniowej ma także pozwolić na
zmniejszenie obciążeń wynikających z konieczności zapewnienia kompleksowej integracji rozwiązań biznesowych. Połowa ankietowanych CIO odpowiada przy tym za
funkcjonowanie co najmniej 25 zintegrowanych aplikacji.
Nowa rola szefa
W 60% funkcjonuje rola szefa IT. Coraz częściej obejmuje
ona jednak aspekty biznesowe. „Zmiany na styku sprzedaży, marketingu i wykorzystywanych przez firmy technologii
zmuszają do rekonstrukcji tradycyjnego podejścia do zarządzania IT. Od szefów IT oczekuje się wizji, jak z pomocą
innowacyjnych technologii wszechstronnie wspierać biznes
– procesy wewnętrzne, efektywność i nowe modele interakcji
z klientami” – podkreśla Edyta Żenczykowska, dyrektor
sprzedaży Salesforce w Polsce, Czechach, Słowacji i krajach bałtyckich.
Uczestnicy badania Salesforce podkreślają, że rosnącej roli
technologii IT w zastosowaniach biznesowych towarzyszą
zasadnicze zmiany roli osób odpowiedzialnych za funkcjonowanie firmowych środowisk IT w kształtowaniu strategii
biznesowej i koordynowaniu działalności operacyjnej. Dla
CIO coraz cenniejsze stają się kompetencje typowe dla
działów marketingu, wiedza o zachowaniu i potrzebach
Jednym z czynników w największym stopniu
wpływających na przewagę konkurencyjną jest
szybkość działania organizacji. Priorytetem staje się
więc możliwość skrócenia czasu dostarczania
nowych usług i aplikacji biznesowych. Niemal
trzy czwarte (72%) przedstawicieli firm
osiągających wyniki biznesowe lepsze
od średniej twierdzi, że u nich czas
tworzenia i wdrażania nowych aplikacji
zwykle nie przekracza 3 miesięcy.
W takim czasie nowe rozwiązania
aplikacyjne jest w stanie wdrożyć
jedynie co druga (46%) organizacja
o słabych wynikach.
klientów oraz silna motywacja do monitorowania trendów
technologicznych. Na znaczeniu zyskują też kompetencje
miękkie.
Rynek nie nadąża za potrzebami
kompetencyjnymi
Analiza Salesforce pokazuje zarazem, że szybki rozwój
technologii i popytu na informatyczne rozwiązania biznesowe prowadzi do nasilającej się luki kompetencyjnej.
Średnio, ok. 40% wskazywanych przez respondentów problemów w obszarze IT wynika z braków kadrowych bądź
kompetencyjnych. Respondenci narzekają też na niedostateczną dostępność potrzebnych kompetencji na rynku. Dotyczy to w szczególności kompetencji związanych
z rozwojem oprogramowania. Brakować ma także centrów
kompetencyjnych, które ułatwiłyby zaplanowanie rozwoju
kompetencji pracowników.
Jednocześnie, firmy osiągające najlepszą dynamikę rozwoju
inwestują w rozwój kompetencji pracowników działu IT.
Realizacje tego typu inwestycji deklaruje ponad 90% organizacji z grupy High Performers. Dla porównania, podobne
inicjatywy realizuje tylko 55% organizacji rozwijających
się w tempie niższym od średniej rynkowej. Największe
braki kompetencji dotyczyć mają zaś kolejno: inżynierii
i przetwarzania danych, bezpieczeństwa IT oraz rozwoju
oprogramowania.
W badaniu firmy Salesforce wzięło udział ponad 2200 menedżerów odpowiedzialnych za funkcjonowanie działów
IT w firmach z Ameryki Północnej, Brazylii, Francji, Niemiec i Wielkiej Brytanii oraz Australii i Japonii. Co ważne,
badanie ograniczono do grupy firm, które samodzielnie
realizują inicjatywy związane z rozwojem oprogramowania.
Podsumowanie analizy znalazło się w raporcie Salesforce
„2016 State of IT”.
Piotr Waszczuk
kwiecień 2016
ITWIZ MAGAZYN
33
ARCHITEKCI
ARCHITEKCI
S
A
Połączenie
zespołów
scrumowych
i architektów
rozwiązań
Poszukiwanie synergii pomiędzy „klasycznym” podejściem do strategii
i architektury oraz metodykami zwinnymi nie jest proste, ale nie
bezcelowe. Kwantyzacja osądów oraz antagonizowanie ról i metodyk
stanowią wspaniały katalizator gorących dyskusji. Łatwo tworzy się obozy
próbujące się wzajemnie wykluczać. Można trzymać je z dala od siebie
i cieszyć ze spokoju, wynikającego z braku interakcji między nimi. Dlaczego
jednak nie spróbować ich wykorzystać?
34
MAGAZYN
ITWIZ
kwiecień 2016
ARCHITEKCI
Z jednej strony spotkałem się z opinią, że w metodykach
zwinnych tworzenie dokumentacji to błąd. Z drugiej
– istnieją organizacje, które wypracowały
zestaw szablonów, wypełnianych przy
okazji każdego projektu. Gdy niosą
wartość merytoryczną i są rzetelnie
utrzymywane (bądź są wymagane
ustawowo) – nie ma problemu. Gdy służą
tylko odznaczeniu „checklisty” – to dobry
moment, aby o nich zapomnieć. Zazwyczaj
– dokumentacja mniej dokładna, nawet z drobnymi
potknięciami – jest bardziej wartościowa, niż
rozbudowana, lecz nieaktualna bądź niezgodna ze
stanem faktycznym.
Jak może wyglądać współpraca architektury różnych poziomów oraz grupy deweloperów, realizowana na podstawie metodyki zwinnej, np. Scrum. Czy w ogóle jest to
możliwe? Prawdopodobnie nie ma jednego, słusznego,
gotowego, uniwersalnego przepisu na sukces. Natomiast
jest kilka sposobów, ułatwiających sprawną i zakończoną
realizację inicjatyw oraz zwiększających szansę na dobrą
współpracę ludzi. Bez radykalnego deptania ich przyzwyczajeń. Konieczne jest ich delikatne dostosowanie
oraz ewentualne zwiększenie otwartości na adaptację
do specyfiki momentu.
Niektóre organizacje wypracowały model, w którym liczba jednostek pośredniczących między przedstawicielami biznesu a programistami jest tak duża, że praktycznie
uniemożliwia przedyskutowanie problemu. To jak zabawa
w „głuchy telefon”. Dlaczego taki model nie działał nawet
w waterfallu? Z prostej przyczyny – błędnego założenia,
że każda osoba zaangażowana w prace jest nieomylna,
wie czego chce, potrafi to idealnie zapisać lub wysłowić.
Jeśli pracuje nad uszczegółowieniem ogólniejszych wymagań – rozumie je perfekcyjnie, przetwarza niczym fabryka
i generuje bezstratnie kolejny poziom uszczegółowienia.
Zanim wymaganie przeszło przez wszystkie warstwy, mijało
sporo czasu.
Organizacje nastawione na taki sposób realizacji inicjatyw, zamiast zastanowić się nad przebudową procesu,
skupiają się – z mniejszym lub większym sukcesem – na
doskonaleniu każdego kroku i metod kontroli jakości. Tymczasem – w razie jakichkolwiek trudności – każda z osób
zaangażowanych skupiała się na dowodzeniu wykonania
perfekcyjnie własnego kawałka pracy. Cała energia szła
w coraz to nowe dowodzenie racji stron i – niezależnie od
rozstrzygnięcia – wcale nie prowadziło to do rozwiązania
problemu.
Architekt rozwiązań jako element
zespołu scrumowego
W Scrumie problem ten jest obsłużony w sposób genialny
w swej prostocie. Jest rola Dewelopera i Product Ownera.
Zakresy odpowiedzialności są jasno zdefiniowane, a ponadto rękę na pulsie można trzymać non stop, niemalże
podczas każdego momentu procesu wytwórczego. Teoretycznie miejsca dla architektów nie ma. Jednakże praktycznie realia nietrywialnych środowisk IT są takie, że nadal
jest zapotrzebowanie na to, czym się zajmowali dotychczas.
Poziom ogólności, w którym poruszała się dana osoba,
wyznacza możliwe miejsce docelowe w nowym procesie
wytwórczym. Architekt systemowy, projektant systemu
najprawdopodobniej znajdzie się pośród zespołu deweloperów. Jego wysoka wiedza ogólna dotycząca mechanizmów wewnątrzsystemowych pozwoli dobrze wspierać
pozostałych członków zespołu, definiować reguły rozwoju
systemu, w zgodzie z planowanymi pracami, wynikającymi
z zawartości Backlogu. Mimo że Scrum nie przewiduje dywersyfikacji poszczególnych deweloperów – każdy z nich
powinien mieć dokładnie taki sam zakres wiedzy i umiejętności – nie spotkałem jeszcze takiego zespołu, w którym nie byłoby zróżnicowania poziomu świadomości. Jeśli
modyfikacjom podlega więcej niż jeden system, a prace są
rozbite na kilka zespołów, niewątpliwie przyda się koordynacja prac, na poziomie integracji. Tu idealnie wpisze się
architekt rozwiązań.
Jedną z częstych porażek architektury
korporacyjnej jest próba dokładnego
zaplanowania dużych inicjatyw na kilka
lat do przodu. Samo planowanie
– zwykle w warunkach „laboratoryjnych”
– wygląda obiecująco. Prawda jest taka,
że w większości branż otoczenie
biznesowe zmienia się dużo szybciej.
Ponadto taka inicjatywa nie jest wyspą i w większości
środowisk IT ma mnóstwo zależności z innymi
programami, projektami, zmianami. W efekcie albo
wszystkie inne projekty są blokowane przez
„przepływający program Titanic”, albo przygotowane
analizy wysokopoziomowe bardzo szybko stają się
nieaktualne.
Naturalnie można próbować sprawę rozegrać założeniem,
że bez jego pomocy zespoły same się „dogadają”. Często
oddelegowanie takiej odpowiedzialności poza zespoły jest
korzystne. Pomijając jasno określone odpowiedzialności,
ułatwia to podejmowanie decyzji w sytuacjach spornych
oraz zdejmuje część ciężaru prac. Natomiast architektura
kwiecień 2016
ITWIZ MAGAZYN
35
ARCHITEKCI
Niektóre organizacje wypracowały
model, w którym liczba jednostek
pośredniczących między
przedstawicielami biznesu
a programistami jest tak duża, że
praktycznie uniemożliwia
przedyskutowanie problemu. To jak
zabawa w „głuchy telefon”. Dlaczego taki
model nie działał nawet w waterfallu? Z prostej
przyczyny - błędnego założenia, że każda osoba
zaangażowana w prace jest nieomylna, wie czego
chce, potrafi to idealnie zapisać lub wysłowić.
korporacyjna bezpośrednio nie powinna angażować się
wprost w bieżące prace zespołu scrumowego, lecz wyznaczać ramy i pryncypia prac, a także jasno komunikować
strategię, choćby po to, aby w pewnym wycinku wesprzeć
proces planowania Product Ownerów.
Minimalizacja zależności w obrębie zespołu
Jedną z istotniejszych zalet podejścia zwinnego jest możliwość niemalże natychmiastowego rozstrzygania spraw.
Wspomniana wcześniej „ścieżka zdrowia” zależności
kompletnie zabiłaby zwinność. Dzięki organizacji pracy
wg punktu pierwszego – problem występuje, ale jest mniej
dotkliwy. Wiele zależy od skali przedsięwzięcia. Idealnie
jest, gdy np. prace nad integracją da się zrównoleglić z bieżącymi pracami zespołów scrumowych.
Źle się dzieje, gdy zespół jest zmuszony do wstrzymania prac
nad zadaniem z zakresu sprintu, ze względu na oczekiwanie
na wynik pracy kogoś spoza zespołu. Innym możliwym podejściem jest takie planowanie prac, aby wymagane zadania
były zakończone przed rozpoczęciem sprintu. Powoduje to
jednak trudność w przypadku konieczności wykonania poprawek oraz nieco rozciąga planowanie w czasie.
Zgubić szczegóły na rzecz skrócenia
dostarczenia wyników
Pomocna w minimalizacji zależności i blokowaniu prac
zespołu scrumowego może być rezygnacja z wysokiego
poziomu szczegółowości dostarczanych wyników analizy.
Warto także zrewidować przyzwyczajenia do (nie)tworzenia
dokumentów. Jestem przeciwny ekstremizmom. Z jednej
strony spotkałem się z opinią, że w metodykach zwinnych
tworzenie dokumentacji to błąd. Z drugiej – istnieją organizacje, które wypracowały zestaw szablonów, wypełnianych
przy okazji każdego projektu. Gdy niosą wartość merytoryczną i są rzetelnie utrzymywane (bądź są wymagane
ustawowo) – nie ma problemu. Gdy służą tylko odznaczeniu
„checklisty” – to dobry moment, by o nich zapomnieć.
36
MAGAZYN
ITWIZ
kwiecień 2016
Zazwyczaj – dokumentacja mniej dokładna, nawet z drobnymi potknięciami – jest bardziej wartościowa, niż rozbudowana, lecz nieaktualna bądź niezgodna ze stanem
faktycznym. Skoro jesteśmy przy metodykach zwinnych,
jednym z najskuteczniejszych sposobów wypracowania
optymalnej formy wyników analizy jest... rozmowa z odbiorcą dokumentu oraz ograniczenie jej do niezbędnego,
rozsądnego minimum.
Podzielić inicjatywę na mniejsze kawałki
Jedną z częstych porażek architektury korporacyjnej jest
próba dokładnego zaplanowania dużych inicjatyw na kilka
lat do przodu. Samo planowanie – zwykle w warunkach „laboratoryjnych” – wygląda obiecująco. Prawda jest taka, że
w większości branż otoczenie biznesowe zmienia się dużo
szybciej. Ponadto taka inicjatywa nie jest wyspą i w większości
środowisk IT ma mnóstwo zależności z innymi programami,
projektami, zmianami. W efekcie albo wszystkie inne projekty
są blokowane przez „przepływający program Titanic”, albo
przygotowane analizy wysokopoziomowe bardzo szybko stają
się nieaktualne. Realizacja takiej inicjatywy w „mniejszych
porcjach” zwiększa szanse na częstsze walidowanie otoczenia.
Niektóre organizacje, zamiast
zastanowić się nad przebudową
procesu, skupiają się - z mniejszym lub
większym sukcesem - na doskonaleniu
każdego kroku i metod kontroli jakości.
Tymczasem - w razie jakichkolwiek trudności - każda
z osób zaangażowanych skupiała się na dowodzeniu
wykonania perfekcyjnie własnego kawałka pracy.
Cała energia szła w coraz to nowe
dowodzenie racji stron i - niezależnie
od rozstrzygnięcia - wcale nie
prowadziło to do rozwiązania
problemu.
Stosowanie powyższych zasad nie daje gwarancji sukcesu.
Nie jest to jedyne możliwe podejście. Ale wydaje się, że na
dziś jest jednym z rozsądniejszych i możliwych do zastosowania także w średnich i dużych organizacjach. Bazuje
na podejściu zwinnym, jednocześnie nie rezygnując z dobrodziejstw dojrzałego zorganizowania IT, operującego na
ogólniejszych poziomach abstrakcji. Każda organizacja jest
inna, złożona. W zespołach pracują różni ludzie, przyzwyczajeni do przeróżnych stylów pracy. Pogodzenie pozornie
sprzecznych ról, trendów i metodyk jest zadaniem trudnym,
ale wykonalnym.
Krzysztof Wilniewczyc,
architekt
PRENUMERATA
MAGAZYNU
PRENUMERATA
ROCZNA
12 wydań regularnych magazynu ITwiz
Wersja cyfrowa – dostęp za pośrednictwem jednego urządzenia iOS/Android
lub poprzez przeglądarkę internetową
Koszt pakietu:
216 zł brutto
Koszt pakietu po rabacie:
180 zł brutto (w tym 5% VAT)
PAKIET
PREMIUM
Raport ITwiz BEST100: „Dwa oblicza IT w Polsce
– Ranking firm IT i analiza potrzeb ich klientów”
– edycja 2016 (data wydania: 15 czerwca 2016 r.)
12 wydań regularnych magazynu ITwiz
Raport: Bezpieczeństwo IT (data wydania: kwiecień 2016 r.)
Raport: Internet Rzeczy i Big Data (data wydania:
maj 2016 r.)
Raport: Bussines IT w przemyśle i logistyce (data
wydania: 14 września 2016 r.)
Raport: Aplikacje biznesowe – perspektywa 2017
(data wydania: 15 listopada 2016 r.)
Wersja cyfrowa – dostęp za pośrednictwem jednego urządzenia iOS/Android
lub poprzez przeglądarkę internetową
Koszt pakietu: 625 zł brutto
Koszt pakietu po rabacie: 395 zł brutto
(w tym 5% VAT)
Prenumeratę można zamówić,
pisząc na adres [email protected]
PRENUMERATA
PÓŁROCZNA
6 wydań regularnych
Wersja cyfrowa – dostęp za pośrednictwem jednego urządzenia iOS/Android
lub poprzez przeglądarkę internetową
Koszt pakietu: 108 zł brutto
(w tym 5% VAT)
CSO
CSO
Czas pomyśleć
Security
o
by
Desing
‘Prywatność w fazie projektowania’ i ‘bezpieczeństwo w fazie projektowania’
to terminy coraz częściej pojawiające się na licznych spotkaniach branżowych.
Wspomniane hasła nie są nowością dla większości z nas parających się
technologią, jednakże nabierają ogromnego znaczenia przy obecnych
nowinkach technologicznych, np. związanych z internetem rzeczy.
38
MAGAZYN
ITWIZ
kwiecień 2016
CSO
uwaga!
budowa
Security
by Desing
Security by Design to koncepcja rozwoju
oprogramowania i sprzętu, która stara
się, aby powstające systemy były wolne
od luk i odporne na ataki. Jest to
możliwe do osiągnięcia za pomocą
takich środków, jak ciągłe testowanie
zabezpieczeń uwierzytelniania
i przestrzegania dobrych praktyk
programowania. Bezpieczeństwo poprzez
projektowanie szybko stanie się kluczowe
w środowisku internetu rzeczy, w którym prawie
każde urządzenie, obiekt lub podmiot otrzyma
unikalny identyfikator (UID) i adres IP.
W szerokiej i szybko rozwijającej się dziedzinie urządzeń
i czujników podłączonych do internetu należy ujmować
element bezpieczeństwa i prywatności danych już na
poziomie projektowania. Dostawcy powinni dać użytkownikom opcje ograniczania gromadzenia ich danych.
Ponadto powinni przyjąć sensowne zasady uprzedzania
(notyfikowania), jakie informacje i do czego są wykorzystywane. Powinni również dostarczyć możliwość dokonania wyboru ich publikowania, bądź nie.
Rośnie liczba urządzeń IoT bez
odpowiedniego zabezpieczenia
Urządzenia podłączone do internetu, zarówno samochód, smartfon czy rozrusznik serca – jak to pokazały
doświadczenia i prezentacja profesora Aviego Rubina
na konferencji TEDx – mogą być bardzo łatwo zhakowane. W wyniku takiego ataku, kontrola nad nimi zostanie
w pełni przejęta przez atakującego. Wystarczy upór i talent. Urządzenia mogą nie tylko stanowić zagrożenie dla
naszej prywatności, ale same w sobie być zagrożeniem dla
użytkowników, o ile producenci nie uwzględniają właściwego podejścia do zabezpieczeń.
Internety rzeczy ma ogromny potencjał. Nie mam co do
tego wątpliwości. Przekształca nasze codzienne życie,
zapewnia ogromne korzyści dla konsumentów, ale zmieni
również spojrzenie na nasze bezpieczeństwo i prywatność. To był już gorący temat na tegorocznych targach
CES w Las Vegas, gdzie producenci z całego świata prezentują najnowsze aplikacje i urządzenia, które mają na
celu m.in. rozwijać opiekę zdrowotną, efektywność wykorzystywania energii i budowę inteligentnych miast.
Na CES 2016 np. Samsung pokazał lodówkę z linii Family Hub z aplikacją Groceries by MasterCard. Dzięki niej
w Stanach Zjednoczonych można, posługując się dużym
wyświetlaczem na lodówce, zamawiać produkty spożywcze z takich sieci e-sklepów, jak FreshDirect i ShopRite.
Lodówka sama także analizuje to, jakie mamy i jakich artykułów spożywczych nam brakuje. Teoretycznie wkrótce
sama będzie dokonywać zakupów (więcej w wywiadzie
z Aleksandrem Naganowskim, dyrektorem ds. rozwoju nowego biznesu w polskim oddziale MasterCard Europe na
str. 10). Temat IoT zapewne pozostanie gorącym na tych
targach rozwiązań konsumenckich przez kolejne lata. Pojawia się jednak także na targach, takich jak Mobile World
Congress w Barcelonie, czy też salonach samochodowych.
Bezpieczeństwo projektowane już
na etapie „deski kreślarskiej”
Wielu ekspertów bezpieczeństwa przestrzega przed
wszechobecną pogonią przemysłu za tworzeniem coraz
większej liczby, coraz tańszych, samodzielnych urządzeń
podłączonych do internetu. Jednocześnie przywołują koncepcję Security by Design (SBD) jako jedno ze słusznych
i właściwych podejść do omawianego problemu. Produkty
obecnie oferowane bywają bardzo tanie i przeznaczone
do powszechnego wdrożenia, co powoduje, że dużym
wyzwaniem jest to, aby je odpowiednio zabezpieczyć.
Bywają też urządzenia IoT do jednorazowego użytku. Są
Bezpieczeństwo w fazie projektowania
to podejście do bezpieczeństwa
informacji, które jest jednocześnie
holistyczne, oszczędne, wyprzedzające,
interdyscyplinarne, solidne, rzetelne
i osadzone w systemach. Regulatorzy
zachęcają producentów, co niestety nie jest im na
rękę, do przyjęcia polityki minimalizacji danych, które
ograniczają rodzaje gromadzonych informacji,
i skracania czasu ich utrzymywania na urządzeniach.
Choć to brzmi banalnie, dane, które nie zostały
pobrane lub zostały już zniszczone, nie mogą wpaść
w niepowołane ręce.
bardzo lekkie i nie przewidują aktualizacji zabezpieczeń.
Czy będziemy wkrótce świadkami – jak ma to dziś miejsce
w branży samochodowej – wezwań do serwisu lub naprawy gwarancyjnej, gdy dane urządzenie okaże się wadliwe
lub niebezpieczne dla zdrowia? Zagrożenie cyfrowe do tej
pory rozważane teoretycznie, bardzo szybko może stać się
zagrożeniem realnym, dotykającym świata fizycznego.
Security by Design to koncepcja rozwoju oprogramowania
i sprzętu, która stara się, by powstające systemy były wolne od luk i odporne na atak. Jest to możliwe do osiągnięcia
kwiecień 2016
ITWIZ MAGAZYN
39
CSO
za pomocą takich środków, jak ciągłe testowanie zabezpieczeń uwierzytelniania i przestrzeganie dobrych praktyk
programowania. Bezpieczeństwo poprzez projektowanie
szybko stanie się kluczowe w środowisku internetu rzeczy,
w którym prawie każde urządzenie, obiekt lub podmiot
otrzyma unikalny identyfikator (UID) i adres IP. Jednym
z głównych wyzwań związanych z bezpieczeństwem jest
fakt, że jako takie nie jest ono tradycyjnie uwzględniane
w projektowaniu urządzeń i obiektów, które nie są (bądź
nie były) zwykle osadzone na stałe w internecie.
Bezpieczeństwo informacji w kontekście IoT
Omawiane podejście kontrastuje z mniej rygorystycznymi
podejściami, w tym bezpieczeństwa przez zapomnienie,
bezpieczeństwa poprzez minimalizację i bezpieczeństwa
poprzez starzenie. Biorąc pod uwagę koncepcję Security by Design, należy zapewnić: integralność, co oznacza
ochronę przed niewłaściwymi modyfikacjami informacji
lub jej zniszczeniem, zachowanie autentyczności danych; poufność, co oznacza zachowanie autoryzowanych
ograniczeń dostępu, zapewnienie środków dotyczących
ochrony prywatności i zastrzeżonych informacji; dostępność, co oznacza zagwarantowanie terminowego i niezawodnego dostępu do informacji.
Termin Secure by Default stosuje
zasadę zabezpieczania danych w źródle.
Wszystkie dane powinny być
bezpiecznie osadzone, a systemy, które
zużywają, przetwarzają i przechowują
te dane, muszą być zgodne
z wbudowanymi zasadami
zabezpieczeń. Takie podejście nie jest tak
powszechne. Do tej pory nie udało się umieścić
bezpieczeństwa do każdego elementu danych,
ponieważ gdy jest tworzony, stwarza poważne
problemy, szczególnie dla różnorodnych agencji
rządowych.
Bezpieczeństwo informacji było traktowane dotąd przede
wszystkim jako mechanizm obronny, służący do ochrony
działalności przedsiębiorstw i aktywów. Coraz częściej
jednak jest promowane do tego, aby prawidłowo wdrożone procesy i technologie bezpieczeństwa informacji
mogły służyć wpływaniu na osiągane cele biznesowe.
Przykładowo, jeśli firma z branży finansowej ma za cel
zwiększenie przychodów poprzez poprawę zadowolenia konsumentów, a następnie zapewnienie zarówno
bezpiecznego środowiska do pobierania i zarządzania
informacjami dla użytkowników, jak i bezpiecznych metod udzielania dostępu do takich informacji, to działa-
40
MAGAZYN
ITWIZ
kwiecień 2016
Wbudowanie bezpieczeństwa w dane
w trakcie ich powstawania powinno
być priorytetem. Internet rzeczy jest
rzeczywistością, a wszystkie jego
elementy – sprzęt, urządzenia i przyrządy, takie
jak inteligentne zegarki, podłączone urządzenia
medyczne, inteligentne termostaty, samochody
i wiele więcej – tworzą nowy strumień
rozdrobnionych, powszechnie
niezabezpieczonych danych. Jak długo
pozwolimy na taki stan, godząc się na niską cenę?
nia i promocja podejścia SBD może zwiększyć zaufanie
klientów do firmy, co doprowadzi do uzyskania nowych
przychodów. Oczywiście trzeba brać pod uwagę fakt, że
są różne segmenty klientów i różne produkty.
Programiści powinni myśleć
już o bezpieczeństwie, a nie
tylko funkcjonalności
Przez bezpieczeństwo w fazie projektowania mam na
myśli podejście do bezpieczeństwa informacji, które jest
jednocześnie holistyczne, oszczędne, wyprzedzające, interdyscyplinarne, solidne, rzetelne i osadzone w systemach. Regulatorzy zachęcają producentów – co niestety
nie jest im na rękę – do przyjęcia polityki minimalizacji danych, które ograniczają rodzaje gromadzonych informacji,
i skracania czasu ich utrzymywania na urządzeniach. Choć
to brzmi banalnie, dane, które nie zostały pobrane lub zostały już zniszczone, nie mogą wpaść w niepowołane ręce.
Należy również poprawić metody, w jaki sposób dostawcy
powiadamiają o tym, jak dane użytkowników są wykorzystywane, udostępniane, a następnie zaoferować narzędzia pozwalające im wyłączyć rodzaje zbieranych danych
i ich współdzielenia. Inwestycje powinny być równo rozłożone także pomiędzy prywatność i bezpieczeństwo. Trudno mi się wypowiedzieć, czy same wspomniane zachęty
wystarczą, aby żyło nam się bezpieczniej w świecie coraz
bardziej otoczonym przez internet rzeczy.
cisza!
PROGRAMISTA
MYŚLI
CSO
Budowanie prywatności i bezpieczeństwa przez projektowanie odbywa się na początku procesu R&D, zamiast po
fakcie i masowej produkcji. To może wydawać się kłopotliwe w obliczu pragnienia ludzkiej natury dbania o funkcjonalność w pierwszej kolejności. Programiści mają tendencję, aby czekać, aż technologia osiągnie dojrzałość,
i dopiero potem zintegrować funkcję bezpieczeństwa.
Na szczęście ta mentalność zmienia się, bo naruszenia
bezpieczeństwa danych są na nagłówkach gazet i serwisów internetowych praktycznie każdego dnia. Zaczynamy
budować bezpieczeństwo sieci, aplikacji, a także na poziomie procesów, od samego początku procesu projektowania i wytwarzania.
Dane powinny
być domyślnie zabezpieczone
Mniej znany termin Secure by Default stosuje tę samą
zasadę do zabezpieczania danych w źródle. Wszystkie
dane powinny być bezpiecznie osadzone, a systemy, które
zużywają, przetwarzają i przechowują te dane, muszą być
zgodne z wbudowanymi zasadami zabezpieczeń. Takie
podejście nie jest powszechne. Do tej pory nie udało się
umieścić bezpieczeństwa w każdym elemencie danych,
ponieważ gdy jest tworzony, stwarza poważne problemy,
szczególnie dla różnorodnych agencji rządowych.
Można jednak znaleźć połączenie pomiędzy cyberbezpieczeństwem i bezpieczeństwem danych. Określenia
cyberbezpieczeństwo, prywatność przez projektowanie,
bezpieczeństwo przez projektowanie odnoszą się do bezpieczeństwa naszych systemów. Z kolei bezpieczeństwo
danych i dane domyślnie zabezpieczone dotyczą zabezpieczania naszych informacji. Wszystkie pojęcia są podobne, ale bez zabezpieczenia naszych systemów ochrony
informacji nie mają sensu. Zagrożenie wciąż pozostaje.
Nawet jeśli systemy są chronione, to dane wewnątrz mogą
być nadal zagrożone. Dlatego też słyszymy ostatnio dużo
o głośnych włamaniach w bankowości.
Urządzenia podłączone do internetu,
zarówno samochód, smartfon, jak
i rozrusznik serca, mogą być bardzo
łatwo zhakowane. W wyniku takiego
ataku, kontrola nad nimi zostanie
w pełni przejęta przez atakującego.
Wystarczy upór i talent. Urządzenia mogą nie tylko
stanowić zagrożenie dla naszej prywatności, ale
same w sobie być zagrożeniem dla użytkowników,
o ile producenci nie uwzględniają właściwego
podejścia do zabezpieczeń.
UWAGA!
DANE
ZABEZPIECZONE
z
UWZGLĘDNIAJĄC KONCEPCJĘ SECURITY BY
DESIGN, NALEŻY ZAPEWNIĆ:
integralność – co oznacza ochronę przed niewłaściwymi
modyfikacjami informacji lub jej zniszczeniem,
zachowanie autentyczności danych;
poufność – co oznacza zachowanie autoryzowanych
ograniczeń dostępu, zapewnienie środków dotyczących
ochrony prywatności i zastrzeżonych informacji;
dostępność – co oznacza zapewnienie terminowego
i niezawodnego dostępu do informacji.
Wbudowanie bezpieczeństwa w dane w trakcie ich powstawania powinno być priorytetem. Internet rzeczy
jest rzeczywistością, a wszystkie jego elementy – sprzęt,
urządzenia i przyrządy, takie jak inteligentne zegarki,
podłączone urządzenia medyczne, inteligentne termostaty, samochody i wiele więcej – generują nowy strumień rozdrobnionych, powszechnie niezabezpieczonych
danych. Jak długo pozwolimy na taki stan, godząc się na
niską cenę?
Powinniśmy rozmawiać i wnioskować o ustanowienie
standardu, który zapewni bezpieczeństwo danych w momencie ich tworzenia. Dane domyślnie zabezpieczone
i bezpieczeństwo przez projektowanie są obecnie technicznie wykonalne. Ale nie jest tak proste jak się wydaje,
ponieważ istnieje tak wiele różnych grup tworzących nowe
standardy – od technologów, po producentów, prywatne
grupy i innych – że stosowane normy stały się bardzo rozdrobnione. Brakuje im w związku z tym powszechności,
aby były skuteczne.
Ponieważ nadal jesteśmy w początkowej fazie, możemy
mieć możliwość ujednolicenia praktyk, by zabezpieczyć
dane i nas na przyszłość.
Dawid Pawłowski,
członek Rady Nadzorczej Aforti Holding
oraz Rady Programowej CIONET Polska
kwiecień 2016
ITWIZ MAGAZYN
41
CSO
Malware GozNym
wziął na celownik klientów prawie
250 polskich banków
Jak wskazuje raport IBM X-force, złośliwe oprogramowanie GozNym podszywa
się pod internetowe strony 17 banków komercyjnych i 230 banków spółdzielczych
w Polsce. Na początku kwietnia 2016 r. ten sam trojan pojawił się w USA, Kanadzie
i Portugalii. Atak „pochodził” z serwerów moskiewskich.
Analiza kodu współczesnego złośliwego
oprogramowania wymierzonego w branżę
bankową – takiego, którego głównym celem jest kradzież pieniędzy z kont klientów
– ujawniła już dziesiątki metod, jakimi przestępcy wykradają środki. „Dotyczy to prostych,
ale zaskakująco skutecznych metod – jak podmiana numeru konta w locie podczas wklejania
go na stronie bankowości elektronicznej – czy
bardziej zaawansowanych i wymagających
wcześniejszego przygotowania ataków, podczas
których przestępcy przejmują kontrolę zarówno
nad naszym komputerem/telefonem/tabletem,
jak i nad naszą cyfrową tożsamością” – komentuje Marcin Spychała, w IBM odpowiadający
za rozwój rynku CEE dla rozwiązań przeciwdziałających przestępstwom finansowym
w kanałach elektronicznych.
Masowy cyberatak na polskie banki
Atak, który obecnie obserwujemy w Polsce
z wykorzystaniem malware o nazwie GozNym, jest pod pewnymi względami szczególny i oznacza, że Polska dołączyła do niespecjalnie elitarnego klubu krajów, które będą
najczęściej atakowane przez cyberprzestępców. Co takiego się zmieniło? „Dotychczas
większość ataków w Polsce przeprowadzana
była na pojedyncze banki. Nowy malware
GozNym zaatakował jednocześnie 17 banków
komercyjnych i do ponad 200 banków spółdzielczych. Świadczy to o tym, że przestępcy
niejako ‚docenili’ Polskę jako wartą atakowania
i przygotowali infrastrukturę mającą to ułatwić” – wyjaśnia Marcin Spychała.
Po zainfekowaniu komputera ofiary, złośliwe oprogramowanie GozNym nie dopuszcza
w ogóle klienta do połączenia się ze stroną
bankowości elektronicznej. W zamian przekierowuje ofiarę na fałszywą, ale wyglądają-
42
MAGAZYN
ITWIZ
kwiecień 2016
Po zainfekowaniu komputera ofiary, złośliwe
oprogramowanie GozNym nie dopuszcza w ogóle
klienta do połączenia się ze stroną bankowości
elektronicznej. W zamian przekierowuje ofiarę na fałszywą, ale
wyglądającą identycznie jak prawdziwa stronę banku, gdzie ofiara
wpisuje swoje dane logowania i zdradza je tym samym przestępcom.
Sama metoda takiego ataku jest już znana od 2014
roku, kiedy wykorzystał ją malware Dyre i jego
późniejsze klony. Ale dotychczas była sporadycznie
używana do ataków w Polsce.
cą identycznie jak prawdziwa stronę banku,
gdzie ofiara wpisuje swoje dane logowania
i zdradza je tym samym przestępcom. Sama
metoda takiego ataku jest już znana od 2014
roku, kiedy wykorzystał ją malware Dyre i jego
późniejsze klony. Ale dotychczas była sporadycznie używana do ataków w Polsce. Było to
niejako zrozumiałe, bo przygotowanie infrastruktury informatycznej dla fałszywej strony
bankowej jest zadaniem skomplikowanym
i czasochłonnym. Ponadto przestępcy również kalkulują, czy atak opłaci się im ekonomicznie – innymi słowy, czy zyski z kradzieży
przewyższą koszty przygotowania. Dlatego
dotychczas widzieliśmy tego typu ataki tylko
na pojedyncze spośród największych banków
w Polsce. Fakt, że grupa przestępcza stojąca
za atakiem zainwestowała w infrastrukturę
fałszywych stron bankowych środki i pracę
w takiej skali, świadczy o tym, że dla przestępców staliśmy się ważnym źródłem przychodów.
Przejęcie jednorazowego
kodu autoryzacyjnego
Jak wyjaśnia serwis ZaufanaTrzeciaStrona.pl,
głównym celem przestępcy, który chce ukraść
pieniądze z konta ofiary, jest autoryzowanie
przelewu. Aby ten cel osiągnąć, musi najczęściej albo odczytać SMS na telefonie ofiary
(nakłaniając ją wcześniej do zainstalowania
złośliwego oprogramowania na telefonie),
albo nakłonić ofiarę do wpisania kodu z SMS-a nie tam lub nie wtedy, gdy trzeba. Właśnie
ten drugi scenariusz (przynajmniej na razie)
realizuje „GozNym”.
Dawniej konie trojańskie głównie modyfikowały prawdziwą stronę internetową banku
wyświetlaną na komputerze klienta – metoda ta nazywana jest webinjectem. Klient
wchodził na stronę banku, a koń trojański
dodawał mu nowy formularz z prośbą o podanie kodu jednorazowego, np. ze względu
na aktualizację danych lub otrzymanie darmowego ubezpieczenia. Klient kod przepisywał z SMS-a, nie czytając jego opisu, a w tle
program wykonywał przelew na cudze konto
lub zatwierdzał przelew zdefiniowany. Banki
jednak nauczyły się takie ataki wykrywać
i konta zainfekowanych klientów blokowały.
Przestępcy wymyślili zatem nową metodę.
Adam Jadczak
ITFocus.pl
centrum wiedzy na temat zaawansowanych rozwiązań IT
dla przedsiębiorstw
najważniejsze informacje
o nowych produktach
i technologiach
rzetelne, merytoryczne
artykuły i poradniki
dostępne bez konieczności
ponoszenia opłat
blogi
eksperckie
kalendarium wydarzeń
związanych z daną
branżą
czytelny podział
na działy tematyczne
i rodzaje treści
ITFocus.pl współpracuje z szerokim gronem niezależnych ekspertów z branży
informatycznej. Skupia się na zagadnieniach związanych z projektowaniem
i utrzymaniem centrów danych oraz sieci firmowych, bezpieczeństwem systemów
oraz wykorzystaniem środowisk chmurowych.
W serwisie m.in.:
•
bezpieczeństwo informacji • backup środowisk wirtualnych i fizycznych
• internet rzeczy • wirtualizacja zasobów IT • projektowanie i budowa sieci
wejdź na: www.itfocus.pl
PROJECT MANAGER
PROJECT MANAGER
44
MAGAZYN
Partnerstwo
zaczyna się od otwartej
komunikacji
Partnerstwo pomiędzy IT a biznesem jest ważne. Nie sposób się
z tym nie zgodzić. Firmy, które nie potrafią wyjść poza podział my-oni
– w którym to biznes jest decydentem, a IT jedynie funkcją wsparcia
– same sobie odbierają szansę na zdobycie przewagi konkurencyjnej
w dzisiejszym, cyfrowym świecie. W tekście tym prezentujemy
doświadczenia zdobywane przez lata w Banku BPH.
ITWIZ
kwiecień 2016
PROJECT MANAGER
Pomimo że SLA zawierane na usługę
biznesową poniekąd stawia IT w roli
dostawcy, świadomi menedżerowie IT
mogą wykorzystać tak definiowane
zobowiązanie do zdobycia cennej
informacji zwrotnej. Można tego
dokonać w prosty sposób
– wprowadzając w ramach przeglądów
SLA cykliczną, subiektywną ocenę
jakości pracy IT dokonywaną przez menedżerów
biznesowych. Tworzymy w ten sposób dodatkową,
opartą na zaufaniu przestrzeń do budowania
otwartej komunikacji wykraczającej poza ramy SLA.
Oceny od menedżerów obrazują, jak działania IT
przekładają się na osiąganie założonych przez biznes
celów.
Mówiąc o partnerstwie IT-biznes, nasuwa się analogia do
gry w piłkę. Mecze wygrywają jedynie drużyny, których
zawodnicy potrafią się ze sobą dobrze komunikować i rozumieją, że aby zdobyć bramkę, muszą ze sobą współpracować. Zanim jednak w pełni nabędą tę umiejętność, ćwiczą ją
na wielogodzinnych treningach. Nie inaczej jest w firmach.
Jeżeli chcemy, aby w naszej organizacji relacja IT-biznes
była prawdziwie partnerska, postawmy na naukę otwartej
komunikacji pomiędzy obiema stronami. Nasz „trening”
warto zacząć od pozyskiwania informacji zwrotnej od biznesu. Należy ten proces wspierać za pomocą konkretnych,
ustandaryzowanych narzędzi. Jest to szczególnie przydatne
w organizacjach, które zatrudniają bardzo dużo pracowników, od kilkuset do kilku tysięcy.
Oczami biznesu
Do narzędzi, które pozwalają na ustandaryzowanie komunikacji pomiędzy IT a biznesem, zaliczamy kontrakty
SLA (Service Level Agreement). Pomimo że SLA zawierane
na usługę biznesową poniekąd stawia IT w roli dostawcy,
świadomi menedżerowie IT mogą wykorzystać tak definiowane zobowiązanie do zdobycia cennej informacji zwrotnej. Można tego dokonać w prosty sposób – wprowadzając
w ramach przeglądów SLA cykliczną, subiektywną ocenę
jakości pracy IT dokonywaną przez menedżerów biznesowych. Tworzymy w ten sposób dodatkową, opartą na
zaufaniu przestrzeń do budowania otwartej komunikacji
wykraczającej poza ramy SLA. Oceny od menedżerów obrazują, jak działania IT przekładają się na osiąganie założonych przez biznes celów.
Jeżeli chcemy budować partnerską relację IT-biznes
i wzmacniać świadomość jej wpływu na osiąganie celów
całej organizacji, bardzo ważne jest, aby ta informacja nie
pozostała jedynie na poziomie kadry zarządzającej. Wpływ
na ocenę mają bowiem rezultaty pracy wszystkich pracowników IT. Zadbajmy więc o to, by ta informacja zwrotna
dotarła również do nich.
Jeśli myślimy o świadomym pozyskiwaniu informacji zwrotnej, warto mieć na uwadze to, aby pochodziła ona z różnych
szczebli organizacji – zarówno od kadry menedżerskiej,
jak i od sprzedawców, kontrahentów, pracowników call
center itp. To użytkownicy biznesowi są bezpośrednimi
odbiorcami usług IT, pracującymi na co dzień na naszych
systemach. Ich współpraca z nami odbywa się na innych
płaszczyznach niż kadry zarządzającej, perspektywa, z jakiej nas oceniają, też jest więc nieco inna. Nie oznacza to
jednak, że mniej cenna.
Przykładem może być postrzeganie przez użytkowników
firmowego help desku IT. Jego pracownicy obsługują często kilkaset spraw dziennie. Nawet jeżeli udaje się osiągać
wysoki service level, a 90% spraw rozwiązujemy podczas
pierwszego kontaktu, percepcja współpracy z IT wśród
użytkowników może nie być taka, jakiej byśmy oczekiwali.
Bo czy szybkie rozwiązanie sprawy wystarczy, aby zadowolić osobę, która ją zgłosiła? Okazuje się, że nie. Tym, na co
użytkownicy często zwracają uwagę, oceniając zadowolenie z rozwiązania ich zgłoszenia, jest personalne podejście
pracownika IT, czyli nic innego jak sposób komunikacji!
Nawet jeżeli w help desku udaje się osiągać wysoki
service level, a 90% spraw rozwiązujemy podczas
pierwszego kontaktu, percepcja współpracy z IT
wśród użytkowników może nie być taka, jakiej byśmy
oczekiwali. Czy szybkie rozwiązanie
sprawy wystarczy, aby zadowolić
osobę, która ją zgłosiła? Okazuje się, że
nie. Tym, na co użytkownicy często
zwracają uwagę, oceniając zadowolenie
z rozwiązania ich zgłoszenia, jest
personalne podejście pracownika IT,
czyli nic innego jak sposób
komunikacji!
Do podobnych wniosków, również w innych obszarach
współpracy z użytkownikami, możemy dojść po analizie
ich odpowiedzi na jedno proste pytanie: „Czy poleciłbyś
naszą organizację IT znajomym?”. Jest ono elementem
badania NPS (Net Promoter Score), które w swoim zamierzeniu służy do pomiaru lojalności klientów wobec
marki. To badanie może być z powodzeniem stosowane
przez organizacje IT do określenia poziomu zadowolenia
kwiecień 2016
ITWIZ MAGAZYN
45
PROJECT MANAGER
Relacje IT z biznesem oparte na
kontraktach SLA
– które zawierają zobowiązania
określone w sposób pozwalający ocenić
performance całego biznesu – są
jedynie, albo aż, ustandaryzowanym
kanałem komunikacji pomiędzy
stronami. Bez pozytywnych intencji pracowników,
ich szefów, wzajemnego biznesowego zaufania oraz
entuzjazmu po obu stronach, trudno będzie o tę
wartość dodaną, na której tak bardzo nam zależy.
Wszystko w rękach liderów, których rola jest
kluczowa dla powodzenia tych relacji.
Michał Godlewski, dyrektor Biura Optymalizacji i Wsparcia
Organizacji w Pionie Informatyki, Banku BPH SA, Grupa GE
Capital, od ponad 8 lat związany z zarządzaniem usługami IT
i relacjami z klientem, odpowiedzialny za procesy taktyczne ITIL
(m.in. SLM), rozwój organizacji oraz portfel projektów
optymalizacyjnych
46
MAGAZYN
ITWIZ
kwiecień 2016
PROJECT MANAGER
klientów biznesowych z usług IT. Jako że korzystają z niego firmy z całego świata, pozwala również porównać, jak
nasza organizacja wypada na ich tle. Jeżeli nasz wynik
plasuje się powyżej średniej, może to być dla nas powód
do zadowolenia – nasza firma rozumie zasady, na których
w dzisiejszych czasach opiera się partnerstwo IT-biznes.
Aby badanie NPS było miarodajne, przy jego kolejnych
edycjach warto konsekwentnie trzymać się przyjętej
formuły, zawsze pytając o to samo i w ten sam sposób.
Pozwoli nam to zachować spójność danych i ułatwi ocenę
skuteczności podejmowanych działań. Otrzymane wyniki
mogą posłużyć także jako podstawa do budowania strategii komunikacji i rozwoju organizacji.
Głos klienta zewnętrznego
Badanie NPS warto przeprowadzić chociaż raz w roku.
O informację zwrotną od użytkowników biznesowych
dobrze jest jednak zabiegać codziennie. Można do tego
wykorzystać proces rozwiązywania zgłoszeń przez wspomniany już wcześniej help desk. Po zamknięciu zgłoszenia,
warto użytkownikowi, którego dotyczyła sprawa, wysłać
link do ankiety, w której będzie mógł ocenić realizację.
Można go również zapytać o odczucia bezpośrednio przez
telefon.
Jednym z podstawowych celów każdej firmy jest zdobycie
klienta i utrzymanie jego lojalności. Jeżeli chcemy, aby
pracownicy IT w pełni poczuli wagę tego elementu strategii biznesowej, warto angażować ich np. w rozwiązywanie
reklamacji od klientów zewnętrznych. Nie musi to oznaczać dodatkowej pracy po stronie IT. Działając w rygorze
procesu Incident Management, rozwiązujemy przecież
tego typu zdarzenia. Jednak odpowiednio komunikując
ich znaczenie z perspektywy klienta zewnętrznego, można
znacząco podnieść świadomość pracowników IT, w jaki
sposób ich praca wpływa na klientów naszej organizacji.
Niech nas usłyszą!
Komunikacja w partnerskiej relacji opiera się na dialogu.
Oprócz pozyskiwania informacji zwrotnej, pamiętajmy
również o jej dawaniu. Nawet jeżeli rezultaty naszych działań są znakomite, nikt się nie dowie, ile pracy włożyliśmy,
jeżeli sami tego nie powiemy. Warto więc, aby ta informacja trafiła do świadomości wszystkich pracowników firmy.
Planując komunikację, pamiętajmy jednak, że zarówno
procesy IT, jak i język techniczny są często niezrozumiałe dla przeciętnego użytkownika biznesowego. Należy
więc przyjąć zupełnie nowe spojrzenie na komunikację
wewnętrzną, która płynie z IT do biznesu.
Można przygotować w organizacji ciekawą kampanię,
która przypomni o prowadzonych przez IT inicjatywach,
wysłać do pracowników nowoczesną, graficzną komunikację mailową o prowadzonych przez IT projektach. Sposobów jest naprawdę sporo. Powinny one jednak zawsze
Jakość współpracy z użytkownikami
możemy ocenić po analizie ich
odpowiedzi na jedno proste pytanie:
„Czy poleciłbyś naszą organizację IT
znajomym?”. Jest ono elementem
badania NPS (Net Promoter Score),
które w swoim zamierzeniu służy do
pomiaru lojalności klientów wobec
marki. To badanie może być z powodzeniem
stosowane przez organizacje IT do określenia
poziomu zadowolenia klientów biznesowych z usług
IT. Jako że korzystają z niego firmy z całego świata,
pozwala również porównać, jak nasza organizacja
wypada na ich tle.
być dla użytkowników biznesowych atrakcyjne i przyciągać ich uwagę. Stanowią one w końcu reklamę naszych
działań. Nie chcemy przecież, aby została niezauważona.
Pamiętajmy również o dopasowaniu treści komunikatu
do odbiorcy. Możemy napisać wprost, że rozbudowaliśmy naszą infrastrukturę, dodaliśmy RAM-u do naszych
maszyn, ale przeciętny użytkownik biznesowy nie zrozumie, z jakimi korzyściami dla niego się to wiąże. Ale jeśli
zakomunikujemy, że będzie mógł szybciej obsługiwać
klientów, ponieważ usprawniliśmy działanie systemów
poprzez dodanie do nich pamięci, powinniśmy zyskać
jego zainteresowanie.
Proces pozyskiwania i dawania informacji zwrotnej powinien być prowadzony w sposób przemyślany. Co jakiś
czas warto również spojrzeć na niego krytycznym okiem
i przeanalizować, czy działania, które podejmujemy, są
nadal spójne z naszymi celami i czy przynoszą efekty,
których oczekujemy. Jeżeli widzimy taką potrzebę, nie
bójmy się wprowadzać nowych rozwiązań.
Nauka otwartej komunikacji wymaga dużego zaangażowania zarówno po stronie IT, jak i biznesu. To jednak inwestycja w silną i potrafiącą współpracować drużynę. Aby
jej członkowie świadomie wykorzystywali komunikację do
osiągania celów organizacji, warto dodatkowo wesprzeć
ich działaniami rozwojowymi. Takie połączenie to solidny
fundament pod budowę prawdziwie partnerskiej relacji,
dzięki której nasza firma pozostanie silnym graczem na
dzisiejszym, ogromnie konkurencyjnym rynku.
Jakub Olejniczak,
menedżer ds. projektów w Banku BPH SA, Grupa GE Capital,
odpowiedzialny za przygotowanie i wdrożenie strategii komunikacji
dla Pionu Informatyki w Banku BPH SA
kwiecień 2016
ITWIZ MAGAZYN
47
PROJECT MANAGER
O błędach, które
popełniłam jako początkujący
Product
Owner
Kilka lat temu miałam okazję tworzyć start-up, w ramach dużej spółki. Początkowo
w chaosie, bez zastosowania żadnej metody pracy. Na kilkanaście tygodni przed
wdrożeniem produkcyjnym szef zespołu deweloperskiego zachęcał nasz zespół
koncepcyjny do zastosowania techniki MoSCoW. Zróbcie listę rzeczy, które muszą
wejść na proda – „Must have”, które powinny wejść – „Shouldhave” i resztę
„Couldhave”, „Won’thave”. Wszystkiego nie damy rady zrobić. Zupełnie nie
rozumieliśmy, czego od nas oczekuje. Wszystko w naszym długim backlogu było
„Must have”!
48
MAGAZYN
ITWIZ
kwiecień 2016
PROJECT MANAGER
Warto wypracować wspólnie
z zespołem wersję MVP (Minimum
Viable Product) naszego serwisu,
którą można wcześniej zweryfikować
z rynkiem – pokazać użytkownikom i na
podstawie feedbacku od nich i akcji
podejmowanych w serwisie
przyrostowo rozbudowywać. Częste
wdrożenia i śledzenie zachowań użytkowników
pozwoliłyby dużo szybciej wyłapać chybione
pomysły i zwiększyłyby szanse na realizację
tematów wnoszących wartość dla tych
użytkowników.
Po negocjacjach udało nam się dojść do porozumienia
i spriorytetyzować listę tematów. Kiedy zaczęliśmy pracować Scrumem, było już tylko lepiej. Regularny rytm i przewidywalne tempo pracy, częste spotkania z deweloperami,
cykliczne planowanie, usprawnienia sposobu pracy. No
może poza tym, że zarówno jako specjalista ds. rozwoju
– jak i późniejszy Product Owner zespołu scrumowego – popełniłam podobne błędy. Zmieniły się narzędzia, poprawiła
komunikacja i atmosfera w zespole, ale błędy pozostały. Dla
wielu z Was będą oczywiste. Wciąż jednak spotykam się
z nimi u innych początkujących Product Ownerów, dlatego
zdecydowałam się o nich napisać. Oto zatem moja osobista lista błędów, które przeszkadzają w byciu naprawdę
dobrym Product Ownerem. Czytajcie i nie popełniajcie ich!
1. Rozwiązania dla wszystkich, czyli dla nikogo
Podchodząc do tematu nowego serwisu, miałam ambicję
zrobić COŚ wielkiego, COŚ, z czego będą korzystać rzesze internautów. Byłam przekonana, że mamy dobrze zdefiniowaną
grupę docelową, a właściwie kilka grup, skoro zasięg miał być
duży. Każda z potencjalnie innymi potrzebami i oczekiwaniami, co sprawiło, że niemożliwe było precyzyjne określenie
potrzeb i oczekiwań użytkownika końcowego rozwiązań.
Efekt – „ficzeriada”, miszmasz funkcjonalności spowodowany próbami stworzenia CZEGOŚ wyjątkowego dla
wszystkich, każdej grupy z osobna. Brak dobrze zdefiniowanej grupy docelowej (jak to dziś interpretuję) spowodował
też trudności z planowaniem strategii i akcji marketingowych (do kogo je kierować?). Podsumowując, nie polecam
takiego podejścia.
2. Zakochanie we własnych pomysłach
Jak już coś wymyśliłam, skonsultowałam ze znajomymi
z branży, a na podstawie feedbacku od nich dopracowałam, to musiało być dobre. Na tyle dobre, aby bronić pomysłów w zaparte, nawet jeśli zakładały zmianę przyzwyczajeń użytkownika. Zamiast tego, można było skupić się
na efektywnym i wiarygodnym zweryfikowaniu zamiarów
przed wdrożeniem ich w życie.
3. Big Bang dla użytkownika
Wyobraźcie sobie, że ktoś pokazuje Wam swój nowy serwis,
prosi Was o feedback, ale zanim rzucicie na niego okiem,
dodaje z dumą: „Wiesz, budowaliśmy go iteracyjnie i przyrostowo. Fajnie, nie?” „Yyyy, i co z tego?” chciałoby się
odpowiedzieć. Z perspektywy użytkownika naprawdę nie
ma znaczenia, jak wyglądał sposób pracy nad serwisem,
z którego korzysta, albo z jakichś powodów korzystać nie
chce. Dla niego liczą się efekty tej pracy.
Dialog podobny do tego przytoczonego przeze mnie mógłby odbyć się pomiędzy mną a pierwszymi użytkownikami
serwisu. Nasze wdrożenie było Big Bangiem, mimo że strona powstawała w sensownych krokach. Rozbudowywaliśmy ją jednak do tzw. szuflady, a przed użytkownikami
odkryliśmy dopiero wersję maksimum. Pokazaliśmy im
rozbudowany serwis z dużą ilością opcji, funkcjonalności,
materiałami merytorycznymi… Część z nich okazała się
zbędna, więc niepotrzebnie straciliśmy na nie czas.
W mojej pracy mocno skupiłam się na
ulepszaniu, rozwijaniu produktu. Nie
myślałam o realnych kosztach
związanych z realizacją pomysłów,
o nich myślał mój przełożony. Ja byłam
jedynie osobą od badania rynku, kreatywnych
rozwiązań, planowania i współpracy z zespołem.
Błąd. Dzisiaj bardzo przekonuje mnie
podejście, w którym Product Owner
odpowiada również za budżet, albo
przynajmniej ma go mocno na uwadze.
Dzięki temu podejmuje bardziej
przemyślane decyzje, intuicyjnie szuka
sposobów jak najszybszego uzyskania
feedbacku od użytkownika. Pisząc
o kosztach, mam na myśli koszt zespołu per sprint,
miesiąc, release lub po prostu czas spędzony na
przygotowaniu konkretnych rozwiązań.
Jak mogłam to zrobić inaczej? Wypracować wspólnie z zespołem wersję MVP (Minimum Viable Product) naszego
serwisu, którą można wcześnie zweryfikować z rynkiem
– pokazać użytkownikom i na podstawie feedbacku od nich
i akcji podejmowanych w serwisie przyrostowo rozbudowywać. Częste wdrożenia i śledzenie zachowań użytkowników pozwoliłyby dużo szybciej wyłapać chybione pomysły
i zwiększyłyby szanse na realizację tematów wnoszących
wartość dla tych użytkowników.
kwiecień 2016
ITWIZ MAGAZYN
49
PROJECT MANAGER
4. Zbyt szczegółowo rozpisany backlog
Początkujący Product Ownerzy zazwyczaj albo zaniedbują Product Backlog, albo zbyt pieczołowicie go rozpisują.
Ja należałam do tych drugich. Skrupulatnie rozpisane historyjki i sprinty zaplanowane z dużym wyprzedzeniem
w praktyce oznaczały niewielkie zaangażowanie zespołu
w prace koncepcyjne i planowanie bez brania pod uwagę
feedbacku użytkownika końcowego. Nie za bardzo agile.
Zdecydowanie większą wartość przyniosłoby skoncentrowanie sił i moich, i zespołu na częstych wdrożeniach oraz
weryfikacji, na ile pomysły faktycznie przypadają do gustu
naszym użytkownikom i czy wpływają na poszerzanie zasięgu serwisu.
5. Bezużyteczne KPI-s
(KeyPerformance Indicators)
Jako Product Owner dysponowałam kluczowymi wskaźnikami efektywności dla produktu (KPI). Moim celem
mogło być np. wypracowanie X więcej nowych unikalnych użytkowników w określonym czasie, albo X użytkowników, którzy podejmują określone akcje w serwisie.
Problem polegał na tym, że KPI było za dużo i za często
się zmieniały np. z liczby użytkowników na finansowe
w ciągu 3 miesięcy. W tak krótkim czasie trudno było
wprowadzić zmiany i sprawdzić, czy spowodowały oczekiwane efekty. Ponadto, moje cele nie były zbieżne z zespołowymi. Jak się pewnie domyślacie, w efekcie KPI nie
były realnym punktem odniesienia ani dla mnie, ani dla
zespołu. A szkoda. Zamiast ciągnąć kilka srok za ogon,
i to w różne strony, można było skupić się na tej najważniejszej. Całym zespołem.
6. Nieliczenie kosztów
W mojej pracy mocno skupiłam się na ulepszaniu, rozwijaniu produktu. Nie myślałam o realnych kosztach związanych z realizacją pomysłów, o nich myślał mój przełożony.
Ja byłam jedynie osobą od badania rynku, kreatywnych
rozwiązań, planowania i współpracy z zespołem. Błąd.
Dzisiaj bardzo przekonuje mnie podejście, w którym Product Owner odpowiada również za budżet, albo przynajmniej ma go mocno na uwadze. Dzięki temu podejmuje
bardziej przemyślane decyzje, intuicyjnie szuka sposobów
jak najszybszego uzyskania feedbacku od użytkownika.
A wreszcie, planuje prace w taki sposób, aby jego produkt przyrastał iteracyjnie, a nie był jedynie rozwijany
w iteracjach.
Pisząc o kosztach, mam na myśli koszt zespołu per sprint,
miesiąc, release lub po prostu czas spędzony na przygotowaniu konkretnych rozwiązań. Warto dodać do tego
również koszty związane z niezbędną infrastrukturą, jak
choćby serwery czy sieć, o których rzadko się pamięta, a to
50
MAGAZYN
ITWIZ
kwiecień 2016
Początkujący Product Ownerzy
zazwyczaj albo zaniedbują Product
Backlog, albo zbyt pieczołowicie go
rozpisują. Ja należałam do tych drugich.
Skrupulatnie rozpisane historyjki i sprinty
zaplanowane z dużym wyprzedzeniem w praktyce
oznaczały niewielkie zaangażowanie zespołu w prace
koncepcyjne i planowanie bez brania pod uwagę
feedbacku użytkownika końcowego. Nie za bardzo
agile. Zdecydowanie większą wartość
przyniosłoby skoncentrowanie sił
i moich, i zespołu na częstych
wdrożeniach oraz weryfikacji, na ile
pomysły faktycznie przypadają do
gustu naszym użytkownikom.
również wydatek. Ważne, żeby jako Product Owner w pełni
świadomie dysponować czasem zespołu, a pracę nad rozwijaniem produktu traktować jak własny biznes.
7. Nieliczenie kosztów błędów i poprawek
Ten temat wydaje mi się na tyle istotny, że postanowiłam
poświęcić mu oddzielny akapit. Być może gdzieś na świecie
powstają produkty i usługi, w których nie pojawiają się błędy. Ja takich nie widziałam. Z perspektywy Product Ownera istotne jest, aby mieć świadomość skali tego zjawiska
i zarządzać produktem całościowo – od rozwoju, poprzez
utrzymanie i błędy. Gdybyście zapytali mnie te kilka lat
temu, czy zarządzam błędami, odpowiedziałabym, że tak.
Uzgodniliśmy z zespołem, co definiujemy jako „bug”, wiedziałam, z jaką ilością błędów mamy do czynienia, znałam
ich wagę (wpływ albo potencjalny wpływ tych niepoprawionych na satysfakcję korzystania z serwisu w przyszłości)
i czasochłonność. Wreszcie decydowałam, na które z nich
poświęcamy czas. Ile go jednak realnie było? Jaki procent
swojego czasu zespół spędził (stracił!) na naprawianiu błędów i poprawkach? Tego już nie wiedziałam. A szkoda, bo
właśnie taka wiedza dałaby mi całościowy obraz tego, na
co wydajemy pieniądze i jak to się przekłada na dostarczanie wartości naszym użytkownikom.
Tyle ode mnie. Co jeszcze byście dodali do takiej listy błędów Product Ownerów?
Izabela Goździeniak
Lean Agile Coach, wspiera kanbanową ewolucję w dziale
infrastruktury. Przygodę z agile rozpoczęła jako Product Owner,
a kontynuowała jako Scrum Master i coach dla zespołów
scrumowych oraz początkujących Scrum Masterów. Jest autorką
tekstów w serwisie agile247.pl, z którego pochodzi ten tekst.
PROJECT MANAGER
Jak się miał agile
w 2015?
VersionOne wydało 10. już raport o tym, jak wygląda praca „agilem” na świecie.
Co więc zmieniło się w świecie projektów prowadzonych zwinnymi metodami
w porównaniu z rokiem poprzednim?
Stale wzrasta liczba organizacji pracujących w zwinny sposób oraz powiększa się
wśród respondentów pula organizacji z ponad 5-letnim doświadczeniem (stare wygi)
i mniejszym niż rok (nowe, dopiero co próbujące agile firmy).
Wśród używanych zwinnych technik rośnie
znacząco użycie Kanbana z 31% do 38%.
Natomiast spada – nieznacznie, co zauważają autorzy raportu – planowanie iteracyjne na rzecz spriorytetyzowanego backlogu
i retrospekcji. Tendencję wzrostową na rzecz
Kanbana widać również w pytaniu o używane
narzędzia i techniki. Udział tablicy kanbanowej od trzech lat wciąż rośnie: w 2013 roku
używało jej 43%, w 2014 – 52%, a w 2015
– 63% respondentów. Autorzy upatrują w tym
oznak zwrotu ku bardziej leanowym technikom, skupionym na procesie pracy i usprawnieniach. Przyznam szczerze, że byłaby to
ciekawa perspektywa, i chętnie zobaczę, czy
ich prognozy się sprawdzą w wynikach za rok.
Co sprawia, że zwinne
projekty się nie udają?
Bardzo interesująco wyglądają odpowiedzi
na pytanie, co sprawia, że projekty prowadzone zwinnie kończą się porażką? Zeszłoroczny brak doświadczenia został zdetronizowany przez kulturę organizacji, stojącą
w sprzeczności z wartościami agile (46%
odpowiedzi!). W moim przekonaniu jest
to smutna refleksja, jeśli tak wiele i od tak
dawna mówi się i słyszy o Management 3.0,
Beyond Budgeting i ogromnym spektrum
metod i praktyk, mających za zadanie właśnie polepszyć kulturę organizacji i wspierać
postulaty Agile Manifestu. Kolejne trzy pozycje zdają się potwierdzać tezę – po 38%
głosów dostały takie przyczyny, jak brak
wsparcia menedżerskiego, brak wsparcia
dla zmian i niekonsekwentne stosowanie
zwinnych praktyk. Co ciekawsze, pojawił
się również nowy powód porażek zwinnych
projektów – nieefektywna współpraca między menedżerami.
Co sprawia, że projekty prowadzone zwinnie
kończą się porażką? Zeszłoroczny brak
doświadczenia został zdetronizowany przez kulturę
organizacji, stojącą w sprzeczności z wartościami
agile (46% odpowiedzi!). W moim przekonaniu jest to
smutna refleksja, jeśli tak wiele i od tak dawna mówi się i słyszy
o Management 3.0, Beyond Budgeting i ogromnym spektrum metod
i praktyk, mających za zadanie właśnie polepszyć kulturę organizacji
i wspierać postulaty Agile Manifestu.
Z powyższymi wynikami skorelowane są odpowiedzi na pytanie o bariery, które mogą
powstrzymać firmy przed dalszą adopcją agile. Z 44% do 55% wzrósł odsetek odpowiedzi
uznających zdolność do zmian w organizacji
za główną przeszkodę. Z 36% do 42% wzrósł
odsetek odpowiedzi wskazujących na ogólny
opór firm przed zmianą. Natomiast na to, że
wsparcie – a raczej jego brak – menedżerów
może być barierą wskazało 38% respondentów (29% w zeszłym roku). Szczerze mówiąc,
wyłania się z tych wyników smutny obraz
organizacji, które stosują mechanicznego
Scruma bądź metody pokrewne, natomiast
praktyki te w żaden sposób nie są wspierane
przez filozofię wytwarzania oprogramowania,
o którą tak bardzo chodziło sygnatariuszom
Agile Manifestu.
W związku z powyższym, nieco mniej już mnie
dziwią wyniki następnego pytania – w jaki
sposób mierzymy sukces zwinnych projektów? Od lat pierwsze dwie odpowiedzi to
miary oparte na dowożeniu na czas i jakości.
Satysfakcja użytkownika i wartość biznesowa
są dopiero na 3. i 4. miejscu. I nie umniejszając wagi pierwszej dwójki, uważam jednak,
że kolejność na podium powinna być inna.
Błędne, mechaniczne
stosowanie technik agile
Coraz więcej firm używa SAF-e (Scaled
Agile Framework) przy skalowaniu agile.
W ubiegłym roku jego udział w odpowie-
dziach wynosił 19%, podczas gdy teraz już
27%. Czy to dobrze? Odpowiedzcie sobie
sami. W moim przekonaniu SAF-e jest dla
firm, które potrzebują kontroli i nie potrafią samodzielnie ułożyć sobie współpracy
przy dużych tematach i wielu zespołach.
Powiedziałabym również, że jest to pokłosie
braku odpowiedniej kultury w organizacji.
Jeśli firma poza mechanicznym stosowaniem technik zaadaptuje również kryjące
się za nimi postawy i sposób myślenia, to
samodzielnie dojdzie do tego, co SAF-e jej
oferuje za grube pieniądze, a jako bonus
nie do oszacowania zyska zaangażowanych
i zadowolonych pracowników.
Na koniec, stary, poczciwy Excel oczywiście
nadal wygrywa wśród narzędzi do zarządzania pracami, natomiast udział Microsoft Project spadł o 13%, podczas gdy Jira
podniosła swój o 6% i zajęła drugie miejsce.
Ewa Gowin
Lean Agile Coach, certyfikowany Product Owner
i Scrum Master. Współtworzyła i prowadziła
szkolenia ze Scruma i Kanbana dla kilkuset osób.
Od dwóch lat pomaga zespołom ITO usprawniać
pracę, korzystając z Kanbana. Jest autorką
tekstów w serwisie agile247.pl, z którego
pochodzi ten tekst.
Raport VersionOne „10th Annual State of Agile”
dostępny jest na stronie
http://stateofagile.versionone.com
kwiecień 2016
ITWIZ MAGAZYN
51
PROGRAMIŚCI
PROGRAMIŚCI
Narzędzia
Google
do zarządzania
centrami danych
rozwijane w Polsce
Borg, Kubernetes i wiele, wiele innych rozwiązań Google – oraz ich
poszczególnych funkcji – rozwijanych jest m.in. przez inżynierów
w Warszawie. Tutejszy dział R&D liczy już ponad 100 osób. W tym roku
chce zatrudnić kilkadziesiąt kolejnych. Szybki wzrost związany jest
z projektami realizowanymi wokół Google Cloud Platform.
52
MAGAZYN
ITWIZ
kwiecień 2016
PROGRAMIŚCI
W Krakowie polscy inżynierowie
pracowali nad wieloma projektami
z różnych obszarów działalności Google.
W Warszawie odpowiadają za rozwój
jednej, dużej funkcjonalności
automatycznego rozpraszania
obciążenia infrastruktury IT, która jest
elementem takich systemów zarządzania centrami
danych, jak Borg i Kubernetes. Obecny zespół ma
więc większą samodzielność.
Polski dział R&D wyspecjalizował się w budowie narzędzi do automatycznego dostosowywania zasobów IT do
potrzeb ich użytkowników. To całkowicie polska domena
w Google. Kierowany przez Jarka Kuśmierka zespół inżynierów w warszawskim biurze pracował również nad
odpowiednimi modułami systemu Borg służącemu do
zarządzania centrami danych Google na potrzeby kilkudziesięciu tysięcy deweloperów tej firmy, ale i systemu
Kubernetes, z którego korzystają klienci Google Cloud
Platform. Platforma ta służy firmom IT i programistom
do tego, aby mogli oni uruchamiać kod własnych aplikacji w chmurze. W przypadku tej ostatniej platformy, polscy inżynierowie stworzyli także jej front-end,
m.in. Developers Console.
Narzędzie Google rozwijane nad Wisłą
Warszawskie biuro Google ma już 10 lat. Ale zespół inżynierów działa w nim dopiero od września 2011 roku. Rok
temu do Warszawy – i innych miast europejskich, w tym
Zurichu – przeniesiono pracowników krakowskiego działu badawczo-rozwojowego firmy. Początkowo warszawski
dział R&D rozwijał się powoli. Zmieniło się to, gdy polscy
inżynierowie zaczęli pracować nad platformami cloud computing. Obecnie wśród 100 inżynierów – w tym ok. 20% to
kobiety – pracują nie tylko programiści, ale także UX Designerzy oraz Project i Program Managerowie. Warszawski
dział badawczo-rozwojowy w tym roku chce zatrudnić kilkadziesiąt kolejnych osób, w tym osoby z doświadczeniem
przy realizacji projektów.
„Znajomość technologii – choć istotna – jest mniej ważna niż
umiejętność kreatywnego myślenia i podchodzenia do rozwiązywania problemów, zadawania pytań „a po co to robimy?
Kandydaci muszą oczywiście znać jakiś język programowania
i na jego podstawie przeprowadzana jest rozmowa z kandydatem. Stawiamy jednak na proces myślowy, a nie wiedzę.
Tym bardziej że i tak wybranych kandydatów będziemy szkolić
z narzędzi, które opracowujemy wewnętrznie” – mówi Jarek
Kuśmierek. „Teraz oprócz programistów poszukujemy także
Product Managerów, architektów, osób zarządzających zespołami programistów” – dodaje.
W Krakowie polscy inżynierowie pracowali nad wieloma
projektami z różnych działów Google. W Warszawie odpowiadają za rozwój jednej, dużej funkcjonalności automatycznego rozpraszania obciążenia infrastruktury IT, która
jest elementem takich systemów zarządzania centrami
danych, jak Borg i Kubernetes. Obecny zespół ma więc
większą samodzielność.
Dostęp do danych i zapytania
SQL w wersji Google
„Początkowo rozwijaliśmy tylko rozwiązania dla centrów danych Google, ułatwiających deweloperom ‘odpalanie’ kodu ich
aplikacji. Odkąd uruchomiono Google Cloud Platform, rozwijamy też narzędzia dla użytkowników zewnętrznych. Pracując
nad projektami dla nich, musimy jednak kłaść większy nacisk
na projektowanie interfejsu użytkownika. Stąd duża u nas grupa badaczy i projektantów interfejsów użytkownika” – twierdzi
Jarek Kuśmierek.
Jednym z rozwiązań, nad którymi inżynierowie w Warszawie
pracują wraz ze swoimi amerykańskimi kolegami, jest DataFlow – stworzona dla klientów zewnętrznych wersja mechanizmu MapReduce. Ułatwia on dostęp do danych przechowywanych w Google File System. Ten zaś wykorzystuje koncepcję
przetwarzania i przechowywania danych w systemie rozproszonym Collossus. Google stworzył także własny silnik wy-
Podstawową jednostką w Borg jest
centrum danych Google. Zaawansowany
użytkownik wie, gdzie uruchomić swój
program. Ten mniej zaawansowany
pozostawia to systemowi Borg. Na decyzje
podejmowane przez niego wpływają m.in. fakt, skąd
dane są czytane najczęściej, kto z nich korzysta,
a nawet to, w którym z naszych centrów danych
planowane są naprawy serwisowe.
konywania zapytań SQL – Dremel. Jego odpowiednikiem dla
klientów zewnętrznych jest rozwiązanie o nazwie BigQuery.
„Dzięki niemu można ‘wrzucić’ zgromadzone dane i uruchomić
ich analizę w naszej chmurze. Użytkownicy płacą jedynie za czas
wykorzystania maszyn niezbędnych do analizy danych, nawet jeśli
jest to 1000 maszyn wirtualnych, które pracowały przez zaledwie
5 minut. Choć oczywiście użytkownicy Google Cloud Platform
mogą skorzystać też z silnika MySQL czy innego, komercyjnego
rozwiązania” – wyjaśnia Jarek Kuśmierek.
Polscy inżynierowie odpowiadają także za zarządzanie maszynami wirtualnymi w ramach Google Cloud Platform,
w tym za automatyzację analizy informacji na temat tego,
ile ich de facto potrzeba.
kwiecień 2016
ITWIZ MAGAZYN
53
PROGRAMIŚCI
Na początku każdy zespół deweloperów – związany z wyszukiwarką, YouTube i innymi
usługami Google – martwił się o swoje zasoby. Potem inżynierowie Google
zaczęli pracować nad narzędziami, które miały maksymalnie
ułatwić pracę programistom, w tym automatycznie
uruchamiać poszczególne procesy. Pierwszym rozwiązaniem
był Borg. Celem jego stworzenia było zbudowanie abstrakcji
jednej wielkiej maszyny, która się nigdy nie psuje i ma
nieograniczone zasoby. Borg zarządza dziś wszystkimi centrami danych.
Jarek Kuśmierek, kierujący warszawskim zespołem inżynierów Google
54
MAGAZYN
ITWIZ
kwiecień 2016
PROGRAMIŚCI
Borg: narzędzie maksymalnie ułatwiające
pracę programistów Google
Jak wspomina Jarek Kuśmierek, na początku każdy z zespołów deweloperów – związanych z wyszukiwarką, YouTube
i innymi usługami Google – martwił się o swoje zasoby. Potem inżynierowie Google zaczęli pracować nad narzędziami, które miały maksymalnie ułatwić pracę programistom,
w tym automatycznie uruchamiać poszczególne procesy.
„Pierwszym rozwiązaniem był Borg” – mówi szef warszawskiego zespołu inżynierów Google. „Celem jego stworzenia
było zbudowanie abstrakcji jednej wielkiej maszyny, która się
nigdy nie psuje i ma nieograniczone zasoby. Borg zarządza dziś
wszystkimi centrami danych Google” – dodaje.
Borg zarządza pulą maszyn, a także tym, jakie systemy na
nich pracują, ile zasobów potrzebują, oraz metodologią
najbardziej efektywnego upakowania maszyn. Jak wspominają przedstawiciele Google, jeśli mamy mniej ważne
i bardziej ważne zadania na tej samej maszynie, to możemy
zarządzać nimi w sposób bardzo dynamiczny, zabierając
i oddając ten sam zestaw zasobów z korzyścią dla systemu,
który w danej chwili „bardziej” go potrzebuje. Borg zarządza też cyklem życia maszyn fizycznych. Informuje, gdy
trzeba je naprawić. Wówczas znajdujące się na niej procesy
automatycznie przenosi na inny serwer.
System ten automatycznie analizuje – bazując na analizie
kodu i danych historycznych – jak dużo zasobów potrzebuje dany program. Bardziej zaawansowani użytkownicy
sami określą, że ma to być np. 5 maszyn wirtualnych, każda
z 10 GB pamięci RAM. Mniej zaawansowany może jednak nie
mieć informacji o potrzebnych zasobach. Wówczas Borg automatycznie dostosowuje je do potrzeb jego aplikacji. Przykładowo: porównuje ją z innymi serwisami, liczbą maszyn
wirtualnych, na których pracują lub pracowały. W trakcie
działania tego programu samodzielnie także dostosowuje
wykorzystanie infrastruktury IT – dodaje lub odbiera zasoby
w przypadku, gdy są zbyt duże. „Podstawową jednostką w Borg
jest centrum danych. Zaawansowany użytkownik wie, gdzie uruchomić swój program. Ten mniej zaawansowany pozostawia
to naszemu systemowi. Na decyzje podejmowane przez Borga
wpływają m.in. fakt, skąd dane są czytane najczęściej, kto z nich
korzysta, a nawet to, w którym z naszych centrów danych planowane są naprawy serwisowe” – opowiada Jarek Kuśmierek.
Kubernetes rozwijany jest przez
inżynierów Google w Polsce. Zarządza
klastrem maszyn, na których można
uruchamiać kontenery. Rozwiązanie to
samodzielnie przydziela niezbędne
zasoby. Użytkownik nie musi martwić się, na jakiej
maszynie i ile kontenerów zostanie uruchomionych.
Nawet jeśli system ma budowę wielowarstwową, jest
oparty na mikroserwisach, to Kubernetes
automatycznie odwzorowuje jego strukturę,
a następnie wyskaluje niezbędne zasoby.
trybucji systemu Linux, który znajduje się po stronie hosta.
W kontenerze nie ma też zapisanych plików. Dzięki temu
taka maszyna „wstaje” znacznie szybciej niż w kilkadziesiąt
sekund, jak w przypadku maszyn wirtualnych. Te oferowane
są w ramach Google Cloud Platform, ale tylko dlatego, że jej
użytkownicy chcą mieć swobodę m.in. w wyborze systemu
operacyjnego, skorzystać z innej dystrybucji Linuksa czy
systemu Windows. Później – wewnątrz maszyny wirtualnej
– użytkownicy mogą zarządzać swoim oprogramowaniem
bezpośrednio lub pakując je w kontenery, jeśli chcą uruchomić więcej niż jeden program w maszynie wirtualnej.
Do zarządzania zestawem kontenerów uruchomionych
w klastrze maszyn wirtualnych wykorzystywany jest system Kubernetes. Jest to odpowiednik open source systemu
Borg, który został udostępniony klientom zewnętrznym.
„Borg jest bardzo mocno wpięty w nasze systemy wewnętrzne.
Wykorzystaliśmy więc ideę za nim stojącą, ale jego implementację przeprowadziliśmy od początku. Są różnice między
każdym z tych systemów. Kubernetes ma nieco mniejsze możliwości niż Borg” – wyjaśnia Jarek Kuśmierek.
Zarządzanie klastrami kontenerów
i maszyn wirtualnych
Kubernetes rozwijany jest m.in. przez inżynierów Google
w Polsce. Zarządza klastrem maszyn, na których można uruchamiać kontenery. Rozwiązanie to samodzielnie przydziela
niezbędne zasoby. Użytkownik nie musi martwić się, na jakiej
maszynie i ile kontenerów zostanie uruchomionych. Nawet
jeśli system ma budowę wielowarstwową, jest oparty na mikroserwisach, to Kubernetes automatycznie odwzorowuje
jego strukturę, a następnie wyskaluje niezbędne zasoby.
Kubernetes korzysta z kontenerów Dockera, choć Google
wykorzystuje własne, wewnętrznie opracowane kontenery.
Deweloperzy w Google do uruchamiania swoich programów i usług wykorzystują kontenery. W kontenerach
mechanizm izolacji istnieje na poziomie systemu operacyjnego, który znajduje się na hoście. „Tak naprawdę tę
funkcjonalność zbudowaliśmy my i dorzuciliśmy ją do jądra
Linuksa. Na tej podstawie powstał Docker” – mówi Jarek
Kuśmierek. Wszystkie kontenery w Google – a co tydzień
powstaje ich ponad 2 miliardy – korzystają z tej samej dys-
Google we własnych centrach danych używa wielu dedykowanych rozwiązań. Dotyczy to m.in. systemu chłodzenia czy
produkowanych na zamówienie serwerów korzystających np.
z innego napięcia, niż standardowe 230 V, np. 12 V i 48 V. Przy
tej skali działania – na całym świecie jest kilkanaście centrów
danych Google, a w każdym pracują dziesiątki tysięcy maszyn
– można tworzyć własne rozwiązania infrastrukturalne.
kwiecień 2016
ITWIZ MAGAZYN
55
PROGRAMIŚCI
Infrastruktura IT ma być
przezroczysta dla użytkownika
Dzięki rozwijanym przez Google – m.in. w Polsce – narzędziom, użytkownicy Google Cloud Platform nie muszą
martwić się, w jakiej lokalizacji, na ilu maszynach i w ilu
kopiach zostanie uruchomiony ich program. Wystarczy,
że napiszą kod, skompilują jego wersję binarną i podadzą
ścieżkę do repozytorium, w którym się ona znajduje. Za
resztę odpowiadają rozwiązania dostępne na Google
Cloud Platform. Na Google Cloud Platform można – choć
nie trzeba – wykorzystywać Kubernetesa. Z możliwości
tego systemu korzysta się głównie, jeśli użytkownik chce
uruchomić więcej niż jedno zadanie na maszynie i niezależnie nimi zarządzać. Jeśli ma jeden system na maszynę
– lub więcej, ale ręcznie zarządza nimi – to może używać
tylko maszyn wirtualnych. W Warszawie budowana jest
wspomniana automatyka zarówno dla wielu rozwiązań
w ramach Google Cloud Platform, jak i dla Kubernetesa.
W centrach danych zautomatyzowano zarządzanie obciążeniami, przydzielaniem zasobów, a nawet – w zależności
od pory dnia – „przerzucaniem” kopii programu pomiędzy
centrami danych w różnych regionach świata. Wewnętrznie wbudowane te narzędzia ma Borg. Na Google Cloud
Platform wykorzystywane są w funkcji Autoscalingu. Gdy
w Europie jest dzień, to więcej jego instancji znajdzie się
w tutejszych centrach danych, gdy budzą się Stany, część
z nich jest „zabijana”, a uruchamiane są dodatkowe kopie systemu w centrach danych w USA. Wszystko zależy
od tego, gdzie aktualnie są użytkownicy danej usługi czy
serwisu. Dzieje się zaś tak ze względu na optymalizację
opóźnień w komunikacji między użytkownikiem końcowym
a serwerem Google.
Oczywiście w ramach Google Cloud Platform można zadecydować, w którym miejscu będą przechowywane dane.
Zwłaszcza w kontekście regulacji w Polsce i Unii Europejskiej. Mogą to być wyłącznie centra danych znajdujące się
w obrębie UE. Choć ograniczenie to – z uwagi na sposób
funkcjonowania narzędzi takich jak Kubernetes – dotyczyć
może jedynie określonego regionu, a nie konkretnego centrum danych w wybranym kraju.
Zestaw narzędzi dla programistów
w chmurze Google
Programiści uruchamiający kod w Google Cloud Platform
mogą korzystać z takich narzędzi, jak AppEngine i CloudFunctions. Pierwsze uruchamia napisany przez programistę kod po jego wgraniu, drugie dopiero w momencie,
gdy nastąpi określone zdarzenie. Wówczas automatycznie wywoływana jest konkretna usługa, np. przeskanuj,
skopiuj, przenieś do konkretnego katalogu, czy też poinformuj mnie, gdy coś się zmieni w moim katalogu na
GitHub. Po wykonaniu danej funkcji zasoby są automatycznie zwalniane, a użytkownik płaci tylko za faktyczny
56
MAGAZYN
ITWIZ
kwiecień 2016
Po wykonaniu danej funkcji zasoby na
Google Cloud Platform są
automatycznie zwalniane, a użytkownik
płaci tylko za faktyczny czas korzystania. W tle
system analizuje, jak długo ma to być. Maszyna
wirtualna usuwana jest po każdym
użyciu, a w miarę potrzeb uruchamiana
jest kolejna. Dzieje się tak, nawet jeśli
użytkownik chce uruchomić ponownie
ten sam proces.
PROGRAMIŚCI
czas korzystania. W tle system analizuje, jak długo ma to
być. Maszyna wirtualna usuwana jest po każdym użyciu,
a w miarę potrzeb uruchamiana jest kolejna. Dzieje się
tak, nawet jeśli użytkownik chce uruchomić ponownie ten
sam proces. Powodem jest zapewnienie bezpieczeństwa
i niezawodności. Jeśli nasz kod ma jakiś błąd, który ujawnia się w rzadkich przypadkach – i „śmieci” w lokalnym
środowisku – to wpływa tylko na aktualne uruchomienie
danego systemu, a nie na wszystkie kolejne jego uruchomienia w przyszłości.
Na Google Cloud Platform znajduje się dużo więcej narzędzi automatyzujących pewne procesy. Podstawowym
jest Managed Instance Group, które tworzy – odpowiednią do potrzeb użytkownika – ilość maszyn wirtualnych.
AutoScaler dostosowuje automatycznie ich liczbę do aktualnego obciążenia. Liczone jest ono nie na podstawie
obciążenia CPU procesora, ale liczby requestów szacowanej np. na bazie długości kolejki zadań wsadowych. Gdy
staje się ona zbyt długa, AutoScaler wydaje polecenie:
stwórz dodatkowe 2 maszyny wirtualne do 5 już istniejących. Funkcja Rightsizing dostosowuje ich wielkość do
potrzeb. Updater dokonuje roll-outu nowej wersji instalowanego na Google Cloud Platform programu na kolejne
maszyny wirtualne. Jednocześnie sprawdza, jak program
się na nich zachowuje, a w przypadku wykrytych błędów
przywraca jego starszą wersję. Funkcja Regional służy zaś
do automatycznego rozpraszania pomiędzy wiele stref
i przełączania pomiędzy nimi. AutoHealer obserwuje, jak
program działa. Jeśli zbyt wolno, to przeinstalowuje go,
usuwając starą kopię i uruchamiając nową. Natomiast
funkcja Live Migration wykorzystywana jest w przypadku,
gdy fizyczny serwer – na którym stoi maszyna wirtualna
– musi zostać wyłączony, np. w celu naprawy. Wówczas
instancja ta „przerzucana” jest na inną maszynę fizyczną.
Na Google Cloud Platform znajduje się
dużo więcej narzędzi
automatyzujących pewne procesy.
Podstawowym jest Manage Instance
Group, które tworzy – odpowiednią do
potrzeb użytkownika – ilość maszyn
wirtualnych. AutoScaler dostosowuje
automatycznie ich liczbę do
aktualnego obciążenia. Liczone jest ono nie
na podstawie obciążenia CPU procesora, ale liczby
requestów szacowanej np. na bazie długości kolejki
zadań wsadowych. Gdy staje się ona zbyt długa,
AutoScaler wydaje polecenie: stwórz dodatkowe
2 maszyny wirtualne do 5 już istniejących.
Na Google Cloud Platform tworzone są także rozwiązania
dedykowane konkretnym zastosowaniom. Przykładem
jest – rozwijany w Polsce – Zync. Rozwiązanie to służy do
renderowania filmów i grafik. Dane z dysku użytkownika
kopiowane są na platformę Google, na której uruchamiana
jest odpowiednia liczba maszyn wirtualnych, a przetworzony plik końcowy kopiowany jest do lokalnego katalogu
użytkownika. „Firmy zajmujące się tworzeniem grafiki i filmów nie muszą mieć po swojej stronie inżynierów. Wszystkiego można dokonać za pośrednictwem udostępnianego przez
nas oprogramowania, w tym narzędzi, takich jak wtyczki do
oprogramowania Maya, i innych programów do grafiki 3D.
Tego typu narzędzi tworzymy coraz więcej” – podsumowuje
Jarek Kuśmierek.
Adam Jadczak
kwiecień 2016
ITWIZ MAGAZYN
57
PROGRAMIŚCI
Specjaliści IT
dzielą się wiedzą
po godzinach
Informatyka jest najchętniej wybieranym kierunkiem studiów w Polsce, jednocześnie
zapotrzebowanie na ekspertów w branży IT jest znacznie większe, sektor ten
dynamicznie rośnie. Powstaje spora luka w braku odpowiednio wykwalifikowanej
kadry. Jednym ze sposobów na zmianę tego stanu rzeczy jest edukacja i rozwój
poprzez oddolne, nieformalne inicjatywy.
Według raportu „KPMG IT Outsourcing Service Provider
Performance & Satisfaction Study 2014/2015” z marca
2015 roku, Polska jest najchętniej wybieranym krajem dla
outsourcingu usług IT w Europie. Na świecie wyprzedzają
nas tylko Indie. Szacuje się, że w 2015 roku w Polsce brakowało 50 tys. informatyków, deficyt ten ma się rocznie
powiększać o 3–5%. Zdaniem Komisji Europejskiej (raport
„E-Skills for job in Europe”), w 2015 roku w całej Unii Europejskiej brakowało 275 tys. pracowników z „umiejętnościami cyfrowymi”. W roku 2020 liczba ta może wzrosnąć
do miliona.
W Polsce deficyt specjalistów IT jest szczególnie dotkliwy w województwach: kujawsko-pomorskim, opolskim,
wielkopolskim. Mimo że informatyka jest najchętniej
40
%
polskich CIO obawia się, że brak
wykwalifikowanej kadry negatywnie wpłynie na
rozwój ich organizacji. Firmy współpracują
z uczelniami, same organizują kursy oraz
starają się angażować i wspierać lokalne
oddolne inicjatywy, których powstaje coraz
więcej i są skierowane do różnych użytkowników.
58
MAGAZYN
ITWIZ
kwiecień 2016
wybieranym kierunkiem studiów, to wciąż kształci się za
mało specjalistów IT. Jednocześnie wiedza akademicka
często okazuje się niewystarczająca w życiu zawodowym.
Według badań PcW, aż 50% absolwentów przyznaje, że
studia nie przygotowały ich wystarczająco do podjęcia
pracy. W branży IT jest to szczególnie ważne, ponieważ jej
potrzeby zmieniają się dynamicznie i wymaga ona dużej
elastyczności kształcenia.
Firmy i lokalne społeczności
wychodzą naprzeciw
Ponad 40% polskich CIO obawia się, że brak wykwalifikowanej kadry negatywnie wpłynie na rozwój ich organizacji. Firmy współpracują z uczelniami, same organizują kursy oraz starają się angażować i wspierać lokalne oddolne
inicjatywy, których powstaje coraz więcej i są skierowane
do różnych użytkowników. Jedną z najgłośniejszych tego
typu grup są spotkania Geek Girls Carrots, organizowane w miastach na całym świecie, w tym w kilku polskich.
Co miesiąc w luźnym klimacie, często przy piwie i innych
trunkach, zbiera się nawet 200 osób, aby posłuchać wystąpień prelegentów na temat rozwiązań w IT i nowych
technologiach.
Inną inicjatywą – także skierowaną do kobiet, których jest
szczególnie mało w branży informatycznej – są bezpłatne
kursy z programowania Django Girls oraz Rails Girls. Tego
typu spotkań jest coraz więcej. „Nasza firma angażuje się
w tej chwili w 11 tego typu inicjatyw, które są poświęcone
językom Java, SQL, .NET czy testowaniu oprogramowania.
Firmy takie jak GFT uczestniczą w tych spotkaniach, dzieląc
PROGRAMIŚCI
NIEKTÓRE ZE SPOTKAŃ I WARSZTATÓW
DLA PROGRAMISTÓW
się swoim know-how z potencjalnymi pracownikami, i starają
się budować świadomość marki pracodawcy” – mówi Dorota
Sadowska, Communications Manager w GTF Polska.
Udział w organizowanych przez firmy z branży IT warsztatach, seminariach i innych spotkaniach, których celem
jest popularyzowanie wiedzy o nowych zjawiskach, technologiach i trendach, wydaje się jednym z ważniejszych
i skuteczniejszych „narzędzi edukacyjnych”, jakie mają do
dyspozycji współcześni specjaliści IT. „Zdając sobie sprawę
z tego, jak bardzo istotna jest ta forma komunikacji, jako
firma zapewniamy zaplecze w postaci projektorów i sprzętu
drukującego, a indywidualnie korzystamy z okazji, aby w niej
uczestniczyć po obu stronach mikrofonu. To doskonała metoda bezpośredniego dostarczenia klientom i kontrahentom
Osoby pracujące w branży IT muszą
dokształcać się we własnym zakresie,
aby nadążyć za tymi wszystkimi
zmianami, i właśnie tutaj mogą pomóc
lokalne grupy społecznościowe. Coraz
szybciej pojawiają się nowe, potężne
narzędzia – np. język programowania
Scala i platforma obliczeniowa Apache
Spark – które z jednej strony dają
ogromne możliwości, ale z drugiej
– mało kto umie z nich poprawnie
korzystać, tak aby te możliwości wydobyć.
Ponadto, zrozumienia wymagają stosunkowo nowe
podejścia do rozwiązywania problemów, takie jak
choćby programowanie funkcyjne.
Rails Girls – bezpłatne warsztaty programowania.
Geek Girls Carrots – to społeczność kobiet pracujących
w IT oraz w start-upach, której celem jest rozwój,
networking oraz dobra zabawa.
Meet.js – to luźne spotkania pasjonatów JavaScript.
Codepot – to niecodzienna konferencja dla
programistów JVM, designerów, androidowców,
iosowców, webowców, agilersów i adminów.
PyGda – to Trójmiejska grupa miłośników języka Python.
TYPO3Camp Poland – jest wydarzeniem skierowanym
do wszystkich miłośników wolnego oprogramowania.
Startup Weekend Warsaw – to 54-godzinne
wydarzenie, współtworzone przez programistów,
artystów, przedsiębiorców i wszystkich lubiących nowe
technologie.
Wrocław PHP User Group – spotkania poświęcone
programowaniu w języku PHP.
OpenCoffeeKRK – poranne spotkania przy kawie,
odbywające się cyklicznie (co dwa tygodnie) w siedzibie
Google for Entrepreneurs w Krakowie.
DevOpsDays – to konferencja dla tych, którzy chcą
rozwijać wiedzę admińską i deweloperską, jednocześnie
łącząc ją z biznesowym podejściem.
wiedzy, zarówno o naszych nowych produktach, jak i stosowanych w nich technologiach, integracji z usługami. Istotnym atutem takich spotkań jest to, że opierają się one na
dialogu, wymianie informacji i myśli. To okazja nie tylko do
pozyskania „surowej” wiedzy, lecz także zadania wszelkich
nurtujących uczestników pytań, wyjaśnienia wątpliwości
czy uzyskania odpowiedzi na nietypowe, specjalistyczne
pytania. Cenne doświadczenia mogą podczas nich zdobyć
zresztą nie tylko specjaliści IT, ale też firmy prezentujące własne rozwiązania. Możliwość spotkania się twarzą w twarz
z potencjalnym klientem/partnerem/użytkownikiem jest
czymś fantastycznym i niestety coraz rzadszym w naszym
zdominowanym przez komunikację elektroniczną świecie”
– tak o zaangażowaniu w tego typu wydarzeniach mówi
Ewa Pytla, Marketing Manager w Epson. Imprezami tego
rodzaju interesują się więc nie tylko pracodawcy, lecz także przedsiębiorstwa dostarczające firmom i użytkownikom niezbędne narzędzia i rozwiązania.
Okazja do zdobycia praktycznych
umiejętności
Często to sami pracownicy wychodzą z inicjatywą tworzenia tego typu wydarzeń. Paweł Włodarski jest Technical
Leadw GFT Poland. Jednocześnie jest jednym ze współor-
kwiecień 2016
ITWIZ MAGAZYN
59
PROGRAMIŚCI
Jedną z najgłośniejszych oddolnych
inicjatyw edukacyjnych w IT są
spotkania Geek Girls Carrots,
organizowane w miastach na całym
świecie, w tym kilku polskich. Co
miesiąc w luźnym klimacie, często przy
piwie i innych trunkach, zbiera się
nawet 200 osób, aby posłuchać
wystąpień prelegentów na temat
rozwiązań w IT i nowych
technologiach. Inne inicjatywy skierowane do
kobiet, których jest szczególnie mało w branży
informatycznej, to bezpłatne kursy z programowania
Django Girls oraz Rails Girls.
wości, ale z drugiej – mało kto umie z nich poprawnie korzystać, tak aby te możliwości wydobyć. Ponadto, zrozumienia
wymagają stosunkowo nowe podejścia do rozwiązywania
problemów, takie jak choćby programowanie funkcyjne”
– twierdzi Paweł Włodarski.
„Tworzenie nowych technologii stało się poważnym sektorem
rynku, co przekłada się na spływanie do specjalistów zbyt
wielkiej ilości informacji. Nikt nie jest w stanie obiektywnie
ocenić i zbadać każdej nowinki. Ludzie w naturalny sposób
dojrzeli do dzielenia się pracą i propagowania zweryfikowanych informacji, nie wewnątrz jednej organizacji, tylko
wręcz globalnie. Coraz częściej opinia lokalnego specjalisty
ma znacznie większą wagę niż materiały dostarczone przez
sprzedawców” – dodaje Robert Budźko, specjalista od języków Java oraz Scala i starszy inżynier oprogramowania
w GFT Polska.
Networking – okazja do spotkań
ganizatorów Java User Group w Łodzi. Na spotkania może
przyjść każdy. Podczas wydarzenia – zwykle w godzinach
popołudniowych – można zobaczyć prezentacje na temat
ciekawych technologii lub wziąć udział w warsztatach.
Pokazywane są narzędzia, a także wyzwania, z jakimi spotyka się na co dzień w firmach z zakresu IT. Takie spotkania
to również okazja do nauki i zdobycia nowych, praktycznych umiejętności.
„Osoby pracujące w branży IT muszą dokształcać się we własnym zakresie, aby nadążyć za tymi wszystkimi zmianami,
i właśnie tutaj mogą pomóc lokalne grupy społecznościowe. Coraz szybciej pojawiają się nowe, potężne narzędzia
– np. język programowania Scala i platforma obliczeniowa
Apache Spark – które z jednej strony dają ogromne możli-
Tego typu spotkania to nie tylko okazja do wysłuchania
wystąpienia, czy wzięcia udziału w warsztatach. Ważnem elementem jest idea networkingu, czyli wymiana
doświadczeń, dyskusja, pozyskiwanie kontaktów. Na wydarzenia przychodzą osoby z różnym poziomem wiedzy
i umiejętności, z różnych firm. Dla jednych jest to możliwość podzielenia się doświadczeniem, dla innych zaś okazja do znalezienia nowej lepszej pracy za pośrednictwem
nawiązanych znajomości.
Tworzenie nowych technologii stało się
poważnym sektorem rynku, co
przekłada się na spływanie do
specjalistów zbyt wielkiej ilości
informacji. Nikt nie jest w stanie
obiektywnie ocenić i zbadać każdej
nowinki. Ludzie w naturalny sposób
dojrzeli do dzielenia się pracą
i propagowania zweryfikowanych
informacji, nie wewnątrz jednej organizacji, tylko
wręcz globalnie. Coraz częściej opinia lokalnego
specjalisty ma znacznie większą wagę niż materiały
dostarczone przez sprzedawców.
„W spotkaniach grup biorę udział od ponad 3 lat. Dla mnie
takie spotkania to świetna okazja, aby dowiedzieć się więcej
o technologiach i językach, na zapoznanie z którymi w trakcie
codziennej pracy nie zawsze jest czas. Poza samymi prezentacjami bardzo dobrym dopełnieniem poruszanych zagadnień
są pytania z sali czy rozmowy z prelegentami po spotkaniu.
Każdy z nas ma inne doświadczenia, widzi inne potrzeby
i możliwości. Ich konfrontacja potrafi bardzo poszerzyć horyzonty i zainspirować do działania. Jak na razie, nie miałem
60
MAGAZYN
ITWIZ
kwiecień 2016
PROGRAMIŚCI
gażowanie się w nie oraz związane z nimi społeczności potwierdza pasję i realną chęć dalszego rozwoju” – przyznaje
Filip Miłoszewski.
„Uważam, że warsztaty i bootcampy technologiczne dają
dziś fantastyczne perspektywy. W zależności od tematyki
pozwalają w ogóle zacząć kodować i nauczyć się nowego
frameworku czy języka programistycznego. Dzięki skupieniu na praktycznych aspektach i przekazaniu możliwie
'skondensowanej' wiedzy, bardzo szybko dają uczestnikom
dobrą podstawę i wskazówki do dalszego rozwoju. I co równie ważne – pomagają rozwinąć w sobie pasję do technologii, a niektórym nawet – znaleźć pracę w IT, jak to było
w moim przypadku" – mówi Aleksandra Warzecha, junior
front-end developer w jednej z warszawskich agencji
digitalowych. Jest ona też przykładem przebranżowienia
się. Niegdyś pracowała jako PR-owiec w warszawskich
agencjach i start-upach.
Każdy znajdzie coś dla siebie,
nie tylko w Warszawie
W trakcie rekrutacji – szczególnie na
stanowiska techniczne – bardzo
poważnie podchodzę do kwestii
udziału w nieformalnych spotkaniach
grup programistów. W pewnym sensie
– podobnie jak w przypadku udzielania się
w projektach open source – aktywne zaangażowanie
się w nie oraz związane z nimi społeczności
potwierdza pasję i realną chęć dalszego rozwoju.
Filip Miłoszewski, jeden z pomysłodawców i właścicieli Listonic
okazji dzielić się wiedzą inaczej niż w formie tworzonego
podcastu [just4fun] czy rozmów w trakcie spotkań, ale przygotowuję moją pierwszą prezentację na meet.js” – opowiada
Piotr Leszczyński, JavaScript Developer.
Tego typu spotkania potrafią zainspirować i skonfrontować doświadczenia, ale przede wszystkim pozwalają
poznać ludzi z inicjatywą. „Jak teraz o tym myślę, to najciekawszych znajomych w branży poznałem właśnie na tego
typu eventach” – mówił Filip Miłoszewski, jeden z pomysłodawców i właścicieli mobilnej listy zakupów Listonic.
Myśląc o rozwoju kariery IT, warto mieć więc na uwadze
tego typu nieformalne spotkania, zaangażowanie w nie
dobrze wygląda w CV i podczas rozmowy o pracę. Co przyznaje twórca Listonic. „W trakcie rekrutacji – szczególnie
na stanowiska techniczne – bardzo poważnie podchodzę
do kwestii udziału w nieformalnych spotkaniach grup programistów. W pewnym sensie – podobnie jak w przypadku
udzielania się w projektach open source – aktywne zaan-
Cykliczne spotkania w środowisku IT mają swoje podwaliny w sieci w postaci grup dyskusyjnych, a także zasad
open source. Wielu informatyków chętnie dzieli się swoją wiedzą i umiejętnościami, pokazuje innym, jak mogą
korzystać z dostępnych narzędzi. To spory atut dla osób,
chcących wejść w to środowisko i rozpocząć swoją edukację. To zdecydowanie odmienne podejście w stosunku
do innych branż, gdzie uczestnictwo w konferencjach jest
zwykle płatne, a osoby legitymujące się dyplomem uważają się za pewną zamkniętą elitę.
Nieformalnych spotkań związanych z IT jest coraz więcej,
aby na nie przyjść, nie potrzeba wiele, wystarczy poświęcić 2–3 godziny, któregoś popołudnia. Jednocześnie
może okazać się, że to droga do poznania wartościowych
osób, możliwość zyskania nowych umiejętności, czy pozyskania lepszej pracy. Co ważne, wydarzenia tego typu
coraz częściej odbywają się także w mniejszych miastach. W mojej rodzinnej Łodzi organizowane są m.in.
meet.js, czyli javascript meetups, Geegks Girls Carrtos,
JUG (Java User Group), ŁódQA (zrzeszające pasjonatów
testowania oprogramowania), dev@LDZ, Zwinna Łódź
(poświęcone Lean & Agile). Podobnie jest w Katowicach,
Poznaniu, Wrocławiu, Rzeszowie, Gdańsku czy Białymstoku.
Warsztaty, szkolenia oraz właśnie tego typu mniej formalne spotkania organizują też firmy. Ścieżek rozwoju
kariery IT jest wiele, niekoniecznie musi być to dyplom
renomowanej uczelni. Przede wszystkim jednak tego typu
wydarzenia są świetną okazją do poszerzania swojej wiedzy z zakresu IT.
Paweł Okopień
kwiecień 2016
ITWIZ MAGAZYN
61
RYNEK
RYNEK
Kinetise to polski start-up, który – z rozwiązaniem typu „zrób to sam”
– wyrusza na podbój światowych rynków. Jego szansę na sukces
zwiększa model biznesowy Mobile-Apps-as-a-Service. O planach rozwoju
i ekspansji, pomyśle, preferencjach klientów związanych z aplikacjami
mobilnymi oraz porażkach i sukcesach rozmawiamy z Piotrem
Pawlakiem, pomysłodawcą i prezesem Kinetise.
Każdy
może
zbudować
mobilną aplikację
62
MAGAZYN
ITWIZ
kwiecień 2016
RYNEK
Skąd wziął się pomysł stworzenia platformy do samodzielnego budowania aplikacji mobilnych?
Na rynku działamy od 10 lat jako producent oprogramowania własnego. Realizujemy projekty tworzenia aplikacji mobilnych dla klientów różnej wielkości i praktycznie
z całego świata. Pięć lat temu zauważyliśmy, że takie projekty trwają długo i są zbyt drogie. Wielu klientów nie
było w stanie zaakceptować budżetów. Tymczasem nasze
analizy wykazały, że wszystkie projekty, które realizujemy,
są do pewnego stopnia podobne. Wyświetla się dane,
modyfikuje, odsyła dane, weryfikuje użytkowników itp.
Finansowaliśmy pracę z własnych środków. Łącznie na
inwestycję tę przeznaczyliśmy kilka milionów dolarów.
Rozmawialiśmy z potencjalnymi inwestorami, ale odnosiłem wrażenie, że nie wierzyli w możliwość stworzenia
takiej platformy.
Znaleźliśmy wspólne cechy i stworzyliśmy odpowiednie
moduły, z których – jak z klocków – można budować
własną aplikację. Nasza platforma pozwala na szybkie
i dość łatwe tworzenie aplikacji mobilnych. Jest przy tym
bardzo rozbudowanym narzędziem, z mnóstwem możliwości. Proste rzeczy może wykreować na niej początkujący użytkownik. Z kolei użytkownik z umiejętnościami
programistycznymi może stworzyć bardzo zaawansowane rozwiązania.
Przełomowy moment nastąpił pod koniec 2015 roku,
kiedy wprowadziliśmy model Mobile-Apps-as-a-Service – z opłatami licencyjnymi, płatnymi co miesiąc, niższymi niż jednorazowa stawka. Wtedy zaczęło pojawiać
się więcej zamówień. Pomogło obniżenie progu wejścia.
Zaawansowany kreator umożliwia stworzenie nawet
najbardziej skomplikowanych aplikacji mobilnych bez
zaglądania do kodu. Wszystko odbywa się w graficznym
edytorze. Rozwiązanie jest o tyle ciekawe, że działa na
bazie silnika, który tworzy prawdziwie natywne aplikacje
na systemy mobilne.
W jaki sposób budowaliście Kinetise?
Pracowaliśmy nad Kinetise bardzo długo. Pierwsza
wersja naszej platformy powstała po ponad 4 latach.
Obecnie firma zatrudnia 50 osób, połowa pracuje bezpośrednio dla klientów, pozostali nad rozwojem Kinetise.
Od początku chcieliśmy zaistnieć na rynku globalnym,
mamy odbiorców z całego świata, teraz przygotowujemy
się do otwarcia biura w Stanach Zjednoczonych.
Duże firmy bardzo często zamawiają stworzenie
aplikacji bezpośrednio u nas. Zwykle chcą mieć
produkt skomplikowany i bogaty w funkcjonalności,
a naszego narzędzia trzeba się nauczyć, nie wszyscy
chcą temu poświęcać czas. My dzięki gotowym
modułom jesteśmy w stanie bardzo
szybko stworzyć rozbudowaną
aplikację, składamy ją nawet w ciągu
kilku godzin. To jest nasza największa
przewaga konkurencyjna.
kwiecień 2016
ITWIZ MAGAZYN
63
RYNEK
Realizujemy projekty tworzenia aplikacji mobilnych dla
klientów różnej wielkości i praktycznie z całego świata.
Pięć lat temu zauważyliśmy, że takie projekty trwają
długo i są zbyt drogie. Wielu klientów nie było w stanie
zaakceptować budżetów. Tymczasem nasze analizy
wykazały, że wszystkie projekty, które
realizujemy, są do pewnego stopnia
podobne. Wyświetla się dane,
modyfikuje, odsyła dane, weryfikuje
użytkowników itp. Znaleźliśmy wspólne
cechy i stworzyliśmy odpowiednie
moduły, z których – jak z klocków - można
budować własną aplikację.
64
MAGAZYN
ITWIZ
kwiecień 2016
RYNEK
Klienci budują dużo różnorodnych
aplikacji, np. umawianie terminów
wizyt pacjentów, aplikacje na
konferencje, aplikacje dla restauracji
(to najbardziej powtarzający się
schemat), łączenie usługodawców
z usługobiorcami, aplikacje dla
handlowców dużych firm, dla zarządów
do śledzenia na bieżąco wyników
sprzedaży, dostaw, wspierające biznes.
Przekrój jest bardzo szeroki, nie ma dominującego
kierunku. Zamówienia z Polski nie różnią się od tych
z całego świata.
Skoro mówię o modelu rozliczeń, to muszę dodać, że
wypróbowanie platformy jest całkowicie bezpłatne.
Rynek aplikacji mobilnych jest w rozkwicie, kogo
uznajecie za bezpośrednią konkurencję?
Konkurencją może być pojedynczy programista, zespół programistów albo cała firma programistyczna, bo te podmioty są w stanie dostarczyć aplikację.
Są też konkurencyjne generatory aplikacji mobilnych, ale one pozwalają na tworzenie rozwiązań
szablonowych. Oferują np. szablon dla restauracji,
w którym można wpisać nazwę restauracji, menu,
wybrać kolory tła, czcionki, ale na tym się kończą
możliwości dostosowania do naszych potrzeb. Jeśli
ktoś ma zupełnie inne potrzeby, musi udać się do
firmy programistycznej, a to wiąże się z wysokimi
kosztami. Natomiast my jesteśmy w stanie szybko wyprodukować aplikację mocno dostosowaną
do potrzeb konkretnego klienta. Na razie więc nie
mamy bezpośredniej konkurencji. Wiem, że wielcy
gracze rynkowi przygotowują teraz swoje generatory, ale sądząc po zapowiedzi, będą służyły raczej
do tworzenia prostych aplikacji.
Duże firmy bardzo często zamawiają stworzenie
aplikacji bezpośrednio u nas. Zwykle chcą mieć
produkt skomplikowany i bogaty w funkcjonalności, a naszego narzędzia trzeba się nauczyć, nie
wszyscy chcą temu poświęcać czas. My dzięki modułom jesteśmy w stanie bardzo szybko stworzyć
rozbudowaną aplikację, składamy ją nawet w ciągu
kilku godzin. To jest nasza największa przewaga
konkurencyjna.
Czemu duże firmy nie wolą wykorzystać własnego
działu dewelopmentu do tworzenia aplikacji mobilnych?
Programiści często mogą stworzyć znacznie bardziej
rozbudowane i dostosowane do indywidualnych potrzeb
rozwiązania, spełnić dowolne marzenie. Ale jak zejdziemy na ziemię – i zaczniemy liczyć czas oraz pieniądze
– okazuje się, że warto zbudować ją na naszej platformie
lub zamówić. Jednym z modeli współpracy jest bowiem
zamówienie w całości wykonania aplikacji, bez konieczności samodzielnego budowania jej w edytorze Kinetise.
Statystyki pokazują, że w 80% korporacji istnieje lista
aplikacji do zrobienia zawierających co najmniej 20 pozycji. Nie ma tylko na to czasu, nie ma wystarczającej
liczby odpowiednio wyszkolonych specjalistów. Na rynku
trudno o dobrych programistów, zwłaszcza znających
platformy mobilne. I tu przydaje się Kinetise.
Czego poszukują klienci?
Klienci budują dużo różnorodnych aplikacji, np. umawianie terminów wizyt pacjentów, aplikacje na konferencje,
aplikacje dla restauracji (to najbardziej powtarzający się
schemat), łączenie usługodawców z usługobiorcami,
aplikacje dla handlowców dużych firm, dla zarządów
do śledzenia na bieżąco wyników sprzedaży, dostaw,
wspierające biznes. Przekrój jest bardzo szeroki, nie ma
dominującego kierunku. Zamówienia z Polski nie różnią
się od tych z całego świata.
Jaka była największa porażka Kinetise?
Był nią początkowy model biznesowy, w którym trzeba
było płacić jednorazowo za stworzenie aplikacji. Nie
sprawdzał się ani z punktu widzenia korporacji, ani mniejszych klientów. Cena była zbyt wysoka. Gdy zmieniliśmy
model na Mobile-Apps-as-a-Service, sprzedaż ruszyła.
A największy sukces?
Największym jest bez wątpienia satysfakcja klientów,
ale z takich medialnych wymienię dotarcie do finału
międzynarodowego konkursu IBM SmartCamp. Ponadto,
na prestiżowej konferencji TechCrunch byliśmy oficjalną platformą do tworzenia aplikacji mobilnych podczas
konkursu programistów i partnerem hackathonu.
Rozmawiał Adam Jadczak
Koszt stworzenia aplikacji na bazie Kinetise to 99 USD miesięcznie.
Projekt taki trwa kilka dni. Tymczasem – jak podają przedstawiciele
firmy na swojej stronie – opracowanie dedykowanej aplikacji przez
zespół deweloperów to koszt nawet 125 tys. USD i projekt trwający
do 7 miesięcy. Za pomocą platformy Kinetise można tworzyć
aplikacje dla systemów operacyjnych iOS i Android.
kwiecień 2016
ITWIZ MAGAZYN
65
RYNEK
Chmura rozwiązaniem
problemu z doświadczeniami
użytkowników
Tym, na czym opiera się sedno cyfrowej transformacji, są dane wykorzystywane za
pośrednictwem odpowiednio dobranych aplikacji. Efektywność ich użycia staje się
jednym z najistotniejszych czynników decydujących o powodzeniu biznesu.
Cyfrowa transformacja to trend scalający
właściwie wszystkie głośne dotąd w branży IT hasła – od chmury obliczeniowej i Big
Data, po internet rzeczy, mobilność czy
media społecznościowe. Dobre praktyki
i potencjał biznesowy, coraz bardziej dojrzałego modelu chmury obliczeniowej, były
jednym z przewodnich tematów zorganizowanej w Monachium konferencji Oracle
Modern Business Experiences. Kluczowe
wnioski dotyczą jednak możliwości wykorzystania chmury, jako rozwiązania pozwalającego poprawić użyteczność aplikacji
biznesowych. A przecież to od łatwości ich
obsługi – a także dzięki szerzej rozumianemu funkcjonowaniu, podlegającemu nieustannej ocenie użytkowników i klientów
– zależy dziś efektywność biznesu.
Doświadczenia użytkowników
w centrum uwagi
„Obecnie użytkownicy mają ściśle określone
oczekiwania względem organizacji i ich marek,
i przenoszą te oczekiwania – napędzane trendami rynkowymi – na pracodawców. W obliczu
takich oczekiwań wykorzystywane w firmach
rozwiązania nie mogą pozostawać niezmienne. Podobnie jest w przypadku klientów. Jest
to zmiana, która zaburza dotychczasowy sposób prowadzenia biznesu” – zauważa Brian
Curran, wiceprezes Oracle odpowiedzialny
m.in. za strategię rozwoju produktów. „Liczą
się marki, nie kanały sprzedażowe. Naturalne staje się przenikanie kanałów komunikacji
z klientami i potrzeba zachowania spójności
tej komunikacji. Potrzebne staje się też zrozumienie powodów przywiązania klientów do
poszczególnych marek” – dodaje.
66
MAGAZYN
ITWIZ
kwiecień 2016
Źródłem lojalności odbiorców są obecnie
przede wszystkim subiektywne odczucia
klientów, co powoduje, że dostawcy muszą rozwinąć zdolność dostarczania treści, produktów i usług odpowiadających
na oczekiwania klientów, w odpowiedni
sposób i w odpowiednim czasie. „Miejsce
podzielonej na grupy bazy klientów zajmują
konkretne, indywidualne osoby, mające określone oczekiwania i potrzeby. Nie mówimy
już o segmentacji – mówimy o konkretnych
osobach” – stwierdza Brian Curran. Z perspektywy dostawcy różnego rodzaju usług
i produktów oznaczać ma to konieczność
zrozumienia kontekstu działań podejmowanych przez konkretnych odbiorców.
Digitalizacja wokół klienta
Dostęp do wiedzy na temat kontekstu
działań klientów, a także użytkowników
aplikacji biznesowych będzie jednocześnie jednym z kluczowych celów cyfrowej
transformacji biznesowej. Warto dodać, że
– zdaniem prelegentów występujących na
konferencji Oracle – cyfrowa transformacja
powinna być postrzegana także w ujęciu
szerszym, jako szansa lub zagrożenie dla
całych gospodarek. Jednocześnie, efektem
wdrażania zmian cyfrowych w poszczególnych przedsiębiorstwach ma być tworzenie
nowych miejsc pracy. Zdaniem ekspertów,
rosnąć będzie m.in. popyt na szeroko rozumiane kompetencje związane z analizowaniem danych.
O doświadczeniach we wprowadzaniu cyfryzacji procesów biznesowych mówił też
Thorsten Becker, wiceprezes firmy Siemens odpowiedzialny za obszar cyfrowej
transformacji. Strategię ukierunkowaną
na tego typu zmiany wdrożono w tej firmie
przed 2 laty. Nowe rozwiązania – w tym rozbudowane narzędzia typu Price & Quote
– mają ułatwiać dynamiczne dostosowywanie oferty do indywidualnych wymagań
klientów. W ramach cyfrowej transformacji
w firmie Siemens budowana jest m.in. dedykowana platforma, wspierająca realizację działań sprzedażowych na bazie danych.
Jej zastosowanie ma pozwolić na zwiększenie efektywności biznesowej interakcji
prowadzonych przez zespół sprzedażowy
z klientami. Rozwiązanie opiera się m.in. na
szeroko rozumianej automatyzacji, a także
Obecnie użytkownicy mają ściśle określone
oczekiwania względem organizacji i ich marek,
i przenoszą te oczekiwania – napędzane trendami
rynkowymi – na pracodawców. W obliczu takich oczekiwań
wykorzystywane w firmach rozwiązania nie mogą pozostawać
niezmienne. Podobnie jest w przypadku klientów. Jest to zmiana, która
zaburza dotychczasowy sposób prowadzenia biznesu.
RYNEK
analizach dużych zbiorów danych. Wspierane są też działania partnerów Siemensa.
Aplikacje tworzone z myślą
o nowych czasach
Fundamentem strategii rozwoju narzędzi
biznesowych Oracle, zwłaszcza w kontekście oczekiwanego wsparcia dynamicznych
zmian biznesowych, ma być model chmury
obliczeniowej. „Wszystkie nasze nowe aplikacje są tworzone tak, aby mogły być wykorzystywane w modelu cloud. Kwestią czasu jest
moment, w którym nasi klienci zdecydują się
przejść do tego modelu. Będzie to jednak systematyczna ścieżka migracji, którą zamierzamy
kompleksowo wspierać” – uważa Rick Jewell,
wiceprezes Oracle odpowiedzialny za rozwój
aplikacji SCM. Zapowiada też przyspieszenie
tempa rozwoju aplikacji Oracle.
„Będziemy publikować co najmniej dwa wydania systemów biznesowych w roku, dostarczymy również nowe narzędzia programistyczne
i metodyki rozwoju narzędzi po to, aby zwiększyć przydatność aplikacji Oracle w czasach
cyfrowych zmian” – zapowiada Rick Jewell.
Zapewnia przy tym, że oferta dotychczasowych rozwiązań biznesowych będzie rozwijana równolegle wobec narzędzi chmurowych, tak długo, jak długo klienci Oracle
będą korzystać z rozwiązań on-premise.
Wspierane i ciągle rozwijane są m.in. systemy Oracle PeopleSoft, E-Business Sutie,
JD Edwards i Siebel. Zmiany obejmują m.in.
rozszerzenie interfejsu obsługi, wbudowane
funkcje analityczne, dedykowane aplikacje
mobilne, mechanizmy integracyjne. Rozwijane są także nowe moduły funkcjonalne.
Fundamentem strategii rozwoju narzędzi
biznesowych Oracle, zwłaszcza w kontekście
oczekiwanego wsparcia dynamicznych zmian
biznesowych, ma być model chmury obliczeniowej.
Wszystkie nasze nowe aplikacje są tworzone tak, aby
mogły być wykorzystywane w modelu cloud. Kwestią
czasu jest moment, w którym nasi klienci zdecydują się przejść do tego
modelu. Będzie to jednak systematyczna ścieżka migracji, którą
zamierzamy kompleksowo wspierać.
Rick Jewell, wiceprezes Oracle odpowiedzialny za rozwój aplikacji SCM
Rozwiązaniem, które ułatwia wykorzystanie narzędzi biznesowych w warunkach
dużej zmienności biznesowej, ma być
model chmury obliczeniowej. W ofercie
Oracle dostępne są już nowe, oferowane w modelu cloud, zestawy funkcjonalne. Ich konstrukcja opiera się na – odmiennym niż tradycyjne – skupionym
na przebiegu poszczególnych procesów
biznesowych, podejściu do uporządkowania funkcjonalności. W ramach dedykowanych pakietów rozwiązań chmurowych Oracle dostępny jest m.in. zestaw
narzędzi kompleksowo wspierających
działania biznesowe, bezpośrednio
dotykające klientów. W skład pakietu
Oracle CX Cloud wchodzą m.in. rozwiązania wspierające procesy marketingu,
sprzedaży, ofertowania i obsługi klienta,
a także mechanizmy społecznościowe.
Z rozwiązania Oracle CX Cloud korzystają
m.in. firmy Intel, Lego, Facebook, Toshiba,
Cisco, Lenovo, Sony i NASA.
W ramach oferty chmurowej Oracle dostępne są też podobne zestawy narzędzi
wspierające m.in. zarządzanie kapitałem
ludzkim, logistyką oraz wewnętrznymi
procesami biznesowymi firmy. Ostatni
z pakietów – znany pod nazwą ERP Cloud
– obejmuje m.in. finanse, księgowość oraz
zarządzanie projektami. Funkcje związane
z produkcją skupiono natomiast w ramach
pakietu Oracle SCM Cloud. Co ważne, funkcjonalność każdego z pakietów można
dodatkowo uzupełnić za pośrednictwem
dedykowanego sklepu aplikacyjnego Oracle. Unikalny ma być też interfejs nowych,
chmurowych aplikacji Oracle. Skupiony na
łatwości obsługi, wykorzystujący nowoczesne mechanizmy wizualizacji i nawigacji interfejs ma – według zapowiedzi – w sposób
naturalny prowadzić użytkowników przez
kolejne, wzajemnie zależne, kroki przecinających się procesów biznesowych.
Piotr Waszczuk
kwiecień 2016
ITWIZ MAGAZYN
67
RYNEK
SAP Forum 2016:
cyfrowa transformacja jako
szansa i zagrożenie
Efekty biznesowe zmian związanych z wykorzystaniem na szeroką skalę nowych
technologii były jednym z tematów przewodnich tegorocznej konferencji SAP Forum.
W odpowiedzi na oczekiwania związane z wykorzystaniem dostępnych danych na
szeroką skalę, SAP zamierza rozwijać platformę HANA m.in. pod kątem szerszego
zastosowania mechanizmów sztucznej inteligencji. Platforma in-memory SAP,
wsparta funkcjami analitycznymi, ma pełnić rolę kluczowego rozwiązania dla
organizacji otwartych na zmiany.
Według cytowanych przez SAP prognoz,
cyfrowa transformacja w najbliższych
5 latach będzie miała istotny wpływ na
światową gospodarkę – skutkiem zmian
wynikających z wykorzystania na różne
sposoby dostępnych danych biznesowych ma być zmiana sposobów interakcji
z klientami, uproszczenie funkcjonowania
i zwiększenie skali współpracy z partnerami praktycznie we wszystkich branżach.
Zmieniające się m.in. wskutek szerszego
zastosowania nowych technologii realia
rynkowe mają wpływać nie tylko na powstawanie nowych modeli biznesowych,
lecz także na konieczność zdynamizowania procesów i przebiegu poszczególnych
operacji. W efekcie, funkcjonowanie nowoczesnych organizacji biznesowych ma
upodabniać się do zasad działania żywych
organizmów, zdolnych do uczenia, rozwoju
oraz ewolucyjnej adaptacji do zmian.
Klient, dane i technologia
motorami cyfrowej zmiany
Priorytetem SAP jest również maksymalne
wykorzystanie modelu chmury obliczeniowej, jako rozwiązania umożliwiającego m.in. zmniejszenie skutków typowych
ograniczeń związanych z inwestycjami
68
MAGAZYN
ITWIZ
kwiecień 2016
w nowe technologie, a także podniesienie
ich dostępności dla użytkowników. Dzięki nowym rozwiązaniom analityki dużych
zbiorów danych, SAP zamierza wspierać
firmy w maksymalnym wykorzystaniu dostępnych dla nich informacji biznesowych.
„Wszyscy widzimy, jak dynamicznie zmienia
się dzisiejszy świat. Funkcjonowanie całych
branż może podlegać istotnym zmianom
w ciągu ledwie jednej nocy” – mówi Kinga
Piecuch, prezes zarządu SAP Polska. „Żyjemy w czasach, w których digitalizacja gospodarki na stałe zagościła w polskich przedsiębiorstwach, zarówno dużych, jak i w sektorze
małych i średnich. Dzięki wdrożeniu nowa-
torskich rozwiązań powstają zupełnie nowe
modele działania firm” – dodaje.
Z kolei Jonathan Becher, Chief Digital Officer w SAP podkreśla, że rozpoczynająca się
obecnie fala, opartych na technologiach
IT zmian gospodarczych może mieć największe znaczenie dla ludzkości od czasów
rewolucji przemysłowej. „W ciągu poprzednich dziesięcioleci mieliśmy do czynienia ze
zmianą liniową, stanowiącą rozwinięcie istniejących technologii, a więc potencjalnie
możliwą do przewidzenia i przygotowania
się. Dziś jest inaczej. Mamy do czynienia ze
zmianami, których skala rośnie wykładniczo.
Wszyscy widzimy, jak dynamicznie
zmienia się dzisiejszy świat.
Funkcjonowanie branż może podlegać
istotnym zmianom w ciągu zaledwie
jednej nocy. Żyjemy w czasach, w których
digitalizacja gospodarki na stałe zagościła w polskich
przedsiębiorstwach, zarówno dużych, jak i w sektorze małych
i średnich. Dzięki wdrożeniu nowatorskich rozwiązań powstają nowe
modele działania firm.
Kinga Piecuch, prezes zarządu SAP Polska
RYNEK
W takich warunkach liniowe podejście do
estymacji potencjału zmian rynkowych
i planowania biznesu nie znajduje zastosowania. Myślenie o przyszłości przez pryzmat
teraźniejszości staje się barierą” – twierdzi
Kinga Piecuch.
Przykład firmy Uber pokazuje nie tylko potencjał biznesowy pomysłowego zastosowania technologii. Dowodzi też, że cyfrowa
transformacja opiera się na nowym podejściu do wybranych, często kluczowych
procesów biznesowych. „Tradycyjnie w korporacjach taksówkowych zasobem koordynującym działalność operacyjną jest siedzący w centrali człowiek. W przypadku firmy
Uber – kluczowe z punktu widzenia biznesu
– procesy związane z realizacją przewozów
zostały zautomatyzowane i częściowo przekazane w ręce klienta” – dodaje Jonathan
Becher. Dostępne obecnie technologie
pozwalają na wprowadzenie równie szerokich zmian praktycznie niezależnie od
branży. „Wszystkie potencjalnie potrzebne
rozwiązania są najpewniej dostępne już dziś.
Zmiana opiera się na nowym sposobie myślenia. Gotowość do cyfrowej rewolucji polega na tym, że centrum biznesu stają się dane
i technologia” – zauważa Jonathan Becher.
Platformy dla biznesu
w dynamicznych
i nieprzewidywalnych warunkach
Wzrost znaczenia oczekiwań względem
systemów wspierających zarządzanie
i narzędzi ułatwiających wnioskowanie na
podstawie dostępnych danych potwierdzili też uczestnicy odbywającego się podczas
SAP Forum 2016 panelu dyskusyjnego.
Wzięli w nim udział m.in. przedstawiciele firm: Komfort, KPMG, Cinkciarz.pl oraz
ZUS.
Potrzebom wynikającym z konieczności
prowadzenia biznesu w dynamicznych
W ciągu poprzednich dziesięcioleci
mieliśmy do czynienia ze zmianą
liniową, stanowiącą rozwinięcie
istniejących technologii, a więc
potencjalnie możliwą do przewidzenia
i przygotowania się. Dziś jest inaczej.
Mamy do czynienia ze zmianami, których skala
rośnie wykładniczo. W takich warunkach liniowe podejście do
estymacji potencjału zmian rynkowych i planowania biznesu nie
znajduje zastosowania. Myślenie o przyszłości przez pryzmat
teraźniejszości staje się barierą.
Jonathan Becher, Chief Digital Officer w SAP
i nieprzewidywalnych warunkach biznesowych odpowiadać ma koncepcja SAP
Digital Framework oraz rozwijane na jej
bazie narzędzia SAP. Koncepcja ta zakłada,
że kluczowe znaczenie dla efektywnego
biznesu mają obecnie: zaangażowanie
pracowników, wielokanałowe doświadczenia klientów, zarządzanie zasobami
oraz internet rzeczy, a także – współpraca z dostawcami w ramach wielowymiarowych sieci biznesowych. Wokół tych 4
obszarów koncentrować mają się funkcje
biznesowe o największym znaczeniu dla
sprawności organizacji. „W większości firm
funkcjonują procesy biznesowe, które są nałożeniem stworzonych lata temu modeli na
obecne technologie. Nowoczesne podejście
wymaga jednak nieliniowego modelu, który
jest nierealny przy wykorzystaniu tradycyjnych rozwiązań” – uważa Jonathan Becher.
analitycznych opartych na technologii
in-memory, rozwiązanie S/4HANA ma zyskać m.in. możliwość wykrywania zmian
zachodzących w otoczeniu biznesowym
firmy i jej wnętrzu oraz automatycznego
dostosowywania przebiegu procesów biznesowych do nowych potrzeb.
I tak, SAP zamierza rozwijać platformę
HANA m.in. pod kątem szerszego zastosowania mechanizmów sztucznej inteligencji. Platforma HANA jest zaś fundamentem
dalszego rozwoju nowej generacji systemu
SAP wspierającego zarządzanie. Dzięki
wykorzystaniu na szeroką skalę funkcji
SAP systematycznie podejmuje też działania mające na celu zwiększenie dostępności, ergonomii, a także swobody w zakresie wykorzystania oferowanych rozwiązań
przez klientów. Podczas konferencji SAP
Forum zaprezentowano możliwości chmurowej wersji platformy SAP HANA. Co ważne, dostęp do poszczególnych, opartych
na utrzymywanym przez SAP środowisku
aplikacji biznesowych, komponentów
technicznych i usług można łatwo nabyć
za pośrednictwem – dostępnej też dla
klientów z Polski – platformy SAP Store.
Koncepcja SAP Digital Framework zakłada, że
kluczowe znaczenie dla efektywnego biznesu mają
obecnie: zaangażowanie pracowników,
wielokanałowe doświadczenia klientów, zarządzanie
zasobami oraz internet rzeczy, a także – współpraca
Zmienia się również koncern SAP i jego
lokalne struktury. „Zatrudniliśmy ekspertów, którzy nie tylko rozumieją technologię,
lecz także potrzeby poszczególnych sektorów
gospodarki. Zależy nam na tym, aby stać się
firmą wspierającą klientów w kreowaniu wizji rozwoju biznesu” – podkreśla Kinga Piecuch. Wskutek tego typu zmian, obok dedykowanych usług doradczych, w ofercie
SAP pojawiać mają się także rozwiązania
specjalizowane, odpowiadające na potrzeby specyficzne dla poszczególnych branż.
z dostawcami w ramach wielowymiarowych sieci biznesowych.
Piotr Waszczuk
kwiecień 2016
ITWIZ MAGAZYN
69
RYNEK
Nowości od Intela
stworzone z myślą o przetwarzaniu
w chmurze
Intel poszerza portfolio produktów dla przedsiębiorstw o nową serię procesorów
Intel Xeon E5-2600 v4 (Broadwell) oraz dyski SSD typu 3D NAND zoptymalizowane
pod przetwarzanie w chmurze. Premierę nowych podzespołów połączono
z nawiązaniem wielu partnerstw i kolejnych inwestycji Intela. Wszystkie związane są
z rozwiązaniami opartymi na chmurze.
Podczas odbywającej się w San Francisco
konferencji Intel Cloud Day zaprezentowano
przykłady wdrożeń rozwiązań cloud computing w wielu przedsiębiorstwach. Była to też
okazja do przedstawienia przez Intela najnowszych rozwiązań, mających zapewnić szybsze,
wydajniejsze i wygodniejsze przetwarzanie
w modelu cloud computing. Nowe procesory
i dyski mają pozwolić firmom na stworzenie
wydajnych infrastruktur chmur prywatnych
i hybrydowych. Dzięki nowościom sprzętowym Intela przedsiębiorstwa zyskują dostęp
do technologii, z których do tej pory korzystały
jedynie duże chmury publiczne.
„Firmy oczekują od architektury chmury efektywności i elastyczności. To one dyktują warunki i chcą mieć możliwość korzystania z chmury
publicznej, prywatnej lub obu jednocześnie.
Wynikiem tego jest zapotrzebowanie na infrastrukturę zdefiniowaną programowo SDI
(Software-Defined Infrastructure)” – powiedziała Diane Bryant, wiceprezes i dyrektor
generalna Data Center Group w Intelu. „Intel inwestuje w dojrzałe rozwiązania SDI, które
umożliwiają przedsiębiorstwom każdej wielkości
czerpanie korzyści z chmury” – dodaje.
Software-Defined Infrastructure stanowi
podstawę najbardziej zaawansowanych
chmur obliczeniowych na świecie. Umożliwia ona szybsze i bardziej efektywne
świadczenie usług przetwarzania w chmurze dzięki oprogramowaniu, dynamicznie
przydzielającemu zasoby obliczeniowe, sieciowe oraz pamięć masową. Pozwala to na
rozwiązania, z których jednocześnie może
korzystać duża grupa użytkowników.
Nowy Intel Xeon
E5-2600 (Broadwell)
Nowa generacja procesorów Intel Xeon
E5-2600 v4 produkowana jest w procesie
70
MAGAZYN
ITWIZ
kwiecień 2016
Software-Defined Infrastructure stanowi podstawę
najbardziej zaawansowanych chmur obliczeniowych
na świecie. Umożliwia ona szybsze i bardziej
efektywne świadczenie usług przetwarzania
w chmurze dzięki oprogramowaniu, dynamicznie
przydzielającemu zasoby obliczeniowe, sieciowe oraz
pamięć masową. Pozwala to na rozwiązania, z których
jednocześnie może korzystać duża grupa użytkowników.
14-nanometrowym i ma o 20% większą
liczbę rdzeni i ilość pamięci podręcznej
w porównaniu z poprzednią wersją v3.
Procesory te zawierają elementy SDI, w tym
Intel Resource Director. Pozwala on na dynamiczne zarządzanie dostępnymi zasobami platformy opartej na tych procesorach. Technologia RDT umożliwia znaczącą
automatyzację, a przede wszystkim pełną
kontrolę zasobów.
W uaktualnionej grupie procesorów Intel
Xeon E5 wprowadzono również udoskonalenia w zakresie bezpieczeństwa. Wśród
nich są takie rozwiązania, jak izolowanie
obciążeń, egzekwowanie reguł bezpieczeństwa czy szybsza kryptografia, mająca
zapewnić skuteczniejszą ochronę danych.
Dyski SSD skrojone pod chmurę
Aby zapewnić niezawodność i odpowiednią
szybkość dostępu do danych zgromadzonych w chmurze, Intel wprowadza nowe
dyski SSD. Dyski z serii DC P3320 i P3520
wykorzystują technologię 3D NAND. To
pierwsze dyski SSD od Intela korzystające
z tej technologii, która zapewnia największą gęstość pamięci. Według producenta,
seria P33320 oferuje 5 razy większą wydajność w stosunku do napędów SATA.
W przypadku serii D3700 i D3600 zastosowano dwa złącza PCI oraz obsługę protokołu NVMe (Non-Volatile Memory Express).
Taka konstrukcja ma chronić przed utratą
najważniejszych danych. W testach seria
dysków D3700 jest 6-krotnie wydajniejsza
od dwuportowych rozwiązań SAS. Wszystkie nowe dyski SSD zoptymalizowano do
pracy z nowymi procesorami Intel Xeon E5.
Intel nie tylko tworzy rozwiązania, które mają sprawdzić się w infrastrukturze
opartej na chmurze, ale też zachęca firmy
do wdrażania tych technologii. W ramach
programu Intel Cloud for All nawiązywane są strategiczne partnerstwa oraz inwestycje, które mają zapewnić szybki rozwój
chmury obliczeniowej oraz standaryzację
stosowanych rozwiązań. Nowości sprzętowe wraz z rozwiązaniami stworzonymi
wspólnie z partnerami – jak współpraca
z CoreOS i Mirantis nad platformą Open
Source do zarządzania kontenerami i aplikacjami na maszynach wirtualnych – mają
przyczynić się do powstania 10 tys. nowych chmur.
Paweł Okopień
RYNEK
Data Center Intela
w siedzibie głównej w Santa Clara
Intel przekształcił dawną fabrykę półprzewodników w centrum danych.
Znajdujący się tam klaster komputerów znalazł się na 81 miejscu wśród TOP 500
superkomputerów na świecie, a jest tylko jednym z 59 centrów danych Intela na
świecie. Sprawdziliśmy, do czego ten producent procesorów potrzebuje tak potężnej
mocy obliczeniowej.
Santa Clara w Kalifornii znajduje się w sercu
Doliny Krzemowej. Tutaj siedzibę główną
ma Intel, a także Nvidia, McAffe i wiele
innych firm. W siedzibie głównej Intela
znajdują się muzeum, przestrzeń biurowa
i właśnie centrum danych, wcześniej mieściła się tu fabryka półprzewodników wykorzystywanych w produktach Intela.
Obecne centrum danych podzielone jest
na dwie części – starą i nową. Starsza to
klaster SCTO HPC 2A z 2012 roku, oparty
na 8-rdzeniowych procesorach Intel Xeon
E5-2670. To łącznie 7360 rdzeni o mocy
83,10 teraflopsów. Superkomputer w nowej
części to klaster SC D2P4 powstały w 2015
roku. Składa się z serwerów typu blade HD
BL460c, z 12-rdzeniowymi procesorami
Intel Xeon E5-2680 v3. Całość to 30 672
rdzenie połączone InfiniBand. Ich łączna
moc wynosi 833,92 TFLOPS.
Intel zamknął fabrykę w Santa Clara w 2009
roku. Produkcja procesorów przeniosła się
do innych miejsc w Stanach Zjednoczonych
i na świecie. Jak widać powierzchnia ta się
nie marnuje, ale nadal spora część została
jeszcze do wykorzystania. Olbrzymie hale
będą przygotowywane do rozbudowy tutejszego data center. W niedalekiej przyszłości
powstanie jeszcze nowocześniejszy klaster.
Chłodzenie za pomocą
ciepłych i zimnych korytarzy
Centrum danych Intela chłodzone jest
głównie powietrzem, a nie cieczą. Firma
wykorzystuje klimat, jaki panuje w rejonie
Santa Clara. Zastosowano tutaj metodę
zimnych i ciepłych korytarzy (tzw. hot &
cold aisles). Dzięki wysoko wydajnej klimatyzacji – i dopływowi zimnego powietrza, które miesza się z ciepłym – wiatraki
w centrum Intela działają jedynie przez
40 godzin rocznie. Za sprawą swojego
Dlaczego Intel ma olbrzymi superkomputer w głównej siedzibie oraz 58
innych Data Center na całym świecie? Tak potężna moc obliczeniowa
potrzebna jest Intelowi do tworzenia nowoczesnych układów. Data
Center w Santa Clara wspiera inżynierów na całym świecie przy
projektowaniu kolejnych generacji procesorów Intela.
Współcześnie do zaprojektowania nowych chipsetów
potrzeba aż 4600 większej mocy obliczeniowej, niż
było to konieczne 12 lat temu.
energooszczędnego systemu chłodzenia,
centrum to – w porównaniu z pozostałymi
Data Center Intela – przynosi 1,9 mln USD
oszczędności rocznie. Tylko dzięki temu
jego koszty budowy mają się zwrócić w ciągu 6 lat.
W superkomputerze Intela w Santa Clara
nie brakuje rozwiązań prosto z Polski. To
w gdańskim centrum R&D Intela, 50-osobowy zespół pracuje nad rozwiązaniami
dla superkomputerów i oprogramowaniem serwerowym. Inżynierowie z Gdańska odpowiadają również za opracowanie
oprogramowania do zarządzania centrami danych, w tym za ograniczanie zużycia
energii.
Dlaczego Intel potrzebuje
Data Center?
Dlaczego Intel ma olbrzymi superkomputer
w głównej siedzibie oraz 58 innych Data
Center na całym świecie? Tak potężna moc
obliczeniowa potrzebna jest Intelowi do
tworzenia nowoczesnych układów. Data
Center w Santa Clara wspiera inżynierów na
całym świecie przy projektowaniu kolejnych
generacji procesorów Intela. Współcześnie
do zaprojektowania chipsetów potrzeba aż
4600 większej mocy obliczeniowej, niż było
to konieczne 12 lat temu.
Takie centrum danych Intela to także możliwość demonstracji najnowszych innowacji
na własnym przykładzie. Firma może pokazać gotowe wdrożenia partnerom, a także
testować najnowsze rozwiązania w chłodzeniu czy w samych procesorach. Wnętrze
centrum danych Intela w Santa Clara na co
dzień dostępne jest wyłącznie dla pracowników. W tym samym budynku mieści się
jednak otwarte i bezpłatne muzeum Intela. Można tam obejrzeć pierwsze procesory firmy, zapoznać się z jej historią, a także
poznać najnowsze technologie, takie jak
Intel RealSense.
Paweł Okopień
kwiecień 2016
ITWIZ MAGAZYN
71
RYNEK
Wydajność aplikacji
tożsama
z wydajnością biznesu
W świecie cyfrowej transformacji wydajność aplikacji powinna być oceniana nie
tylko pod kątem sprawności działania oprogramowania, lecz także sposobu jego
postrzegania oraz wartości dla użytkownika.
Tematyka zarządzania wydajnością oprogramowania nabiera znaczenia w świecie biznesowym, który w coraz większym stopniu staje się zależny od aplikacji dostarczanych
użytkownikom i klientom na wiele sposobów – poprzez lokalną infrastrukturę, w modelu cloud computing czy za pośrednictwem urządzeń mobilnych. Tematyce zarządzania
wydajnością organizacji poświęcona była – organizowana
w ramach globalnego cyklu, a po raz pierwszy w Polsce
– konferencja Perform Day Warsaw. Warszawskie spotkanie
było okazją do poznania aktualnych trendów wpisujących
się w potrzebę kontrolowania działania oprogramowania,
jako czynnika nabierającego rangi biznesowej.
Aplikacje muszą podlegać
szczegółowej kontroli
„Google ustanowił pewien trend, zakładający, że czas odpowiedzi usług internetowych dłuższy niż 2 sekundy staje się
nieakceptowalny przez użytkowników. To powoduje, że precyzyjna kontrola wydajności środowiska aplikacyjnego nabiera ogromnej wagi” – mówi Jacek Kujawa, prezes zarządu
Omnilogy, RFO Dynatrace (więcej o tym, w jaki sposób tego
dokonuje, na stronach 52–57). Dodaje przy tym, że w obliczu cyfrowej transformacji wiele firm stawia na rozwój
własnych, wspierających unikalne potrzeby biznesowe
aplikacji, które muszą podlegać szczegółowej kontroli.
„Staramy się promować podejście DevPOps, czyli metodykę
DevOps uzupełnioną czynnikami wydajnościowymi. Nie mówimy jednak wyłącznie o wydajności aplikacji, ale o kolejnym
etapie w podejściu do oceny wydajności organizacji. Podejściu
ukierunkowanym na zachowania oraz doświadczenia klientów” – dodaje.
Z analiz IDC wynika, że w 2020 roku na świecie wykorzystywanych będzie co najmniej 25 mln aplikacji i tysiąckrotnie więcej systemów wbudowanych i inteligentnych.
Dużo z nich nabierze przy tym cech rozwiązań kluczowych
72
MAGAZYN
ITWIZ
kwiecień 2016
Konferencja Perform Day Warsaw była okazją do
poznania aktualnych trendów wpisujących się
w potrzebę kontrolowania działania oprogramowania,
jako czynnika nabierającego rangi biznesowej.
Google ustanowił pewien trend,
zakładający, że czas odpowiedzi usług
internetowych dłuższy niż 2 sekundy
staje się nieakceptowalny przez
użytkowników. To powoduje, że
precyzyjna kontrola wydajności
środowiska aplikacyjnego nabiera
ogromnej wagi.
dla realizacji celów biznesowych wielu firm. Rozwiązania
aplikacyjne i systemy wbudowane będą też często punktem
styku organizacji biznesowej z klientem.
„W centrum huraganu zmian znajdują się klienci oraz ich doświadczenia w komunikacji z markami biznesowymi. Złożoność relacji i komunikacji z użytkownikami staje się motorem
zmian” – stwierdza Luís Miguel Porém, Regional Business
Head w Dynatrace. Istotnym czynnikiem wpływającym na
funkcjonowanie dzisiejszych środowisk IT jest postępująca,
wielowymiarowa integracja różnych aplikacji i rozwiązań
biznesowych. Uwzględnić trzeba też wyzwania związane
z postępującym zakresem wykorzystania internetu rzeczy.
Wkraczając w kolejne obszary życia, staje się on inspiracją do nowych koncepcji biznesowych. Na to nakłada się
upowszechnienie urządzeń mobilnych. Z perspektywy dostawcy rozwiązań i usług powinny być one traktowane jako
kolejny kanał kontaktu z klientem. Musi więc być on obsłużony sprawnie, i to w sposób nieograniczający mobilności.
RYNEK
Wkraczamy na ścieżkę ciągłej transformacji, gdzie
liczą się szybkość dostarczania nowych produktów
i usług oraz tempo wdrażania innowacji. Wszystko to,
przy obligatoryjnym zachowaniu najwyższych
poziomów obsługi klienta. Tego typu oczekiwania
wprost odnoszą się do wymagań stawianych
systemom IT. Na koniec dnia to od
działania aplikacji – za pośrednictwem
których jako konsumenci korzystamy
z usług i kupujemy produkty, a jako
dostawcy zdobywamy udziały rynkowe
– zależy powodzenie biznesu.
Prognozowanie wystąpienia błędów
i zapobieganie awariom aplikacji
„Wkraczamy na ścieżkę ciągłej transformacji, gdzie liczą się
szybkość dostarczania nowych produktów i usług oraz tempo
wdrażania innowacji. Wszystko to, przy obligatoryjnym zachowaniu najwyższych poziomów obsługi klienta” – twierdzi Luís
Miguel Porém. Tego typu oczekiwania wprost odnoszą się
do wymagań stawianych systemom IT. „Na koniec dnia to od
działania aplikacji – za pośrednictwem których jako konsumenci
korzystamy z usług i kupujemy produkty, a jako dostawcy zdobywamy udziały rynkowe – zależy powodzenie biznesu” – dodaje
Luís Miguel Porém.
Powołując się na analizy Forrester Research, podkreśla on,
że w takich realiach tradycyjne narzędzia wspierające zarządzanie wydajnością aplikacji stają się niewystarczające.
Takiego zdania jest ponad 53% ankietowanych menedżerów.
Istotnego znaczenia nabiera nie tyle wykrywanie i neutralizowanie błędów, ile prognozowanie ich wystąpienia i zapobieganie awariom, które mogłyby wpłynąć na doświadczenia
użytkowników. „Widać dziś, że monitoring IT skupiony na samej
infrastrukturze nie będzie oczami biznesu. Niezbędne jest spojrzenie szersze. W jaki bowiem sposób będziemy w stanie efektywnie przetestować aplikacje pod kątem działania na 20 tys.
różnych urządzeń, z których potencjalnie mogą skorzystać nasi
klienci? Na to nakładają się mikrousługi, które – z perspektywy
osób odpowiedzialnych za działanie środowiska IT – mogą być
niezwykle problematyczne” – stwierdza Sławek Michalik, Sales Engineer Manager w Dynatrace. Efektywne zarządzanie
środowiskiem IT w takich realiach wymaga zmiany narzędzi
wspierających monitoring IT, ale także innego podejścia do
komunikacji w obrębie organizacji.
Więcej aplikacji, większe potrzeby
Wiedza na temat wydajności aplikacji nabiera znaczenia biznesowego. Na – podlegający ocenie użytkowników bardziej niż
kiedykolwiek w przeszłości – czas obsługi klienta wpływa nie
tylko sprawność procesowa organizacji, lecz także szybkość
działania technologii. Wraz z rosnącą ilością aplikacji używanych w statystycznej firmie rośnie znaczenie możliwości gro-
madzenia informacji na temat ich działania w sposób, który
w minimalnym stopniu wpływa na środowisko aplikacyjne,
a zarazem gwarantuje możliwość szybkiego wykorzystania
danych o wydajności oprogramowania. „Istotny jest też sposób
prezentacji danych, a także zachowanie pełnego ich kontekstu.
Nie można mówić o efektywnym spojrzeniu na obszar User Experience, patrząc tylko na czasy odpowiedzi aplikacji. Potrzebna
jest pełna perspektywa dotycząca wydajności, sposobu działania
aplikacji, ewentualnych błędów, jak również użytkownika i rozwiązań, z jakich korzysta” – dodaje Sławek Michalik.
Na oczekiwania związane z zapewnieniem jak największej
wydajności rozwiązań wspierających użytkowników nakładają się zmiany technologiczne i postępująca fragmentacja
aplikacji. W firmach stopniowo pojawiają się środowiska
zautomatyzowane, zdolne do samodzielnego, dynamicznego skalowania pojawiających się potrzeb. „W takich warunkach sampling danych o wydajności poszczególnych elementów
środowiska aplikacyjnego w ogóle się nie sprawdzi. Oparte na
tego typu podejściu rozwiązania do monitoringu być może wcale
nie wychwycą pojawienia się niektórych komponentów” – dodaje Sławek Michalik. Równolegle, narzędzia wykorzystywane do monitorowania środowisk aplikacyjnych – w obliczu
rosnącego stopnia ich złożoności – powinny obejmować
W firmach stopniowo pojawiają się
środowiska zautomatyzowane, zdolne
do samodzielnego, dynamicznego
skalowania pojawiających się potrzeb.
W takich warunkach sampling danych
o wydajności poszczególnych
elementów środowiska aplikacyjnego
w ogóle się nie sprawdzi. Oparte na tego
typu podejściu rozwiązania do monitoringu być może
wcale nie wychwycą pojawienia się niektórych
komponentów.
funkcjonalnością wszystkie elementy infrastruktury, również
te dostarczane w modelu cloud computing. W odpowiedzi
na tego typu potrzeby Dynatrace rozwija nowe rozwiązanie,
które – na podstawie scentralizowanych narzędzi gromadzących dane o komponentach aplikacyjnych – będzie w stanie
obsługiwać różnego rodzaju aplikacje, także chmurowe oraz
zachowania klientów.
Konferencja Perform Day Warsaw – której patronem był ITwiz
– była też okazją do poznania szczegółów realizowanych
przez partnerów Dynatrace – m.in. Compfort Meridian, EM&CA iSpica Solutions – projektów budowy kompleksowych
środowisk monitorowania IT w polskich firmach. Omawiano
m.in. przykłady z sektorów bankowości i energetyki.
Piotr Waszczuk
kwiecień 2016
ITWIZ MAGAZYN
73
RYNEK
Cisco Forum 2016
– po drugiej stronie szachownicy
W Zakopanem odbyła się już 18. edycja Cisco Forum, jednej z największych w Polsce
konferencji IT. Z tej okazji organizatorzy wprowadzili do agendy – oprócz jak zawsze
interesującego programu prelekcji i wykładów – ciekawe nowinki, w tym ścieżkę
innowacji – poświęconą start-upom.
Sesja plenarna była okazją do bliższego przyjrzenia się cyfryzacji – temu, jaki jest stan tego
procesu w Polsce i jakie wyzwania czekają naszą gospodarkę, aby była konkurencyjna na
globalnych rynkach. Prezentowane raporty
wskazywały, że Polska nie wypada dobrze.
Przykładowo, okazuje się, że liczba robotów przemysłowych na 10 tys. pracowników
jest u nas mniej więcej trzykrotnie niższa niż
w Czechach i na Słowacji. Jest więc jeszcze
wiele do zrobienia, a Dariusz Fabiszewski,
dyrektor generalny polskiego oddziału Cisco podkreślał, że duża odpowiedzialność
– aby te braki nadrobić – spoczywa również
na zgromadzonych na konferencji przedstawicielach branży IT.
Rozwój technologiczny jest coraz
trudniejszy do przewidzenia
Bardzo dobrze wypadła prezentacja dyrektora technicznego Cisco Macieja Szeptyckiego, który opowiadał, jak daleko idący,
a jednocześnie trudny do przewidzenia
wpływ na nasze życie będzie miała cyfryzacja. Okazuje się, że to, co 10 lat temu uznani
naukowcy uważali w świecie technologii za
niemożliwe, teraz staje się rzeczywistością.
Co więcej, dalszy rozwój technologiczny jest
coraz trudniejszy do przewidzenia. Aby to
zobrazować, posłużył się przykładem szachownicy, na której polach układa się ziarna ryżu. Na pierwszym jedno, a na każdym
następnym dwa razy więcej. Po zapełnieniu
pierwszej połowy szachownicy, na drugiej
połowie liczba ziaren jest tak duża i rośnie
tak szybko, że człowiek nie potrafi już tego
objąć swoim umysłem. Według Macieja
Szeptyckiego, drugą połowę szachownicy
osiągnął już np. rozwój procesorów. Swoje
wystąpienia w trakcie sesji plenarnej mieli
również główni sponsorzy konferencji – Intel
oraz Integrated Solutions.
74
MAGAZYN
ITWIZ
kwiecień 2016
Dalszy rozwój technologiczny jest coraz trudniejszy
do przewidzenia. Aby to zobrazować, posłużył się
przykładem szachownicy, na której polach układa się
ziarna ryżu. Na pierwszym jedno, a na każdym następnym dwa razy
więcej. Po zapełnieniu pierwszej połowy szachownicy, na drugiej
połowie liczba ziaren jest tak duża i rośnie tak szybko, że człowiek nie
potrafi już tego objąć swoim umysłem. Według Macieja Szeptyckiego,
drugą połowę szachownicy osiągnął już np. rozwój procesorów.
W tym roku konferencja odbyła się w zmienionej formule – trwała 2 dni, czyli o dzień
krócej niż w ostatnich latach. Agenda była
podzielona aż na sześć ścieżek: forum ekspertów, case study, forum TAC (Technical
Assistance Center), innowacji, partnerów
oraz architektur. W programie znalazły się
tradycyjne sesje 75-minutowe, podczas
których szczegółowo omawiano wybrane
zagadnienie. Oprócz tego można było wziąć
udział w półgodzinnych sesjach, tzw. flash, na
których przedstawiano wybraną technologię, produkt czy trend. Tematyka prezentacji
dotyczyła przede wszystkim praktycznego
wykorzystania technologii Cisco – przez
partnerów, start-upy i firmy deweloperskie.
Uczestnicy mieli też możliwość poznania oferty i nawiązania kontaktu z przedstawicielami
obiecujących, polskich start-upów technologicznych. Jednym z nich było Ifinity (opisywaliśmy ją na łamach ITwiz 2/2015), firma
zajmująca się projektami związanymi z mikrolokalizacją i nawigacją. Swoje technologie
rozwija od dwóch lat, wykorzystując Bluetooth
Low Energy. Ifinity bierze udział w programie
start-upów Challenge Up!, organizowanym
przez Intel, Cisco i Deutsche Telekom. T-Mobile Polska, spółka Grupy Deutsche Telekom,
była partnerem tegorocznego Cisco Forum.
Spotkania
one-2-one z inżynierami
Trafionym pomysłem okazała się Technical Clinic – uczestnicy mieli możliwość
spotkania 1:1 z inżynierami TAC i Advanced Services o różnych specjalizacjach. Dla
osób, które wolały spędzać czas w przestrzeni barowej, przygotowano CiscoTV,
czyli transmisję na żywo sesji tematycznych
odbywających się w trakcie Cisco Forum.
Jeśli ta forma przekazu się sprawdzi, organizatorzy planują, że w przyszłym roku będzie
ona nadawać na żywo w internecie.
Organizatorzy dokładali starań, aby zapewnić miejsce dla jak największej liczby
uczestników. W tym roku przed hotelem
Kasprowy (miejsce konferencji to jeden
z nielicznych elementów, który pozostał
niezmieniony) pojawił się duży namiot,
w którym odbyła się m.in. sesja plenarna,
a także sesje ze ścieżki innowacje. Mimo
tych starań liczba chętnych była większa,
niż liczba dostępnych miejsc. W imprezie
udział wzięło aż 1300 osób, a rejestracja
zakończyła się na miesiąc przed rozpoczęciem Cisco Forum.
Rafał Janus
RYNEK
Cisco otwiera w Krakowie
EMEAR Security
Operations Center
Cisco Global Services Center w Krakowie rozszerza zakres działalności i dodaje
nowe usługi. Jedną z nich jest EMEAR Security Operations Center (SOC),
dostarczające klientom usługi związane z cyberbezpieczeństwem, od monitoringu
i zarządzania, po kompleksową ochronę przed zagrożeniami.
Polskie SOC jest trzecim – po Stanach Zjednoczonych i Japonii – które Cisco posiada na
świecie. Taka struktura pozwala Cisco na
całodobowe dostarczanie usług związanych
z bezpieczeństwem IT w modelu „follow the
sun”, czyli niezależnie od tego, w jakiej strefie czasowej zlokalizowani są klienci.
Cisco Security Operations Center w Krakowie jest
trzecim – po Stanach Zjednoczonych i Japonii – które
firma ta posiada na świecie. Jak twierdzą przedstawiciele
firmy, taka struktura pozwala Cisco na całodobowe dostarczanie usług
związanych z bezpieczeństwem IT w modelu „follow the sun”, czyli
niezależnie od tego, w jakiej strefie czasowej zlokalizowani są klienci.
Z krakowskiego Security Operations Center
świadczona jest usługa Cisco Active Threat
Analytics (ATA). Umożliwia ona szybkie wykrycie i odpowiedź na incydenty bezpieczeństwa, dzięki analizie ruchu w sieciach
klientów, ocenie danych telemetrycznych
i wykorzystaniu globalnej wiedzy o aktualnych zagrożeniach. Inżynierowie w SOC
zapewniają monitoring cyberzagrożeń
i mogą zdalnie zarządzać infrastrukturą
bezpieczeństwa.
Jednak dziś nasi klienci i partnerzy stoją przed
nowymi wyzwaniami, takimi jak cyfryzacja,
coraz bardziej złożony krajobraz cyberbezpieczeństwa, nowe modele dostarczania IT i zapotrzebowanie na usługi IT nowego typu. Nowe
funkcje, które teraz ogłaszamy, odpowiadają
na te właśnie potrzeby i będą realizowane przez
zespół ekspertów, który tu zbudowaliśmy przez
ostatnie lata” – mówi Norm DePeau, dyrektor
Cisco Global Services Center w Krakowie.
Czwarty rok i dwie nowe
usługi Cisco w Krakowie
1000 pracowników w Cisco
Global Services Center
Poza MEAR Security Operations Center, w krakowskim ośrodku Cisco uruchamiany jest
Global Customer Success (GCS). Wspiera on
klientów, którzy korzystają z subskrypcji Cisco
na oprogramowanie, usługi, rozwiązania
chmurowe i inne, pomagając w ich bardziej
efektywnym wykorzystaniu w ramach procesów biznesowych klientów oraz w szybszym
generowaniu realnych wyników.
Cisco Global Services Center w Krakowie zatrudnia obecnie ok. 1000 osób. Do pracy
w tej firmie specjalistów IT przyciągają m.in.
oferowane warunki i atmosfera. 30 marca
2016 r. Cisco Poland zostało wybrane najlepszym miejscem pracy w Polsce w kategorii firm zatrudniających ponad 500 osób.
Ranking sporządził Instytut Great Place to
Work na podstawie anonimowych ankiet
przeprowadzonych wśród pracowników Cisco w Warszawie i Krakowie oraz analizy
stosowanych praktyk HR. Instytut Great Place to Work mierzy 5 kluczowych kategorii:
wiarygodność, szacunek, uczciwość, poczucie dumy i relacje w firmie. Cisco uzyskało
wyróżniającą się ocenę w każdej z powyższych kategorii.
„W roku 2012 Cisco otworzyło centrum usług
wspólnych w Krakowie, mając na celu zapewnienie klientom w Europie, na Bliskim Wschodzie, w Afryce i Rosji – region EMEAR – szerokiego zakresu usług w wielu językach,
dostępnych z miejsca odpowiadającego ich
strefom czasowym. Ten cel pozostaje aktualny.
„Cisco Global Services Center w Krakowie odgrywa kluczową rolę w naszej strategii obsługi klientów, partnerów i pracowników w regionie EMEAR i poza nim, a stworzony tu
zespół przerósł nasze najśmielsze oczekiwania. Cieszymy się, że rozbudowując krakowski
ośrodek i dodając do niego nowe funkcje,
możemy tworzyć nowe miejsca pracy dla inżynierów i ekspertów biznesowych, jednocześnie przyczyniając się do rozwoju w Polsce
gospodarki opartej na wiedzy. W dzisiejszych
czasach kluczem do sukcesu każdego przedsiębiorstwa jest znalezienie utalentowanych
pracowników. Jesteśmy niezwykle dumni, że
Cisco Poland zostało uznane najlepszym miejscem pracy w Polsce na podstawie opinii samych pracowników” – komentuje Norm
DePeau.
Cisco Global Services Center w Krakowie
świadczy usługi wsparcia technicznego i biznesowego dla klientów, partnerów oraz
pracowników Cisco, obejmując zakresem
działań takie obszary, jak Consulting & Technical Services, Cloud & Managed Services
czy Finance & Operations. Centrum należy
do sieci ośrodków Cisco rozmieszczonych na
całym świecie.
Adam Jadczak
kwiecień 2016
ITWIZ MAGAZYN
75
Już w czerwcu przedstawimy kolejną edycję raportu
„Dwa oblicza rynku IT – Ranking firm IT i analiza potrzeb ich klientów”
KTÓRY DOSTAWCA
ROZWIĄZAŃ IT
ZDOBĘDZIE 1 MIEJSCE
W RANKINGU?
JAKIE SĄ PLANY ZAKUPOWE
NA TECHNOLOGIE
INFORMATYCZNE POLSKICH
PRZEDSIĘBIORSTW?
W raporcie poruszymy takie tematy, jak:
cyfrowa transformacja – przykłady udanych projektów
i trendów wpływających na zmianę roli CIO i nowoczesnych technologii w poszczególnych sektorach gospodarki,
współpraca IT i biznesu – działające i niedziałające modele,
W raporcie ITwiz Best 100 opublikujemy także wiele
analiz i porównań, m.in.:
największe firmy IT w Polsce,
największe grupy kapitałowe w Polsce,
najbardziej zyskowne firmy IT w Polsce,
najszybciej rozwijające się firmy IT w Polsce,
najwięksi eksporterzy IT w Polsce,
priorytety wydatków na IT w polskich przedsiębiorstwach
i instytucjach, m.in. na: cloud computing, infrastrukturę IT,
wirtualizację, pamięci masowe, systemy backupu i archiwizacji danych, bezpieczeństwo, oprogramowanie, sprzęt,
usługi, rozwiązania sieciowe, rozwiązania mobilne,
perspektywy rozwoju branży IT w ciągu 12 miesięcy,
innowacje w polskiej branży IT – rynek polskich
start-upów, ich pozycja na świecie,
trendy technologiczne, które będą w największym stopniu
wpływać na rozwój branży IT.
najwięksi dostawcy rozwiązań IT w sektorach: administracja publiczna, banki, finanse, telekomunikacja, media,
przemysł, utilities, handel, transport i logistyka, opieka
zdrowotna, edukacja i R&D,
największe firmy oferujące usługi IT (ogółem i w kilku
podkategoriach),
najwięksi dostawcy oprogramowania (ogółem i w kilku
podkategoriach),
najwięksi dostawcy sprzętu IT.
199 zł + 5% VAT
wyślij: rezerwuję na adres: [email protected]

Podobne dokumenty