magazyn o tym, co istotne w it
Transkrypt
magazyn o tym, co istotne w it
MAGAZYN MAGAZYN O TYM, CO ISTOTNE W IT 4(24)/2016 | 18 zł (w tym 5% VAT ) | ISSN 2353-5628 KWIECIEN 2016 Organizacja pracy deweloperów i architektury różnego poziomu Koncepcja Security by Design Komponenty infrastrukturalne platform Big Data Internet rzeczy wymusza nowe formy płatności bezgotówkowych Partnerstwo IT z biznesem zaczyna się od otwartej komunikacji O błędach początkującego Product Ownera Kinetise: każdy może zbudować mobilną aplikację Narzędzia Google dla centrów danych rozwijane w Polsce Borg, Kubernetes i wiele, wiele innych rozwiązań Google – oraz ich poszczególnych funkcji – rozwijanych jest m.in. przez inżynierów w Warszawie. Tutejszy dział R&D zatrudnia już ponad 100 osób. W tym roku chce przyjąć do pracy kilkadziesiąt kolejnych. Szybki wzrost związany jest z projektami realizowanymi wokół Google Cloud Platform. W STĘPNIAK Od dawna mówi się, że mamy bardzo uzdolnionych programistów. I coraz częściej przekonujemy się o tym sami, spotykając ich każdego dnia na swojej drodze. Ostatnio w Google (piszemy o tym na str. 52). Jak się okazuje, polski dział R&D wyspecjalizował się w budowie narzędzi do automatycznego dostosowywania zasobów IT do potrzeb użytkowników centrów danych tej firmy, zarówno wewnętrznych, jak i zewnętrznych. To całkowicie polska domena w Google. Kierowany przez Jarka Kuśmierka zespół inżynierów w warszawskim biurze pracował m.in. nad odpowiednimi modułami systemu Borg – służącemu do zarządzania centrami danych Google na potrzeby kilkudziesięciu tysięcy deweloperów tej firmy. Odpowiednie moduły stworzył również na potrzeby systemu Kubernetes, z którego korzystają z kolei klienci Google Cloud Platform (GCP). Platforma ta służy firmom IT i programistom do tego, aby mogli uruchamiać kod własnych aplikacji w chmurze. W przypadku tej ostatniej platformy, polscy inżynierowie stworzyli także jej front-end, m.in. Developers Console. Polscy inżynierowie odpowiadają również za zarządzanie maszynami wirtualnymi w ramach GCP, w tym za automatyzację analizy informacji na temat tego, ile ich de facto potrzeba. W polskim dziale R&D pracuje już 100 inżynierów, a w tym roku zatrudnionych ma być kilkudziesięciu kolejnych. Polscy programiści pracują nie tylko dla dużych koncernów. Rozwijają także własne firmy, takie jak Kinetise. To polski start-up, który wyrusza na podbój światowych rynków. Firma właśnie otwiera oddział w Stanach Zjednoczonych. Szansą na sukces ma być model biznesowy Mobile-Apps-as-a-Service. O planach rozwoju i ekspansji, pomyśle, preferencjach klientów związanych z aplikacjami mobilnymi oraz porażkach i sukcesach rozmawiamy z Piotrem Pawlakiem, pomysłodawcą i prezesem Kinetise (str. 62). Wsparciem dla polskich firm, które chcą zawojować międzynarodowe rynki, ma być Polski Fundusz Rozwoju (str. 6). Tłumacząc powód powołania PFR, przedstawiciele Ministerstwa Rozwoju mówią, że rządowi zależy na dobrej integracji działań instytucji, takich jak Polska Agencja Rozwoju Przedsiębiorczości, Agencja Rozwoju Przemysłu, Polska Agencja Informacji i Inwestycji Zagranicznych, Korporacja Ubezpieczeń Kredytów Eksportowych czy Bank Gospodarstwa Krajowego, które prowadzą ważne działania rozwojowe. Jednocześnie powstaje fundusz zarządzany przez Bank Gospodarstwa Krajowego, zasilony kwotą 300 mln euro z Programu Operacyjnego Inteligentny Rozwój. Ma – wspólnie ze spółkami Skarbu Państwa – wspierać polskie firmy na etapie komercjalizacji ich pomysłów. Polecamy też materiały poświęcone temu, jak: internet rzeczy zmienia sposób, w jaki dokonujemy płatności (str. 10); przygotować infrastrukturę IT pod projekty Big Data (str. 26); zarządzić grupą programistów z punktu widzenia architekta systemów IT (str. 34); usprawnić komunikację pomiędzy IT a biznesem (str. 44). Wart uwagi – w kontekście rosnącej popularności internetu rzeczy – jest tekst poświęcony podejściu do bezpieczeństwa przechowywanych i transmitowanych pomiędzy przedmiotami danych. Prezentujemy koncepcje Security by Design i Secure by Default (str. 38). Piotr Waszczuk zastępca redaktora naczelnego ITwiz Andrzej Gontarz, Jarosław Grzegorzewski, Berenika Kaczmarek-Templin, Jakub Kaniewski, Jacek Kiciński, Paweł Klimczewski, Maciej Lasyk, Marcin Maruta, Szymon Mydlarz, Paweł Okopień, Michał Pośnik, Józef Jungbauer, Łukasz Kolczyński, Rafał Malujda, Adrian Olszewski, Paweł Pietrzyński, Patryk Rządziński, Borys Stokalski, Krzysztof Waszkiewicz, Łukasz Węgrzyn, Michał Wiatr, Krzysztof Wilniewczyc ART DIRECTOR Mariusz Podsiebierski FOTO I WIDEO Norbert Gajlewicz – 501 244 554 [email protected] KOREKTA Michalina Nowakowska SALES MANAGER Dominika Marszycka – 501 010 868 [email protected] MARKETING MANAGER Ewa Jadczak – 692 462 948 [email protected] RYSUNKI Janusz Kulik PRENUMERATA Agnieszka Sałacińska [email protected] Tekstów niezamówionych redakcja nie zwraca, zastrzegając sobie prawo do ich skracania i opracowywania. Redakcja nie ponosi odpowiedzialności za treść reklam. Adresy poczty elektronicznej pracowników redakcji i wydawnictwa ITwiz Media Group tworzone są według wzoru: [email protected]. MAGAZYN WYDAWCA ITwiz Media Group sp. z o.o. Rondo ONZ 1, 00–124 Warszawa KRS: 0000498451 www.itwiz.pl; [email protected] REDAKTOR NACZELNY Adam Jadczak – 514 020 777 [email protected] ZASTĘPCA REDAKTORA NACZELNEGO Piotr Waszczuk – 600 550 711 [email protected] REDAKTOR DZIAŁU CIO Wanda Żółcińska [email protected] WSPÓŁPRACUJĄCY AUTORZY Marek Adamczuk, Bogdan Bereza, Tadeusz Chełkowski, Sebastian Christow, Agnieszka Czarnecka, Aleksandra Eneje, Wojciech Furmakiewicz, Przemysław Gamdzyk, S pis treści BIZNES PROJECT MANAGEROWIE Powstanie holding koordynujący wydawanie funduszy na innowacje............................................. 6 Partnerstwo zaczyna się od otwartej komunikacji.................44 Internet rzeczy zmienia sposób, w jaki płacimy.................................................................................10 O błędach, które popełniłam jako początkujący Product Owner.............................................48 Jak się miał agile w 2015? ...........................................................51 Digital transformation, czyli dostosowanie do pokolenia Y............................................14 Firmy jedynie w 20% wykorzystują potencjał cyfrowej transformacji.....................18 PROGRAMIŚCI Narzędzia Google do zarządzania centrami danych rozwijane w Polsce.........................................52 CIO Specjaliści IT dzielą się wiedzą po godzinach..........................58 W PKN Orlen mamy już za sobą dwie fale cyfryzacji.......................................................................20 RYNEK Jak nie utonąć w otchłani Big Data............................................26 Kinetise: każdy może zbudować mobilną aplikację...............62 Data scientist – specjalista pilnie poszukiwany......................28 Chmura rozwiązaniem problemu z doświadczeniami użytkowników.............................................66 Sprzętowe innowacje wbudowane w SPARC M7.....................30 Różnice w podejściu do IT pomiędzy firmami uznawanymi za liderów..............................32 SAP Forum 2016: cyfrowa transformacja jako szansa i zagrożenie...............................................................68 Nowości od Intela stworzone z myślą o przetwarzaniu w chmurze........................................................70 ARCHITEKCI Organizacja pracy deweloperów i architektury różnego poziomu.................................................34 Data Center Intela w siedzibie głównej w Santa Clara...........71 Wydajność aplikacji tożsama z wydajnością biznesu............72 Cisco Forum 2016: po drugiej połowie szachownicy.............74 CSO Czas pomyśleć o Security by Desing.........................................38 Cisco otwiera w Krakowie EMEAR Security Operations Center..........................................75 Malware GozNym wziął na celownik klientów 247 polskich banków............................42 ZAPRASZAMY DO ZAMAWIANIA PRENUMERATY WWW.ITWIZ.PL/KIOSK kwiecień 2016 ITWIZ MAGAZYN 3 CASE STUDY PLC wdrożyła w Transgourmet Polska system Commvault 10 Transgourmet Polska (d. Selgros Cash & Carry) w ramach rozwoju infrastruktury IT wymienił system do zarządzania i ochrony danych. Dotychczas wykorzystywane rozwiązanie zostało zastąpione systemem spełniającym oczekiwania spółki w zakresie odzyskiwania danych i zostało wdrożone w modelu nie ograniczającym, a wręcz rozwijającym kompetencje lokalnego zespołu administratorów. Selgros Cash & Carry to ogólnopolska sieć hal handlu hurtowego. Oferuje zaopatrzenie dla osób prowadzących działalność gospodarczą. Firma ma 16 sklepów, w których udostępnia prawie 40 000 artykułów i zatrudnia ponad 4000 pracowników. Pierwsza hala Selgros Cash & Carry została otwarta w Poznaniu w roku 1997. Sieć handlowa w dalszym ciągu się rozwija, otwiera nowe hale sprzedaży, w roku 2015 uruchomiono też magazyn dowozowy Transgourmet Food Service w Ożarowie Mazowieckim. Selgros Cash & Carry z centralą w Poznaniu jest częścią holdingu Transgourmet zajmującego się hurtową sprzedażą produktów żywnościowych. Z kolei udziałowcem Transgourmet Holding SE jest COOP, druga co do wielkości szwajcarska grupa handlu artykułami spożywczymi zatrudniająca 54 tys. pracowników. Usprawnienie procesu zarządzania i ochrony danych Od roku 2014 prowadzone są w Selgros Cash & Carry projekty związane z unowo- cześnianiem infrastruktury IT i usprawnianiem procesów biznesowych. Jednym z elementów tych projektów było uporządkowanie procesu backupu. „Z perspektywy odzyskania danych poprzedni system był niewystarczający dla wciąż rozbudowywanej infrastruktury. Brak było np. możliwości efektywnego i scentralizowanego backupu danych lokalnych z naszych hal. Trudno było także pozyskać odpowiednie raporty. Problemem było również to, że zarządzanie backupem i archiwizacją danych przekazane było częściowo w outsourcing – wspomina Bartłomiej Stryczek, zastępca dyrektora IT w Transgourmet Polska. „Tymczasem korzystamy z bardzo wielu różnorodnych systemów IT i musimy zapewnić odpowiedni poziom bezpieczeństwa danych w nich przechowywanych” – dodaje. W związku z tym Transgourmet Polska zaczął szukać nowego rozwiązania do zarządzania i ochrony danych. Od tego systemu – choć znajdującego się w back-office – zależy bezpieczeństwo systemów bizneso- wych, w tym zastosowanie odpowiednich polityk bezpieczeństwa. „Potrzebowaliśmy narzędzia, które będzie dostosowane – w zakresie backupu i odtworzenia danych – do wymogów opiekunów poszczególnych, stosowanych przez nas, aplikacji biznesowych. Poprzednie rozwiązanie nie dawało takich możliwości” – wyjaśnia Bartłomiej Stryczek. „Jednocześnie wiadomo było, że – odpowiadając za całość wsparcia procesów biznesowych – możemy poświęcić tego typu projektom bardzo mało czasu. Na naszym partnerze spoczywało więc znalezienie i zaproponowanie systemu do zarządzania i ochrony danych z wartością dodaną” – dodaje. Istotą backupu jest sprawność odtworzeniowa Ostatecznie wybrano – zaoferowane przez poznańską firmę PLC Doradztwo Informatyczne, partnera S4E – rozwiązanie Commvault 10. „Najważniejszy z punktu widzenia Transgourmet Polska był przewidywalny czas odtworzenia danych, tzw. sprawność odtworzeniowa. Poprzedni system miał CASE STUDY tylko jedną bazę backupową, i tylko jedno miejsce odtworzeniowe – lokalnie, w miejscu przetwarzania danych. Teraz są dwa centra backupu- w Centrali firmy i w drugim centrum danych , uruchomionym w 2015 roku.” – tłumaczy Jerzy Ślebodziński, członek zarządu firmy PLC Doradztwo Informatyczne. „Ponadto – w ramach projektu – opracowaliśmy kompleksową politykę bezpieczeństwa danych. Określono m.in. maksymalny poziom retencji, czyli czasu utrzymywania danych, a także maksymalny czas ich odtworzenia oraz ilości danych, które można utracić bez wpływu na proces biznesowy, w tym tzw. punkty odzysku” – dodaje. Na ten ostatni aspekt wpływ mieli opiekunowie aplikacji biznesowych. Liczba punktów odzysku zależy z jednej strony od ich potrzeb, a z drugiej – od dostępnych zasobów pamięci masowych. Osiągnięto kompromis pomiędzy tymi dwoma czynnikami. Po deduplikacji wielkość backupu danych w Transgourmet Polska to kilkanaście terabajtów, przy wolumenie wykorzystywanych danych na poziomie ok. 120 TB. W ramach projektu wdrożenia systemu Commvault 10 zrezygnowano z archiwizacji danych na napędy taśmowe. Obecnie wykorzystywane są do tego znacznie szybsze w odczycie tradycyjne dyski twarde na macierzach HPE MSA1040 SAN Storage. Backup ze wszystkich systemów i lokalizacji System Commvault 10 zapewnia backup danych ze wszystkich systemów wspierających działalność Transgourmet Polska. Łącznie w centrali firmy znajduje się kilkadziesiąt serwerów backupowanych plus 16 w lokalizacjach zdalnych w halach. Dane ze sklepów archiwizowane są do głównego centrum danych, a następnie tworzona jest replika do zapasowego centrum danych, gdzie znajduje się środowisko odtworzeniowe systemów IT Transgourmet Polska. W roku 2015 dokonano również modernizacji sieci WAN. „Dzięki temu – mimo że proces backupu realizowany jest właściwie bez przerwy – nie zakłóca on działania innych, stosowanych przez nas, rozwiązań” – mówi Bartłomiej Stryczek. Proces odtworzenia pojedynczego pliku to dziś zaledwie kilka minut. Oznacza to bardzo dużą poprawę w stosunku do poprzednio wykorzystywanego rozwiązania. Dotychczasowy system do zarządzania i ochrony danych nie gwarantował także sprawnego ich odtworzenia na bazie generowanych raportów. Backup hybrydowy – czyli backup maszyn wirtualnych i backup od strony baz danych Poprawę ochrony danych z systemów biznesowych Transgourmet Polska zapewnia również zastosowanie tzw. backupu hybrydowego. Polega on na backupie maszyn wirtualnych w zakresie ich dysków systemowych oraz niezależnym backupie danych produkcyjnych – takich jak pliki oraz bazy danych, pozwalając osiągnąć lepszą granularność backupu oraz odtwarzania z zachowaniem pełnej spójności baz danych. W centrum danych Transgourmet Polska jest ok. 100 wirtualnych serwerów. „Backup tylko i wyłącznie maszyn wirtualnych (tzn. Snap shot) jest dużym uproszczeniem, ale niestety nie daje pełnej gwarancji odtworzenia konsystentnych (spójnych) danych – zwłaszcza bazodanowych” – twierdzi Jerzy Ślebodziński. Jak wspomina Bartłomiej Stryczek, nawet administratorzy – których trudno namówić do zmiany stosowanych rozwiązań – szybko przekonali się do nowego narzędzia Commvault 10. Obecnie w Transgourmet Polska jest dwóch przeszkolonych specjalistów w zakresie zarządzania i ochrony danych. Kiedyś większość zadań spoczywała na naszym partnerze. Poza tym – w przypadku poważniejszych problemów – firma ma dostęp do wsparcia Commvault w języku polskim i dedykowanych, w ramach podpisanej umowy wsparcia, inżynierów firmy PLC Doradztwo Informatyczne. Planowane jest kontynuowanie projektu wdrożenia rozwiązania Commvault 10, KORZYŚCI OSIĄGNIĘTE W TRANSGOURMET POLSKA PO WDROŻENIU COMMVAULT 10 Znacząca poprawa bezpieczeństwa całego przedsiębiorstwa, poprzez oddzielenie miejsca przetwarzania danych od miejsca przechowywania backupu. Procesy backupu i odtworzenia odbywają się w dwóch lokalizacjach. Dopasowanie narzędzia do polityki bezpieczeństwa firmy, w tym wymogów opiekunów aplikacji biznesowych. Opracowanie kompleksowej polityki bezpieczeństwa danych – określono m.in. maksymalny poziom retencji danych; maksymalny czas ich odtworzenia; ilości informacji, które można utracić bez wpływu na proces biznesowy i punkty odzysku. Zapewnienie 100-proc. spójności backupowanych danych maszyn wirtualnych, poprzez wprowadzenie backupu hybrydowego. Zwiększenie granularności procesu backupu oraz odtworzenia danych. Przyspieszenie procesu odtworzenia danych, do zaledwie kilku minut. Wypracowanie wewnętrznych kompetencji, dzięki którym firma może dziś szybko i samodzielnie odtworzyć dane po awarii. w tym upgrade do wersji 11. Dokupywane mają być m.in. kolejne licencje. „Przyrost danych jest szybszy niż wcześniej zakładaliśmy. Dodatkowo zamierzamy uruchomić 4 serwerownie wspierające rozwijający się biznes, co spowoduje dodatkowe zwiększenie chronionego wolumenu danych. Procesem backupu objęty jest też system poczty elektronicznej – Microsoft Exchange. W tym przypadku stosujemy backup granularny – archiwizację całej bazy i pojedynczych skrzynek pocztowych, z dokładnością do pojedynczego e-maila” – podsumowuje Bartłomiej Stryczek. BIZNES BIZNES Z Jadwigą Emilewicz, podsekretarz stanu w Ministerstwie Rozwoju, rozmawiamy o koncentracji kapitału, skupieniu się na kilku najważniejszych celach w polskiej gospodarce, Programie Operacyjnym Inteligentny Rozwój, pomocy polskim firmom znajdującym się na etapie rozwoju, określanym mianem tzw. doliny śmierci, oraz zmianie podejścia do pozyskiwania funduszy unijnych, które w tej perspektywie mają charakter instrumentów zwrotnych. Powstanie holding koordynujący wydawanie funduszy na innowacje 6 MAGAZYN ITWIZ kwiecień 2016 BIZNES Nadzoruje Pani m.in. Program Inteligentny Rozwój z budżetem w wysokości ponad 10 mld euro oraz kończący się Program Innowacyjna Gospodarka. Czy fundusze z nowej transzy na lata 2014–2020 są już dostępne dla zainteresowanych? Oczywiście. Prowadzimy już kilka konkursów, a jeden – na wzornictwo przemysłowe i ochronę praw własności intelektualnej – nawet już zamknęliśmy. Wszystkie informacje o trwających naborach wniosków można znaleźć na stronie funduszeeuropejskie.gov.pl. Nowe fundusze wymagają jednak od przyszłych beneficjentów zmiany podejścia do ich pozyskiwania. Trzeba pamiętać, że część z nich ma charakter instrumentów zwrotnych. To duże wyzwanie. W Programie Inteligentny Rozwój planujemy uruchomienie m.in. instrumentów kapitałowych Starter i Biznest. Pierwszy z nich, za pośrednictwem funduszy venture capital i funduszy zalążkowych, będzie dokonywał selekcji, preinkubacji i inwestycji w przedsiębiorstwa, które funkcjonują krócej niż 7 lat lub nie prowadzą działalności na żadnym rynku. Drugi zaś ma pełnić funkcję pomostu pomiędzy finansowaniem zasiewowym oferowanym w ramach Starter a fazą rozwoju innowacyjnych przedsiębiorstw, w której będą one atrakcyjne dla kapitału oferowanego przez aniołów biznesu. Koordynacją tych działań zajmuje się Polska Agencja Rozwoju Przedsiębiorczości. Jakiego typu firmy mają szansę na pozyskanie funduszy unijnych? Mamy dziś problem z finansowaniem projektów nie na etapie inkubacyjnym, ale w kolejnej fazie – to tzw. dolina śmierci. Pojawiło się w Polsce wiele projektów, które mogą przynieść duże korzyści naszej gospodarce. Zamierzamy je wesprzeć. Chcemy, aby ich pomysłodawcy zostali w kraju. Planujemy stworzenie funduszy portfelowych, które nie będą oczekiwały natychmiastowego zwrotu z inwestycji. Zarządzać nimi będzie Bank Gospodarstwa Krajowego. BGK otrzyma na ten cel 300 mln euro. Jednocześnie chcemy zaangażować w te projekty duże, polskie spółki Skarbu Państwa – choć otwarci jesteśmy też na firmy prywatne. Brakuje bowiem wsparcia na etapie komercjalizacji. Występują już wówczas duże koszty związane z rozpoczęciem produkcji, a nie ma jeszcze przychodów. Dolina śmierci oznacza pojawienie się luki finansowej, kiedy projekt nie ma już funduszy publicznych, a sektor prywatny nie jest jeszcze gotowy, aby zaangażować się finansowo w określoną działalność. Firmie brakuje funduszy na rozpoczęcie produkcji lub uruchomienie usługi. Wiele innowacyjnych projektów właśnie wówczas upada. Pomysłodawcy są bliscy porzucenia swojego pomysłu albo sprzedania go inwestorowi zagranicznemu. Znamy przypadki, gdy w Polsce negocjacje dotyczące inwestycji – np. przez firmę komercyjną – trwają kilka lat. Tymczasem w Dolinie Krzemowej od decyzji do uruchomienia funduszy mijają zaledwie 2–3 dni, bo mają np. gotowe wzory umów inwestycyjnych. W jaki sposób wesprzeć firmy, które znalazły się w tzw. dolinie śmierci? Rzeczywiście pojawiło się w Polsce wiele projektów, które mogą przynieść duże Wszystkie nasze projekty zmierzają dziś do jednego celu – gromadzenia kapitału na przyszłość. Do tej pory koncentrowaliśmy się raczej na konsumpcji, ale nie oszczędzaniu. Tymczasem perspektywa finansowa 2014-2020 jest ostatnią, w której otrzymamy tak dużo funduszy. Musimy więc – dzięki promocji działań zwiększających potencjał polskiej gospodarki – zgromadzić kapitał na okres po roku 2020. Chcemy inwestować w projekty z dużą stopą zwrotu. korzyści polskiej gospodarce. Chcemy je wesprzeć. Zależy nam, aby ich pomysłodawcy zostali w Polsce. Zamierzamy stworzyć fundusze portfelowe, które nie będą oczekiwały natychmiastowego zwrotu z inwestycji. Zarządzać nimi będzie Bank Gospodarstwa Krajowego. Jednocześnie chcemy zaangażować w te projekty duże, polskie spółki Skarbu Państwa – jak Grupa Azoty, PKN Orlen, KGHM Polska Miedź, czy spółki energetyczne – choć otwarci jesteśmy też na firmy prywatne. Podczas rozmów prowadzonych przeze mnie z funduszami venture capital okazało się, że w Polsce wcale nie jest tak łatwo „przebić się” z dobrymi, innowacyjnymi pomysłami. Dlatego chcemy pójść drogą Krzemowej Doliny. Tam ok. 40% firm zakładanych jest przez obcokrajowców. Z jednej strony chcemy zachęcić do rozwoju działalności w naszym kraju Polaków – m.in. tych, którzy wyjechali za granicę w ciągu ostatnich 10 lat – a z drugiej – osoby z innowacyjnymi pomysłami z innych państw Europy Środkowo-Wschodniej, np. z Ukrainy lub Białorusi. Atrakcyjne może być to, że ich pomysły finansować będą duże, polskie spółki. W przypadku dużych firm, w tym spółek Skarbu Państwa, mamy na razie ten problem, że nie są one otwarte na innowacyjne projekty... Duże, polskie firmy muszą otworzyć się na nowe pomysły. Osoby nimi kierujące muszą nauczyć się inwestować w innowacyjne projekty, otworzyć się na start-upy. Firmy te mają co prawda ugruntowaną pozycję na świecie, ale z drugiej strony to właśnie te kwiecień 2016 ITWIZ MAGAZYN 7 BIZNES Stworzyliśmy – mający osobowość prawną – Polski Fundusz Rozwoju koordynujący wydatkowanie funduszy przez różne instytucje. Wiele z nich może wspierać środkami unijnymi polskie przedsiębiorstwa na różnym etapie ich rozwoju – NCBiR w fazie badań podstawowych, PARP w momencie założenia spółki, która ma doprowadzić do komercjalizacji ich wyników, a BGK wówczas, gdy pomysłodawcy będą chcieli rozpocząć produkcję na skalę przemysłową. Gramy do jednej bramki. Jeśli nasze marzenie się nie spełni, Polska nie będzie rozwijać się tak szybko, jak byśmy tego chcieli. 8 MAGAZYN ITWIZ kwiecień 2016 BIZNES duże firmy najbardziej dotyka dziś problem tzw. disruptive innovations. Innowacje te zmieniają zastany porządek, rewolucjonizując kolejne branże. Chcemy, aby spółki Skarbu Państwa miały swój udział w funduszach zarządzanych przez BGK. Na stworzenie tzw. funduszu funduszy przeznaczymy ok. 300 mln euro. Jaki jest cel powołania funduszu zarządzanego przez Bank Gospodarstwa Krajowego? Wszystkie nasze projekty zmierzają dziś do jednego celu – gromadzenia kapitału na przyszłość. Do tej pory koncentrowaliśmy się raczej na konsumpcji, nie zaś na oszczędzaniu. Tymczasem perspektywa finansowa 2014–2020 jest ostatnią, w której otrzymamy tak dużo środków. Musimy więc – dzięki promocji działań zwiększających potencjał polskiej gospodarki – zgromadzić kapitał na okres po roku 2020. Chcemy zatem inwestować w projekty z dużą stopą zwrotu. Służyć temu ma właśnie m.in. powołanie funduszy zarządzanych przez BGK. Znajdą się w nich zarówno fundusze pochodzące z Unii Europejskiej, jak i środki prywatne, m.in. spółek Skarbu Państwa. W jaki sposób zostaną podzielone środki zarządzane przez BGK? Planujemy powołanie tematycznych funduszy portfelowych, np. związanych z energetyką. Chcemy, aby osoby kierujące spółkami Skarbu Państwa nauczyły się doceniać i wykorzystywać innowacje w swojej działalności. Dlatego też ich przedstawiciele będą zasiadać w komitetach inwestycyjnych poszczególnych funduszy. Być może dzięki temu w strukturach dużych, polskich firm – jak na Zachodzie – powstaną fundusze typu corporate venture capital. Za wzór stawiamy sobie największe międzynarodowe przedsiębiorstwa. Inwestycje BGK nie będą jednak ograniczone wyłącznie do spółek państwowych. Jesteśmy otwarci także na firmy prywatne. Chcemy, aby przed uruchomieniem tych środków, zespół zarządzający danym funduszem stworzył 3–4 standardowe umowy inwestycyjne. Dzięki temu będzie je można znacznie szybciej podpisywać, nawet w 2–3 miesiące. Obecnie negocjacje często trwają Chcemy, aby pomysły z Polski charakteryzowały się zarówno atrakcyjnym designem, jak i innowacyjnością technologiczną, a przede wszystkim, by były oferowane na świecie pod własną marką. Identyfikujemy najbardziej perspektywiczne projekty i branże. Wśród nich ma szansę znaleźć się przemysł kolejowy, a także polskie drony czy drukarki 3D. kilka lat. Przygotowujemy także instrumenty promocyjne. BGK i duże polskie firmy będą inwestować w… Chcemy, aby pomysły z Polski charakteryzował zarówno atrakcyjny design, jak i innowacyjność technologiczna, a przede wszystkim, by były oferowane na świecie pod własną marką. Identyfikujemy najbardziej perspektywiczne projekty i branże. Część z nich pojawia się w Planie na rzecz Odpowiedzialnego Rozwoju, np. przemysł kolejowy (Luxtorpeda 2.0) czy polskie drony. Ciekawym polskim pomysłem są bezzałogowce wykorzystywane do transportu krwi. W obrębie dużych miast jest to problem ze względu na korki. Jesteśmy w kontakcie zarówno z Ministerstwem Zdrowia, jak i z Polską Agencją Żeglugi Powietrznej. Szpitale są bardzo zainteresowane tym projektem. Polskim atutem jest również zastosowanie drukarek 3D. Nad ich wykorzystaniem w praktyce zastanawia się Polska Grupa Zbrojeniowa. Innowacyjnymi projektami chcemy zainteresować szczególnie Ministerstwo Obrony Narodowej. W Stanach Zjednoczonych i Izraelu to właśnie z projektów dla armii pochodzi najwięcej innowacji. Dlatego też przedstawiciel MON został członkiem Rady ds. innowacyjności powołanej w styczniu 2016 roku przez Panią Premier. Jej przewodniczącym jest minister rozwoju Mateusz Morawiecki, a w skład wchodzą także przedstawiciele takich resortów, jak cyfryzacja, edukacja, nauka i szkolnictwo wyższe oraz zdrowie. Kiedy będzie wiadomo, które sektory gospodarki – jako strategiczne – otrzymają wsparcie? Szczegółowa strategia oparta na bazie Planu na rzecz Odpowiedzialnego Rozwoju będzie gotowa we wrześniu tego roku. Jej projekt zamierzamy przedłożyć do konsultacji publicznych na przełomie czerwca i lipca br. Bank Gospodarstwa Krajowego i wspomniany wcześniej PARP, to nie jedyne instytucje, które mają środki z funduszy europejskich w perspektywie finansowej 2014–2020… Oczywiście tych instytucji jest dużo więcej. 13 kwietnia w KRS został zarejestrowany Polski Fundusz Rozwoju SA, który powstał na bazie spółki Polskie Inwestycje Rozwojowe SA. Rozpoczęliśmy ważny projekt dla rozwoju społeczno-gospodarczego Polski, tworzenia nowej wspólnej platformy efektywnych instrumentów rozwojowych w ramach Polskiego Funduszu Rozwoju. Jego organizacja przewiduje budowę grupy kapitałowej, konsolidującej główne instytucje wsparcia rozwoju gospodarczego funkcjonujące w naszym kraju. Zależy nam na dobrej integracji działań instytucji, takich jak PARP, ARP, PAIIiZ, KUKE czy BGK, które prowadzą ważne działania rozwojowe. Chodzi o wsparcie małych i średnich przedsiębiorstw, wzrost innowacyjności, zwiększanie inwestycji, w tym zagranicznych, oraz ekspansję polskich firm na międzynarodowych rynkach. Te instytucje to robią, ale każda we własnym zakresie. Dlatego celem Polskiego Funduszu Rozwoju jest integracja funkcji i działań tych instytucji. Gramy do jednej bramki. Chcemy maksymalnie skoncentrować kapitał, skupić się na kilku kluczowych celach. Jeśli nasze marzenie się nie spełni, Polska nie będzie rozwijać się tak szybko, jak byśmy tego chcieli… Rozmawiał Adam Jadczak kwiecień 2016 ITWIZ MAGAZYN 9 BIZNES Z Aleksandrem Naganowskim, dyrektorem ds. rozwoju nowego biznesu w polskim oddziale MasterCard Europe, rozmawiamy o przedmiotach, które będą dokonywać określonych transakcji w naszym imieniu, zabezpieczeniach w transakcjach bezgotówkowych, a także rozwiązaniach, które pozwalają zarządzać rosnącą liczbą nowych sposobów płatności, tak aby zachować pełną kontrolę nad nimi. Internet rzeczy zmienia sposób, w jaki płacimy Od lat mówi się o lodówkach, które za nas będą zamawiać brakujące artykuły spożywcze. Czy będą również od razu dokonywać za nas płatności? Jak internet rzeczy zmienia sposób, w jaki korzystamy dziś z elektronicznych płatności? To bardzo ważny i dość naturalny trend rynkowy. Bardzo szybko rozwija się rynek urządzeń, które umożliwiają nam płacenie. Jest coraz więcej komponentów używanych w przedmiotach codziennego użytku – wearables, lodówkach czy samochodach – na których można zapisywać dane karty płatniczej, pozwalając tym urządzeniom automatycznie dokonywać płatności. Często funkcja płatnicza pojawia się w powszechnie stosowanych komponentach elektronicznych, które następnie wykorzystywane są przez producentów sprzętu codziennego użytku – od zegarków, poprzez lodówki, aż po samochody. 10 MAGAZYN ITWIZ kwiecień 2016 Po naszej stronie ułatwia to tzw. technologia tokenizacji. MasterCard Digital Enablement Service (MDES) ułatwia podłączanie kolejnych urządzeń do karty płatniczej oraz odpowiednie zarządzanie takim powiązaniem. Każde urządzenie ma jeden, niezmienny token. Nie jest to więc ten sam zestaw danych, co na podstawowej karcie plastikowej. Jest to jakby dodatkowa karta z numerem wiążącym dane urządzenie z kartą właściwą. Dane integrowane są na poziomie sieci MasterCard. Banki w kolejnych krajach uruchamiają projekty mające na celu wdrożenie tej technologii – tzw. tokenizacji. W Polsce także prowadzimy pierwsze projekty. Jesteśmy przekonani, że nasz kraj jest na to przygotowany. W Polsce jest duży poziom akceptacji płatności mobilnych i zbliżeniowych. Nie potrzebujemy więc już tak intensyw- BIZNES nie edukować użytkowników, jak np. jest to konieczne w Europie Zachodniej. W Polsce ponad 55% wszystkich transakcji płatniczych kartami MasterCard to transakcje zbliżeniowe. Jakie możliwości oferuje tokenizacja? Przykładowo, dzięki MasterCard Digital Enablement Service nasz samochód może sam zapłacić za przejazd autostradą, elektroniczna bransoletka za wodę, którą kupimy na siłowni, a smartwatch za bilet do kina. Idąc dalej, można sobie wyobrazić, że komputer w naszym samochodzie – podłączony do czujników w różnych miejscach – będzie wiedział, że najwyższy czas wymienić opony. Znając rozkład naszego dnia – zamówi firmę, która podjedzie pod nasz dom po godzinie 18., gdy wrócimy już z pracy. Oczywiście, sam też za całą usługę zapłaci. Dzięki tak dużej łatwości realizacji płatności (nawet tych najmniejszych) za pomocą kart płatniczych – wydawcy kart zdobywają też więcej informacji o naszych preferencjach i potrzebach i mogą lepiej dostosować produkty do naszych potrzeb. Czy są już przykłady płatności dokonywanych przez otaczające nas „przedmioty”? Ważnym krokiem było pokazanie na targach CES 2016 w Las Vegas lodówki Samsung Family Hub z aplikacją Groceries by MasterCard. Aplikacja jest preinstalowana w lodówkach z tej grupy i w Stanach Zjednoczonych można, posługując się dużym wyświetlaczem na lodówce, zamawiać produkty spożywcze z takich sieci e-sklepów, jak FreshDirect i ShopRite. Kolejne sklepy Dzięki MasterCard Digital Enablement Service nasz samochód może sam zapłacić za przejazd autostradą, elektroniczna bransoletka za wodę, którą kupimy na siłowni, a smartwatch za bilet do kina. Idąc dalej, można sobie wyobrazić, że komputer w naszym samochodzie – podłączony do czujników w różnych miejscach – będzie wiedział, że najwyższy czas wymienić opony. Znając rozkład naszego dnia – zamówi firmę, która podjedzie pod nasz dom po godzinie 18., gdy wrócimy już z pracy. Oczywiście, sam też za całą usługę zapłaci. Dzięki tak dużej łatwości realizacji płatności (nawet tych najmniejszych) za pomocą kart płatniczych – wydawcy kart zdobywają też więcej informacji o naszych preferencjach i potrzebach i mogą lepiej dostosować produkty do naszych potrzeb. mogą być dodawane do aplikacji dzięki naszemu programowi MyWebGrocer. W aplikacji Groceries by MasterCard można wybierać produkty, a następnie potwierdzić całe zamówienie czterocyfrowym kodem PIN. Docelowo – dzięki podłączeniu do elektronicznego portfela MasterPass – lodówka może również sama zapłacić za dostarczone artykuły spożywcze. Aplikacja Groceries by MasterCard uczy się też naszych nawyków żywieniowych i w przyszłości może sugerować konkretne produkty. ty płatniczej, by umożliwić podłączenie nowych sposobów płatności. Od lat mamy płatności w telefonie i na tym przykładzie możemy wyjaśnić działanie tokenizacji. MasterCard Digital Enablement Service tłumaczy operacje wykonywane w telefonie na komunikaty podobne do tych, wysyłanych podczas realizacji transakcji tradycyjną kartą płatniczą. Nie trzeba więc przeprowadzać z każdym z akceptantów płatności kartowych osobnego projektu integracyjnego. Budujemy rozwiązania, które dostarczają całą gamę usług związanych z zarządzaniem własnymi płatnościami. Jednym z nich jest MasterCard In Control. Za jego Również dostawcy portfeli cyfrowych, tzw. Wallet Service Providers – de facto producenci sprzętu – tacy jak: Apple, Google czy Samsung – wystarczy, że podłączą się do naszej sieci i w sposób standardowy udostępniają usługi swojego portfela elektronicznego klientów banków na całym świecie. Po naszej już stronie transakcje przeprowadzane za pomocą dowolnego urządzenia „tłumaczone” są na sposób działania karty plastikowej. zdefiniować budżet dzienny, miesięczny, ograniczenia co do miejsc, gdzie nasza karta może zadziałać, a gdzie nie, np. wykluczyć określone kraje. Można blokować konkretne typy transakcji, np. na karcie służbowej pozwolić płacić tylko za paliwo i hotel. Jest coraz więcej urządzeń, za pomocą których możemy płacić, tokenów i limitów, które im przyznajemy. Jak tym wszystkim zarządzać? Budujemy rozwiązania, które dostarczają całą gamę usług związanych z zarządzaniem własnymi płatnościami. Jednym z nich jest MasterCard In Control. Za jego pomocą możemy definiować dowolne reguły, np. rodzaj transakcji, która powoduje, że klient otrzymuje powiadomienie o próbie jej dokonania; blokowanie określonych typów transakcji; blokowanie użycia naszej karty Na czym dokładnie polega technologia tokenizacji MasterCard? To bardzo ważna idea związana z coraz większą potrzebą konsumentów zmiany tradycyjnej, plastikowej formy naszej kar- pomocą możemy definiować dowolne reguły, np. rodzaj transakcji, która powoduje, że klient otrzymuje powiadomienie o próbie jej dokonania; blokowanie określonych typów transakcji; blokowanie użycia naszej karty w ustalonych godzinach, np. nocnych; czy tworzenie wirtualnych kart z własnymi limitami na potrzebę konkretnych transakcji. Dzięki MasterCard In Control możemy kwiecień 2016 ITWIZ MAGAZYN 11 BIZNES Bardzo szybko rozwija się rynek urządzeń, które umożliwiają płacenie. Jest coraz więcej komponentów używanych w przedmiotach codziennego użytku – wearables, lodówkach czy samochodach – na których można zapisywać dane karty płatniczej, pozwalając tym urządzeniom automatycznie dokonywać płatności. Często funkcja płatnicza pojawia się w powszechnie stosowanych komponentach elektronicznych, które następnie wykorzystywane są przez producentów sprzętu codziennego użytku – od zegarków, poprzez lodówki, aż po samochody. 12 MAGAZYN ITWIZ kwiecień 2016 BIZNES w określonych godzinach, np. nocnych; czy tworzenie wirtualnych kart z własnymi limitami na potrzebę konkretnych transakcji. Dzięki MasterCard In Control możemy zdefiniować budżet dzienny, miesięczny, ograniczenia co do miejsc, gdzie nasza karta może zadziałać, a gdzie nie, np. wykluczyć określone kraje. Można też zawiesić na pewien czas działanie naszej karty, a potem ponownie ją uruchomić. Można blokować konkretne typy transakcji, np. na karcie służbowej pozwolić płacić tylko za paliwo i hotel. Jest to możliwe, ponieważ każda transakcja, która dociera do banku, jest scharakteryzowana wieloma parametrami, takimi jak czas, kwota czy typ akceptanta – np. stacja paliwowa, hotel, sklep spożywczy. Znacznik każdego z tych parametrów znajduje się w kodzie transakcji. To jednak ostatecznie bank z klientami decyduje o kształcie finalnego rozwiązania – czy będzie to aplikacja mobilna, czy też serwis internetowy, a także jak bardzo skomplikowane funkcje będą dostępne dla klientów. Widzimy jednak duże zainteresowanie tego typu rozwiązaniami, bo zwiększają one zaufanie do transakcji kartami. Dzięki temu klienci chętniej rezygnują z płatności gotówkowych na rzecz bezgotówkowych. W jaki jeszcze sposób zabezpieczane są transakcje? Jeżeli mówimy o tokenizacji – pozwala ona w bezpieczny sposób podłączyć urządzenie do karty płatniczej, oferując ten sam poziom bezpieczeństwa, co karta plastikowa z procesorem. Komunikacja oparta jest na danych z kryptoprocesora. Nie można więc przejąć tej informacji i dokonać za jej pomocą innej transakcji. Do tego dochodzą zabezpieczenia sieci MasterCard. Wiemy, jakie tokeny są przyporządkowane danemu urządzeniu i jakich transakcji powinniśmy się spodziewać. Jakiekolwiek odstępstwo – na przykład próba przeniesienia tokenu z jednego urządzenia na drugie powoduje blokadę transakcji płatniczej. Zablokować można też samo urządzenie (na przykład w przypadku jego zgubienia), a – mimo to – nasza karta plastikowa oraz inne urządzenia do niej podpięte będą wciąż działać. Jeśli urządzenie nie ma dedykowanego elementu bezpiecznego do przechowywania Chcieliśmy dostosować nasze rozwiązania do coraz bardziej cyfrowego świata. Powstało centralne rozwiązanie, które ustandaryzowało to podejście i pozwala na dołączanie dowolnej technologii przechowywania danych karty płatniczej do już wydanych przez banki na całym świecie instrumentów płatniczych. Wcześniej, jako organizacja płatnicza, łączyliśmy akceptantów kart – sklepy i punkty usługowe – oraz wydawców kart. Teraz dołączają do tego grona globalni producenci urządzeń, tacy jak Apple. De facto właśnie wdrożenie Apple Pay było pierwszym takim wdrożeniem na rynku. danych płatniczych (tzw. secure element dostępny na przykład na kartach SIM czy w iPhone’ach), dodatkowym zabezpieczeniem będzie przechowywanie większości informacji na temat karty płatniczej w chmurze – jak jest to w rozwiązaniu MasterCard Cloud Based Payments. W tym standardzie do urządzenia przesyłane są jedynie dane dotyczące pojedynczych transakcji. Ponadto można dziś dokonać weryfikacji klienta nie tylko na podstawie kodu PIN, ale także za pomocą biometrii, poza tym nie tylko na terminalu płatniczym, ale też na naszym urządzeniu mobilnym. Wykorzystujemy oczywiście znacznie szerszą gamę rozwiązań typu fraud detection. Obserwujemy wszystkie transakcje płatnicze na świecie w każdej sekundzie i po wykryciu charakterystycznego zachowania wskazującego na nadużycie uruchamiamy odpowiednie zabezpieczenia we współpracy z wydawcami i akceptantami kart. Ponadto każdy bank w swoim systemie kartowym określa własne reguły dotyczące liczby transakcji i kwot na danej karcie płatniczej. Nasze rozwiązania wypełniają też wymogi regulacji określających, w jaki sposób banki powinny zabezpieczać płatności w internecie (tzw. regulacje Secure Pay). Wspomniał Pan o Mobile Wallet Providers, takich jak Apple. W jaki sposób MasterCard przygotował się do ich obsługi? Wymagało to od nas bardzo dużych inwestycji. Chcieliśmy dostosować nasze rozwiązania do coraz bardziej cyfrowego świata. Powstało centralne rozwiązanie, które ustandaryzowało to podejście i pozwala na dołączanie dowolnej technologii przechowywania danych karty płatniczej do już wydanych przez banki na całym świecie instrumentów płatniczych. Wcześniej, jako organizacja płatnicza, łączyliśmy akceptantów kart – sklepy i punkty usługowe – oraz wydawców kart. Teraz dołączają do tego grona globalni producenci urządzeń, tacy jak wspomniany Apple. De facto właśnie wdrożenie Apple Pay było pierwszym takim wdrożeniem na rynku. Obecnie ten standard wykorzystują inni producenci urządzeń mobilnych. Jakie jeszcze trendy zmieniają dziś rynek płatności bezgotówkowych? Inny ważny trend, na który musimy odpowiedzieć, to fakt, że coraz większa część handlu przenosi się do internetu. Klienci oczekują więc rozwiązań, które ułatwią im dokonywanie transakcji e-commerce i m-commerce. Takim rozwiązaniem są portfele cyfrowe, np. MasterPass, który pozwala płacić kartą bez każdorazowego wpisywania jej danych, zapamiętując dane karty płatniczej, ułatwiając płatność i zwiększając poziom bezpieczeństwa. Oczywiście, mimo tych ułatwień, niezbędna jest edukacja klientów. Znaczna ich część wciąż obawia się dokonywania transakcji internetowych kartami płatniczymi, bo nie wie, co ostatecznie przyśle sprzedawca. Dlatego nadal wielu kupujących wybiera płatność przy odbiorze. Tymczasem warto pamiętać o zabezpieczeniu charakterystycznym dla każdej karty MasterCard – prawie do zgłoszenia reklamacji dowolnej transakcji (tzw. chargeback), prowadzącej do zwrotu pieniędzy przez bank, gdy nie otrzymamy tego, co zamówiliśmy. Rozmawiał Adam Jadczak kwiecień 2016 ITWIZ MAGAZYN 13 BIZNES Z Simonem Kaluža, dyrektorem zarządzającym SAP Central & Eastern Europe, rozmawiamy o cyfrowej transformacji, nowym pokoleniu konsumentów i pracowników, narzędziach wspierających ich sposób komunikacji i projektach zmieniających biznes klientów SAP. Digital transformation, czyli dostosowanie do pokolenia Y Jak się wydaje, dziś jednym z najważniejszych trendów jest tzw. cyfrowa transformacja. Odwiedza Pan wiele krajów w Europie Środkowo-Wschodniej. W jaki sposób klienci z tych państw podchodzą do tego zjawiska? Czy w każdym kraju jest ono rozumiane w ten sam sposób? Wszyscy obecnie mówią o Big Data, social mediach, mobilności, internecie rzeczy (IoT), chmurze obliczeniowej. Każdy z tych megatrendów to jednak elementy składowe całego procesu zwanego „digital transformation”. Warto jednak wpierw zastanowić się, dlaczego w ogóle rozmawiamy o cyfrowej transformacji przedsiębiorstw. Jeśli pomyślimy kim jest dziś nasz typowy klient, musimy wziąć pod uwagę fakt, że do roku 2020 aż 75% pracowników to będą – w skali globalnej – tzw. Millennialsi, czyli pokolenie Y. To osoby, które urodziły się już w cyfrowym świecie. Nie korzystają oni już nawet np. z e-maila, a do komunikacji używają serwisów społecznościowych. Pokolenie Y ma także specyficzny sposób kupowania, a raczej pozyskiwania dóbr. Zdarza się, że po prostu je wynajmują. Stąd taka popularność np. firm kojarzących kierowców i pasażerów, takich jak Uber czy Lyft. 14 MAGAZYN ITWIZ kwiecień 2016 Co to oznacza dla przedsiębiorstw? Firmy powinny zaadaptować się do tego nowego typu konsumenta i jego preferencji oraz zrozumieć schemat działania nowego, w 100-proc. cyfrowego pokolenia. Millennialsi stają się klientami, pracownikami, kolegami z pracy i dostawcami największych przedsiębiorstw. Tę nową perspektywę trzeba uwzględnić we wszystkich aspektach prowadzenia biznesu. Zjawisko transformacji cyfrowej to de facto przemiana biznesu. IT może wesprzeć tę zmianę, ale w głównej mierze dotyka ona procesów i samej firmy. I w tym przypadku nie ma zbyt wielkich różnic pomiędzy przedsiębiorstwami z Polski, Bułgarii czy Rumunii. Różnica dotyczy jedynie tego, czy dany rynek jest na tę zmianę gotowy. Przykładowo, w Bułgarii rząd jako jeden z priorytetów ustanowił wprowadzenie cyfrowej gospodarki. Inwestują więc w kampusy naukowe, innowacje, promocję – wśród dużych, międzynarodowych firm technologicznych – tamtejszych uniwersytetów i ich absolwentów. Efektem jest stworzenie wystarczającej masy krytycznej, aby o cyfrowej transformacji mówili dziś BIZNES w Bułgarii wszyscy. I to mimo tego, że nie jest to największy rynek na świecie. Jak proces cyfrowej transformacji postępuje wśród polskich firm? Zacznijmy od tego, że z perspektywy regionu, którym zarządzam, jestem pod wrażeniem jak udaje się skutecznie przeprowadzić zmianę postrzegania SAP Polska z dostawcy ERP na doradcę biznesowego w czasach gospodarki cyfrowej. Dużo w tym skutecznej pracy zarządu i menedżerów w ostatnich dwóch latach. Jestem zadowolony z tej współpracy. Dlatego mamy wielu klientów w Polsce, którzy zaadaptowali już procesy digitalizacji biznesu. Wykorzystują do tego np. nasze narzędzia typu Customer Engagement – SAP Hybris – we wszystkich kanałach kontaktu z klientami. To duży dla nas rynek. Aż 30% naszych przychodów w Polsce związanych jest z projektami cyfrowej transformacji. Wielu klientów ma je na szczycie swojej listy priorytetów. To, co jest bardzo ważne – i muszą zdać sobie z tego sprawę także rządy, tak jak we wspomnianej już Bułgarii – pokolenie Y to również nowi wyborcy, przyzwyczajeni do zupełnie innych sposobów komunikacji. Ich głosy należy zdobywać, promując tematy związane z cyfrową transformacją i e-Government. To ma wpływ na polityczne wybory nowych pokoleń. W Polsce mamy dedykowane Ministerstwo Cyfryzacji… To bardzo dobrze, ale ważne jest też to, jakie Minister Cyfryzacji ma kompetencje i jakim budżetem dysponuje. Wracając do cyfrowej transformacji przedsiębiorstw. Zmiana ta wiąże się ze zmianą wewnętrznych procesów. To, co sprawdzało się kiedyś, przestaje przystawać do otaczającej nas rzeczywistości. Sposób, w jaki adresujemy Jeśli pomyślimy kim jest dziś nasz typowy klient, musimy wziąć pod uwagę fakt, że do roku 2020 aż 75% pracowników w skali globalnej będą stanowić tzw. Millennialsi, czyli pokolenie Y. To osoby, które urodziły się już w cyfrowym świecie. To osoby, które nie znają pojęcia e-maila, a do komunikacji używają serwisów społecznościowych. Pokolenie Y ma także specyficzny sposób kupowania, a raczej pozyskiwania dóbr. dzisiejsze potrzeby naszych klientów, musi się zmienić. Jak SAP przyczynia się do cyfrowej zmiany dokonującej się u klientów? Aby odpowiedzieć na to pytanie, muszę nieco cofnąć się w czasie. Tradycyjnie mieliśmy do czynienia z trzema typami interesariuszy – klientami, pracownikami i dostawcami. Teraz powinniśmy brać pod uwagę także dostępne zasoby, zwłaszcza w kontekście internetu rzeczy. Rdzeniem rozwiązań wspierających cyfrową transformację przedsiębiorstw są nasze aplikacje wspomagające zarządzanie, kiedyś określane mianem systemu ERP, a teraz pakietem rozwiązań biznesowych – Business Suite. To wszystkie aplikacje wspierające wewnętrzne działy firmy – finanse, magazyny, produkcję. W tym kontekście mamy kilka produktów, które wspierają proces cyfrowej zmiany, np. SAP Cloud 4 Customers (C4C). C4C to nasz system CRM oferowany w modelu chmurowym. Mamy też wspomniany już SAP Hybirs – rozwiązanie integrujące różne kanały kontaktu z klientami. Jest to także rozwiązanie typu VMS (Vendor Management System) – SAP Fieldglass – do zarządzania dostawcami. Tym, co jest jednak najważniejsze, jest konieczność komunikacji z klientami na różnych poziomach zaangażowania. Statyczny CRM, który tylko rejestruje zdarzenia, już To, co jest bardzo ważne – i muszą zdać sobie z tego sprawę także rządy, tak jak we wspomnianej już Bułgarii – pokolenie Y to również nowi wyborcy, przyzwyczajeni do zupełnie innych sposobów komunikacji. Ich głosy należy zdobywać, promując tematy związane z cyfrową transformacją i e-Government. To ma wpływ na polityczne wybory nowych pokoleń. nie wystarczy. Przykładem ilustrującym tę zmianę może być typowa firma telekomunikacyjna. Wszyscy operatorzy mówią o segmentacji opartej na wieku, wielkości wydatków ARPU, czy też tego, co robimy. Powstają więc oferty dla studentów, emerytów, biznesmenów… Jakiej więc segmentacji oczekują obecnie klienci? Coraz ważniejsze jest indywidualne traktowanie każdego klienta. Jeśli jednak chcesz to zrobić, musisz mieć możliwość zrozumienia zachowań pojedynczych konsumentów. Dziś właściwie nie jesteśmy już indywidualnym klientem, ale zestawem różnych osobowości. Rano jesteśmy biznesmenem, prowadzącym własną działalność gospodarczą. Po południu możemy grać na gitarze we własnym zespole albo intensywnie trenować. Każda z tych „osobowości” ma inne potrzeby. Najbardziej innowacyjne firmy wiedzą dokładnie, w jaki sposób mnie „traktować” w danym momencie mojego dnia czy tygodnia. Wymaga to jednak pozyskiwania znacznie większej liczby informacji, dotyczących nie tylko mojej historii, ale także planów. Aby to zrobić, oczywiście potrzebujemy systemu CRM, ale też rozwiązań, które wspierają kontakty z klientem na różne sposoby. Czasami będzie to komunikacja za pośrednictwem serwisów społecznościowych, a innym razem call center, poczta elektroniczna, tradycyjny salon sklepowy, aplikacja mobilna czy komunikat przesyłany na smartwatcha. SAP oferuje bogate portfolio produktów wspierających tego typu kontakty z konsumentami. Wcześniej wspominaliśmy nie tylko o klientach, lecz także nowej generacji pracowników… Dokładnie. Pomyślmy o pracowniku, który ma dołączyć do naszego zespołu po- kwiecień 2016 ITWIZ MAGAZYN 15 BIZNES Pomyślmy o pracowniku, który ma dołączyć do naszego zespołu powiedzmy za 3–4 lata. Osoba ta zapewne urodziła się, gdy działał już Facebook. Do komunikacji wykorzystuje więc serwisy społecznościowe lub internetowe komunikatory. Wyobraźmy sobie co się stanie, gdy pracownik z pokolenia social media trafia do naszej firmy, gdzie styka się z papierowym systemem obiegu dokumentów lub z rozbudowaną komunikacją mailową? 16 MAGAZYN ITWIZ kwiecień 2016 BIZNES wiedzmy za 3–4 lata. Osoba ta zapewne urodziła się, gdy działał już Facebook. Do komunikacji wykorzystuje więc serwisy społecznościowe lub internetowe komunikatory. Wyobraźmy sobie co się stanie, gdy pracownik ten trafia do naszej firmy, gdzie styka się z papierowym systemem obiegu dokumentów lub z rozbudowaną komunikacją mailową? rządzać tym coraz bardziej skomplikowanym środowiskiem, potrzebujemy narzędzi wspierających zbieranie i analizę wielkich zbiorów danych. W tym kontekście proponujemy klientom platformę SAP HANA oferowaną w modelu chmury obliczeniowej. Udostępniamy ją z pakietem narzędzi do tworzenia interfejsów łączących przedmioty IoT. Przyzwyczajenia Millennialsów odzwierciedlamy w takich narzędziach, jak SAP SuccessFactors – wspierające procesy HR, czy SAP Jam – chmurowe narzędzie do komunikacji. To rozwiązania podobne do Facebooka i LinkedIn, można polubić swoje posty, dzielić się informacjami, tworzyć grupy pracujące nad wspólnymi projektami. Do tego dochodzą możliwości komunikatorów internetowych. Przy tego typu projektach współpracujemy m.in. z firmą Siemens, która tworzy np. roboty wykorzystywane w fabrykach samochodów. Na bazie SAP HANA powstało narzędzie umożliwiające zarządzanie siecią takich robotów. Dzięki temu można np. zmniejszyć długość przerw w produkcji, odpowiednio zarządzając dostępnością części zapasowych. Rozwiązania te oferują platformę do komunikacji opartą na zasadach wykorzystywanych w mediach społecznościowych, a konkretnie na tworzeniu sieci powiązań. Popularność tych rozwiązań wśród pokolenia Y obserwujemy także u siebie, w miarę jak coraz więcej młodych ludzi dołącza do nas. Jedno z pierwszych pytań, jakie zadają, to czy mogą – wykorzystując social media – komunikować się wewnątrz SAP. Dla nas tradycyjne metody komunikacji to e-mail i jakiś portal, gdzie znajdę niezbędne informacje i dokumenty. Podobnie jest w przypadku zarządzania łańcuchem dostawców i zakupu. Przyszłość rozwiązań dla tych procesów widzimy w tworzeniu sieci biznesowych połączeń. Dlatego też kilka lat temu przejęliśmy firmę Ariba. Oferowane przez nią narzędzia pozwalają na pełną automatyzację zarządzania łańcuchem dostaw i zakupów. Umożliwiają stworzenie czegoś w rodzaju wewnętrznego Amazona. Na początku wspomniał Pan o internecie rzeczy, to czwarty element cyfrowej transformacji? Obecnie wszystko podłączane jest do internetu. Dotyczy to nie tylko urządzeń, ale i przedmiotów codziennego użytku, takich jak inteligentne bransoletki, smartwatche, koszulki sportowe. Są firmy, które chwalą się tym, że nie produkują już żadnej rzeczy bez własnego adresu IP. Jeśli chcemy za- Cyfrowa transformacja kojarzona jest zwykle ze start-upami… To prawda. Nas – ze względu na długoletnią historię – należałoby uznać za dinozaury. Tymczasem transformacja cyfrowa wymaga wewnętrznej zmiany od dostawców. Najlepszym sposobem na dokonanie tego jest współpraca z kimś, kto działa bardzo szybko, kimś, kto niemalże w „locie” dokonuje korekt w swojej wizji rozwoju. Dlatego rozpoczęliśmy globalny program skierowany do start-upów. Oferujemy im narzędzia, na podstawie których mogą rozwijać własne pomysły. W tym roku wprowadzamy ten program do Europy Środkowo-Wschodniej. Jednak już w roku 2015 uruchomiliśmy go testowo. Skierowany był do młodych firm wykorzystujących social media. Jego finał miał miejsce w Bułgarii. Zgłosiło się 70 zespołów, z których do czołówki dotarło 30. Trzech zwycięzców wspieramy w rozwoju ich pomysłów. Wzięli też udział w SAP StartupFocus Program w Berlinie, w którym młode firmy opracowują rozwiązania wykorzystujące możliwości platformy SAP HANA. Fascynujące jest to, jak szybko powstają te pomysły, jak szybko tworzone są biznesplany. Jedna z idei związana była z obchodzonymi przez członków danej społeczności urodzinami. Poza tym, że oczywiście można było złożyć życzenia, jubilat może zdecydować, aby zamiast kupować mu prezenty, przekazać te fundusze na jakiś cel charytatywny. Powstałe w ramach SAP StartupFocus Program aplikacje – po przejściu przez proces certyfikacji – oferowane są następnie naszym klientom. Jedna z nich pochodzi z Polski. Start-upy otrzymują pieniądze od klientów, którzy będą wykorzystywać ich rozwiązanie na platformie SAP HANA. Chcemy w ten sposób zachęcać coraz więcej przedsiębiorców w naszym regionie Europy Środkowo-Wschodniej do tworzenia nowych, innowacyjnych firm. W kontekście cyfrowej transformacji mówi się także o API Economy, w której główną rolę odgrywają aplikacje… To właśnie przyszłość SAP, możemy dowolnie podłączać – dzięki API – rozwiązania naszych partnerów, w tym firm biorących udział w SAP StartupFocus Program. Choć – w ogólnej perspektywie – widzimy problem z kompatybilnością powstających aplikacji. Przykładowo, Fitbit nie będzie mógł wymieniać danych z Apple Watch. Każdy wykorzystuje inną technologię do transmisji danych. Tak naprawdę jednak opracowanie protokołu komunikacyjnego nie jest trudne. Wystarczy odpowiednia platforma. I to jest w tym piękne. SAP HANA staje się powoli podstawową platformą dla wszystkich naszych produktów. Ale oczywiście musimy mieć także odpowiednio do niej dostosowany sprzęt. Stąd wiele globalnych umów z największymi producentami serwerów. SAP ma dużo rozwiązań oferowanych w modelu chmurowym. Czy to strategiczny kierunek rozwoju Państwa produktów? Chmura to tylko sposób na dostarczanie naszych rozwiązań. Za kilka lat zjawisko „cloud computingu” przestanie być poruszanym przez wszystkich tematem. Większość rozwiązań – tak, czy inaczej – będzie dostępna w tym modelu. Zmieni się jedynie percepcja klientów. Tak jak dziś nikt – jeśli ktoś mówi o Gmail – nie myśli, że to rozwiązanie w chmurze, ani że nasze dane mogą być przechowywane w Stanach Zjednoczonych. Dlatego zjawisko to będzie się stale rozwijać, gdyż firmy chcą maksymalnie upraszczać infrastrukturę IT, a ta staje się commodity, jak elektryczność. Przedsiębiorstwa wyróżniać będzie warstwa biznesowa – procedur i procesów – a nie IT. Rozmawiał Adam Jadczak kwiecień 2016 ITWIZ MAGAZYN 17 BIZNES Firmy jedynie w 20% wykorzystują potencjał cyfrowej transformacji Z analiz Cisco wynika, że obecnie firmy, które realizują strategię cyfrowej transformacji, wykorzystały średnio tylko 20% potencjału digitalizacji. Jednocześnie, zdaniem przedstawicieli Cisco, trudno jest wyobrazić sobie branżę, dla której zmiany wpisujące się w trend cyfrowej transformacji nie niosłyby wartości biznesowej. Analizę, której podsumowanie znalazło się w raporcie Cisco „Digital Value at Stake”, opracowano na podstawie oceny potencjalnych, nowych źródeł przychodów lub oszczędności osiągalnych za sprawą cyfrowych innowacji w 16 badanych branżach, a także obserwowanych i uzyskanych – wskutek digitalizacji – zmian pozycji rynkowej przedsiębiorstw z poszczególnych sektorów. Według ekspertów Cisco, na cyfryzacji najbardziej skorzystają te firmy, których strategie biznesowe będą polegać na wykorzystaniu technologii IT w konwergencji z technologiami operacyjnymi. Badanie Cisco pokazuje ponadto, że tylko nieliczne organizacje dysponują dziś kompleksowym planem zmian w obliczu cyfryzacji biznesu. Co więcej, statystycznie aż 45% firm obecnie ignoruje tego typu zmiany. Tymczasem, jak pokazują badania Cisco, za sprawą cyfrowej transformacji, w ciągu 5 lat obecną pozycję rynkową utraci ok. 40% firm. Z kolei tylko 25% organizacji podchodzi do cyfrowej transformacji w sposób proaktywny. Analiza opiera się 18 MAGAZYN ITWIZ kwiecień 2016 WCIĄŻ NIEDOCENIANY WPŁYW CYFROWEJ ZMIANY? 45% firm obecnie ignoruje zmiany w obliczu cyfryzacji biznesu, tylko nieliczne organizacje dysponują dziś kompleksowym planem zmian 40% firm w ciągu 5 lat, za sprawą cyfrowej transformacji utraci obecną pozycję rynkową 25% tylko tyle firm podchodzi do cyfrowej transformacji w sposób proaktywny na ocenie ponad 350 przypadków wykorzystania technologii cyfrowych oraz ich efektów biznesowych. Sześć spośród 16 branż (produkcja przemysłowa, usługi finansowe, handel detaliczny, usługi ICT, służba zdrowia i branża wydobywcza) składać się będzie na niemal 75% całkowitej wartości sektora prywatnego w nadchodzącej dekadzie. Całkowita wartość potencjału cyfrowej transformacji w perspektywie najbliższej dekady jest wyceniana na 23,8 bln USD. Co ważne, jest to wartość o 65% wyższa niż zakładały to prognozy Cisco z roku 2013. Kalkulacja Cisco uwzględnia przy tym nakłady niezbędne do przeprowadzenia transformacji biznesu za pomocą nowych technologii. Zdaniem autorów badania, pokazuje ono faktyczną wartość, która jest realna do osiągnięcia dzięki wykorzystaniu nowych technologii. „Oczywiście bariery wejścia w potrzebne do realizacji cyfrowych zmian technologie są różne dla poszczególnych branż. Są BIZNES jednak niższe niż w przeszłości, zarówno w kontekście uzyskania technologii, jak i potrzebnego finansowania” – dodaje Michael Ganser, wiceprezes Cisco na region Europy Centralnej. Obecnie głównym czynnikiem ograniczającym potencjalne efekty digitalizacji biznesu jest kultura organizacyjna, która utrudnia wdrażanie innowacji. „Największą barierą często jest brak gotowości na zmiany. Kluczową rolę w budowaniu otwartości firmy na zmianę ma odpowiednie zaangażowanie zarządu” – dodaje Michael Ganser. transformacji pojawia się konieczność obserwowania zmian zachodzących nie tylko w bezpośrednim otoczeniu biznesowym, ale także w innych sektorach gospodarki. Tak znaczne rozszerzenie perspektywy wynika z faktu, że oparta na technologiach cyfrowych zmiana, w pozornie odległym sektorze gospodarki, może stać się źródłem szans biznesowych albo istotnych ryzyk w innych branżach” – dodaje Michael Ganser. Głównym wyróżnikiem pomiędzy różnymi rozwiązaniami IT ma być natomiast warstwa oprogramowania. Dotyczy to zarówno bezpieczeństwa, jak i funkcjonalności. „Obszar aplikacyjny dysponuje największą wartością, jeśli chodzi o potencjał innowacyjny” – dodaje Michael Ganser. Efektem cyfrowej transformacji mają być też zmiany w szeroko rozumianych zasadach współpracy pomiędzy klientami a dostawcami. W celu osiągnięcia przewagi konkurencyjnej – dla obu stron – coraz częściej potrzebne staje się wspólne zaangażowanie w tworzenie innowacji. Dodatkowe wyzwania będą się wiązać z szybkością zachodzących zmian. „Dynamika cyfrowej transformacji oraz jej wpływ na działalność biznesową wykracza poza historyczne doświadczenia rynkowe. Firmy, które pozostaną przy dotychczasowym sposobie działania – bez względu na trwającą wokół transformację – mają wiele do stracenia” – kwituje Michael Ganser. Dodaje przy tym, że – jak pokazują przykłady z Francji, Włoch lub Niemiec – cyfrowa transformacja nie omija również sektora publicznego. Jednocześnie, jak podkreślają autorzy analizy Cisco, wdrażanie technologii wspierających cyfrową transformację powinno iść w parze z rozwojem narzędzi w obszarze bezpieczeństwa. Musimy obserwować zmiany także w innych sektorach Liderzy cyfrowej transformacji rosną ekspotencjalnie Autorzy analizy podkreślają, że postępująca digitalizacja biznesu będzie wymuszać na osobach zarządzających zmianę spojrzenia na otoczenie biznesowe. „Wskutek cyfrowej Badanie Cisco dowodzą też, że firmy uznawane za liderów cyfrowej transformacji – w tym Apple, Uber i Tesla – osiągają wyższą efektywność inwestycji w technologie cyfrowe, ponieważ na bazie tych technologii tworzą nowe modele biznesowe, wykraczające poza dotychczasową specjalizację branżową. Z analiz Cisco wynika np., że tylko usprawnienie analityki w handlu detalicznym może, w ciągu najbliższych 10 lat, przełożyć się na korzyści rzędu niemal 300 mld USD. Szacunki Cisco zakładają, że w ubiegłym roku firmy z sektora handlu detalicznego skonsumowały jedynie 15% potencjalnych korzyści wynikających z digitalizacji biznesu. Całkowita wartość potencjału cyfrowej transformacji w perspektywie najbliższej dekady jest wyceniana na 23,8 bln USD. Co ważne, jest to wartość o 65% wyższa niż zakładały to prognozy Cisco z roku 2013. Kalkulacja Cisco uwzględnia przy tym nakłady niezbędne do przeprowadzenia transformacji biznesu na bazie nowych technologii. „Nasze badanie pokazuje, że maksymalizacja korzyści z cyfryzacji w sektorze prywatnym wymaga podważenia założeń, które do tej pory decydowały o sukcesie wielu firm, i ponownego spojrzenia na sposób organizacji i dostarczania przez firmy wartości ich klientom” – mówi Kevin Bandy, Chief Digi- Dynamika cyfrowej transformacji oraz jej wpływ na działalność biznesową wykracza poza historyczne doświadczenia rynkowe. Firmy, które pozostaną przy dotychczasowym sposobie działania – bez względu na trwającą wokół transformację – mają wiele do stracenia. Jak pokazują przykłady z Francji, Włoch lub Niemiec, cyfrowa transformacja nie omija także sektora publicznego. Jednocześnie, jak podkreślają autorzy analizy Cisco, wdrażanie technologii wspierających cyfrową transformację powinno iść w parze z rozwojem narzędzi w obszarze bezpieczeństwa. Michael Ganser, wiceprezes Cisco na region Europy Centralnej tization Officer w Cisco. W aktualnych realiach rynku przedsiębiorstwa muszą być gotowe na systematyczne wprowadzanie zmian obejmujących m.in. działalność operacyjną, kulturę, model przychodów, a także kompetencje i rozwiązania technologiczne. Piotr Waszczuk kwiecień 2016 ITWIZ MAGAZYN 19 CIO CIO W PKN Orlen mamy już za sobą dwie fale cyfryzacji Pierwszy okres intensywnej informatyzacji Polskiego Koncernu Naftowego Orlen to lata 1995–2001, do czasu zakończenia konsolidacji rozwiązań IT po połączeniu Petrochemii Płockiej z Centralą Produktów Naftowych. Kolejna duża fala cyfrowej transformacji to przede wszystkim ostatnie lata i projekty związane w dużej mierze z automatyzacją oraz wykorzystaniem możliwości, jakie oferują nowoczesne technologie telekomunikacyjne i wirtualizacja. Ten ostatni etap trwa. Oczywiście, pomiędzy tymi okresami również sporo się działo. Przykładem dużej zmiany było chociażby wdrożenie w 2007 roku kompleksowego systemu workflow zobowiązaniowego, należnościowego i majątkowego. 20 MAGAZYN ITWIZ kwiecień 2016 CIO Nie wiem, czy ktoś jeszcze pamięta, że kiedyś stosowano komputery z pamięcią ferrytową. Takie właśnie rozwiązanie działało w Petrochemii Płockiej (do 30 czerwca 1993 r. znanej pod nazwą Mazowieckie Zakłady Rafineryjne i Petrochemiczne w Płocku) jeszcze na początku lat 90. XX wieku. Wówczas jedną z podstawowych platform dla rozwiązań IT w płockiej firmie był system mainframe, jak również stopniowo wygaszana od strony funkcjonalnej maszyna Honeywell HB2040 (jedna z trzech takich w Polsce) ze wspomnianą pamięcią. „Pierwszy etap cyfrowej transformacji ówczesnej Petrochemii Płockiej polegał m.in. na budowie w latach 1992–1994 sieci rozległej, już wówczas opartej na światłowodach. Powodem było dostrzeganie szansy, jaką mogła wnieść rozwijająca się wówczas bardzo intensywnie technologia informatyczna dla każdego w kontekście tzw. wysp z pojedynczymi rozwiązaniami, jakie działały w przedsiębiorstwie” – wspomina Jakub Kolbicz, dyrektor Biura Usług Informatycznych w PKN Orlen. „Kolejne etapy to było wejście w architekturę klient-serwer, coraz szersze wprowadzanie komputerów PC do użycia przez pracowników Petrochemii Płockiej oraz wdrożenie centralnego systemu ERP – SAP R/3” – dodaje Piotr Wawak, dyrektor Biura Aplikacji IT w PKN Orlen. Od rozwiązań wyspowych do zintegrowanego zarządzania przedsiębiorstwem Projekt wdrożenia zintegrowanego systemu ERP – wspomagającego zarządzanie Petrochemią Płocką – rozpoczął się ok. roku 1995. Nowy system wystartował 2 lata później. W przypadku ówczesnej Petrochemii Płock od 1973 roku w tym przedsiębiorstwie pracował komputer Honeywell HB2040, działający w trybie wsadowym, jako platforma do ewidencji majątku, gospodarki materiałowej, fakturowania, drukowania listy płac. Zawierał on także arkusze do raportowania produkcji. Z kolei nowsza generacja sprzętu, w postaci dwóch komputerów mainframe, została uruchomiona w końcówce lat 80. oraz na początku lat 90. (wówczas była to najsilniejsza maszyna tej klasy w Polsce). To rozwiązanie sprzętowe było platformą dla systemu finansowo-księgowego, materiałówki, gospodarki magazynowej, sprzedaży, obsługi kadrowej i płacowej, a także arkuszy do raportowania produkcji. Za utrzymanie i rozwój narzędzi odpowiadali głównie specjaliści IT. Przed rokiem 1997 trudno było jednak mówić o dużych, kompleksowych i zintegrowanych systemach IT, jakie obecnie mamy na myśli, choć istniejące wówczas rozwiązania realizowały wiele przydatnych funkcji biznesowych. Z perspektywy czasu można powiedzieć, że wybór zintegrowanego systemu ERP pozwolił na dokonanie przełomu. To był ogromny skok technologiczny. „Moje doświadczenia z innych organizacji pokazują, że wówczas informatyka – w obliczu tego typu rozwiązań – zaczęła być po raz pierwszy postrzegana jako narzędzie istotnie wspierające organizację” – wspomina Z perspektywy czasu można powiedzieć, że wybór zintegrowanego systemu ERP pozwolił na dokonanie przełomu. To był ogromny skok technologiczny. W latach 90. informatyka – w obliczu tego typu rozwiązań – zaczęła być po raz pierwszy postrzegana jako narzędzie istotnie wspierające organizację. Marek Frąckiewicz, dyrektor wykonawczy ds. informatyki w PKN Orlen. W tym okresie miały miejsce także inne duże inwestycje, np. działający do teraz system kontroli dostępu, system PI (platforma Real-time Enterprise Infrastructure), poczta elektroniczna, samoobsługa pracownicza (selfservice) i wiele innych. Patrząc na priorytety Petrochemii Płock w drugiej połowie lat 90., najważniejsze jednak było wdrożenie scentralizowanego systemu ERP. Pozwolił on na integrację danych w ramach całego przedsiębiorstwa i częściową rezygnację z niektórych procesów opartych „na formie papierowej”. Jednocześnie tak duża zmiana wymusiła modyfikację wielu procesów biznesowych i dostosowanie ich do nowego rozwiązania wspierającego zarządzanie. Bez wątpienia system SAP R/3 był motorem dużych zmian w firmie. „System wspierający działalność Petrochemii Płockiej w pierwszej kolejności wdrażany był w obszarze rachunkowości, i to użytkowników z tego obszaru należało dobrze przygotować do korzystania z nowej technologii jako pierwszych. Następne wdrażane moduły objęły procesy gospodarki materiałowej i zaopatrzenia” – dodaje Piotr Wawak. „Warto również zwrócić uwagę, że w połowie lat 90. największym problemem był brak odpowiednich kompetencji. I nie mówimy tylko o procesie wdrożenia systemu ERP, ale także o podstawowych dziś umiejętnościach pracowników, takich jak obsługa komputera czy posługiwanie się myszką” – wspomina Jakub Kolbicz. „Informatyzacja wzbudzała wówczas duże obawy. Dość powszechnie stosowane były jeszcze np. maszyny do pisania, zadawano więc nam pytanie, skoro tak dobrze się sprawdzają, to po co nam komputery” – dodaje. Podczas realizacji projektów wdrożeń narzędzi IT w tym okresie należało uwzględnić powyższe aspekty, organizując dodatkowe szkolenia z podstawowych umiejętności pracy z komputerem. Kolejny etap rozwoju systemu ERP w Petrochemii Płockiej związany był z połączeniem z Centralą Produktów Naftowych, w wyniku którego powstał Polski Koncern Naftowy (od roku 2000 Polski Koncern Naftowy Orlen). System SAP musiał objąć zakresem działania także procesy sprzedaży detalicznej. Ten etap zakończono w roku 2001. Od tamtego czasu system SAP stał się podstawowym rozwiązaniem kwiecień 2016 ITWIZ MAGAZYN 21 CIO 1000 maszyn wirtualnych pracuje w centrum danych PKN Orlen. 22 MAGAZYN ITWIZ kwiecień 2016 CIO klasy ERP w PKN Orlen. W tym czasie zmierzono się również z tzw. problemem roku 2000, o którym było głośno na całym świecie. W przypadku PKN Orlen był on stosunkowo marginalny, m.in. dzięki wcześniejszej wymianie platformy mainframe na rozwiązanie klient-serwer. Stały dostęp do usług i systemów IT Kolejna duża fala informatyzacji związana była z rewolucją, jaką niosła upowszechniająca się transmisja danych w sieciach stacjonarnych i komórkowych. W roku 1996 na polskim rynku zaczęli działać trzej operatorzy GSM, ale wówczas jeszcze informatyka i telekomunikacja traktowane były osobno. Realny postęp dało się zauważyć dopiero w latach 2010–2012, kiedy nastąpiło znaczące obniżenie kosztów i zwiększenie przepustowości sieci WAN. „Dzięki temu architektura stosowanych rozwiązań ma teraz inne znaczenie. Powodem jest bardzo łatwy dostęp do łączy telekomunikacyjnych i ich ogólna niezawodność, dzięki czemu lokalizacja systemów centralnych dla użytkowników przestała mieć znaczenie. Istotnie za to wzrosło oczekiwanie stałego i nieprzerwanego dostępu do usług. Obecnie mamy bardzo krótkie przerwy serwisowe, a ewentualne niedostępności naszych systemów centralnych są redukowane do minimum” – mówi Marek Frąckiewicz. „W latach 90. XX wieku można było dokonywać pewnych usprawnień w systemach IT praktycznie każdego dnia, gdy pracownicy wychodzili z pracy. Rozwiązanie wspierające zarządzanie firmą mogło nie pracować przez część doby i nie stanowiło to istotnego problemu dla firmy. Oczywiście trzeba było uważać, aby nie doprowadzić do zbyt dużych zaległości w przetwarzaniu danych. Dziś już nie możemy sobie na coś takiego pozwolić. Nastąpiła zbyt duża automatyzacja procesów i wzrost powiązań między systemami” – dodaje Piotr Wawak. Wymogi dotyczące dostępności rozwiązań IT zaczęły się zmieniać ok. 2008 roku. Pokazywały to kolejne rozwiązania, jakie były wdrażane w płockim koncernie. Jednym z nich była wymiana rozwiązania stosowanego w obszarze stacji paliw PKN Orlen. Zainstalowane na stacji aplikacje mogą co prawda z powodzeniem działać bez łączności z centralą, ale we właściwych momentach potrzebne są aktualizacje informacji np. o nowych promocjach, stąd kwestia dostępności stała się tak ważna. Obecnie nikogo już nie dziwią bardzo rozbudowane rozwiązania klastrowe umożliwiające praktyczne „obejście” problemu istotnego skrócenia się okienek serwisowych. Również uruchamianie np. dwóch centrów danych działających w trybie active-active jest jedną z metod adresujących ten problem. PKN Orlen stosuje z powodzeniem właśnie takie podejście. Postępująca od kilku lat automatyzacja i centralizacja procesów biznesowych – dziś nazywana digitalizacją – zna- kwiecień 2016 ITWIZ MAGAZYN 23 CIO Rozwiązania typu Advanced Process Control analizują bardzo dużo parametrów z instalacji produkcyjnych PKN Orlen i na tej podstawie wspierają optymalizację ich pracy. Efektem jest m.in. stabilizacja przebiegu procesu i poprawa parametrów optymalizujących koszt produkcji. Dzięki tym wszystkim zmianom, PKN Orlen może dziś centralnie zarządzać produkcją w całej grupie. Administrując siecią instalacji produkcyjnych, może uwzględniać, jaką aktualnie ropę przerabia, na jakie produkty jest właśnie największe zapotrzebowanie, w których zakładach najbardziej efektywnie zostaną one wyprodukowane, a także planowane prace remontowe. cząco ułatwiła współpracę zarówno w obrębie firmy, jak i poza nią. „Pracownicy przestali być uzależnieni od dostępności w biurze uczestników poszczególnych kroków procesów. Dziś praktycznie wszystko jesteśmy w stanie załatwić drogą elektroniczną, czy jest to np. akceptacja faktury, czy też wniosku urlopowego, o ile ‘papier’ nie jest wymogiem wynikającym np. z przepisów prawa” – komentuje Jakub Kolbicz. Aby ułatwić zarządzanie całą infrastrukturą, w pierwszej kolejności dokonano jej uproszczenia. Obecnie w PKN Orlen mamy m.in. do czynienia z tzw. płaską siecią. Wszystkie spółki Grupy Orlen – niezależnie od kraju, w którym działają – znajdują się w jednej, wspólnej, zarządzanej centralnie sieci. „Dla ponad 20 tys. użytkowników rozwiązań IT w Grupie Orlen nie ma de facto znaczenia, gdzie się do niej podłączają. Mają poczucie, jakby byli u siebie w biurze. Taka struktura sieci ułatwia zapewnienie ciągłej dostępności rozwiązań IT” – opowiada Piotr Zakrzewski, dyrektor Biura Infrastruktury IT w PKN Orlen. Uproszczenie struktury sieci pozwoliło m.in. na połączenie – w ramach jednej instancji – wszystkich systemów SAP obsługujących większość spółek Grupy Orlen w Polsce. Umożliwiło również migrację do centralnego Data Center kluczowych rozwiązań spółek zagranicznych. Dziś korzystają one w spójny sposób z kompleksowych usług. „Konsolidacja instancji SAP oraz procesów to aktualny trend w zarządzaniu rozwiązaniami tego producenta” – wyjaśnia Piotr Wawak. Obok aspektu sieci korporacyjnej, również ważna była wirtualizacja zasobów sprzętowych. Pozwoliła ona na usunięcie problemów wydajnościowych i wzrost efektywności wykorzystania zasobów sprzętowych. Obec- 24 MAGAZYN ITWIZ kwiecień 2016 nie w centrum danych PKN Orlen pracuje ponad 1000 maszyn wirtualnych. Automatyzacja zarządzania systemami przemysłowymi Ostatnie lata to także rosnące znaczenie bezpieczeństwa, zwłaszcza w kontekście ochrony systemów przemysłowych, które ponownie – w PKN Orlen już kilka lat temu – zostały wydzielone do odseparowanych sieci. To również projekty wdrożenia automatyki przemysłowej oraz te na jej styku z IT, jak chociażby inwestycje w systemy typu APC (Advanced Process Control). „Rozwiązania tego typu analizują bardzo dużo parametrów z naszych instalacji produkcyjnych i na tej podstawie wspierają optymalizację ich pracy. Efektem jest m.in. stabilizacja przebiegu procesu i poprawa parametrów optymalizujących koszt produkcji” – tłumaczy Marek Frąckiewicz. Dzięki tym wszystkim zmianom, PKN Orlen może centralnie zarządzać produkcją w całej grupie. „Zarządzając siecią instalacji produkcyjnych, możemy uwzględniać, jaką aktualnie ropę przerabiamy, na jakie produkty jest właśnie największe zapotrzebowanie, w których zakładach najbardziej efektywnie zostaną one wyprodukowane, a także planowane prace remontowe” – dodaje. Dla sporej części projektów od decyzji do realizacji mija nie więcej niż kilka, kilkanaście miesięcy. Ponadto niezwykle szybko zmieniają się potrzeby biznesu. To wszystko wymaga od PKN Orlen wewnętrznej zmiany, w której firma musi być bardziej agile. Dlatego od kilku już lat wprowadzany jest do PKN Orlen tzw. Bimodal IT. Obecnie wyraźnie widać, że większość projektów musi wejść w nowy, szybszy tryb. Z kolei ze „starego świata” przedstawiciele firmy chcą pozostawić wysoką jakość i niezawodność powstających rozwiązań. Połączenie tych dwóch elementów to kolejne wyzwanie dla organizacji. Jedno z narzędzi wspierającego centralne zarządzanie produkcją powstało jako efekt projektu harmonogramowania produkcji w ramach obszaru SCM (Supply Chain Management). Dzięki niemu PKN Orlen może lepiej prowadzić procesy produkcyjne, biorąc przy tym pod uwagę optymalne obciążenia instalacji, plany sprzedażowe i możliwości logistyczne. Warto zwrócić uwagę, że przy wytworzeniu produktu głównego powstają także produkty uboczne, które również trzeba zagospodarować. Planując produkcję, CIO trzeba uwzględnić wszystkie te zależności, a potencjalnych scenariuszy jest wiele. Wybranie najbardziej optymalnych powoduje wzrost marży. Internet rzeczy, rozwiązania mobilne i Bimodal Company Digitalizacja to także projekty związane np. ze śledzeniem całego taboru kolejowego, którym transportowane są produkty PKN Orlen. Każda lokomotywa własna i każdy wagon będący w użytkowaniu PKN Orlen został opatrzony odpowiednio urządzeniem GPS lub znacznikiem RFID. Ich celem jest umożliwienie obserwacji i analizy przemieszczania się taboru kolejowego. Można więc powiedzieć, że PKN Orlen już od jakiegoś czasu prowadzi projekty, które można określić jako związane z tzw. internetem rzeczy. „Kolejnym wdrożeniem z tego obszaru jest nowe rozwiązanie telemetrii na zbiornikach LPG na naszych stacjach paliw” – mówi Piotr Wawak. Projekt jest powiązany z harmonogramowaniem logistyki wtórnej, czyli takim zarządzaniem transportem gazu z rozlewni na stacje paliw i do klienta końcowego, aby autocysterny miały krótsze przebiegi, większe wypełnienie oraz by ograniczyć możliwość wystąpienia braków gazu na stacjach paliwowych. „Implementacja nowej telemetrii w zakresie LPG, to projekt digitalizacji na dużą skalę i element szerszego projektu budowy platformy logistycznej w PKN Orlen, która obejmuje zarówno transport kolejowy, jak i kołowy” – dodaje. Łatwy dostęp do łączy telekomunikacyjnych i ich ogólna niezawodność sprawiły, że lokalizacja systemów centralnych przestała mieć dla użytkowników znaczenie. Istotnie za to wzrosło oczekiwanie stałego i nieprzerwanego dostępu do usług. Pion IT w PKN Orlen ma obecnie bardzo krótkie przerwy serwisowe. W latach 90. XX wieku można było dokonywać pewnych usprawnień w systemach IT praktycznie każdego dnia, gdy pracownicy wychodzili z pracy. Dziś nie można sobie na coś takiego pozwolić. Nastąpiła zbyt duża automatyzacja procesów i wzrost powiązań między systemami. Biznes korzysta z wejścia w nowoczesne technologie Realizowane przez PKN Orlen projekty pokazują, jak bardzo można dziś skorzystać biznesowo poprzez wejście w wybrane, nowoczesne technologie. „Aktualnie mamy do czynienia z ogromnym postępem. Naszym celem jest rozwijanie nowych pomysłów tak szybko, jak tylko będzie potrzebował tego biznes. Generalnie widać, że projekty bardzo przyspieszyły” – komentuje Marek Frąckiewicz. „Wdrożenie systemu SAP w latach 90. XX wieku trwało 3 lata. Teraz – dla sporej części projektów od decyzji do realizacji – mija nie więcej niż kilka, kilkanaście miesięcy. Ponadto niezwykle szybko zmieniają się potrzeby biznesu. To wszystko wymaga od nas wewnętrznej zmiany, w której musimy być bardziej agile. Dlatego od kilku już lat wprowadzamy do firmy tzw. Bimodal IT. Dzisiaj wyraźnie widać, że większość projektów musi wejść w nowy, szybszy tryb. Z kolei ze „starego świata” chcemy pozostawić wysoką jakość i niezawodność powstających rozwiązań. Połączenie tych dwóch elementów to kolejne wyzwanie dla organizacji. Aby to się jednak udało, nie możemy mówić tylko o Bimodal IT, ale raczej o Bimodal Company” – dodaje. Wdrożenie koncepcji Bimodal Company w PKN Orlen wymaga zmian w całej firmie. Nie jest to łatwe, zważywszy, że wiele procesów i stosowanych dziś rozwiązań kształtowało się od początku informatyzacji PKN Orlen, a więc lat 90., a w niektórych przypadkach nawet lat 70. ubiegłego stulecia. Tymczasem przed PKN Orlen kolejna fala cyfrowej zmiany. Tym razem związanej z powszechnym dostępem do urządzeń mobilnych i wspomnianym internetem rzeczy, którego koncepcję przemysł już realizuje w praktyce. Adam Jadczak NFON oszczędzi Ci kłopotów... oraz do 50% kosztów. nfon.com/pl Telefonia nowej generacji! Około 150 inteligentnych funkcji dostępnych dla każdego. Brak terminowej umowy, opłaty wyłącznie za rzeczywiście wykorzystywane urządzenia, co umożliwia redukcję kosztów. Jakość głosu oraz poziom zabezpieczeń certyfikowane przez TÜV. Telefonia w chmurze dla Twojego biznesu „Made in Germany”. Zainteresowany? kwiecień 2016 ITWIZ MAGAZYN 25 CIO FELIETON Jak nie utonąć w otchłani Zmiany – szczególnie w środowisku IT – są nieuniknione, ale mogą być dobre. Nie ma jednego, a może nawet nie ma żadnego przepisu na sukces każdej zmiany. Jak jednak pokazuje rynek, im bardziej jesteśmy otwarci na nie, tym łatwiej odnaleźć się w nowej rzeczywistości. W erze rosnącej dominacji rynku aplikacji trzeciej generacji – opartych na mikroserwisach – i popularności rozwiązań Big Data, administratorzy i menedżerowie zarządzający infrastrukturą, bardziej niż kiedyś, muszą dokładać starań, aby usługi infrastrukturalne były jak najbardziej atrakcyjne. Atrakcyjne dla programistów, analityków i coraz większej liczby zespołów, które mają bezpośredni kontakt z szeroko pojętym biznesem. Tym razem przyjrzymy się mechanizmom Big Data. Problemy, z jakimi mamy do czynienia w analizie dużych zbiorów danych Z pewnością za nazwą Big Data kryje się wiele definicji, potencjalnych korzyści i zagrożeń, ale jedno jest pewne – pojęcie to jest już niemal „zużyte” w środowiskach IT. Wielu mówi o analityce na dużych zbiorach danych. Jednak świadomość tego, co i jak realnie można osiągnąć w biznesie, stosując te mechanizmy, wciąż jeszcze nie jest za wielka. Z rozmów z różnymi ludźmi wyni- Pewnym obszarem, który może być pomocny w pracy specjalistów od analizy danych, jest wirtualizacja sieci. Analitycy pracują bowiem w zamkniętych środowiskach, tzw. sandbox. Separacja takich środowisk w klasycznych rozwiązaniach sieciowych z zastosowaniem 802.1q to w dzisiejszych czasach zdecydowanie za mało. Dopiero SDN pozwala w pełni elastycznie i błyskawicznie klonować czy tworzyć nowe sieci skutecznie odseparowane od siebie. Warto zatem rozważyć takie podejście już teraz, bo nawet jeśli nie w platformach Big Data, to w chmurze prywatnej takie mechanizmy będą niezbędne. 26 MAGAZYN ITWIZ kwiecień 2016 ka, że jeszcze mniejsza jest ta świadomość wśród administratorów infrastruktury IT, a interakcja z analitykami i programistami kończy się na uruchomieniu dla nich serwera lub maszyny wirtualnej. Aby to zmienić i nadążać za wymaganiami, warto zrozumieć, jakie komponenty występują w typowych implementacjach platform Big Data. Najpierw jednak przypomnijmy, z jakiego typu zagadnieniami i problemami mamy do czynienia na prostych przykładach i jak można je rozwiązywać. Dobrym przykładem – z życia wziętym – może być sieć sklepów, do których dostarczane są towary. Nawet w przypadku dyskontów lub sklepów osiedlowych należy zapewnić logistykę dostaw towarów. O ile sprawa jest stosunkowo prosta, jeśli trzeba wyposażyć placówkę w odpowiednią ilość proszków do prania czy chusteczek – których okres przydatności do użycia jest pomijalnie długi – o tyle w przypadku produktów świeżych sprawa się mocno komplikuje. Co do zasady problem wydaje się prosty. Wystarczy przejrzeć dotychczasowe zamówienia i porównać z raportami sprzedaży, CIO a następnie wyciągnąć wnioski i przygotować zamówienie bardziej optymalne. Cel jest jasny, jak najmniej ma się zmarnować, ale nie może też zabraknąć wybranych towarów. Tylko jakimi wnioskami należy się kierować? Wynikiem sprzedaży z dnia poprzedniego, całego tygodnia, czy może tylko z ostatnich 12 godzin? Jak zinterpretować posiadane wyniki, a co najważniejsze, zobaczyć zależności od danych, które mogą być osiągalne poza danymi paragonowymi? Niektóre z zależności są oczywiste, np. wzrost zapotrzebowania na mak przed Bożym Narodzeniem. Inne są zupełnie nieintuicyjnie powiązane. Jak np. zależność sprzedaży od położenia geograficznego sklepu, otoczenia handlowego, ciśnienia atmosferycznego czy korelacji z kalendarzem rozgrywek piłkarskich. Wtedy właśnie przydaje się Big Data. Komponenty infrastrukturalne platform Big Data Za wizualizację tych danych w sposób przystępny dla przykładowego zamawiającego nowe dostawy odpowiadają takie pakiety, jak SAS Visual Analytics czy Microsoft Power BI. To na tym poziomie tworzone są wygodne, dynamiczne raporty, na podstawie których można przeprowadzić wnioskowanie, a nawet od razu wygenerować wsad do następnego zamówienia. Tutaj w zasadzie z poziomu infrastruktury niewiele można zbudować w nowej jakości, a przynajmniej nie jest to łatwe. Warstwa niżej należy do tzw. data scientist. W niej znajdziemy takie narzędzia, jak RStudio, a nawet Microsoft Excel. Wszystko zależy od tego, czego potrzebujemy i jak zasobny portfel ma nasza organizacja. Tutaj też wiele nie pomożemy, poza klasycznym podejściem, polegającym na minimalizacji czasu dostarczania i kosztów infrastruktury. Pewnym obszarem, który może być pomocny w pracy specjalistów od analizy danych, jest wirtualizacja sieci. Analitycy pracują bowiem w zamkniętych środowiskach, tzw. sandbox. Separacja takich środowisk w klasycznych rozwiązaniach sieciowych z zastosowaniem 802.1q to w dzisiejszych czasach zdecydowanie za mało. Dopiero SDN pozwala w pełni elastycznie i błyskawicznie klonować czy tworzyć nowe sieci skutecznie odseparowane od siebie. Warto zatem rozważyć takie podejście już dzisiaj, bo nawet jeśli nie w platformach Big Data, to w chmurze prywatnej takie mechanizmy będą niezbędne. Idąc dalej w stronę infrastruktury, dochodzimy do komponentów platformy Hadoop. Tutaj wyróżniamy trzy najbardziej popularne dystrybucje: Horton Works, Cloudera i MapR. Oczywiście są też dystrybucje komercyjne, ale – jak pokazują doświadczenia ostatnich lat – nie odnoszą wielkich sukcesów. Być może jest tak dlatego, że ich konsumentami są programiści, a Ci rzadko są zainteresowani wielkimi korporacjami, które z ich punktu widzenia nie wnoszą wiele więcej niż drogie wsparcie produktu. Poza tym najczęściej są to dystrybucje pozostające w tyle za rozwiązaniami open source, a w przypadku Hadoop kolejne wersje potrafią wnieść rewolucje, zamiast ewolucji. Na platformie Hadoop wyróżniamy komponenty administracyjne (Ambari, Zookeeper czy Oozie), bezpieczeństwa (Atlas, Falcon, Ranger i Knox) czy odpowiedzialne za przetwarzanie danych (Storm, Spark, Hive i MapReduce). Na koniec wszystkie dane składowane są w systemie plików HDFS, gdzie trafiają z wielu różnych źródeł w postaci nieustrukturyzowanej. Znajomość tej warstwy – choć w całości poświęconej programistom – może przydać się osobom odpowiedzialnym za infrastrukturę, choćby po to, aby w ogóle móc być partnerem w dyskusji. Elementy infrastrukturalne Następną warstwą jest już infrastruktura… z tym, że niekoniecznie wirtualna. Idea platformy Hadoop zakłada użycie sprzętu tzw. commodity, czyli takiego, który nie cechuje się zwiększoną odpornością na awarie. Co za tym idzie, zakłada się, że dowolny element platformy Hadoop może w każdej chwili zniknąć i wcale nie trzeba mu zapewniać wysokiej dostępności. Przetwarzanie równoległe powoduje, że platforma pracuje. Kluczowa jest wydajność. Właśnie dlatego inżynierowie i architekci rozwiązań Big Data często sceptycznie patrzą na platformy wirtualizacji czy chmury typu Amazon, czy Microsoft Azure. Oceniają, że dodatkowa warstwa tylko zmniejszy wydajność przy stosunkowo małych korzyściach. Oczywiście możliwości, jakie oferują chmury publiczne, dają niesamowitą elastyczność przeprowadzania testów i przygotowywania modeli ekonometrycznych. PRZYKŁADOWE WARSTWY INFRASTRUKTURY BIG DATA 1 Wizualizacja danych (np. SAS Visual Analytics czy Microsoft Power BI) 2 Warstwa dla data scientist (np. RStudio, Microsoft Excel) 3 Platforma Hadoop, w tym komponenty administracyjne (Ambari, Zookeeper czy Oozie), bezpieczeństwa (Atlas, Falcon, Ranger i Knox) czy odpowiedzialne za przetwarzanie danych (Storm, Spark, Hive i MapReduce) 4 System plików HDFS, gdzie trafiają wszystkie dane z wielu różnych źródeł w postaci nieustrukturyzowanej 5 Infrastruktura IT Jednak do „ciężkiej” produkcji – w szczególności w środowiskach, na które narzucono dodatkowy rygor legislacyjny – nie mają one wielkiego zastosowania. Co więc może zrobić dział infrastruktury, aby dorzucić swoją cegiełkę w budowaniu wartości dla biznesu? Może automatyzować dostarczanie środowisk, ale z pełną introspekcją w wydajność poszczególnych komponentów. Oznacza to, że oferowane w ramach portali samoobsługowych gotowe rozwiązania – zaprojektowane wraz z programistami, analitykami i architektami – powinny dawać możliwość wnikliwego monitoringu ich wydajności, często na poziomie procesów systemu operacyjnego. Ułatwione powinny być akcje skalowania środowiska – po pełną automatyzację włącznie – a także utworzenie kopii zapasowej czy archiwum na potrzeby wersjonowania. Można też założyć, że przydatna będzie integracja z narzędziami klasy DevOps, które pozwolą departamentom rozwoju aplikacji na pozostanie w swoich realiach funkcjonowania. Jak widać, możliwości są nieco ograniczone, ale jest ich kilka. Najważniejsze, by nie poprzestać na prostym generowaniu maszyn w tym procesie – tę czynność z pewnością da się łatwo zastąpić. Krzysztof Waszkiewicz, architekt kwiecień 2016 ITWIZ MAGAZYN 27 CIO Data scientist – specjalista pilnie poszukiwany Specjaliści od analizy dużych zbiorów danych stali się jednymi z najbardziej pożądanych pracowników na rynku pracy. Kim są badacze danych? Jak uczyć się tego zawodu? Czym kierować się przy wyborze pracodawcy? Według danych Gartnera, do roku 2020 na świecie może być nawet 26 mld połączonych urządzeń tworzących nowe dane. Rozwój nowych technologii w zakresie Big Data – i co za tym idzie, potrzeba zarządzania coraz większą ilością danych i informacji – przyczynił się do powstania nowej specjalizacji – data scientist. Historia tego zawodu jest dość krótka, sięga 2008 roku, kiedy to D. J. Patil i Jeff Hammerbacher – odpowiedzialni wtedy odpowiednio za analitykę w LinkedIn i Facebook – użyli tego terminu po raz pierwszy. Już kilka lat później Hal Varian, główny ekonomista Google, określił ten zawód jako najbardziej pożądany w tym dziesięcioleciu. A co tak naprawdę kryje się pod nazwą data scientist? Poszerzenie roli analityków danych i statystyków Specjaliści data science bardzo często zaczynali karierę jako analitycy danych lub statystycy. Jednak ich rola znacznie się poszerzyła w momencie, kiedy okazało się, że o skutecznym rozwoju i przewadze 28 MAGAZYN ITWIZ kwiecień 2016 konkurencyjnej przedsiębiorstw decyduje umiejętność analizowania coraz większych zbiorów różnorodnych danych. Na podstawie rekomendacji, opartych na tak szerokich i zaawansowanych analizach, przedsiębiorstwa są w stanie budować nowe strategie i wytyczać właściwe kierunki działań. W miarę rozwoju środowisk Big Data oraz technologii przechowywania i przetwarza- nia wielkich zbiorów danych – takich jak Hadoop – znacząco zmienia się podejście firm do wykorzystania danych w działalności biznesowej. Dane to dziś kluczowe aktywa. Wymagają one analitycznego podejścia, twórczej dociekliwości i umiejętności wydobycia z nich wartościowej wiedzy, która zapewni przewagę konkurencyjną i wzrost biznesu. Do realizacji tych zadań firma potrzebuje specjalistów, których nazywamy data scientist. W miarę rozwoju środowisk Big Data oraz technologii przechowywania i przetwarzania wielkich zbiorów danych – takich jak Hadoop – znacząco zmienia się podejście firm do wykorzystania danych w działalności biznesowej. Dane to dziś kluczowe aktywa. Wymagają one analitycznego podejścia, twórczej dociekliwości i umiejętności wydobycia z nich wartościowej wiedzy, która zapewni przewagę konkurencyjną i wzrost biznesu. Do realizacji tych zadań firma potrzebuje specjalistów, których nazywamy data scientist. CIO Umiejętność rozwiązywania problemów, komunikatywność oraz niezaspokojona ciekawość dotycząca funkcjonowania różnych mechanizmów – to tylko przykładowe umiejętności, które będą atutem dla pracodawcy szukającego data scientist. Oprócz tego należy mieć wiedzę w zakresie: statystyki, języka programowania, np. SAS, R lub Python, bazy danych, m.in. MySQL oraz PostSQL, wizualizacji danych czy technik raportowania. Data scientist musi mieć też takie umiejętności, jak: matematyka i informatyka, a także w obszarze programowania, uczenia maszynowego, zastosowania zaawansowanych narzędzi analitycznych oraz wiedzy i praktyki biznesowej. Zapotrzebowanie na „władców danych” – jak czasami określa się specjalistów data science − z roku na rok jest coraz większe. Wystarczy wspomnieć, że według ankiety firmy Glassdoor „25 Best Jobs in America” z roku 2016, ta specjalizacja jest najbardziej poszukiwanym zawodem w USA. Również w Polsce firmy coraz śmielej zgłaszają zapotrzebowanie na tego typu pracowników. Umiejętność rozwiązywania problemów, komunikatywność oraz niezaspokojona ciekawość dotycząca funkcjonowania różnych mechanizmów – to tylko przykładowe umiejętności, które będą atutem dla pracodawcy. Oprócz tego należy posiadać wiedzę w zakresie: statystyki, języka programowania np. SAS, R lub Python, bazy danych, m.in. MySQL oraz PostSQL, wizualizacji danych czy technik raportowania. Wybór kariery ukierunkowanej na data science jest mądrym posunięciem. Gwarantuje szerokie możliwości zatrudnienia oraz szansę na pracę w nowych technologiach lub biznesie, z dużym polem do popisu w zakresie eksperymentowania i kreatywności. Jak zostać „władcą danych”? Data scientist musi mieć bardzo szeroki zakres umiejętności. Począwszy od takich zagadnień, jak: matematyka i informatyka, poprzez programowanie, uczenie maszynowe, zastosowanie zaawansowanych narzędzi analitycznych, a na wiedzy i praktyce biznesowej kończąc. Co ważne, aby zdobyć wiedzę w tym zawodzie, nie trzeba wyjeżdżać za granicę. Polskie uczelnie mają w ofercie dydaktycznej kierunki studiów, które pomagają zdobyć niezbędne umiejętności w tej specjalizacji. Wykształcenie zdobyć można zarówno na certyfikowanych ścieżkach studiów, jak i na kierunkach magisterskich oraz podyplomowych. Przykłady uczelni, które oferują programy nauczania w tym zakresie, to m.in. Szkoła Główna Handlowa w Warszawie, która oferuje studia magisterskie: Advanced Analytics – Big Data oraz podyplomowe: Analizy Statystyczne i Data Mining w Biznesie, Akademia analityka – analizy statystyczne i data mining w biznesie oraz Inżynieria Danych – Big Data. Inne przykłady studiów podyplomowych, które kształcą w tej tematyce, to Systemy Informacyjne i Analiza Danych w Szkole Głównej Gospodarstwa Wiejskiego, Metody statystyczne w biznesie – warsztaty z oprogramowaniem SAS na Uniwersytecie Warszawskim oraz studia realizowane pod patronatem SAS na Uniwersytecie Ekonomicznym w Poznaniu. W ramach studiów przyszli adepci tego zawodu poznają zagadnienia dotyczące metod analizy statystycznej i data miningu, czyli eksploracji danych. Duży nacisk kładzie się zwłaszcza na wiedzę praktyczną i poznanie zagadnień od strony biznesowej. Oczywiście w ramach prowadzonych zajęć nie zapomina się o teorii, której zrozumienie i przyswojenie w tej dziedzinie jest koniecznością. Osoby interesujące się analizą sieci społecznościowych, text analytics, scoringiem kredytowym, zastosowaniem modeli mieszanych i wielopoziomowych oraz innymi zagadnieniami analitycznymi z pewnością znajdą coś dla siebie. Istotne aspekty pracy data scientist Decydując się na zawód data scientist, warto – przy wyborze pracodawcy – przeanalizować takie kwestie, jak: przetwarzanie dużych zbiorów danych w codziennej działalności tej firmy oraz możliwość mierzenia się ze złożonymi wyzwaniami biznesowymi. Ważnym czynnikiem jest również gotowość i umiejętność wykorzystania wiedzy uzyskanej z danych w praktyce, w celu transformacji procesów i zwiększenia innowacyjności organizacji. Bardzo istotnym aspektem pracy specjalisty data science jest dostęp do innowacyjnych i zaawansowanych technologii, które umożliwiają szybką i wszechstronną analizę różnych rodzajów danych, najlepiej w czasie rzeczywistym. Ważne jest również, aby pracodawca zapewniał udział w ciekawych i nowatorskich projektach, w różnych branżach i obszarach biznesowych. W pracy mamy okazję uczestniczyć w nowatorskich wdrożeniach systemów Big Data, Enterprise Fraud Management, Enterprise Risk Management, Real-Time Integrated Marketing Management, które dają szansę na intensywny rozwój oraz podejmowanie złożonych wyzwań z obszaru data science. Zawód data scientist jest doskonałym przykładem na to, jak rozwój nowych technologii w coraz większym zakresie wpływa na zmiany na rynku pracy. Wraz z rosnącym zapotrzebowaniem na innowacyjne rozwiązania, rośnie zapotrzebowanie przedsiębiorstw na nowe kompetencje i specjalizacje. Zaledwie dekadę temu nikt nie miał pojęcia o zawodzie data scientist. Tymczasem teraz dla przedsiębiorców najważniejsze staje się zidentyfikowanie talentów i przyciągnięcie ich do firmy, a następnie szybkie przeszkolenie i wdrożenie w realizację zaawansowanych projektów. Nagła popularność tego zawodu pokazuje też, że organizacje coraz bardziej zmagają się z zalewem danych i potrzebują skutecznego, a także kreatywnego połączenia różnego rodzaju analiz. Miłosz Trawczyński, Business Consulting Manager w SAS Institute Polska Aneta Maksymiuk, Analytical Consultant w SAS Institute Polska kwiecień 2016 ITWIZ MAGAZYN 29 CIO Sprzętowe innowacje wbudowane w SPARC M7 Oracle – rozwijając rozwiązania sprzętowe przejęte wraz z Sun Microsystems – wprowadził na rynek nowy procesor SPARC M7. Technologia ta ma zwiększać bezpieczeństwo dzięki rozwiązaniom Security in Silicon i prędkość przetwarzania analizowanych danych poprzez wykorzystanie technologii SQL in Silicon. Jak wspomina Marek Świerad, wiceprezes Oracle, szef Działu Hardware & Engineered Systems w regionie Europy Środkowo-Wschodniej, dzięki wprowadzonym ostatnio innowacjom zmieniło się postrzeganie platformy SPARC, zwłaszcza przez nowych klientów firmy. „Dziś ich pytania częściej dotyczą bezpieczeństwa, niż szybkości przetwarzania danych. Dotyczy to klientów w Polsce, Turcji, Rosji, Austrii, czy w innych krajach naszego regionu. Z platformy SPARC korzystają dziś banki, operatorzy telekomunikacyjni, administracja i sektor utilities” – twierdzi. vOracle z 2013 roku z procesorami T5 i obecne platformy oparte na układach M7. Dodatkowa – dostępna dzięki procesorowi M7 – moc wykorzystana jest np. do przetwarzania dużej ilości danych. Jednocześnie z każdą, kolejną generacją układów SPARC spada cena jednostki mocy obliczeniowej. W Polsce serwery z procesorami SPARC M7 znalazły już pierwszych nabywców. Równolegle sprzedawane są linie T7 oraz – większe – M7. Na rynku dostępna jest także – wykorzystująca nowe układy Oracle – platforma Supercluster M7. „Maszynę tę można określić mianem ‘konsolidacyjnej’, a nie tylko bazodanowej. Można na niej uruchamiać wiele różnych aplikacji jednocześnie. Oracle Supercluster działa u jednego z klientów w sektorze telekomunikacyjnym. Wykorzystywana jest do obsługi systemów czasu rzeczywistego” – opowiada Marek Świerad. W ostatnim roku finansowym sprzedaż sprzętu Oracle w Polsce wzrosła o 40%, a przychody ogółem o ok. 25%. Obecnie istotnym czynnikiem – decydującym o wyborze platformy IT – jest bezpieczeństwo. Klienci dostrzegają, że tradycyjna strategia – np. stosowanie zapór w warstwie sieciowej – już nie wystarcza. Pytają więc, co jeszcze powinni zrobić. My oferujemy rozwiązanie typu Security in Silicon, które pojawiło się w procesorach SPARC M7, ale także – dzięki funkcjonalności systemu Bezpieczeństwo wbudowane w koprocesor „Jest wielu klientów gotowych zmienić swoje platformy na nasze, oparte na procesorze SPARC. Migracja dotyczy nie tylko użytkowników technologii RISC, lecz także serwerów x86. Są też klienci, którzy całą infrastrukturę opierają na rozwiązaniach Oracle. Można powiedzieć, że po latach ‘testowania’ naszej strategii sprzętowej, klienci przekonali się do naszych platform” – dodaje. Ostatnie kilka lat to inwestycje Oracle w procesor SPARC M7. W efekcie, klienci obserwują dwukrotny wzrost wydajności z pojedynczego rdzenia procesora w porównaniu z poprzednią generacją. W testach porównano maszyny 30 MAGAZYN ITWIZ kwiecień 2016 Na to nakłada się zmiana podejścia do bezpieczeństwa. „Obecnie istotnym czynnikiem – decydującym o wyborze platformy IT – jest bezpieczeństwo. Klienci dostrzegają, że trady- Solaris – umożliwia kontrolę użytkowników na poziomie systemu operacyjnego. Jak widać, współpraca przy jednoczesnym rozwoju sprzętu i warstwy oprogramowania przynosi wymierne korzyści. Gdy ma się pieczę nad jednym i drugim, łatwiej jest to ze sobą zintegrować. Marek Świerad, wiceprezes Oracle, szef Działu Hardware & Engineered Systems w regionie Europy Środkowo-Wschodniej CIO cyjna strategia – np. stosowanie zapór w warstwie sieciowej – już nie wystarcza. Pytają więc, co jeszcze powinni zrobić. My oferujemy rozwiązanie typu Security in Silicon, które pojawiło się w procesorach SPARC M7, ale także – dzięki funkcjonalności systemu Solaris – umożliwia kontrolę użytkowników na poziomie systemu operacyjnego” – wyjaśnia Marek Świerad. „Jak widać, współpraca przy jednoczesnym rozwoju sprzętu i warstwy oprogramowania przynosi wymierne korzyści. Gdy ma się pieczę nad jednym i drugim, łatwiej jest to ze sobą zintegrować” – dodaje. W procesorze SPARC M7 zastosowano wiele akceleratorów wspierających szyfrowanie. „Podobne rozwiązania wykorzystują oczywiście w swoich procesorach firmy Intel i IBM, ale tym, co jest unikalne w naszym procesorze, jest ich zakres. Szereg branż jest przyzwyczajonych do własnych algorytmów szyfrowania. W SPARC M7 zawarto ich kilkanaście” – tłumaczy Marek Świerad. Dzięki SPARC M7 możemy szyfrować dane (w tym bazę danych Oracle), bez strat wydajności, bo cały ten proces odbywa się po stronie procesora. Szyfrowanie danym algorytmem można przerzucić na koprocesor. Poza tym można odwołać się do systemu operacyjnego. „Dzięki temu nie obciąża to bazy danych i aplikacji działających na platformie SPARC” – przekonuje Marek Świerad. „Swego rodzaju ‘pozytywnym efektem ubocznym’ technologii Security in Silicon jest wyłapywanie – na poziomie procesora – błędów w aplikacji. Ponadto znacznie skraca się też proces ich debugowania. To duża korzyść dla użytkowników naszej platformy. Przeprowadziliśmy testy wykorzystujące rozwiązania SAS Institute. W czasie debugowania, którego czas skrócił się z 3 godzin do kilku minut, znaleziono 4, wcześniej niewykryte błędy” – podkreśla. Narzędzia analityczne w procesorze M7 Drugą nową funkcją zawartą w procesorze SPARC M7 jest SQL in Silicon wspierająca zastosowania analityczne. „To kolejny element strategii Oracle podjętej w warstwie oprogramowania. Security in Silicon oraz SQL in Silicon to funkcje, które do tej pory były realizowane programowo. Teraz zostały przeniesione do koprocesora” – wyjaśnia Marek Świerad. „Dzięki funkcji SQL in Silicon możemy zrealizować w praktyce ideę Real Time Enterprise. Pierwszym jej elementem była baza Oracle z opcją in-memory, pozwalająca przeprowadzać zapytania analityczne na danych źródłowych systemu transakcyjnego, bez opóźnień związanych z ich ładowaniem, czyszczeniem, transformacją i budowaniem systemów dla hurtowni. Co ważne, zastosowanie tej technologii nie wymaga żadnej zmiany po stronie aplikacji. Procesor SPARC M7 wspiera ten proces w warstwie pamięci operacyjnej. Dzięki niemu baza nie jest obciążana kompresją i dekompresją danych, a wiele funkcji jest realizowanych na poziomie sprzętowym. Efektem są niższe koszty wdrożenia takiego rozwiązania na sprzęcie Oracle, gdyż można ograniczyć wielkość serwerów i ilość licen- Dzięki funkcji SQL in Silicon możemy zrealizować w praktyce ideę Real Time Enterprise. Pierwszym jej elementem była baza Oracle z opcją in-memory pozwalająca przeprowadzać zapytania analityczne na danych źródłowych systemu transakcyjnego, bez opóźnień związanych z ich ładowaniem, czyszczeniem, transformacją i budowaniem systemów dla hurtowni. Co ważne, zastosowanie tej technologii nie wymaga żadnej zmiany po stronie aplikacji. Procesor SPARC M7 wspiera ten proces w warstwie pamięci operacyjnej. Dzięki niemu baza nie jest obciążana kompresją i dekompresją danych, a wiele funkcji jest realizowanych na poziomie sprzętowym. cji potrzebnych do wykorzystania technologii in-memory. Serwery z procesorami SPARC M7 i bazę in-memory zastosowała w praktyce sieć sklepów B&H Photo Video, co doprowadziło do ponad 80-krotnego przyspieszenia przetwarzania danych w stosunku do tradycyjnego podejścia bazodanowego na tym samym sprzęcie” – dodaje. Oracle udostępnił otwarte API do wykorzystania koprocesorów analitycznych przez innych deweloperów i producentów oprogramowania. Oracle zamierza wprowadzić na rynek także procesory o kodowej nazwie Sonoma. To równoległa linia procesorów, oparta na tej samej koncepcji co SPARC M7. Sonoma znajdzie jednak zastosowane w „tańszej” wersji serwerów SPARC. Co obniży dla klientów barierę wejścia w tę platformę. Sonoma nie będzie co prawda tak skalowalna jak SPARC M7 – ma ograniczoną liczbę gniazd do dwóch – ale dzięki wbudowanej magistrali InfiniBand serwery z tym procesorem można skalować wszerz, zwłaszcza w rozwiązaniach chmurowych. Jak zapewniają przedstawiciele Oracle, pozwala to łatwo tworzyć klastry obliczeniowe. To rozwiązanie dużo tańsze, obniżające koszty związane z łączeniem procesorów i budową w ten sposób dużych maszyn obliczeniowych. „W testach deweloperskich znajdują się już procesory kolejnej generacji. Typowy okres rozwoju procesorów – od wejścia na deski kreślarskie do pojawienia się ich na rynku – to 4–5 lat. Można się więc spodziewać, że kolejna generacja naszych procesorów pojawi się na rynku za ok. 2 lata” – podsumowuje Marek Świerad. Adam Jadczak kwiecień 2016 ITWIZ MAGAZYN 31 CIO Różnice w podejściu do IT pomiędzy rynkowymi liderami Wzmocnienie produktywności, a jednocześnie ograniczenie kosztów funkcjonowania IT oraz zwinności biznesowej organizacji niezmiennie zajmują wysoką pozycję wśród priorytetów inwestycyjnych w obszarze nowych technologii. IT coraz częściej staje się jednak motorem zmian biznesowych. Wnioski z analizy Salesforce pozwalają sądzić, że czynnikiem napędzającym zmiany biznesowe – a konkretnie budowanie przewagi konkurencyjnej po stronie IT – jest przede wszystkim możliwość szybszego reagowania na zmiany rynkowe i potrzeby klientów. Badanie pokazuje też różnice w podejściu do IT oraz w priorytetach inwestycyjnych pomiędzy firmami uznawanymi za rynkowych liderów a organizacjami, które uzyskują słabsze wyniki. Analizę przeprowadzono w podziale na trzy odmienne obszary związane z wykorzystaniem rozwiązań IT w biznesie. Dotyczą one zmieniającej się roli IT w organizacji, potrzeb kompetencyjnych w obszarze teleinformatyki, a także wykorzystywanych technologii. Większa presja, ale i większe budżety Zdaniem większości ankietowanych przez Salesforce szefów IT, jednym z czynników w największym stopniu wpływających na przewagę konkurencyjną jest szybkość działania firm. Priorytetem staje się więc możliwość skrócenia czasu dostarczania nowych usług i aplikacji biznesowych. Niemal trzy czwarte (72%) przedstawicieli przedsiębiorstw osiągających wyniki biznesowe lepsze od średniej twierdzi, że u nich czas tworzenia i wdrażania nowych aplikacji zwykle nie przekracza 3 miesięcy. W takim czasie nowe rozwiązania aplikacyjne jest w stanie wdrożyć tylko co druga (46%) firma o słabych wynikach. 32 MAGAZYN ITWIZ kwiecień 2016 Trzy czwarte ankietowanych spodziewa się, że w najbliższych latach budżety na IT w ich organizacjach będą rosły. Priorytety inwestycyjne deklarowane przez większość (68%) uczestników badania dotyczą migracji do środowisk cloud computing, wdrożenia aplikacji mobilnych oraz poprawy bezpieczeństwa środowiska IT. Pozostała grupa badanych zamierza inwestować w rozwiązania mobilne wspierające sprzedaż i obsługę klienta, a także aplikacje pozwalające zwiększyć produktywność pracowników. Zmiany na styku sprzedaży, marketingu i wykorzystywanych przez firmy technologii zmuszają do rekonstrukcji tradycyjnego podejścia do zarządzania IT. Od szefów IT oczekuje się wizji, jak z pomocą innowacyjnych technologii wszechstronnie wspierać biznes – procesy wewnętrzne, efektywność i nowe modele interakcji z klientami. W 60% ankietowanych firm funkcjonuje rola szefa IT. Coraz częściej obejmuje ona jednak aspekty biznesowe. CIO Co istotne, 55% ankietowanych uznaje za priorytet inwestycyjny rozwiązania zwiększające produktywność. Do pozostałych priorytetów zaliczane są narzędzia pozwalające zwiększyć dostępność i przejrzystość danych (47%), a także rozwiązania umożliwiające automatyzowanie i uelastycznienie procesów biznesowych (42%). Chmura narzędziem zmiany Wyniki analizy pozwalają sądzić, że na osiągane rezultaty biznesowe wpływa także podejście do modelu cloud computing. Firmy, które deklarują wyniki poniżej przeciętnej, częściej od pozostałych wykorzystują oprogramowanie działające na bazie lokalnej infrastruktury. Z kolei organizacje osiągające najlepsze wyniki – chętniej sięgają po rozwiązania oparte na modelu chmury hybrydowej. Firmy takie częściej od pozostałych grup podejmują inicjatywy, mające na celu systematyczne zwiększanie inwestycji w obszarze IT. Z analiz wynika też, że większość (80%) przedsiębiorstw decydujących się na wdrożenie oprogramowania w chmurze deklaruje chęć ich wykorzystania, w celu zmiany dotychczasowego modelu działalności. Migracja w kierunku rozwiązań opartych na modelu cloud computing staje się priorytetem w zakresie obsługi wewnętrznych procesów biznesowych. Kluczowa okazuje się elastyczność i innowacyjność aplikacji chmurowych. Zdaniem autorów analizy, migracja rozwiązań wspierających procesy biznesowe w modelu cloud computing staje się sposobem na szybsze wdrażanie innowacji, obniżenie kosztów i uelastycznienie środowiska IT. Wykorzystanie modelu chmury obliczeniowej ma także pozwolić na zmniejszenie obciążeń wynikających z konieczności zapewnienia kompleksowej integracji rozwiązań biznesowych. Połowa ankietowanych CIO odpowiada przy tym za funkcjonowanie co najmniej 25 zintegrowanych aplikacji. Nowa rola szefa W 60% funkcjonuje rola szefa IT. Coraz częściej obejmuje ona jednak aspekty biznesowe. „Zmiany na styku sprzedaży, marketingu i wykorzystywanych przez firmy technologii zmuszają do rekonstrukcji tradycyjnego podejścia do zarządzania IT. Od szefów IT oczekuje się wizji, jak z pomocą innowacyjnych technologii wszechstronnie wspierać biznes – procesy wewnętrzne, efektywność i nowe modele interakcji z klientami” – podkreśla Edyta Żenczykowska, dyrektor sprzedaży Salesforce w Polsce, Czechach, Słowacji i krajach bałtyckich. Uczestnicy badania Salesforce podkreślają, że rosnącej roli technologii IT w zastosowaniach biznesowych towarzyszą zasadnicze zmiany roli osób odpowiedzialnych za funkcjonowanie firmowych środowisk IT w kształtowaniu strategii biznesowej i koordynowaniu działalności operacyjnej. Dla CIO coraz cenniejsze stają się kompetencje typowe dla działów marketingu, wiedza o zachowaniu i potrzebach Jednym z czynników w największym stopniu wpływających na przewagę konkurencyjną jest szybkość działania organizacji. Priorytetem staje się więc możliwość skrócenia czasu dostarczania nowych usług i aplikacji biznesowych. Niemal trzy czwarte (72%) przedstawicieli firm osiągających wyniki biznesowe lepsze od średniej twierdzi, że u nich czas tworzenia i wdrażania nowych aplikacji zwykle nie przekracza 3 miesięcy. W takim czasie nowe rozwiązania aplikacyjne jest w stanie wdrożyć jedynie co druga (46%) organizacja o słabych wynikach. klientów oraz silna motywacja do monitorowania trendów technologicznych. Na znaczeniu zyskują też kompetencje miękkie. Rynek nie nadąża za potrzebami kompetencyjnymi Analiza Salesforce pokazuje zarazem, że szybki rozwój technologii i popytu na informatyczne rozwiązania biznesowe prowadzi do nasilającej się luki kompetencyjnej. Średnio, ok. 40% wskazywanych przez respondentów problemów w obszarze IT wynika z braków kadrowych bądź kompetencyjnych. Respondenci narzekają też na niedostateczną dostępność potrzebnych kompetencji na rynku. Dotyczy to w szczególności kompetencji związanych z rozwojem oprogramowania. Brakować ma także centrów kompetencyjnych, które ułatwiłyby zaplanowanie rozwoju kompetencji pracowników. Jednocześnie, firmy osiągające najlepszą dynamikę rozwoju inwestują w rozwój kompetencji pracowników działu IT. Realizacje tego typu inwestycji deklaruje ponad 90% organizacji z grupy High Performers. Dla porównania, podobne inicjatywy realizuje tylko 55% organizacji rozwijających się w tempie niższym od średniej rynkowej. Największe braki kompetencji dotyczyć mają zaś kolejno: inżynierii i przetwarzania danych, bezpieczeństwa IT oraz rozwoju oprogramowania. W badaniu firmy Salesforce wzięło udział ponad 2200 menedżerów odpowiedzialnych za funkcjonowanie działów IT w firmach z Ameryki Północnej, Brazylii, Francji, Niemiec i Wielkiej Brytanii oraz Australii i Japonii. Co ważne, badanie ograniczono do grupy firm, które samodzielnie realizują inicjatywy związane z rozwojem oprogramowania. Podsumowanie analizy znalazło się w raporcie Salesforce „2016 State of IT”. Piotr Waszczuk kwiecień 2016 ITWIZ MAGAZYN 33 ARCHITEKCI ARCHITEKCI S A Połączenie zespołów scrumowych i architektów rozwiązań Poszukiwanie synergii pomiędzy „klasycznym” podejściem do strategii i architektury oraz metodykami zwinnymi nie jest proste, ale nie bezcelowe. Kwantyzacja osądów oraz antagonizowanie ról i metodyk stanowią wspaniały katalizator gorących dyskusji. Łatwo tworzy się obozy próbujące się wzajemnie wykluczać. Można trzymać je z dala od siebie i cieszyć ze spokoju, wynikającego z braku interakcji między nimi. Dlaczego jednak nie spróbować ich wykorzystać? 34 MAGAZYN ITWIZ kwiecień 2016 ARCHITEKCI Z jednej strony spotkałem się z opinią, że w metodykach zwinnych tworzenie dokumentacji to błąd. Z drugiej – istnieją organizacje, które wypracowały zestaw szablonów, wypełnianych przy okazji każdego projektu. Gdy niosą wartość merytoryczną i są rzetelnie utrzymywane (bądź są wymagane ustawowo) – nie ma problemu. Gdy służą tylko odznaczeniu „checklisty” – to dobry moment, aby o nich zapomnieć. Zazwyczaj – dokumentacja mniej dokładna, nawet z drobnymi potknięciami – jest bardziej wartościowa, niż rozbudowana, lecz nieaktualna bądź niezgodna ze stanem faktycznym. Jak może wyglądać współpraca architektury różnych poziomów oraz grupy deweloperów, realizowana na podstawie metodyki zwinnej, np. Scrum. Czy w ogóle jest to możliwe? Prawdopodobnie nie ma jednego, słusznego, gotowego, uniwersalnego przepisu na sukces. Natomiast jest kilka sposobów, ułatwiających sprawną i zakończoną realizację inicjatyw oraz zwiększających szansę na dobrą współpracę ludzi. Bez radykalnego deptania ich przyzwyczajeń. Konieczne jest ich delikatne dostosowanie oraz ewentualne zwiększenie otwartości na adaptację do specyfiki momentu. Niektóre organizacje wypracowały model, w którym liczba jednostek pośredniczących między przedstawicielami biznesu a programistami jest tak duża, że praktycznie uniemożliwia przedyskutowanie problemu. To jak zabawa w „głuchy telefon”. Dlaczego taki model nie działał nawet w waterfallu? Z prostej przyczyny – błędnego założenia, że każda osoba zaangażowana w prace jest nieomylna, wie czego chce, potrafi to idealnie zapisać lub wysłowić. Jeśli pracuje nad uszczegółowieniem ogólniejszych wymagań – rozumie je perfekcyjnie, przetwarza niczym fabryka i generuje bezstratnie kolejny poziom uszczegółowienia. Zanim wymaganie przeszło przez wszystkie warstwy, mijało sporo czasu. Organizacje nastawione na taki sposób realizacji inicjatyw, zamiast zastanowić się nad przebudową procesu, skupiają się – z mniejszym lub większym sukcesem – na doskonaleniu każdego kroku i metod kontroli jakości. Tymczasem – w razie jakichkolwiek trudności – każda z osób zaangażowanych skupiała się na dowodzeniu wykonania perfekcyjnie własnego kawałka pracy. Cała energia szła w coraz to nowe dowodzenie racji stron i – niezależnie od rozstrzygnięcia – wcale nie prowadziło to do rozwiązania problemu. Architekt rozwiązań jako element zespołu scrumowego W Scrumie problem ten jest obsłużony w sposób genialny w swej prostocie. Jest rola Dewelopera i Product Ownera. Zakresy odpowiedzialności są jasno zdefiniowane, a ponadto rękę na pulsie można trzymać non stop, niemalże podczas każdego momentu procesu wytwórczego. Teoretycznie miejsca dla architektów nie ma. Jednakże praktycznie realia nietrywialnych środowisk IT są takie, że nadal jest zapotrzebowanie na to, czym się zajmowali dotychczas. Poziom ogólności, w którym poruszała się dana osoba, wyznacza możliwe miejsce docelowe w nowym procesie wytwórczym. Architekt systemowy, projektant systemu najprawdopodobniej znajdzie się pośród zespołu deweloperów. Jego wysoka wiedza ogólna dotycząca mechanizmów wewnątrzsystemowych pozwoli dobrze wspierać pozostałych członków zespołu, definiować reguły rozwoju systemu, w zgodzie z planowanymi pracami, wynikającymi z zawartości Backlogu. Mimo że Scrum nie przewiduje dywersyfikacji poszczególnych deweloperów – każdy z nich powinien mieć dokładnie taki sam zakres wiedzy i umiejętności – nie spotkałem jeszcze takiego zespołu, w którym nie byłoby zróżnicowania poziomu świadomości. Jeśli modyfikacjom podlega więcej niż jeden system, a prace są rozbite na kilka zespołów, niewątpliwie przyda się koordynacja prac, na poziomie integracji. Tu idealnie wpisze się architekt rozwiązań. Jedną z częstych porażek architektury korporacyjnej jest próba dokładnego zaplanowania dużych inicjatyw na kilka lat do przodu. Samo planowanie – zwykle w warunkach „laboratoryjnych” – wygląda obiecująco. Prawda jest taka, że w większości branż otoczenie biznesowe zmienia się dużo szybciej. Ponadto taka inicjatywa nie jest wyspą i w większości środowisk IT ma mnóstwo zależności z innymi programami, projektami, zmianami. W efekcie albo wszystkie inne projekty są blokowane przez „przepływający program Titanic”, albo przygotowane analizy wysokopoziomowe bardzo szybko stają się nieaktualne. Naturalnie można próbować sprawę rozegrać założeniem, że bez jego pomocy zespoły same się „dogadają”. Często oddelegowanie takiej odpowiedzialności poza zespoły jest korzystne. Pomijając jasno określone odpowiedzialności, ułatwia to podejmowanie decyzji w sytuacjach spornych oraz zdejmuje część ciężaru prac. Natomiast architektura kwiecień 2016 ITWIZ MAGAZYN 35 ARCHITEKCI Niektóre organizacje wypracowały model, w którym liczba jednostek pośredniczących między przedstawicielami biznesu a programistami jest tak duża, że praktycznie uniemożliwia przedyskutowanie problemu. To jak zabawa w „głuchy telefon”. Dlaczego taki model nie działał nawet w waterfallu? Z prostej przyczyny - błędnego założenia, że każda osoba zaangażowana w prace jest nieomylna, wie czego chce, potrafi to idealnie zapisać lub wysłowić. korporacyjna bezpośrednio nie powinna angażować się wprost w bieżące prace zespołu scrumowego, lecz wyznaczać ramy i pryncypia prac, a także jasno komunikować strategię, choćby po to, aby w pewnym wycinku wesprzeć proces planowania Product Ownerów. Minimalizacja zależności w obrębie zespołu Jedną z istotniejszych zalet podejścia zwinnego jest możliwość niemalże natychmiastowego rozstrzygania spraw. Wspomniana wcześniej „ścieżka zdrowia” zależności kompletnie zabiłaby zwinność. Dzięki organizacji pracy wg punktu pierwszego – problem występuje, ale jest mniej dotkliwy. Wiele zależy od skali przedsięwzięcia. Idealnie jest, gdy np. prace nad integracją da się zrównoleglić z bieżącymi pracami zespołów scrumowych. Źle się dzieje, gdy zespół jest zmuszony do wstrzymania prac nad zadaniem z zakresu sprintu, ze względu na oczekiwanie na wynik pracy kogoś spoza zespołu. Innym możliwym podejściem jest takie planowanie prac, aby wymagane zadania były zakończone przed rozpoczęciem sprintu. Powoduje to jednak trudność w przypadku konieczności wykonania poprawek oraz nieco rozciąga planowanie w czasie. Zgubić szczegóły na rzecz skrócenia dostarczenia wyników Pomocna w minimalizacji zależności i blokowaniu prac zespołu scrumowego może być rezygnacja z wysokiego poziomu szczegółowości dostarczanych wyników analizy. Warto także zrewidować przyzwyczajenia do (nie)tworzenia dokumentów. Jestem przeciwny ekstremizmom. Z jednej strony spotkałem się z opinią, że w metodykach zwinnych tworzenie dokumentacji to błąd. Z drugiej – istnieją organizacje, które wypracowały zestaw szablonów, wypełnianych przy okazji każdego projektu. Gdy niosą wartość merytoryczną i są rzetelnie utrzymywane (bądź są wymagane ustawowo) – nie ma problemu. Gdy służą tylko odznaczeniu „checklisty” – to dobry moment, by o nich zapomnieć. 36 MAGAZYN ITWIZ kwiecień 2016 Zazwyczaj – dokumentacja mniej dokładna, nawet z drobnymi potknięciami – jest bardziej wartościowa, niż rozbudowana, lecz nieaktualna bądź niezgodna ze stanem faktycznym. Skoro jesteśmy przy metodykach zwinnych, jednym z najskuteczniejszych sposobów wypracowania optymalnej formy wyników analizy jest... rozmowa z odbiorcą dokumentu oraz ograniczenie jej do niezbędnego, rozsądnego minimum. Podzielić inicjatywę na mniejsze kawałki Jedną z częstych porażek architektury korporacyjnej jest próba dokładnego zaplanowania dużych inicjatyw na kilka lat do przodu. Samo planowanie – zwykle w warunkach „laboratoryjnych” – wygląda obiecująco. Prawda jest taka, że w większości branż otoczenie biznesowe zmienia się dużo szybciej. Ponadto taka inicjatywa nie jest wyspą i w większości środowisk IT ma mnóstwo zależności z innymi programami, projektami, zmianami. W efekcie albo wszystkie inne projekty są blokowane przez „przepływający program Titanic”, albo przygotowane analizy wysokopoziomowe bardzo szybko stają się nieaktualne. Realizacja takiej inicjatywy w „mniejszych porcjach” zwiększa szanse na częstsze walidowanie otoczenia. Niektóre organizacje, zamiast zastanowić się nad przebudową procesu, skupiają się - z mniejszym lub większym sukcesem - na doskonaleniu każdego kroku i metod kontroli jakości. Tymczasem - w razie jakichkolwiek trudności - każda z osób zaangażowanych skupiała się na dowodzeniu wykonania perfekcyjnie własnego kawałka pracy. Cała energia szła w coraz to nowe dowodzenie racji stron i - niezależnie od rozstrzygnięcia - wcale nie prowadziło to do rozwiązania problemu. Stosowanie powyższych zasad nie daje gwarancji sukcesu. Nie jest to jedyne możliwe podejście. Ale wydaje się, że na dziś jest jednym z rozsądniejszych i możliwych do zastosowania także w średnich i dużych organizacjach. Bazuje na podejściu zwinnym, jednocześnie nie rezygnując z dobrodziejstw dojrzałego zorganizowania IT, operującego na ogólniejszych poziomach abstrakcji. Każda organizacja jest inna, złożona. W zespołach pracują różni ludzie, przyzwyczajeni do przeróżnych stylów pracy. Pogodzenie pozornie sprzecznych ról, trendów i metodyk jest zadaniem trudnym, ale wykonalnym. Krzysztof Wilniewczyc, architekt PRENUMERATA MAGAZYNU PRENUMERATA ROCZNA 12 wydań regularnych magazynu ITwiz Wersja cyfrowa – dostęp za pośrednictwem jednego urządzenia iOS/Android lub poprzez przeglądarkę internetową Koszt pakietu: 216 zł brutto Koszt pakietu po rabacie: 180 zł brutto (w tym 5% VAT) PAKIET PREMIUM Raport ITwiz BEST100: „Dwa oblicza IT w Polsce – Ranking firm IT i analiza potrzeb ich klientów” – edycja 2016 (data wydania: 15 czerwca 2016 r.) 12 wydań regularnych magazynu ITwiz Raport: Bezpieczeństwo IT (data wydania: kwiecień 2016 r.) Raport: Internet Rzeczy i Big Data (data wydania: maj 2016 r.) Raport: Bussines IT w przemyśle i logistyce (data wydania: 14 września 2016 r.) Raport: Aplikacje biznesowe – perspektywa 2017 (data wydania: 15 listopada 2016 r.) Wersja cyfrowa – dostęp za pośrednictwem jednego urządzenia iOS/Android lub poprzez przeglądarkę internetową Koszt pakietu: 625 zł brutto Koszt pakietu po rabacie: 395 zł brutto (w tym 5% VAT) Prenumeratę można zamówić, pisząc na adres [email protected] PRENUMERATA PÓŁROCZNA 6 wydań regularnych Wersja cyfrowa – dostęp za pośrednictwem jednego urządzenia iOS/Android lub poprzez przeglądarkę internetową Koszt pakietu: 108 zł brutto (w tym 5% VAT) CSO CSO Czas pomyśleć Security o by Desing ‘Prywatność w fazie projektowania’ i ‘bezpieczeństwo w fazie projektowania’ to terminy coraz częściej pojawiające się na licznych spotkaniach branżowych. Wspomniane hasła nie są nowością dla większości z nas parających się technologią, jednakże nabierają ogromnego znaczenia przy obecnych nowinkach technologicznych, np. związanych z internetem rzeczy. 38 MAGAZYN ITWIZ kwiecień 2016 CSO uwaga! budowa Security by Desing Security by Design to koncepcja rozwoju oprogramowania i sprzętu, która stara się, aby powstające systemy były wolne od luk i odporne na ataki. Jest to możliwe do osiągnięcia za pomocą takich środków, jak ciągłe testowanie zabezpieczeń uwierzytelniania i przestrzegania dobrych praktyk programowania. Bezpieczeństwo poprzez projektowanie szybko stanie się kluczowe w środowisku internetu rzeczy, w którym prawie każde urządzenie, obiekt lub podmiot otrzyma unikalny identyfikator (UID) i adres IP. W szerokiej i szybko rozwijającej się dziedzinie urządzeń i czujników podłączonych do internetu należy ujmować element bezpieczeństwa i prywatności danych już na poziomie projektowania. Dostawcy powinni dać użytkownikom opcje ograniczania gromadzenia ich danych. Ponadto powinni przyjąć sensowne zasady uprzedzania (notyfikowania), jakie informacje i do czego są wykorzystywane. Powinni również dostarczyć możliwość dokonania wyboru ich publikowania, bądź nie. Rośnie liczba urządzeń IoT bez odpowiedniego zabezpieczenia Urządzenia podłączone do internetu, zarówno samochód, smartfon czy rozrusznik serca – jak to pokazały doświadczenia i prezentacja profesora Aviego Rubina na konferencji TEDx – mogą być bardzo łatwo zhakowane. W wyniku takiego ataku, kontrola nad nimi zostanie w pełni przejęta przez atakującego. Wystarczy upór i talent. Urządzenia mogą nie tylko stanowić zagrożenie dla naszej prywatności, ale same w sobie być zagrożeniem dla użytkowników, o ile producenci nie uwzględniają właściwego podejścia do zabezpieczeń. Internety rzeczy ma ogromny potencjał. Nie mam co do tego wątpliwości. Przekształca nasze codzienne życie, zapewnia ogromne korzyści dla konsumentów, ale zmieni również spojrzenie na nasze bezpieczeństwo i prywatność. To był już gorący temat na tegorocznych targach CES w Las Vegas, gdzie producenci z całego świata prezentują najnowsze aplikacje i urządzenia, które mają na celu m.in. rozwijać opiekę zdrowotną, efektywność wykorzystywania energii i budowę inteligentnych miast. Na CES 2016 np. Samsung pokazał lodówkę z linii Family Hub z aplikacją Groceries by MasterCard. Dzięki niej w Stanach Zjednoczonych można, posługując się dużym wyświetlaczem na lodówce, zamawiać produkty spożywcze z takich sieci e-sklepów, jak FreshDirect i ShopRite. Lodówka sama także analizuje to, jakie mamy i jakich artykułów spożywczych nam brakuje. Teoretycznie wkrótce sama będzie dokonywać zakupów (więcej w wywiadzie z Aleksandrem Naganowskim, dyrektorem ds. rozwoju nowego biznesu w polskim oddziale MasterCard Europe na str. 10). Temat IoT zapewne pozostanie gorącym na tych targach rozwiązań konsumenckich przez kolejne lata. Pojawia się jednak także na targach, takich jak Mobile World Congress w Barcelonie, czy też salonach samochodowych. Bezpieczeństwo projektowane już na etapie „deski kreślarskiej” Wielu ekspertów bezpieczeństwa przestrzega przed wszechobecną pogonią przemysłu za tworzeniem coraz większej liczby, coraz tańszych, samodzielnych urządzeń podłączonych do internetu. Jednocześnie przywołują koncepcję Security by Design (SBD) jako jedno ze słusznych i właściwych podejść do omawianego problemu. Produkty obecnie oferowane bywają bardzo tanie i przeznaczone do powszechnego wdrożenia, co powoduje, że dużym wyzwaniem jest to, aby je odpowiednio zabezpieczyć. Bywają też urządzenia IoT do jednorazowego użytku. Są Bezpieczeństwo w fazie projektowania to podejście do bezpieczeństwa informacji, które jest jednocześnie holistyczne, oszczędne, wyprzedzające, interdyscyplinarne, solidne, rzetelne i osadzone w systemach. Regulatorzy zachęcają producentów, co niestety nie jest im na rękę, do przyjęcia polityki minimalizacji danych, które ograniczają rodzaje gromadzonych informacji, i skracania czasu ich utrzymywania na urządzeniach. Choć to brzmi banalnie, dane, które nie zostały pobrane lub zostały już zniszczone, nie mogą wpaść w niepowołane ręce. bardzo lekkie i nie przewidują aktualizacji zabezpieczeń. Czy będziemy wkrótce świadkami – jak ma to dziś miejsce w branży samochodowej – wezwań do serwisu lub naprawy gwarancyjnej, gdy dane urządzenie okaże się wadliwe lub niebezpieczne dla zdrowia? Zagrożenie cyfrowe do tej pory rozważane teoretycznie, bardzo szybko może stać się zagrożeniem realnym, dotykającym świata fizycznego. Security by Design to koncepcja rozwoju oprogramowania i sprzętu, która stara się, by powstające systemy były wolne od luk i odporne na atak. Jest to możliwe do osiągnięcia kwiecień 2016 ITWIZ MAGAZYN 39 CSO za pomocą takich środków, jak ciągłe testowanie zabezpieczeń uwierzytelniania i przestrzeganie dobrych praktyk programowania. Bezpieczeństwo poprzez projektowanie szybko stanie się kluczowe w środowisku internetu rzeczy, w którym prawie każde urządzenie, obiekt lub podmiot otrzyma unikalny identyfikator (UID) i adres IP. Jednym z głównych wyzwań związanych z bezpieczeństwem jest fakt, że jako takie nie jest ono tradycyjnie uwzględniane w projektowaniu urządzeń i obiektów, które nie są (bądź nie były) zwykle osadzone na stałe w internecie. Bezpieczeństwo informacji w kontekście IoT Omawiane podejście kontrastuje z mniej rygorystycznymi podejściami, w tym bezpieczeństwa przez zapomnienie, bezpieczeństwa poprzez minimalizację i bezpieczeństwa poprzez starzenie. Biorąc pod uwagę koncepcję Security by Design, należy zapewnić: integralność, co oznacza ochronę przed niewłaściwymi modyfikacjami informacji lub jej zniszczeniem, zachowanie autentyczności danych; poufność, co oznacza zachowanie autoryzowanych ograniczeń dostępu, zapewnienie środków dotyczących ochrony prywatności i zastrzeżonych informacji; dostępność, co oznacza zagwarantowanie terminowego i niezawodnego dostępu do informacji. Termin Secure by Default stosuje zasadę zabezpieczania danych w źródle. Wszystkie dane powinny być bezpiecznie osadzone, a systemy, które zużywają, przetwarzają i przechowują te dane, muszą być zgodne z wbudowanymi zasadami zabezpieczeń. Takie podejście nie jest tak powszechne. Do tej pory nie udało się umieścić bezpieczeństwa do każdego elementu danych, ponieważ gdy jest tworzony, stwarza poważne problemy, szczególnie dla różnorodnych agencji rządowych. Bezpieczeństwo informacji było traktowane dotąd przede wszystkim jako mechanizm obronny, służący do ochrony działalności przedsiębiorstw i aktywów. Coraz częściej jednak jest promowane do tego, aby prawidłowo wdrożone procesy i technologie bezpieczeństwa informacji mogły służyć wpływaniu na osiągane cele biznesowe. Przykładowo, jeśli firma z branży finansowej ma za cel zwiększenie przychodów poprzez poprawę zadowolenia konsumentów, a następnie zapewnienie zarówno bezpiecznego środowiska do pobierania i zarządzania informacjami dla użytkowników, jak i bezpiecznych metod udzielania dostępu do takich informacji, to działa- 40 MAGAZYN ITWIZ kwiecień 2016 Wbudowanie bezpieczeństwa w dane w trakcie ich powstawania powinno być priorytetem. Internet rzeczy jest rzeczywistością, a wszystkie jego elementy – sprzęt, urządzenia i przyrządy, takie jak inteligentne zegarki, podłączone urządzenia medyczne, inteligentne termostaty, samochody i wiele więcej – tworzą nowy strumień rozdrobnionych, powszechnie niezabezpieczonych danych. Jak długo pozwolimy na taki stan, godząc się na niską cenę? nia i promocja podejścia SBD może zwiększyć zaufanie klientów do firmy, co doprowadzi do uzyskania nowych przychodów. Oczywiście trzeba brać pod uwagę fakt, że są różne segmenty klientów i różne produkty. Programiści powinni myśleć już o bezpieczeństwie, a nie tylko funkcjonalności Przez bezpieczeństwo w fazie projektowania mam na myśli podejście do bezpieczeństwa informacji, które jest jednocześnie holistyczne, oszczędne, wyprzedzające, interdyscyplinarne, solidne, rzetelne i osadzone w systemach. Regulatorzy zachęcają producentów – co niestety nie jest im na rękę – do przyjęcia polityki minimalizacji danych, które ograniczają rodzaje gromadzonych informacji, i skracania czasu ich utrzymywania na urządzeniach. Choć to brzmi banalnie, dane, które nie zostały pobrane lub zostały już zniszczone, nie mogą wpaść w niepowołane ręce. Należy również poprawić metody, w jaki sposób dostawcy powiadamiają o tym, jak dane użytkowników są wykorzystywane, udostępniane, a następnie zaoferować narzędzia pozwalające im wyłączyć rodzaje zbieranych danych i ich współdzielenia. Inwestycje powinny być równo rozłożone także pomiędzy prywatność i bezpieczeństwo. Trudno mi się wypowiedzieć, czy same wspomniane zachęty wystarczą, aby żyło nam się bezpieczniej w świecie coraz bardziej otoczonym przez internet rzeczy. cisza! PROGRAMISTA MYŚLI CSO Budowanie prywatności i bezpieczeństwa przez projektowanie odbywa się na początku procesu R&D, zamiast po fakcie i masowej produkcji. To może wydawać się kłopotliwe w obliczu pragnienia ludzkiej natury dbania o funkcjonalność w pierwszej kolejności. Programiści mają tendencję, aby czekać, aż technologia osiągnie dojrzałość, i dopiero potem zintegrować funkcję bezpieczeństwa. Na szczęście ta mentalność zmienia się, bo naruszenia bezpieczeństwa danych są na nagłówkach gazet i serwisów internetowych praktycznie każdego dnia. Zaczynamy budować bezpieczeństwo sieci, aplikacji, a także na poziomie procesów, od samego początku procesu projektowania i wytwarzania. Dane powinny być domyślnie zabezpieczone Mniej znany termin Secure by Default stosuje tę samą zasadę do zabezpieczania danych w źródle. Wszystkie dane powinny być bezpiecznie osadzone, a systemy, które zużywają, przetwarzają i przechowują te dane, muszą być zgodne z wbudowanymi zasadami zabezpieczeń. Takie podejście nie jest powszechne. Do tej pory nie udało się umieścić bezpieczeństwa w każdym elemencie danych, ponieważ gdy jest tworzony, stwarza poważne problemy, szczególnie dla różnorodnych agencji rządowych. Można jednak znaleźć połączenie pomiędzy cyberbezpieczeństwem i bezpieczeństwem danych. Określenia cyberbezpieczeństwo, prywatność przez projektowanie, bezpieczeństwo przez projektowanie odnoszą się do bezpieczeństwa naszych systemów. Z kolei bezpieczeństwo danych i dane domyślnie zabezpieczone dotyczą zabezpieczania naszych informacji. Wszystkie pojęcia są podobne, ale bez zabezpieczenia naszych systemów ochrony informacji nie mają sensu. Zagrożenie wciąż pozostaje. Nawet jeśli systemy są chronione, to dane wewnątrz mogą być nadal zagrożone. Dlatego też słyszymy ostatnio dużo o głośnych włamaniach w bankowości. Urządzenia podłączone do internetu, zarówno samochód, smartfon, jak i rozrusznik serca, mogą być bardzo łatwo zhakowane. W wyniku takiego ataku, kontrola nad nimi zostanie w pełni przejęta przez atakującego. Wystarczy upór i talent. Urządzenia mogą nie tylko stanowić zagrożenie dla naszej prywatności, ale same w sobie być zagrożeniem dla użytkowników, o ile producenci nie uwzględniają właściwego podejścia do zabezpieczeń. UWAGA! DANE ZABEZPIECZONE z UWZGLĘDNIAJĄC KONCEPCJĘ SECURITY BY DESIGN, NALEŻY ZAPEWNIĆ: integralność – co oznacza ochronę przed niewłaściwymi modyfikacjami informacji lub jej zniszczeniem, zachowanie autentyczności danych; poufność – co oznacza zachowanie autoryzowanych ograniczeń dostępu, zapewnienie środków dotyczących ochrony prywatności i zastrzeżonych informacji; dostępność – co oznacza zapewnienie terminowego i niezawodnego dostępu do informacji. Wbudowanie bezpieczeństwa w dane w trakcie ich powstawania powinno być priorytetem. Internet rzeczy jest rzeczywistością, a wszystkie jego elementy – sprzęt, urządzenia i przyrządy, takie jak inteligentne zegarki, podłączone urządzenia medyczne, inteligentne termostaty, samochody i wiele więcej – generują nowy strumień rozdrobnionych, powszechnie niezabezpieczonych danych. Jak długo pozwolimy na taki stan, godząc się na niską cenę? Powinniśmy rozmawiać i wnioskować o ustanowienie standardu, który zapewni bezpieczeństwo danych w momencie ich tworzenia. Dane domyślnie zabezpieczone i bezpieczeństwo przez projektowanie są obecnie technicznie wykonalne. Ale nie jest tak proste jak się wydaje, ponieważ istnieje tak wiele różnych grup tworzących nowe standardy – od technologów, po producentów, prywatne grupy i innych – że stosowane normy stały się bardzo rozdrobnione. Brakuje im w związku z tym powszechności, aby były skuteczne. Ponieważ nadal jesteśmy w początkowej fazie, możemy mieć możliwość ujednolicenia praktyk, by zabezpieczyć dane i nas na przyszłość. Dawid Pawłowski, członek Rady Nadzorczej Aforti Holding oraz Rady Programowej CIONET Polska kwiecień 2016 ITWIZ MAGAZYN 41 CSO Malware GozNym wziął na celownik klientów prawie 250 polskich banków Jak wskazuje raport IBM X-force, złośliwe oprogramowanie GozNym podszywa się pod internetowe strony 17 banków komercyjnych i 230 banków spółdzielczych w Polsce. Na początku kwietnia 2016 r. ten sam trojan pojawił się w USA, Kanadzie i Portugalii. Atak „pochodził” z serwerów moskiewskich. Analiza kodu współczesnego złośliwego oprogramowania wymierzonego w branżę bankową – takiego, którego głównym celem jest kradzież pieniędzy z kont klientów – ujawniła już dziesiątki metod, jakimi przestępcy wykradają środki. „Dotyczy to prostych, ale zaskakująco skutecznych metod – jak podmiana numeru konta w locie podczas wklejania go na stronie bankowości elektronicznej – czy bardziej zaawansowanych i wymagających wcześniejszego przygotowania ataków, podczas których przestępcy przejmują kontrolę zarówno nad naszym komputerem/telefonem/tabletem, jak i nad naszą cyfrową tożsamością” – komentuje Marcin Spychała, w IBM odpowiadający za rozwój rynku CEE dla rozwiązań przeciwdziałających przestępstwom finansowym w kanałach elektronicznych. Masowy cyberatak na polskie banki Atak, który obecnie obserwujemy w Polsce z wykorzystaniem malware o nazwie GozNym, jest pod pewnymi względami szczególny i oznacza, że Polska dołączyła do niespecjalnie elitarnego klubu krajów, które będą najczęściej atakowane przez cyberprzestępców. Co takiego się zmieniło? „Dotychczas większość ataków w Polsce przeprowadzana była na pojedyncze banki. Nowy malware GozNym zaatakował jednocześnie 17 banków komercyjnych i do ponad 200 banków spółdzielczych. Świadczy to o tym, że przestępcy niejako ‚docenili’ Polskę jako wartą atakowania i przygotowali infrastrukturę mającą to ułatwić” – wyjaśnia Marcin Spychała. Po zainfekowaniu komputera ofiary, złośliwe oprogramowanie GozNym nie dopuszcza w ogóle klienta do połączenia się ze stroną bankowości elektronicznej. W zamian przekierowuje ofiarę na fałszywą, ale wyglądają- 42 MAGAZYN ITWIZ kwiecień 2016 Po zainfekowaniu komputera ofiary, złośliwe oprogramowanie GozNym nie dopuszcza w ogóle klienta do połączenia się ze stroną bankowości elektronicznej. W zamian przekierowuje ofiarę na fałszywą, ale wyglądającą identycznie jak prawdziwa stronę banku, gdzie ofiara wpisuje swoje dane logowania i zdradza je tym samym przestępcom. Sama metoda takiego ataku jest już znana od 2014 roku, kiedy wykorzystał ją malware Dyre i jego późniejsze klony. Ale dotychczas była sporadycznie używana do ataków w Polsce. cą identycznie jak prawdziwa stronę banku, gdzie ofiara wpisuje swoje dane logowania i zdradza je tym samym przestępcom. Sama metoda takiego ataku jest już znana od 2014 roku, kiedy wykorzystał ją malware Dyre i jego późniejsze klony. Ale dotychczas była sporadycznie używana do ataków w Polsce. Było to niejako zrozumiałe, bo przygotowanie infrastruktury informatycznej dla fałszywej strony bankowej jest zadaniem skomplikowanym i czasochłonnym. Ponadto przestępcy również kalkulują, czy atak opłaci się im ekonomicznie – innymi słowy, czy zyski z kradzieży przewyższą koszty przygotowania. Dlatego dotychczas widzieliśmy tego typu ataki tylko na pojedyncze spośród największych banków w Polsce. Fakt, że grupa przestępcza stojąca za atakiem zainwestowała w infrastrukturę fałszywych stron bankowych środki i pracę w takiej skali, świadczy o tym, że dla przestępców staliśmy się ważnym źródłem przychodów. Przejęcie jednorazowego kodu autoryzacyjnego Jak wyjaśnia serwis ZaufanaTrzeciaStrona.pl, głównym celem przestępcy, który chce ukraść pieniądze z konta ofiary, jest autoryzowanie przelewu. Aby ten cel osiągnąć, musi najczęściej albo odczytać SMS na telefonie ofiary (nakłaniając ją wcześniej do zainstalowania złośliwego oprogramowania na telefonie), albo nakłonić ofiarę do wpisania kodu z SMS-a nie tam lub nie wtedy, gdy trzeba. Właśnie ten drugi scenariusz (przynajmniej na razie) realizuje „GozNym”. Dawniej konie trojańskie głównie modyfikowały prawdziwą stronę internetową banku wyświetlaną na komputerze klienta – metoda ta nazywana jest webinjectem. Klient wchodził na stronę banku, a koń trojański dodawał mu nowy formularz z prośbą o podanie kodu jednorazowego, np. ze względu na aktualizację danych lub otrzymanie darmowego ubezpieczenia. Klient kod przepisywał z SMS-a, nie czytając jego opisu, a w tle program wykonywał przelew na cudze konto lub zatwierdzał przelew zdefiniowany. Banki jednak nauczyły się takie ataki wykrywać i konta zainfekowanych klientów blokowały. Przestępcy wymyślili zatem nową metodę. Adam Jadczak ITFocus.pl centrum wiedzy na temat zaawansowanych rozwiązań IT dla przedsiębiorstw najważniejsze informacje o nowych produktach i technologiach rzetelne, merytoryczne artykuły i poradniki dostępne bez konieczności ponoszenia opłat blogi eksperckie kalendarium wydarzeń związanych z daną branżą czytelny podział na działy tematyczne i rodzaje treści ITFocus.pl współpracuje z szerokim gronem niezależnych ekspertów z branży informatycznej. Skupia się na zagadnieniach związanych z projektowaniem i utrzymaniem centrów danych oraz sieci firmowych, bezpieczeństwem systemów oraz wykorzystaniem środowisk chmurowych. W serwisie m.in.: • bezpieczeństwo informacji • backup środowisk wirtualnych i fizycznych • internet rzeczy • wirtualizacja zasobów IT • projektowanie i budowa sieci wejdź na: www.itfocus.pl PROJECT MANAGER PROJECT MANAGER 44 MAGAZYN Partnerstwo zaczyna się od otwartej komunikacji Partnerstwo pomiędzy IT a biznesem jest ważne. Nie sposób się z tym nie zgodzić. Firmy, które nie potrafią wyjść poza podział my-oni – w którym to biznes jest decydentem, a IT jedynie funkcją wsparcia – same sobie odbierają szansę na zdobycie przewagi konkurencyjnej w dzisiejszym, cyfrowym świecie. W tekście tym prezentujemy doświadczenia zdobywane przez lata w Banku BPH. ITWIZ kwiecień 2016 PROJECT MANAGER Pomimo że SLA zawierane na usługę biznesową poniekąd stawia IT w roli dostawcy, świadomi menedżerowie IT mogą wykorzystać tak definiowane zobowiązanie do zdobycia cennej informacji zwrotnej. Można tego dokonać w prosty sposób – wprowadzając w ramach przeglądów SLA cykliczną, subiektywną ocenę jakości pracy IT dokonywaną przez menedżerów biznesowych. Tworzymy w ten sposób dodatkową, opartą na zaufaniu przestrzeń do budowania otwartej komunikacji wykraczającej poza ramy SLA. Oceny od menedżerów obrazują, jak działania IT przekładają się na osiąganie założonych przez biznes celów. Mówiąc o partnerstwie IT-biznes, nasuwa się analogia do gry w piłkę. Mecze wygrywają jedynie drużyny, których zawodnicy potrafią się ze sobą dobrze komunikować i rozumieją, że aby zdobyć bramkę, muszą ze sobą współpracować. Zanim jednak w pełni nabędą tę umiejętność, ćwiczą ją na wielogodzinnych treningach. Nie inaczej jest w firmach. Jeżeli chcemy, aby w naszej organizacji relacja IT-biznes była prawdziwie partnerska, postawmy na naukę otwartej komunikacji pomiędzy obiema stronami. Nasz „trening” warto zacząć od pozyskiwania informacji zwrotnej od biznesu. Należy ten proces wspierać za pomocą konkretnych, ustandaryzowanych narzędzi. Jest to szczególnie przydatne w organizacjach, które zatrudniają bardzo dużo pracowników, od kilkuset do kilku tysięcy. Oczami biznesu Do narzędzi, które pozwalają na ustandaryzowanie komunikacji pomiędzy IT a biznesem, zaliczamy kontrakty SLA (Service Level Agreement). Pomimo że SLA zawierane na usługę biznesową poniekąd stawia IT w roli dostawcy, świadomi menedżerowie IT mogą wykorzystać tak definiowane zobowiązanie do zdobycia cennej informacji zwrotnej. Można tego dokonać w prosty sposób – wprowadzając w ramach przeglądów SLA cykliczną, subiektywną ocenę jakości pracy IT dokonywaną przez menedżerów biznesowych. Tworzymy w ten sposób dodatkową, opartą na zaufaniu przestrzeń do budowania otwartej komunikacji wykraczającej poza ramy SLA. Oceny od menedżerów obrazują, jak działania IT przekładają się na osiąganie założonych przez biznes celów. Jeżeli chcemy budować partnerską relację IT-biznes i wzmacniać świadomość jej wpływu na osiąganie celów całej organizacji, bardzo ważne jest, aby ta informacja nie pozostała jedynie na poziomie kadry zarządzającej. Wpływ na ocenę mają bowiem rezultaty pracy wszystkich pracowników IT. Zadbajmy więc o to, by ta informacja zwrotna dotarła również do nich. Jeśli myślimy o świadomym pozyskiwaniu informacji zwrotnej, warto mieć na uwadze to, aby pochodziła ona z różnych szczebli organizacji – zarówno od kadry menedżerskiej, jak i od sprzedawców, kontrahentów, pracowników call center itp. To użytkownicy biznesowi są bezpośrednimi odbiorcami usług IT, pracującymi na co dzień na naszych systemach. Ich współpraca z nami odbywa się na innych płaszczyznach niż kadry zarządzającej, perspektywa, z jakiej nas oceniają, też jest więc nieco inna. Nie oznacza to jednak, że mniej cenna. Przykładem może być postrzeganie przez użytkowników firmowego help desku IT. Jego pracownicy obsługują często kilkaset spraw dziennie. Nawet jeżeli udaje się osiągać wysoki service level, a 90% spraw rozwiązujemy podczas pierwszego kontaktu, percepcja współpracy z IT wśród użytkowników może nie być taka, jakiej byśmy oczekiwali. Bo czy szybkie rozwiązanie sprawy wystarczy, aby zadowolić osobę, która ją zgłosiła? Okazuje się, że nie. Tym, na co użytkownicy często zwracają uwagę, oceniając zadowolenie z rozwiązania ich zgłoszenia, jest personalne podejście pracownika IT, czyli nic innego jak sposób komunikacji! Nawet jeżeli w help desku udaje się osiągać wysoki service level, a 90% spraw rozwiązujemy podczas pierwszego kontaktu, percepcja współpracy z IT wśród użytkowników może nie być taka, jakiej byśmy oczekiwali. Czy szybkie rozwiązanie sprawy wystarczy, aby zadowolić osobę, która ją zgłosiła? Okazuje się, że nie. Tym, na co użytkownicy często zwracają uwagę, oceniając zadowolenie z rozwiązania ich zgłoszenia, jest personalne podejście pracownika IT, czyli nic innego jak sposób komunikacji! Do podobnych wniosków, również w innych obszarach współpracy z użytkownikami, możemy dojść po analizie ich odpowiedzi na jedno proste pytanie: „Czy poleciłbyś naszą organizację IT znajomym?”. Jest ono elementem badania NPS (Net Promoter Score), które w swoim zamierzeniu służy do pomiaru lojalności klientów wobec marki. To badanie może być z powodzeniem stosowane przez organizacje IT do określenia poziomu zadowolenia kwiecień 2016 ITWIZ MAGAZYN 45 PROJECT MANAGER Relacje IT z biznesem oparte na kontraktach SLA – które zawierają zobowiązania określone w sposób pozwalający ocenić performance całego biznesu – są jedynie, albo aż, ustandaryzowanym kanałem komunikacji pomiędzy stronami. Bez pozytywnych intencji pracowników, ich szefów, wzajemnego biznesowego zaufania oraz entuzjazmu po obu stronach, trudno będzie o tę wartość dodaną, na której tak bardzo nam zależy. Wszystko w rękach liderów, których rola jest kluczowa dla powodzenia tych relacji. Michał Godlewski, dyrektor Biura Optymalizacji i Wsparcia Organizacji w Pionie Informatyki, Banku BPH SA, Grupa GE Capital, od ponad 8 lat związany z zarządzaniem usługami IT i relacjami z klientem, odpowiedzialny za procesy taktyczne ITIL (m.in. SLM), rozwój organizacji oraz portfel projektów optymalizacyjnych 46 MAGAZYN ITWIZ kwiecień 2016 PROJECT MANAGER klientów biznesowych z usług IT. Jako że korzystają z niego firmy z całego świata, pozwala również porównać, jak nasza organizacja wypada na ich tle. Jeżeli nasz wynik plasuje się powyżej średniej, może to być dla nas powód do zadowolenia – nasza firma rozumie zasady, na których w dzisiejszych czasach opiera się partnerstwo IT-biznes. Aby badanie NPS było miarodajne, przy jego kolejnych edycjach warto konsekwentnie trzymać się przyjętej formuły, zawsze pytając o to samo i w ten sam sposób. Pozwoli nam to zachować spójność danych i ułatwi ocenę skuteczności podejmowanych działań. Otrzymane wyniki mogą posłużyć także jako podstawa do budowania strategii komunikacji i rozwoju organizacji. Głos klienta zewnętrznego Badanie NPS warto przeprowadzić chociaż raz w roku. O informację zwrotną od użytkowników biznesowych dobrze jest jednak zabiegać codziennie. Można do tego wykorzystać proces rozwiązywania zgłoszeń przez wspomniany już wcześniej help desk. Po zamknięciu zgłoszenia, warto użytkownikowi, którego dotyczyła sprawa, wysłać link do ankiety, w której będzie mógł ocenić realizację. Można go również zapytać o odczucia bezpośrednio przez telefon. Jednym z podstawowych celów każdej firmy jest zdobycie klienta i utrzymanie jego lojalności. Jeżeli chcemy, aby pracownicy IT w pełni poczuli wagę tego elementu strategii biznesowej, warto angażować ich np. w rozwiązywanie reklamacji od klientów zewnętrznych. Nie musi to oznaczać dodatkowej pracy po stronie IT. Działając w rygorze procesu Incident Management, rozwiązujemy przecież tego typu zdarzenia. Jednak odpowiednio komunikując ich znaczenie z perspektywy klienta zewnętrznego, można znacząco podnieść świadomość pracowników IT, w jaki sposób ich praca wpływa na klientów naszej organizacji. Niech nas usłyszą! Komunikacja w partnerskiej relacji opiera się na dialogu. Oprócz pozyskiwania informacji zwrotnej, pamiętajmy również o jej dawaniu. Nawet jeżeli rezultaty naszych działań są znakomite, nikt się nie dowie, ile pracy włożyliśmy, jeżeli sami tego nie powiemy. Warto więc, aby ta informacja trafiła do świadomości wszystkich pracowników firmy. Planując komunikację, pamiętajmy jednak, że zarówno procesy IT, jak i język techniczny są często niezrozumiałe dla przeciętnego użytkownika biznesowego. Należy więc przyjąć zupełnie nowe spojrzenie na komunikację wewnętrzną, która płynie z IT do biznesu. Można przygotować w organizacji ciekawą kampanię, która przypomni o prowadzonych przez IT inicjatywach, wysłać do pracowników nowoczesną, graficzną komunikację mailową o prowadzonych przez IT projektach. Sposobów jest naprawdę sporo. Powinny one jednak zawsze Jakość współpracy z użytkownikami możemy ocenić po analizie ich odpowiedzi na jedno proste pytanie: „Czy poleciłbyś naszą organizację IT znajomym?”. Jest ono elementem badania NPS (Net Promoter Score), które w swoim zamierzeniu służy do pomiaru lojalności klientów wobec marki. To badanie może być z powodzeniem stosowane przez organizacje IT do określenia poziomu zadowolenia klientów biznesowych z usług IT. Jako że korzystają z niego firmy z całego świata, pozwala również porównać, jak nasza organizacja wypada na ich tle. być dla użytkowników biznesowych atrakcyjne i przyciągać ich uwagę. Stanowią one w końcu reklamę naszych działań. Nie chcemy przecież, aby została niezauważona. Pamiętajmy również o dopasowaniu treści komunikatu do odbiorcy. Możemy napisać wprost, że rozbudowaliśmy naszą infrastrukturę, dodaliśmy RAM-u do naszych maszyn, ale przeciętny użytkownik biznesowy nie zrozumie, z jakimi korzyściami dla niego się to wiąże. Ale jeśli zakomunikujemy, że będzie mógł szybciej obsługiwać klientów, ponieważ usprawniliśmy działanie systemów poprzez dodanie do nich pamięci, powinniśmy zyskać jego zainteresowanie. Proces pozyskiwania i dawania informacji zwrotnej powinien być prowadzony w sposób przemyślany. Co jakiś czas warto również spojrzeć na niego krytycznym okiem i przeanalizować, czy działania, które podejmujemy, są nadal spójne z naszymi celami i czy przynoszą efekty, których oczekujemy. Jeżeli widzimy taką potrzebę, nie bójmy się wprowadzać nowych rozwiązań. Nauka otwartej komunikacji wymaga dużego zaangażowania zarówno po stronie IT, jak i biznesu. To jednak inwestycja w silną i potrafiącą współpracować drużynę. Aby jej członkowie świadomie wykorzystywali komunikację do osiągania celów organizacji, warto dodatkowo wesprzeć ich działaniami rozwojowymi. Takie połączenie to solidny fundament pod budowę prawdziwie partnerskiej relacji, dzięki której nasza firma pozostanie silnym graczem na dzisiejszym, ogromnie konkurencyjnym rynku. Jakub Olejniczak, menedżer ds. projektów w Banku BPH SA, Grupa GE Capital, odpowiedzialny za przygotowanie i wdrożenie strategii komunikacji dla Pionu Informatyki w Banku BPH SA kwiecień 2016 ITWIZ MAGAZYN 47 PROJECT MANAGER O błędach, które popełniłam jako początkujący Product Owner Kilka lat temu miałam okazję tworzyć start-up, w ramach dużej spółki. Początkowo w chaosie, bez zastosowania żadnej metody pracy. Na kilkanaście tygodni przed wdrożeniem produkcyjnym szef zespołu deweloperskiego zachęcał nasz zespół koncepcyjny do zastosowania techniki MoSCoW. Zróbcie listę rzeczy, które muszą wejść na proda – „Must have”, które powinny wejść – „Shouldhave” i resztę „Couldhave”, „Won’thave”. Wszystkiego nie damy rady zrobić. Zupełnie nie rozumieliśmy, czego od nas oczekuje. Wszystko w naszym długim backlogu było „Must have”! 48 MAGAZYN ITWIZ kwiecień 2016 PROJECT MANAGER Warto wypracować wspólnie z zespołem wersję MVP (Minimum Viable Product) naszego serwisu, którą można wcześniej zweryfikować z rynkiem – pokazać użytkownikom i na podstawie feedbacku od nich i akcji podejmowanych w serwisie przyrostowo rozbudowywać. Częste wdrożenia i śledzenie zachowań użytkowników pozwoliłyby dużo szybciej wyłapać chybione pomysły i zwiększyłyby szanse na realizację tematów wnoszących wartość dla tych użytkowników. Po negocjacjach udało nam się dojść do porozumienia i spriorytetyzować listę tematów. Kiedy zaczęliśmy pracować Scrumem, było już tylko lepiej. Regularny rytm i przewidywalne tempo pracy, częste spotkania z deweloperami, cykliczne planowanie, usprawnienia sposobu pracy. No może poza tym, że zarówno jako specjalista ds. rozwoju – jak i późniejszy Product Owner zespołu scrumowego – popełniłam podobne błędy. Zmieniły się narzędzia, poprawiła komunikacja i atmosfera w zespole, ale błędy pozostały. Dla wielu z Was będą oczywiste. Wciąż jednak spotykam się z nimi u innych początkujących Product Ownerów, dlatego zdecydowałam się o nich napisać. Oto zatem moja osobista lista błędów, które przeszkadzają w byciu naprawdę dobrym Product Ownerem. Czytajcie i nie popełniajcie ich! 1. Rozwiązania dla wszystkich, czyli dla nikogo Podchodząc do tematu nowego serwisu, miałam ambicję zrobić COŚ wielkiego, COŚ, z czego będą korzystać rzesze internautów. Byłam przekonana, że mamy dobrze zdefiniowaną grupę docelową, a właściwie kilka grup, skoro zasięg miał być duży. Każda z potencjalnie innymi potrzebami i oczekiwaniami, co sprawiło, że niemożliwe było precyzyjne określenie potrzeb i oczekiwań użytkownika końcowego rozwiązań. Efekt – „ficzeriada”, miszmasz funkcjonalności spowodowany próbami stworzenia CZEGOŚ wyjątkowego dla wszystkich, każdej grupy z osobna. Brak dobrze zdefiniowanej grupy docelowej (jak to dziś interpretuję) spowodował też trudności z planowaniem strategii i akcji marketingowych (do kogo je kierować?). Podsumowując, nie polecam takiego podejścia. 2. Zakochanie we własnych pomysłach Jak już coś wymyśliłam, skonsultowałam ze znajomymi z branży, a na podstawie feedbacku od nich dopracowałam, to musiało być dobre. Na tyle dobre, aby bronić pomysłów w zaparte, nawet jeśli zakładały zmianę przyzwyczajeń użytkownika. Zamiast tego, można było skupić się na efektywnym i wiarygodnym zweryfikowaniu zamiarów przed wdrożeniem ich w życie. 3. Big Bang dla użytkownika Wyobraźcie sobie, że ktoś pokazuje Wam swój nowy serwis, prosi Was o feedback, ale zanim rzucicie na niego okiem, dodaje z dumą: „Wiesz, budowaliśmy go iteracyjnie i przyrostowo. Fajnie, nie?” „Yyyy, i co z tego?” chciałoby się odpowiedzieć. Z perspektywy użytkownika naprawdę nie ma znaczenia, jak wyglądał sposób pracy nad serwisem, z którego korzysta, albo z jakichś powodów korzystać nie chce. Dla niego liczą się efekty tej pracy. Dialog podobny do tego przytoczonego przeze mnie mógłby odbyć się pomiędzy mną a pierwszymi użytkownikami serwisu. Nasze wdrożenie było Big Bangiem, mimo że strona powstawała w sensownych krokach. Rozbudowywaliśmy ją jednak do tzw. szuflady, a przed użytkownikami odkryliśmy dopiero wersję maksimum. Pokazaliśmy im rozbudowany serwis z dużą ilością opcji, funkcjonalności, materiałami merytorycznymi… Część z nich okazała się zbędna, więc niepotrzebnie straciliśmy na nie czas. W mojej pracy mocno skupiłam się na ulepszaniu, rozwijaniu produktu. Nie myślałam o realnych kosztach związanych z realizacją pomysłów, o nich myślał mój przełożony. Ja byłam jedynie osobą od badania rynku, kreatywnych rozwiązań, planowania i współpracy z zespołem. Błąd. Dzisiaj bardzo przekonuje mnie podejście, w którym Product Owner odpowiada również za budżet, albo przynajmniej ma go mocno na uwadze. Dzięki temu podejmuje bardziej przemyślane decyzje, intuicyjnie szuka sposobów jak najszybszego uzyskania feedbacku od użytkownika. Pisząc o kosztach, mam na myśli koszt zespołu per sprint, miesiąc, release lub po prostu czas spędzony na przygotowaniu konkretnych rozwiązań. Jak mogłam to zrobić inaczej? Wypracować wspólnie z zespołem wersję MVP (Minimum Viable Product) naszego serwisu, którą można wcześnie zweryfikować z rynkiem – pokazać użytkownikom i na podstawie feedbacku od nich i akcji podejmowanych w serwisie przyrostowo rozbudowywać. Częste wdrożenia i śledzenie zachowań użytkowników pozwoliłyby dużo szybciej wyłapać chybione pomysły i zwiększyłyby szanse na realizację tematów wnoszących wartość dla tych użytkowników. kwiecień 2016 ITWIZ MAGAZYN 49 PROJECT MANAGER 4. Zbyt szczegółowo rozpisany backlog Początkujący Product Ownerzy zazwyczaj albo zaniedbują Product Backlog, albo zbyt pieczołowicie go rozpisują. Ja należałam do tych drugich. Skrupulatnie rozpisane historyjki i sprinty zaplanowane z dużym wyprzedzeniem w praktyce oznaczały niewielkie zaangażowanie zespołu w prace koncepcyjne i planowanie bez brania pod uwagę feedbacku użytkownika końcowego. Nie za bardzo agile. Zdecydowanie większą wartość przyniosłoby skoncentrowanie sił i moich, i zespołu na częstych wdrożeniach oraz weryfikacji, na ile pomysły faktycznie przypadają do gustu naszym użytkownikom i czy wpływają na poszerzanie zasięgu serwisu. 5. Bezużyteczne KPI-s (KeyPerformance Indicators) Jako Product Owner dysponowałam kluczowymi wskaźnikami efektywności dla produktu (KPI). Moim celem mogło być np. wypracowanie X więcej nowych unikalnych użytkowników w określonym czasie, albo X użytkowników, którzy podejmują określone akcje w serwisie. Problem polegał na tym, że KPI było za dużo i za często się zmieniały np. z liczby użytkowników na finansowe w ciągu 3 miesięcy. W tak krótkim czasie trudno było wprowadzić zmiany i sprawdzić, czy spowodowały oczekiwane efekty. Ponadto, moje cele nie były zbieżne z zespołowymi. Jak się pewnie domyślacie, w efekcie KPI nie były realnym punktem odniesienia ani dla mnie, ani dla zespołu. A szkoda. Zamiast ciągnąć kilka srok za ogon, i to w różne strony, można było skupić się na tej najważniejszej. Całym zespołem. 6. Nieliczenie kosztów W mojej pracy mocno skupiłam się na ulepszaniu, rozwijaniu produktu. Nie myślałam o realnych kosztach związanych z realizacją pomysłów, o nich myślał mój przełożony. Ja byłam jedynie osobą od badania rynku, kreatywnych rozwiązań, planowania i współpracy z zespołem. Błąd. Dzisiaj bardzo przekonuje mnie podejście, w którym Product Owner odpowiada również za budżet, albo przynajmniej ma go mocno na uwadze. Dzięki temu podejmuje bardziej przemyślane decyzje, intuicyjnie szuka sposobów jak najszybszego uzyskania feedbacku od użytkownika. A wreszcie, planuje prace w taki sposób, aby jego produkt przyrastał iteracyjnie, a nie był jedynie rozwijany w iteracjach. Pisząc o kosztach, mam na myśli koszt zespołu per sprint, miesiąc, release lub po prostu czas spędzony na przygotowaniu konkretnych rozwiązań. Warto dodać do tego również koszty związane z niezbędną infrastrukturą, jak choćby serwery czy sieć, o których rzadko się pamięta, a to 50 MAGAZYN ITWIZ kwiecień 2016 Początkujący Product Ownerzy zazwyczaj albo zaniedbują Product Backlog, albo zbyt pieczołowicie go rozpisują. Ja należałam do tych drugich. Skrupulatnie rozpisane historyjki i sprinty zaplanowane z dużym wyprzedzeniem w praktyce oznaczały niewielkie zaangażowanie zespołu w prace koncepcyjne i planowanie bez brania pod uwagę feedbacku użytkownika końcowego. Nie za bardzo agile. Zdecydowanie większą wartość przyniosłoby skoncentrowanie sił i moich, i zespołu na częstych wdrożeniach oraz weryfikacji, na ile pomysły faktycznie przypadają do gustu naszym użytkownikom. również wydatek. Ważne, żeby jako Product Owner w pełni świadomie dysponować czasem zespołu, a pracę nad rozwijaniem produktu traktować jak własny biznes. 7. Nieliczenie kosztów błędów i poprawek Ten temat wydaje mi się na tyle istotny, że postanowiłam poświęcić mu oddzielny akapit. Być może gdzieś na świecie powstają produkty i usługi, w których nie pojawiają się błędy. Ja takich nie widziałam. Z perspektywy Product Ownera istotne jest, aby mieć świadomość skali tego zjawiska i zarządzać produktem całościowo – od rozwoju, poprzez utrzymanie i błędy. Gdybyście zapytali mnie te kilka lat temu, czy zarządzam błędami, odpowiedziałabym, że tak. Uzgodniliśmy z zespołem, co definiujemy jako „bug”, wiedziałam, z jaką ilością błędów mamy do czynienia, znałam ich wagę (wpływ albo potencjalny wpływ tych niepoprawionych na satysfakcję korzystania z serwisu w przyszłości) i czasochłonność. Wreszcie decydowałam, na które z nich poświęcamy czas. Ile go jednak realnie było? Jaki procent swojego czasu zespół spędził (stracił!) na naprawianiu błędów i poprawkach? Tego już nie wiedziałam. A szkoda, bo właśnie taka wiedza dałaby mi całościowy obraz tego, na co wydajemy pieniądze i jak to się przekłada na dostarczanie wartości naszym użytkownikom. Tyle ode mnie. Co jeszcze byście dodali do takiej listy błędów Product Ownerów? Izabela Goździeniak Lean Agile Coach, wspiera kanbanową ewolucję w dziale infrastruktury. Przygodę z agile rozpoczęła jako Product Owner, a kontynuowała jako Scrum Master i coach dla zespołów scrumowych oraz początkujących Scrum Masterów. Jest autorką tekstów w serwisie agile247.pl, z którego pochodzi ten tekst. PROJECT MANAGER Jak się miał agile w 2015? VersionOne wydało 10. już raport o tym, jak wygląda praca „agilem” na świecie. Co więc zmieniło się w świecie projektów prowadzonych zwinnymi metodami w porównaniu z rokiem poprzednim? Stale wzrasta liczba organizacji pracujących w zwinny sposób oraz powiększa się wśród respondentów pula organizacji z ponad 5-letnim doświadczeniem (stare wygi) i mniejszym niż rok (nowe, dopiero co próbujące agile firmy). Wśród używanych zwinnych technik rośnie znacząco użycie Kanbana z 31% do 38%. Natomiast spada – nieznacznie, co zauważają autorzy raportu – planowanie iteracyjne na rzecz spriorytetyzowanego backlogu i retrospekcji. Tendencję wzrostową na rzecz Kanbana widać również w pytaniu o używane narzędzia i techniki. Udział tablicy kanbanowej od trzech lat wciąż rośnie: w 2013 roku używało jej 43%, w 2014 – 52%, a w 2015 – 63% respondentów. Autorzy upatrują w tym oznak zwrotu ku bardziej leanowym technikom, skupionym na procesie pracy i usprawnieniach. Przyznam szczerze, że byłaby to ciekawa perspektywa, i chętnie zobaczę, czy ich prognozy się sprawdzą w wynikach za rok. Co sprawia, że zwinne projekty się nie udają? Bardzo interesująco wyglądają odpowiedzi na pytanie, co sprawia, że projekty prowadzone zwinnie kończą się porażką? Zeszłoroczny brak doświadczenia został zdetronizowany przez kulturę organizacji, stojącą w sprzeczności z wartościami agile (46% odpowiedzi!). W moim przekonaniu jest to smutna refleksja, jeśli tak wiele i od tak dawna mówi się i słyszy o Management 3.0, Beyond Budgeting i ogromnym spektrum metod i praktyk, mających za zadanie właśnie polepszyć kulturę organizacji i wspierać postulaty Agile Manifestu. Kolejne trzy pozycje zdają się potwierdzać tezę – po 38% głosów dostały takie przyczyny, jak brak wsparcia menedżerskiego, brak wsparcia dla zmian i niekonsekwentne stosowanie zwinnych praktyk. Co ciekawsze, pojawił się również nowy powód porażek zwinnych projektów – nieefektywna współpraca między menedżerami. Co sprawia, że projekty prowadzone zwinnie kończą się porażką? Zeszłoroczny brak doświadczenia został zdetronizowany przez kulturę organizacji, stojącą w sprzeczności z wartościami agile (46% odpowiedzi!). W moim przekonaniu jest to smutna refleksja, jeśli tak wiele i od tak dawna mówi się i słyszy o Management 3.0, Beyond Budgeting i ogromnym spektrum metod i praktyk, mających za zadanie właśnie polepszyć kulturę organizacji i wspierać postulaty Agile Manifestu. Z powyższymi wynikami skorelowane są odpowiedzi na pytanie o bariery, które mogą powstrzymać firmy przed dalszą adopcją agile. Z 44% do 55% wzrósł odsetek odpowiedzi uznających zdolność do zmian w organizacji za główną przeszkodę. Z 36% do 42% wzrósł odsetek odpowiedzi wskazujących na ogólny opór firm przed zmianą. Natomiast na to, że wsparcie – a raczej jego brak – menedżerów może być barierą wskazało 38% respondentów (29% w zeszłym roku). Szczerze mówiąc, wyłania się z tych wyników smutny obraz organizacji, które stosują mechanicznego Scruma bądź metody pokrewne, natomiast praktyki te w żaden sposób nie są wspierane przez filozofię wytwarzania oprogramowania, o którą tak bardzo chodziło sygnatariuszom Agile Manifestu. W związku z powyższym, nieco mniej już mnie dziwią wyniki następnego pytania – w jaki sposób mierzymy sukces zwinnych projektów? Od lat pierwsze dwie odpowiedzi to miary oparte na dowożeniu na czas i jakości. Satysfakcja użytkownika i wartość biznesowa są dopiero na 3. i 4. miejscu. I nie umniejszając wagi pierwszej dwójki, uważam jednak, że kolejność na podium powinna być inna. Błędne, mechaniczne stosowanie technik agile Coraz więcej firm używa SAF-e (Scaled Agile Framework) przy skalowaniu agile. W ubiegłym roku jego udział w odpowie- dziach wynosił 19%, podczas gdy teraz już 27%. Czy to dobrze? Odpowiedzcie sobie sami. W moim przekonaniu SAF-e jest dla firm, które potrzebują kontroli i nie potrafią samodzielnie ułożyć sobie współpracy przy dużych tematach i wielu zespołach. Powiedziałabym również, że jest to pokłosie braku odpowiedniej kultury w organizacji. Jeśli firma poza mechanicznym stosowaniem technik zaadaptuje również kryjące się za nimi postawy i sposób myślenia, to samodzielnie dojdzie do tego, co SAF-e jej oferuje za grube pieniądze, a jako bonus nie do oszacowania zyska zaangażowanych i zadowolonych pracowników. Na koniec, stary, poczciwy Excel oczywiście nadal wygrywa wśród narzędzi do zarządzania pracami, natomiast udział Microsoft Project spadł o 13%, podczas gdy Jira podniosła swój o 6% i zajęła drugie miejsce. Ewa Gowin Lean Agile Coach, certyfikowany Product Owner i Scrum Master. Współtworzyła i prowadziła szkolenia ze Scruma i Kanbana dla kilkuset osób. Od dwóch lat pomaga zespołom ITO usprawniać pracę, korzystając z Kanbana. Jest autorką tekstów w serwisie agile247.pl, z którego pochodzi ten tekst. Raport VersionOne „10th Annual State of Agile” dostępny jest na stronie http://stateofagile.versionone.com kwiecień 2016 ITWIZ MAGAZYN 51 PROGRAMIŚCI PROGRAMIŚCI Narzędzia Google do zarządzania centrami danych rozwijane w Polsce Borg, Kubernetes i wiele, wiele innych rozwiązań Google – oraz ich poszczególnych funkcji – rozwijanych jest m.in. przez inżynierów w Warszawie. Tutejszy dział R&D liczy już ponad 100 osób. W tym roku chce zatrudnić kilkadziesiąt kolejnych. Szybki wzrost związany jest z projektami realizowanymi wokół Google Cloud Platform. 52 MAGAZYN ITWIZ kwiecień 2016 PROGRAMIŚCI W Krakowie polscy inżynierowie pracowali nad wieloma projektami z różnych obszarów działalności Google. W Warszawie odpowiadają za rozwój jednej, dużej funkcjonalności automatycznego rozpraszania obciążenia infrastruktury IT, która jest elementem takich systemów zarządzania centrami danych, jak Borg i Kubernetes. Obecny zespół ma więc większą samodzielność. Polski dział R&D wyspecjalizował się w budowie narzędzi do automatycznego dostosowywania zasobów IT do potrzeb ich użytkowników. To całkowicie polska domena w Google. Kierowany przez Jarka Kuśmierka zespół inżynierów w warszawskim biurze pracował również nad odpowiednimi modułami systemu Borg służącemu do zarządzania centrami danych Google na potrzeby kilkudziesięciu tysięcy deweloperów tej firmy, ale i systemu Kubernetes, z którego korzystają klienci Google Cloud Platform. Platforma ta służy firmom IT i programistom do tego, aby mogli oni uruchamiać kod własnych aplikacji w chmurze. W przypadku tej ostatniej platformy, polscy inżynierowie stworzyli także jej front-end, m.in. Developers Console. Narzędzie Google rozwijane nad Wisłą Warszawskie biuro Google ma już 10 lat. Ale zespół inżynierów działa w nim dopiero od września 2011 roku. Rok temu do Warszawy – i innych miast europejskich, w tym Zurichu – przeniesiono pracowników krakowskiego działu badawczo-rozwojowego firmy. Początkowo warszawski dział R&D rozwijał się powoli. Zmieniło się to, gdy polscy inżynierowie zaczęli pracować nad platformami cloud computing. Obecnie wśród 100 inżynierów – w tym ok. 20% to kobiety – pracują nie tylko programiści, ale także UX Designerzy oraz Project i Program Managerowie. Warszawski dział badawczo-rozwojowy w tym roku chce zatrudnić kilkadziesiąt kolejnych osób, w tym osoby z doświadczeniem przy realizacji projektów. „Znajomość technologii – choć istotna – jest mniej ważna niż umiejętność kreatywnego myślenia i podchodzenia do rozwiązywania problemów, zadawania pytań „a po co to robimy? Kandydaci muszą oczywiście znać jakiś język programowania i na jego podstawie przeprowadzana jest rozmowa z kandydatem. Stawiamy jednak na proces myślowy, a nie wiedzę. Tym bardziej że i tak wybranych kandydatów będziemy szkolić z narzędzi, które opracowujemy wewnętrznie” – mówi Jarek Kuśmierek. „Teraz oprócz programistów poszukujemy także Product Managerów, architektów, osób zarządzających zespołami programistów” – dodaje. W Krakowie polscy inżynierowie pracowali nad wieloma projektami z różnych działów Google. W Warszawie odpowiadają za rozwój jednej, dużej funkcjonalności automatycznego rozpraszania obciążenia infrastruktury IT, która jest elementem takich systemów zarządzania centrami danych, jak Borg i Kubernetes. Obecny zespół ma więc większą samodzielność. Dostęp do danych i zapytania SQL w wersji Google „Początkowo rozwijaliśmy tylko rozwiązania dla centrów danych Google, ułatwiających deweloperom ‘odpalanie’ kodu ich aplikacji. Odkąd uruchomiono Google Cloud Platform, rozwijamy też narzędzia dla użytkowników zewnętrznych. Pracując nad projektami dla nich, musimy jednak kłaść większy nacisk na projektowanie interfejsu użytkownika. Stąd duża u nas grupa badaczy i projektantów interfejsów użytkownika” – twierdzi Jarek Kuśmierek. Jednym z rozwiązań, nad którymi inżynierowie w Warszawie pracują wraz ze swoimi amerykańskimi kolegami, jest DataFlow – stworzona dla klientów zewnętrznych wersja mechanizmu MapReduce. Ułatwia on dostęp do danych przechowywanych w Google File System. Ten zaś wykorzystuje koncepcję przetwarzania i przechowywania danych w systemie rozproszonym Collossus. Google stworzył także własny silnik wy- Podstawową jednostką w Borg jest centrum danych Google. Zaawansowany użytkownik wie, gdzie uruchomić swój program. Ten mniej zaawansowany pozostawia to systemowi Borg. Na decyzje podejmowane przez niego wpływają m.in. fakt, skąd dane są czytane najczęściej, kto z nich korzysta, a nawet to, w którym z naszych centrów danych planowane są naprawy serwisowe. konywania zapytań SQL – Dremel. Jego odpowiednikiem dla klientów zewnętrznych jest rozwiązanie o nazwie BigQuery. „Dzięki niemu można ‘wrzucić’ zgromadzone dane i uruchomić ich analizę w naszej chmurze. Użytkownicy płacą jedynie za czas wykorzystania maszyn niezbędnych do analizy danych, nawet jeśli jest to 1000 maszyn wirtualnych, które pracowały przez zaledwie 5 minut. Choć oczywiście użytkownicy Google Cloud Platform mogą skorzystać też z silnika MySQL czy innego, komercyjnego rozwiązania” – wyjaśnia Jarek Kuśmierek. Polscy inżynierowie odpowiadają także za zarządzanie maszynami wirtualnymi w ramach Google Cloud Platform, w tym za automatyzację analizy informacji na temat tego, ile ich de facto potrzeba. kwiecień 2016 ITWIZ MAGAZYN 53 PROGRAMIŚCI Na początku każdy zespół deweloperów – związany z wyszukiwarką, YouTube i innymi usługami Google – martwił się o swoje zasoby. Potem inżynierowie Google zaczęli pracować nad narzędziami, które miały maksymalnie ułatwić pracę programistom, w tym automatycznie uruchamiać poszczególne procesy. Pierwszym rozwiązaniem był Borg. Celem jego stworzenia było zbudowanie abstrakcji jednej wielkiej maszyny, która się nigdy nie psuje i ma nieograniczone zasoby. Borg zarządza dziś wszystkimi centrami danych. Jarek Kuśmierek, kierujący warszawskim zespołem inżynierów Google 54 MAGAZYN ITWIZ kwiecień 2016 PROGRAMIŚCI Borg: narzędzie maksymalnie ułatwiające pracę programistów Google Jak wspomina Jarek Kuśmierek, na początku każdy z zespołów deweloperów – związanych z wyszukiwarką, YouTube i innymi usługami Google – martwił się o swoje zasoby. Potem inżynierowie Google zaczęli pracować nad narzędziami, które miały maksymalnie ułatwić pracę programistom, w tym automatycznie uruchamiać poszczególne procesy. „Pierwszym rozwiązaniem był Borg” – mówi szef warszawskiego zespołu inżynierów Google. „Celem jego stworzenia było zbudowanie abstrakcji jednej wielkiej maszyny, która się nigdy nie psuje i ma nieograniczone zasoby. Borg zarządza dziś wszystkimi centrami danych Google” – dodaje. Borg zarządza pulą maszyn, a także tym, jakie systemy na nich pracują, ile zasobów potrzebują, oraz metodologią najbardziej efektywnego upakowania maszyn. Jak wspominają przedstawiciele Google, jeśli mamy mniej ważne i bardziej ważne zadania na tej samej maszynie, to możemy zarządzać nimi w sposób bardzo dynamiczny, zabierając i oddając ten sam zestaw zasobów z korzyścią dla systemu, który w danej chwili „bardziej” go potrzebuje. Borg zarządza też cyklem życia maszyn fizycznych. Informuje, gdy trzeba je naprawić. Wówczas znajdujące się na niej procesy automatycznie przenosi na inny serwer. System ten automatycznie analizuje – bazując na analizie kodu i danych historycznych – jak dużo zasobów potrzebuje dany program. Bardziej zaawansowani użytkownicy sami określą, że ma to być np. 5 maszyn wirtualnych, każda z 10 GB pamięci RAM. Mniej zaawansowany może jednak nie mieć informacji o potrzebnych zasobach. Wówczas Borg automatycznie dostosowuje je do potrzeb jego aplikacji. Przykładowo: porównuje ją z innymi serwisami, liczbą maszyn wirtualnych, na których pracują lub pracowały. W trakcie działania tego programu samodzielnie także dostosowuje wykorzystanie infrastruktury IT – dodaje lub odbiera zasoby w przypadku, gdy są zbyt duże. „Podstawową jednostką w Borg jest centrum danych. Zaawansowany użytkownik wie, gdzie uruchomić swój program. Ten mniej zaawansowany pozostawia to naszemu systemowi. Na decyzje podejmowane przez Borga wpływają m.in. fakt, skąd dane są czytane najczęściej, kto z nich korzysta, a nawet to, w którym z naszych centrów danych planowane są naprawy serwisowe” – opowiada Jarek Kuśmierek. Kubernetes rozwijany jest przez inżynierów Google w Polsce. Zarządza klastrem maszyn, na których można uruchamiać kontenery. Rozwiązanie to samodzielnie przydziela niezbędne zasoby. Użytkownik nie musi martwić się, na jakiej maszynie i ile kontenerów zostanie uruchomionych. Nawet jeśli system ma budowę wielowarstwową, jest oparty na mikroserwisach, to Kubernetes automatycznie odwzorowuje jego strukturę, a następnie wyskaluje niezbędne zasoby. trybucji systemu Linux, który znajduje się po stronie hosta. W kontenerze nie ma też zapisanych plików. Dzięki temu taka maszyna „wstaje” znacznie szybciej niż w kilkadziesiąt sekund, jak w przypadku maszyn wirtualnych. Te oferowane są w ramach Google Cloud Platform, ale tylko dlatego, że jej użytkownicy chcą mieć swobodę m.in. w wyborze systemu operacyjnego, skorzystać z innej dystrybucji Linuksa czy systemu Windows. Później – wewnątrz maszyny wirtualnej – użytkownicy mogą zarządzać swoim oprogramowaniem bezpośrednio lub pakując je w kontenery, jeśli chcą uruchomić więcej niż jeden program w maszynie wirtualnej. Do zarządzania zestawem kontenerów uruchomionych w klastrze maszyn wirtualnych wykorzystywany jest system Kubernetes. Jest to odpowiednik open source systemu Borg, który został udostępniony klientom zewnętrznym. „Borg jest bardzo mocno wpięty w nasze systemy wewnętrzne. Wykorzystaliśmy więc ideę za nim stojącą, ale jego implementację przeprowadziliśmy od początku. Są różnice między każdym z tych systemów. Kubernetes ma nieco mniejsze możliwości niż Borg” – wyjaśnia Jarek Kuśmierek. Zarządzanie klastrami kontenerów i maszyn wirtualnych Kubernetes rozwijany jest m.in. przez inżynierów Google w Polsce. Zarządza klastrem maszyn, na których można uruchamiać kontenery. Rozwiązanie to samodzielnie przydziela niezbędne zasoby. Użytkownik nie musi martwić się, na jakiej maszynie i ile kontenerów zostanie uruchomionych. Nawet jeśli system ma budowę wielowarstwową, jest oparty na mikroserwisach, to Kubernetes automatycznie odwzorowuje jego strukturę, a następnie wyskaluje niezbędne zasoby. Kubernetes korzysta z kontenerów Dockera, choć Google wykorzystuje własne, wewnętrznie opracowane kontenery. Deweloperzy w Google do uruchamiania swoich programów i usług wykorzystują kontenery. W kontenerach mechanizm izolacji istnieje na poziomie systemu operacyjnego, który znajduje się na hoście. „Tak naprawdę tę funkcjonalność zbudowaliśmy my i dorzuciliśmy ją do jądra Linuksa. Na tej podstawie powstał Docker” – mówi Jarek Kuśmierek. Wszystkie kontenery w Google – a co tydzień powstaje ich ponad 2 miliardy – korzystają z tej samej dys- Google we własnych centrach danych używa wielu dedykowanych rozwiązań. Dotyczy to m.in. systemu chłodzenia czy produkowanych na zamówienie serwerów korzystających np. z innego napięcia, niż standardowe 230 V, np. 12 V i 48 V. Przy tej skali działania – na całym świecie jest kilkanaście centrów danych Google, a w każdym pracują dziesiątki tysięcy maszyn – można tworzyć własne rozwiązania infrastrukturalne. kwiecień 2016 ITWIZ MAGAZYN 55 PROGRAMIŚCI Infrastruktura IT ma być przezroczysta dla użytkownika Dzięki rozwijanym przez Google – m.in. w Polsce – narzędziom, użytkownicy Google Cloud Platform nie muszą martwić się, w jakiej lokalizacji, na ilu maszynach i w ilu kopiach zostanie uruchomiony ich program. Wystarczy, że napiszą kod, skompilują jego wersję binarną i podadzą ścieżkę do repozytorium, w którym się ona znajduje. Za resztę odpowiadają rozwiązania dostępne na Google Cloud Platform. Na Google Cloud Platform można – choć nie trzeba – wykorzystywać Kubernetesa. Z możliwości tego systemu korzysta się głównie, jeśli użytkownik chce uruchomić więcej niż jedno zadanie na maszynie i niezależnie nimi zarządzać. Jeśli ma jeden system na maszynę – lub więcej, ale ręcznie zarządza nimi – to może używać tylko maszyn wirtualnych. W Warszawie budowana jest wspomniana automatyka zarówno dla wielu rozwiązań w ramach Google Cloud Platform, jak i dla Kubernetesa. W centrach danych zautomatyzowano zarządzanie obciążeniami, przydzielaniem zasobów, a nawet – w zależności od pory dnia – „przerzucaniem” kopii programu pomiędzy centrami danych w różnych regionach świata. Wewnętrznie wbudowane te narzędzia ma Borg. Na Google Cloud Platform wykorzystywane są w funkcji Autoscalingu. Gdy w Europie jest dzień, to więcej jego instancji znajdzie się w tutejszych centrach danych, gdy budzą się Stany, część z nich jest „zabijana”, a uruchamiane są dodatkowe kopie systemu w centrach danych w USA. Wszystko zależy od tego, gdzie aktualnie są użytkownicy danej usługi czy serwisu. Dzieje się zaś tak ze względu na optymalizację opóźnień w komunikacji między użytkownikiem końcowym a serwerem Google. Oczywiście w ramach Google Cloud Platform można zadecydować, w którym miejscu będą przechowywane dane. Zwłaszcza w kontekście regulacji w Polsce i Unii Europejskiej. Mogą to być wyłącznie centra danych znajdujące się w obrębie UE. Choć ograniczenie to – z uwagi na sposób funkcjonowania narzędzi takich jak Kubernetes – dotyczyć może jedynie określonego regionu, a nie konkretnego centrum danych w wybranym kraju. Zestaw narzędzi dla programistów w chmurze Google Programiści uruchamiający kod w Google Cloud Platform mogą korzystać z takich narzędzi, jak AppEngine i CloudFunctions. Pierwsze uruchamia napisany przez programistę kod po jego wgraniu, drugie dopiero w momencie, gdy nastąpi określone zdarzenie. Wówczas automatycznie wywoływana jest konkretna usługa, np. przeskanuj, skopiuj, przenieś do konkretnego katalogu, czy też poinformuj mnie, gdy coś się zmieni w moim katalogu na GitHub. Po wykonaniu danej funkcji zasoby są automatycznie zwalniane, a użytkownik płaci tylko za faktyczny 56 MAGAZYN ITWIZ kwiecień 2016 Po wykonaniu danej funkcji zasoby na Google Cloud Platform są automatycznie zwalniane, a użytkownik płaci tylko za faktyczny czas korzystania. W tle system analizuje, jak długo ma to być. Maszyna wirtualna usuwana jest po każdym użyciu, a w miarę potrzeb uruchamiana jest kolejna. Dzieje się tak, nawet jeśli użytkownik chce uruchomić ponownie ten sam proces. PROGRAMIŚCI czas korzystania. W tle system analizuje, jak długo ma to być. Maszyna wirtualna usuwana jest po każdym użyciu, a w miarę potrzeb uruchamiana jest kolejna. Dzieje się tak, nawet jeśli użytkownik chce uruchomić ponownie ten sam proces. Powodem jest zapewnienie bezpieczeństwa i niezawodności. Jeśli nasz kod ma jakiś błąd, który ujawnia się w rzadkich przypadkach – i „śmieci” w lokalnym środowisku – to wpływa tylko na aktualne uruchomienie danego systemu, a nie na wszystkie kolejne jego uruchomienia w przyszłości. Na Google Cloud Platform znajduje się dużo więcej narzędzi automatyzujących pewne procesy. Podstawowym jest Managed Instance Group, które tworzy – odpowiednią do potrzeb użytkownika – ilość maszyn wirtualnych. AutoScaler dostosowuje automatycznie ich liczbę do aktualnego obciążenia. Liczone jest ono nie na podstawie obciążenia CPU procesora, ale liczby requestów szacowanej np. na bazie długości kolejki zadań wsadowych. Gdy staje się ona zbyt długa, AutoScaler wydaje polecenie: stwórz dodatkowe 2 maszyny wirtualne do 5 już istniejących. Funkcja Rightsizing dostosowuje ich wielkość do potrzeb. Updater dokonuje roll-outu nowej wersji instalowanego na Google Cloud Platform programu na kolejne maszyny wirtualne. Jednocześnie sprawdza, jak program się na nich zachowuje, a w przypadku wykrytych błędów przywraca jego starszą wersję. Funkcja Regional służy zaś do automatycznego rozpraszania pomiędzy wiele stref i przełączania pomiędzy nimi. AutoHealer obserwuje, jak program działa. Jeśli zbyt wolno, to przeinstalowuje go, usuwając starą kopię i uruchamiając nową. Natomiast funkcja Live Migration wykorzystywana jest w przypadku, gdy fizyczny serwer – na którym stoi maszyna wirtualna – musi zostać wyłączony, np. w celu naprawy. Wówczas instancja ta „przerzucana” jest na inną maszynę fizyczną. Na Google Cloud Platform znajduje się dużo więcej narzędzi automatyzujących pewne procesy. Podstawowym jest Manage Instance Group, które tworzy – odpowiednią do potrzeb użytkownika – ilość maszyn wirtualnych. AutoScaler dostosowuje automatycznie ich liczbę do aktualnego obciążenia. Liczone jest ono nie na podstawie obciążenia CPU procesora, ale liczby requestów szacowanej np. na bazie długości kolejki zadań wsadowych. Gdy staje się ona zbyt długa, AutoScaler wydaje polecenie: stwórz dodatkowe 2 maszyny wirtualne do 5 już istniejących. Na Google Cloud Platform tworzone są także rozwiązania dedykowane konkretnym zastosowaniom. Przykładem jest – rozwijany w Polsce – Zync. Rozwiązanie to służy do renderowania filmów i grafik. Dane z dysku użytkownika kopiowane są na platformę Google, na której uruchamiana jest odpowiednia liczba maszyn wirtualnych, a przetworzony plik końcowy kopiowany jest do lokalnego katalogu użytkownika. „Firmy zajmujące się tworzeniem grafiki i filmów nie muszą mieć po swojej stronie inżynierów. Wszystkiego można dokonać za pośrednictwem udostępnianego przez nas oprogramowania, w tym narzędzi, takich jak wtyczki do oprogramowania Maya, i innych programów do grafiki 3D. Tego typu narzędzi tworzymy coraz więcej” – podsumowuje Jarek Kuśmierek. Adam Jadczak kwiecień 2016 ITWIZ MAGAZYN 57 PROGRAMIŚCI Specjaliści IT dzielą się wiedzą po godzinach Informatyka jest najchętniej wybieranym kierunkiem studiów w Polsce, jednocześnie zapotrzebowanie na ekspertów w branży IT jest znacznie większe, sektor ten dynamicznie rośnie. Powstaje spora luka w braku odpowiednio wykwalifikowanej kadry. Jednym ze sposobów na zmianę tego stanu rzeczy jest edukacja i rozwój poprzez oddolne, nieformalne inicjatywy. Według raportu „KPMG IT Outsourcing Service Provider Performance & Satisfaction Study 2014/2015” z marca 2015 roku, Polska jest najchętniej wybieranym krajem dla outsourcingu usług IT w Europie. Na świecie wyprzedzają nas tylko Indie. Szacuje się, że w 2015 roku w Polsce brakowało 50 tys. informatyków, deficyt ten ma się rocznie powiększać o 3–5%. Zdaniem Komisji Europejskiej (raport „E-Skills for job in Europe”), w 2015 roku w całej Unii Europejskiej brakowało 275 tys. pracowników z „umiejętnościami cyfrowymi”. W roku 2020 liczba ta może wzrosnąć do miliona. W Polsce deficyt specjalistów IT jest szczególnie dotkliwy w województwach: kujawsko-pomorskim, opolskim, wielkopolskim. Mimo że informatyka jest najchętniej 40 % polskich CIO obawia się, że brak wykwalifikowanej kadry negatywnie wpłynie na rozwój ich organizacji. Firmy współpracują z uczelniami, same organizują kursy oraz starają się angażować i wspierać lokalne oddolne inicjatywy, których powstaje coraz więcej i są skierowane do różnych użytkowników. 58 MAGAZYN ITWIZ kwiecień 2016 wybieranym kierunkiem studiów, to wciąż kształci się za mało specjalistów IT. Jednocześnie wiedza akademicka często okazuje się niewystarczająca w życiu zawodowym. Według badań PcW, aż 50% absolwentów przyznaje, że studia nie przygotowały ich wystarczająco do podjęcia pracy. W branży IT jest to szczególnie ważne, ponieważ jej potrzeby zmieniają się dynamicznie i wymaga ona dużej elastyczności kształcenia. Firmy i lokalne społeczności wychodzą naprzeciw Ponad 40% polskich CIO obawia się, że brak wykwalifikowanej kadry negatywnie wpłynie na rozwój ich organizacji. Firmy współpracują z uczelniami, same organizują kursy oraz starają się angażować i wspierać lokalne oddolne inicjatywy, których powstaje coraz więcej i są skierowane do różnych użytkowników. Jedną z najgłośniejszych tego typu grup są spotkania Geek Girls Carrots, organizowane w miastach na całym świecie, w tym w kilku polskich. Co miesiąc w luźnym klimacie, często przy piwie i innych trunkach, zbiera się nawet 200 osób, aby posłuchać wystąpień prelegentów na temat rozwiązań w IT i nowych technologiach. Inną inicjatywą – także skierowaną do kobiet, których jest szczególnie mało w branży informatycznej – są bezpłatne kursy z programowania Django Girls oraz Rails Girls. Tego typu spotkań jest coraz więcej. „Nasza firma angażuje się w tej chwili w 11 tego typu inicjatyw, które są poświęcone językom Java, SQL, .NET czy testowaniu oprogramowania. Firmy takie jak GFT uczestniczą w tych spotkaniach, dzieląc PROGRAMIŚCI NIEKTÓRE ZE SPOTKAŃ I WARSZTATÓW DLA PROGRAMISTÓW się swoim know-how z potencjalnymi pracownikami, i starają się budować świadomość marki pracodawcy” – mówi Dorota Sadowska, Communications Manager w GTF Polska. Udział w organizowanych przez firmy z branży IT warsztatach, seminariach i innych spotkaniach, których celem jest popularyzowanie wiedzy o nowych zjawiskach, technologiach i trendach, wydaje się jednym z ważniejszych i skuteczniejszych „narzędzi edukacyjnych”, jakie mają do dyspozycji współcześni specjaliści IT. „Zdając sobie sprawę z tego, jak bardzo istotna jest ta forma komunikacji, jako firma zapewniamy zaplecze w postaci projektorów i sprzętu drukującego, a indywidualnie korzystamy z okazji, aby w niej uczestniczyć po obu stronach mikrofonu. To doskonała metoda bezpośredniego dostarczenia klientom i kontrahentom Osoby pracujące w branży IT muszą dokształcać się we własnym zakresie, aby nadążyć za tymi wszystkimi zmianami, i właśnie tutaj mogą pomóc lokalne grupy społecznościowe. Coraz szybciej pojawiają się nowe, potężne narzędzia – np. język programowania Scala i platforma obliczeniowa Apache Spark – które z jednej strony dają ogromne możliwości, ale z drugiej – mało kto umie z nich poprawnie korzystać, tak aby te możliwości wydobyć. Ponadto, zrozumienia wymagają stosunkowo nowe podejścia do rozwiązywania problemów, takie jak choćby programowanie funkcyjne. Rails Girls – bezpłatne warsztaty programowania. Geek Girls Carrots – to społeczność kobiet pracujących w IT oraz w start-upach, której celem jest rozwój, networking oraz dobra zabawa. Meet.js – to luźne spotkania pasjonatów JavaScript. Codepot – to niecodzienna konferencja dla programistów JVM, designerów, androidowców, iosowców, webowców, agilersów i adminów. PyGda – to Trójmiejska grupa miłośników języka Python. TYPO3Camp Poland – jest wydarzeniem skierowanym do wszystkich miłośników wolnego oprogramowania. Startup Weekend Warsaw – to 54-godzinne wydarzenie, współtworzone przez programistów, artystów, przedsiębiorców i wszystkich lubiących nowe technologie. Wrocław PHP User Group – spotkania poświęcone programowaniu w języku PHP. OpenCoffeeKRK – poranne spotkania przy kawie, odbywające się cyklicznie (co dwa tygodnie) w siedzibie Google for Entrepreneurs w Krakowie. DevOpsDays – to konferencja dla tych, którzy chcą rozwijać wiedzę admińską i deweloperską, jednocześnie łącząc ją z biznesowym podejściem. wiedzy, zarówno o naszych nowych produktach, jak i stosowanych w nich technologiach, integracji z usługami. Istotnym atutem takich spotkań jest to, że opierają się one na dialogu, wymianie informacji i myśli. To okazja nie tylko do pozyskania „surowej” wiedzy, lecz także zadania wszelkich nurtujących uczestników pytań, wyjaśnienia wątpliwości czy uzyskania odpowiedzi na nietypowe, specjalistyczne pytania. Cenne doświadczenia mogą podczas nich zdobyć zresztą nie tylko specjaliści IT, ale też firmy prezentujące własne rozwiązania. Możliwość spotkania się twarzą w twarz z potencjalnym klientem/partnerem/użytkownikiem jest czymś fantastycznym i niestety coraz rzadszym w naszym zdominowanym przez komunikację elektroniczną świecie” – tak o zaangażowaniu w tego typu wydarzeniach mówi Ewa Pytla, Marketing Manager w Epson. Imprezami tego rodzaju interesują się więc nie tylko pracodawcy, lecz także przedsiębiorstwa dostarczające firmom i użytkownikom niezbędne narzędzia i rozwiązania. Okazja do zdobycia praktycznych umiejętności Często to sami pracownicy wychodzą z inicjatywą tworzenia tego typu wydarzeń. Paweł Włodarski jest Technical Leadw GFT Poland. Jednocześnie jest jednym ze współor- kwiecień 2016 ITWIZ MAGAZYN 59 PROGRAMIŚCI Jedną z najgłośniejszych oddolnych inicjatyw edukacyjnych w IT są spotkania Geek Girls Carrots, organizowane w miastach na całym świecie, w tym kilku polskich. Co miesiąc w luźnym klimacie, często przy piwie i innych trunkach, zbiera się nawet 200 osób, aby posłuchać wystąpień prelegentów na temat rozwiązań w IT i nowych technologiach. Inne inicjatywy skierowane do kobiet, których jest szczególnie mało w branży informatycznej, to bezpłatne kursy z programowania Django Girls oraz Rails Girls. wości, ale z drugiej – mało kto umie z nich poprawnie korzystać, tak aby te możliwości wydobyć. Ponadto, zrozumienia wymagają stosunkowo nowe podejścia do rozwiązywania problemów, takie jak choćby programowanie funkcyjne” – twierdzi Paweł Włodarski. „Tworzenie nowych technologii stało się poważnym sektorem rynku, co przekłada się na spływanie do specjalistów zbyt wielkiej ilości informacji. Nikt nie jest w stanie obiektywnie ocenić i zbadać każdej nowinki. Ludzie w naturalny sposób dojrzeli do dzielenia się pracą i propagowania zweryfikowanych informacji, nie wewnątrz jednej organizacji, tylko wręcz globalnie. Coraz częściej opinia lokalnego specjalisty ma znacznie większą wagę niż materiały dostarczone przez sprzedawców” – dodaje Robert Budźko, specjalista od języków Java oraz Scala i starszy inżynier oprogramowania w GFT Polska. Networking – okazja do spotkań ganizatorów Java User Group w Łodzi. Na spotkania może przyjść każdy. Podczas wydarzenia – zwykle w godzinach popołudniowych – można zobaczyć prezentacje na temat ciekawych technologii lub wziąć udział w warsztatach. Pokazywane są narzędzia, a także wyzwania, z jakimi spotyka się na co dzień w firmach z zakresu IT. Takie spotkania to również okazja do nauki i zdobycia nowych, praktycznych umiejętności. „Osoby pracujące w branży IT muszą dokształcać się we własnym zakresie, aby nadążyć za tymi wszystkimi zmianami, i właśnie tutaj mogą pomóc lokalne grupy społecznościowe. Coraz szybciej pojawiają się nowe, potężne narzędzia – np. język programowania Scala i platforma obliczeniowa Apache Spark – które z jednej strony dają ogromne możli- Tego typu spotkania to nie tylko okazja do wysłuchania wystąpienia, czy wzięcia udziału w warsztatach. Ważnem elementem jest idea networkingu, czyli wymiana doświadczeń, dyskusja, pozyskiwanie kontaktów. Na wydarzenia przychodzą osoby z różnym poziomem wiedzy i umiejętności, z różnych firm. Dla jednych jest to możliwość podzielenia się doświadczeniem, dla innych zaś okazja do znalezienia nowej lepszej pracy za pośrednictwem nawiązanych znajomości. Tworzenie nowych technologii stało się poważnym sektorem rynku, co przekłada się na spływanie do specjalistów zbyt wielkiej ilości informacji. Nikt nie jest w stanie obiektywnie ocenić i zbadać każdej nowinki. Ludzie w naturalny sposób dojrzeli do dzielenia się pracą i propagowania zweryfikowanych informacji, nie wewnątrz jednej organizacji, tylko wręcz globalnie. Coraz częściej opinia lokalnego specjalisty ma znacznie większą wagę niż materiały dostarczone przez sprzedawców. „W spotkaniach grup biorę udział od ponad 3 lat. Dla mnie takie spotkania to świetna okazja, aby dowiedzieć się więcej o technologiach i językach, na zapoznanie z którymi w trakcie codziennej pracy nie zawsze jest czas. Poza samymi prezentacjami bardzo dobrym dopełnieniem poruszanych zagadnień są pytania z sali czy rozmowy z prelegentami po spotkaniu. Każdy z nas ma inne doświadczenia, widzi inne potrzeby i możliwości. Ich konfrontacja potrafi bardzo poszerzyć horyzonty i zainspirować do działania. Jak na razie, nie miałem 60 MAGAZYN ITWIZ kwiecień 2016 PROGRAMIŚCI gażowanie się w nie oraz związane z nimi społeczności potwierdza pasję i realną chęć dalszego rozwoju” – przyznaje Filip Miłoszewski. „Uważam, że warsztaty i bootcampy technologiczne dają dziś fantastyczne perspektywy. W zależności od tematyki pozwalają w ogóle zacząć kodować i nauczyć się nowego frameworku czy języka programistycznego. Dzięki skupieniu na praktycznych aspektach i przekazaniu możliwie 'skondensowanej' wiedzy, bardzo szybko dają uczestnikom dobrą podstawę i wskazówki do dalszego rozwoju. I co równie ważne – pomagają rozwinąć w sobie pasję do technologii, a niektórym nawet – znaleźć pracę w IT, jak to było w moim przypadku" – mówi Aleksandra Warzecha, junior front-end developer w jednej z warszawskich agencji digitalowych. Jest ona też przykładem przebranżowienia się. Niegdyś pracowała jako PR-owiec w warszawskich agencjach i start-upach. Każdy znajdzie coś dla siebie, nie tylko w Warszawie W trakcie rekrutacji – szczególnie na stanowiska techniczne – bardzo poważnie podchodzę do kwestii udziału w nieformalnych spotkaniach grup programistów. W pewnym sensie – podobnie jak w przypadku udzielania się w projektach open source – aktywne zaangażowanie się w nie oraz związane z nimi społeczności potwierdza pasję i realną chęć dalszego rozwoju. Filip Miłoszewski, jeden z pomysłodawców i właścicieli Listonic okazji dzielić się wiedzą inaczej niż w formie tworzonego podcastu [just4fun] czy rozmów w trakcie spotkań, ale przygotowuję moją pierwszą prezentację na meet.js” – opowiada Piotr Leszczyński, JavaScript Developer. Tego typu spotkania potrafią zainspirować i skonfrontować doświadczenia, ale przede wszystkim pozwalają poznać ludzi z inicjatywą. „Jak teraz o tym myślę, to najciekawszych znajomych w branży poznałem właśnie na tego typu eventach” – mówił Filip Miłoszewski, jeden z pomysłodawców i właścicieli mobilnej listy zakupów Listonic. Myśląc o rozwoju kariery IT, warto mieć więc na uwadze tego typu nieformalne spotkania, zaangażowanie w nie dobrze wygląda w CV i podczas rozmowy o pracę. Co przyznaje twórca Listonic. „W trakcie rekrutacji – szczególnie na stanowiska techniczne – bardzo poważnie podchodzę do kwestii udziału w nieformalnych spotkaniach grup programistów. W pewnym sensie – podobnie jak w przypadku udzielania się w projektach open source – aktywne zaan- Cykliczne spotkania w środowisku IT mają swoje podwaliny w sieci w postaci grup dyskusyjnych, a także zasad open source. Wielu informatyków chętnie dzieli się swoją wiedzą i umiejętnościami, pokazuje innym, jak mogą korzystać z dostępnych narzędzi. To spory atut dla osób, chcących wejść w to środowisko i rozpocząć swoją edukację. To zdecydowanie odmienne podejście w stosunku do innych branż, gdzie uczestnictwo w konferencjach jest zwykle płatne, a osoby legitymujące się dyplomem uważają się za pewną zamkniętą elitę. Nieformalnych spotkań związanych z IT jest coraz więcej, aby na nie przyjść, nie potrzeba wiele, wystarczy poświęcić 2–3 godziny, któregoś popołudnia. Jednocześnie może okazać się, że to droga do poznania wartościowych osób, możliwość zyskania nowych umiejętności, czy pozyskania lepszej pracy. Co ważne, wydarzenia tego typu coraz częściej odbywają się także w mniejszych miastach. W mojej rodzinnej Łodzi organizowane są m.in. meet.js, czyli javascript meetups, Geegks Girls Carrtos, JUG (Java User Group), ŁódQA (zrzeszające pasjonatów testowania oprogramowania), dev@LDZ, Zwinna Łódź (poświęcone Lean & Agile). Podobnie jest w Katowicach, Poznaniu, Wrocławiu, Rzeszowie, Gdańsku czy Białymstoku. Warsztaty, szkolenia oraz właśnie tego typu mniej formalne spotkania organizują też firmy. Ścieżek rozwoju kariery IT jest wiele, niekoniecznie musi być to dyplom renomowanej uczelni. Przede wszystkim jednak tego typu wydarzenia są świetną okazją do poszerzania swojej wiedzy z zakresu IT. Paweł Okopień kwiecień 2016 ITWIZ MAGAZYN 61 RYNEK RYNEK Kinetise to polski start-up, który – z rozwiązaniem typu „zrób to sam” – wyrusza na podbój światowych rynków. Jego szansę na sukces zwiększa model biznesowy Mobile-Apps-as-a-Service. O planach rozwoju i ekspansji, pomyśle, preferencjach klientów związanych z aplikacjami mobilnymi oraz porażkach i sukcesach rozmawiamy z Piotrem Pawlakiem, pomysłodawcą i prezesem Kinetise. Każdy może zbudować mobilną aplikację 62 MAGAZYN ITWIZ kwiecień 2016 RYNEK Skąd wziął się pomysł stworzenia platformy do samodzielnego budowania aplikacji mobilnych? Na rynku działamy od 10 lat jako producent oprogramowania własnego. Realizujemy projekty tworzenia aplikacji mobilnych dla klientów różnej wielkości i praktycznie z całego świata. Pięć lat temu zauważyliśmy, że takie projekty trwają długo i są zbyt drogie. Wielu klientów nie było w stanie zaakceptować budżetów. Tymczasem nasze analizy wykazały, że wszystkie projekty, które realizujemy, są do pewnego stopnia podobne. Wyświetla się dane, modyfikuje, odsyła dane, weryfikuje użytkowników itp. Finansowaliśmy pracę z własnych środków. Łącznie na inwestycję tę przeznaczyliśmy kilka milionów dolarów. Rozmawialiśmy z potencjalnymi inwestorami, ale odnosiłem wrażenie, że nie wierzyli w możliwość stworzenia takiej platformy. Znaleźliśmy wspólne cechy i stworzyliśmy odpowiednie moduły, z których – jak z klocków – można budować własną aplikację. Nasza platforma pozwala na szybkie i dość łatwe tworzenie aplikacji mobilnych. Jest przy tym bardzo rozbudowanym narzędziem, z mnóstwem możliwości. Proste rzeczy może wykreować na niej początkujący użytkownik. Z kolei użytkownik z umiejętnościami programistycznymi może stworzyć bardzo zaawansowane rozwiązania. Przełomowy moment nastąpił pod koniec 2015 roku, kiedy wprowadziliśmy model Mobile-Apps-as-a-Service – z opłatami licencyjnymi, płatnymi co miesiąc, niższymi niż jednorazowa stawka. Wtedy zaczęło pojawiać się więcej zamówień. Pomogło obniżenie progu wejścia. Zaawansowany kreator umożliwia stworzenie nawet najbardziej skomplikowanych aplikacji mobilnych bez zaglądania do kodu. Wszystko odbywa się w graficznym edytorze. Rozwiązanie jest o tyle ciekawe, że działa na bazie silnika, który tworzy prawdziwie natywne aplikacje na systemy mobilne. W jaki sposób budowaliście Kinetise? Pracowaliśmy nad Kinetise bardzo długo. Pierwsza wersja naszej platformy powstała po ponad 4 latach. Obecnie firma zatrudnia 50 osób, połowa pracuje bezpośrednio dla klientów, pozostali nad rozwojem Kinetise. Od początku chcieliśmy zaistnieć na rynku globalnym, mamy odbiorców z całego świata, teraz przygotowujemy się do otwarcia biura w Stanach Zjednoczonych. Duże firmy bardzo często zamawiają stworzenie aplikacji bezpośrednio u nas. Zwykle chcą mieć produkt skomplikowany i bogaty w funkcjonalności, a naszego narzędzia trzeba się nauczyć, nie wszyscy chcą temu poświęcać czas. My dzięki gotowym modułom jesteśmy w stanie bardzo szybko stworzyć rozbudowaną aplikację, składamy ją nawet w ciągu kilku godzin. To jest nasza największa przewaga konkurencyjna. kwiecień 2016 ITWIZ MAGAZYN 63 RYNEK Realizujemy projekty tworzenia aplikacji mobilnych dla klientów różnej wielkości i praktycznie z całego świata. Pięć lat temu zauważyliśmy, że takie projekty trwają długo i są zbyt drogie. Wielu klientów nie było w stanie zaakceptować budżetów. Tymczasem nasze analizy wykazały, że wszystkie projekty, które realizujemy, są do pewnego stopnia podobne. Wyświetla się dane, modyfikuje, odsyła dane, weryfikuje użytkowników itp. Znaleźliśmy wspólne cechy i stworzyliśmy odpowiednie moduły, z których – jak z klocków - można budować własną aplikację. 64 MAGAZYN ITWIZ kwiecień 2016 RYNEK Klienci budują dużo różnorodnych aplikacji, np. umawianie terminów wizyt pacjentów, aplikacje na konferencje, aplikacje dla restauracji (to najbardziej powtarzający się schemat), łączenie usługodawców z usługobiorcami, aplikacje dla handlowców dużych firm, dla zarządów do śledzenia na bieżąco wyników sprzedaży, dostaw, wspierające biznes. Przekrój jest bardzo szeroki, nie ma dominującego kierunku. Zamówienia z Polski nie różnią się od tych z całego świata. Skoro mówię o modelu rozliczeń, to muszę dodać, że wypróbowanie platformy jest całkowicie bezpłatne. Rynek aplikacji mobilnych jest w rozkwicie, kogo uznajecie za bezpośrednią konkurencję? Konkurencją może być pojedynczy programista, zespół programistów albo cała firma programistyczna, bo te podmioty są w stanie dostarczyć aplikację. Są też konkurencyjne generatory aplikacji mobilnych, ale one pozwalają na tworzenie rozwiązań szablonowych. Oferują np. szablon dla restauracji, w którym można wpisać nazwę restauracji, menu, wybrać kolory tła, czcionki, ale na tym się kończą możliwości dostosowania do naszych potrzeb. Jeśli ktoś ma zupełnie inne potrzeby, musi udać się do firmy programistycznej, a to wiąże się z wysokimi kosztami. Natomiast my jesteśmy w stanie szybko wyprodukować aplikację mocno dostosowaną do potrzeb konkretnego klienta. Na razie więc nie mamy bezpośredniej konkurencji. Wiem, że wielcy gracze rynkowi przygotowują teraz swoje generatory, ale sądząc po zapowiedzi, będą służyły raczej do tworzenia prostych aplikacji. Duże firmy bardzo często zamawiają stworzenie aplikacji bezpośrednio u nas. Zwykle chcą mieć produkt skomplikowany i bogaty w funkcjonalności, a naszego narzędzia trzeba się nauczyć, nie wszyscy chcą temu poświęcać czas. My dzięki modułom jesteśmy w stanie bardzo szybko stworzyć rozbudowaną aplikację, składamy ją nawet w ciągu kilku godzin. To jest nasza największa przewaga konkurencyjna. Czemu duże firmy nie wolą wykorzystać własnego działu dewelopmentu do tworzenia aplikacji mobilnych? Programiści często mogą stworzyć znacznie bardziej rozbudowane i dostosowane do indywidualnych potrzeb rozwiązania, spełnić dowolne marzenie. Ale jak zejdziemy na ziemię – i zaczniemy liczyć czas oraz pieniądze – okazuje się, że warto zbudować ją na naszej platformie lub zamówić. Jednym z modeli współpracy jest bowiem zamówienie w całości wykonania aplikacji, bez konieczności samodzielnego budowania jej w edytorze Kinetise. Statystyki pokazują, że w 80% korporacji istnieje lista aplikacji do zrobienia zawierających co najmniej 20 pozycji. Nie ma tylko na to czasu, nie ma wystarczającej liczby odpowiednio wyszkolonych specjalistów. Na rynku trudno o dobrych programistów, zwłaszcza znających platformy mobilne. I tu przydaje się Kinetise. Czego poszukują klienci? Klienci budują dużo różnorodnych aplikacji, np. umawianie terminów wizyt pacjentów, aplikacje na konferencje, aplikacje dla restauracji (to najbardziej powtarzający się schemat), łączenie usługodawców z usługobiorcami, aplikacje dla handlowców dużych firm, dla zarządów do śledzenia na bieżąco wyników sprzedaży, dostaw, wspierające biznes. Przekrój jest bardzo szeroki, nie ma dominującego kierunku. Zamówienia z Polski nie różnią się od tych z całego świata. Jaka była największa porażka Kinetise? Był nią początkowy model biznesowy, w którym trzeba było płacić jednorazowo za stworzenie aplikacji. Nie sprawdzał się ani z punktu widzenia korporacji, ani mniejszych klientów. Cena była zbyt wysoka. Gdy zmieniliśmy model na Mobile-Apps-as-a-Service, sprzedaż ruszyła. A największy sukces? Największym jest bez wątpienia satysfakcja klientów, ale z takich medialnych wymienię dotarcie do finału międzynarodowego konkursu IBM SmartCamp. Ponadto, na prestiżowej konferencji TechCrunch byliśmy oficjalną platformą do tworzenia aplikacji mobilnych podczas konkursu programistów i partnerem hackathonu. Rozmawiał Adam Jadczak Koszt stworzenia aplikacji na bazie Kinetise to 99 USD miesięcznie. Projekt taki trwa kilka dni. Tymczasem – jak podają przedstawiciele firmy na swojej stronie – opracowanie dedykowanej aplikacji przez zespół deweloperów to koszt nawet 125 tys. USD i projekt trwający do 7 miesięcy. Za pomocą platformy Kinetise można tworzyć aplikacje dla systemów operacyjnych iOS i Android. kwiecień 2016 ITWIZ MAGAZYN 65 RYNEK Chmura rozwiązaniem problemu z doświadczeniami użytkowników Tym, na czym opiera się sedno cyfrowej transformacji, są dane wykorzystywane za pośrednictwem odpowiednio dobranych aplikacji. Efektywność ich użycia staje się jednym z najistotniejszych czynników decydujących o powodzeniu biznesu. Cyfrowa transformacja to trend scalający właściwie wszystkie głośne dotąd w branży IT hasła – od chmury obliczeniowej i Big Data, po internet rzeczy, mobilność czy media społecznościowe. Dobre praktyki i potencjał biznesowy, coraz bardziej dojrzałego modelu chmury obliczeniowej, były jednym z przewodnich tematów zorganizowanej w Monachium konferencji Oracle Modern Business Experiences. Kluczowe wnioski dotyczą jednak możliwości wykorzystania chmury, jako rozwiązania pozwalającego poprawić użyteczność aplikacji biznesowych. A przecież to od łatwości ich obsługi – a także dzięki szerzej rozumianemu funkcjonowaniu, podlegającemu nieustannej ocenie użytkowników i klientów – zależy dziś efektywność biznesu. Doświadczenia użytkowników w centrum uwagi „Obecnie użytkownicy mają ściśle określone oczekiwania względem organizacji i ich marek, i przenoszą te oczekiwania – napędzane trendami rynkowymi – na pracodawców. W obliczu takich oczekiwań wykorzystywane w firmach rozwiązania nie mogą pozostawać niezmienne. Podobnie jest w przypadku klientów. Jest to zmiana, która zaburza dotychczasowy sposób prowadzenia biznesu” – zauważa Brian Curran, wiceprezes Oracle odpowiedzialny m.in. za strategię rozwoju produktów. „Liczą się marki, nie kanały sprzedażowe. Naturalne staje się przenikanie kanałów komunikacji z klientami i potrzeba zachowania spójności tej komunikacji. Potrzebne staje się też zrozumienie powodów przywiązania klientów do poszczególnych marek” – dodaje. 66 MAGAZYN ITWIZ kwiecień 2016 Źródłem lojalności odbiorców są obecnie przede wszystkim subiektywne odczucia klientów, co powoduje, że dostawcy muszą rozwinąć zdolność dostarczania treści, produktów i usług odpowiadających na oczekiwania klientów, w odpowiedni sposób i w odpowiednim czasie. „Miejsce podzielonej na grupy bazy klientów zajmują konkretne, indywidualne osoby, mające określone oczekiwania i potrzeby. Nie mówimy już o segmentacji – mówimy o konkretnych osobach” – stwierdza Brian Curran. Z perspektywy dostawcy różnego rodzaju usług i produktów oznaczać ma to konieczność zrozumienia kontekstu działań podejmowanych przez konkretnych odbiorców. Digitalizacja wokół klienta Dostęp do wiedzy na temat kontekstu działań klientów, a także użytkowników aplikacji biznesowych będzie jednocześnie jednym z kluczowych celów cyfrowej transformacji biznesowej. Warto dodać, że – zdaniem prelegentów występujących na konferencji Oracle – cyfrowa transformacja powinna być postrzegana także w ujęciu szerszym, jako szansa lub zagrożenie dla całych gospodarek. Jednocześnie, efektem wdrażania zmian cyfrowych w poszczególnych przedsiębiorstwach ma być tworzenie nowych miejsc pracy. Zdaniem ekspertów, rosnąć będzie m.in. popyt na szeroko rozumiane kompetencje związane z analizowaniem danych. O doświadczeniach we wprowadzaniu cyfryzacji procesów biznesowych mówił też Thorsten Becker, wiceprezes firmy Siemens odpowiedzialny za obszar cyfrowej transformacji. Strategię ukierunkowaną na tego typu zmiany wdrożono w tej firmie przed 2 laty. Nowe rozwiązania – w tym rozbudowane narzędzia typu Price & Quote – mają ułatwiać dynamiczne dostosowywanie oferty do indywidualnych wymagań klientów. W ramach cyfrowej transformacji w firmie Siemens budowana jest m.in. dedykowana platforma, wspierająca realizację działań sprzedażowych na bazie danych. Jej zastosowanie ma pozwolić na zwiększenie efektywności biznesowej interakcji prowadzonych przez zespół sprzedażowy z klientami. Rozwiązanie opiera się m.in. na szeroko rozumianej automatyzacji, a także Obecnie użytkownicy mają ściśle określone oczekiwania względem organizacji i ich marek, i przenoszą te oczekiwania – napędzane trendami rynkowymi – na pracodawców. W obliczu takich oczekiwań wykorzystywane w firmach rozwiązania nie mogą pozostawać niezmienne. Podobnie jest w przypadku klientów. Jest to zmiana, która zaburza dotychczasowy sposób prowadzenia biznesu. RYNEK analizach dużych zbiorów danych. Wspierane są też działania partnerów Siemensa. Aplikacje tworzone z myślą o nowych czasach Fundamentem strategii rozwoju narzędzi biznesowych Oracle, zwłaszcza w kontekście oczekiwanego wsparcia dynamicznych zmian biznesowych, ma być model chmury obliczeniowej. „Wszystkie nasze nowe aplikacje są tworzone tak, aby mogły być wykorzystywane w modelu cloud. Kwestią czasu jest moment, w którym nasi klienci zdecydują się przejść do tego modelu. Będzie to jednak systematyczna ścieżka migracji, którą zamierzamy kompleksowo wspierać” – uważa Rick Jewell, wiceprezes Oracle odpowiedzialny za rozwój aplikacji SCM. Zapowiada też przyspieszenie tempa rozwoju aplikacji Oracle. „Będziemy publikować co najmniej dwa wydania systemów biznesowych w roku, dostarczymy również nowe narzędzia programistyczne i metodyki rozwoju narzędzi po to, aby zwiększyć przydatność aplikacji Oracle w czasach cyfrowych zmian” – zapowiada Rick Jewell. Zapewnia przy tym, że oferta dotychczasowych rozwiązań biznesowych będzie rozwijana równolegle wobec narzędzi chmurowych, tak długo, jak długo klienci Oracle będą korzystać z rozwiązań on-premise. Wspierane i ciągle rozwijane są m.in. systemy Oracle PeopleSoft, E-Business Sutie, JD Edwards i Siebel. Zmiany obejmują m.in. rozszerzenie interfejsu obsługi, wbudowane funkcje analityczne, dedykowane aplikacje mobilne, mechanizmy integracyjne. Rozwijane są także nowe moduły funkcjonalne. Fundamentem strategii rozwoju narzędzi biznesowych Oracle, zwłaszcza w kontekście oczekiwanego wsparcia dynamicznych zmian biznesowych, ma być model chmury obliczeniowej. Wszystkie nasze nowe aplikacje są tworzone tak, aby mogły być wykorzystywane w modelu cloud. Kwestią czasu jest moment, w którym nasi klienci zdecydują się przejść do tego modelu. Będzie to jednak systematyczna ścieżka migracji, którą zamierzamy kompleksowo wspierać. Rick Jewell, wiceprezes Oracle odpowiedzialny za rozwój aplikacji SCM Rozwiązaniem, które ułatwia wykorzystanie narzędzi biznesowych w warunkach dużej zmienności biznesowej, ma być model chmury obliczeniowej. W ofercie Oracle dostępne są już nowe, oferowane w modelu cloud, zestawy funkcjonalne. Ich konstrukcja opiera się na – odmiennym niż tradycyjne – skupionym na przebiegu poszczególnych procesów biznesowych, podejściu do uporządkowania funkcjonalności. W ramach dedykowanych pakietów rozwiązań chmurowych Oracle dostępny jest m.in. zestaw narzędzi kompleksowo wspierających działania biznesowe, bezpośrednio dotykające klientów. W skład pakietu Oracle CX Cloud wchodzą m.in. rozwiązania wspierające procesy marketingu, sprzedaży, ofertowania i obsługi klienta, a także mechanizmy społecznościowe. Z rozwiązania Oracle CX Cloud korzystają m.in. firmy Intel, Lego, Facebook, Toshiba, Cisco, Lenovo, Sony i NASA. W ramach oferty chmurowej Oracle dostępne są też podobne zestawy narzędzi wspierające m.in. zarządzanie kapitałem ludzkim, logistyką oraz wewnętrznymi procesami biznesowymi firmy. Ostatni z pakietów – znany pod nazwą ERP Cloud – obejmuje m.in. finanse, księgowość oraz zarządzanie projektami. Funkcje związane z produkcją skupiono natomiast w ramach pakietu Oracle SCM Cloud. Co ważne, funkcjonalność każdego z pakietów można dodatkowo uzupełnić za pośrednictwem dedykowanego sklepu aplikacyjnego Oracle. Unikalny ma być też interfejs nowych, chmurowych aplikacji Oracle. Skupiony na łatwości obsługi, wykorzystujący nowoczesne mechanizmy wizualizacji i nawigacji interfejs ma – według zapowiedzi – w sposób naturalny prowadzić użytkowników przez kolejne, wzajemnie zależne, kroki przecinających się procesów biznesowych. Piotr Waszczuk kwiecień 2016 ITWIZ MAGAZYN 67 RYNEK SAP Forum 2016: cyfrowa transformacja jako szansa i zagrożenie Efekty biznesowe zmian związanych z wykorzystaniem na szeroką skalę nowych technologii były jednym z tematów przewodnich tegorocznej konferencji SAP Forum. W odpowiedzi na oczekiwania związane z wykorzystaniem dostępnych danych na szeroką skalę, SAP zamierza rozwijać platformę HANA m.in. pod kątem szerszego zastosowania mechanizmów sztucznej inteligencji. Platforma in-memory SAP, wsparta funkcjami analitycznymi, ma pełnić rolę kluczowego rozwiązania dla organizacji otwartych na zmiany. Według cytowanych przez SAP prognoz, cyfrowa transformacja w najbliższych 5 latach będzie miała istotny wpływ na światową gospodarkę – skutkiem zmian wynikających z wykorzystania na różne sposoby dostępnych danych biznesowych ma być zmiana sposobów interakcji z klientami, uproszczenie funkcjonowania i zwiększenie skali współpracy z partnerami praktycznie we wszystkich branżach. Zmieniające się m.in. wskutek szerszego zastosowania nowych technologii realia rynkowe mają wpływać nie tylko na powstawanie nowych modeli biznesowych, lecz także na konieczność zdynamizowania procesów i przebiegu poszczególnych operacji. W efekcie, funkcjonowanie nowoczesnych organizacji biznesowych ma upodabniać się do zasad działania żywych organizmów, zdolnych do uczenia, rozwoju oraz ewolucyjnej adaptacji do zmian. Klient, dane i technologia motorami cyfrowej zmiany Priorytetem SAP jest również maksymalne wykorzystanie modelu chmury obliczeniowej, jako rozwiązania umożliwiającego m.in. zmniejszenie skutków typowych ograniczeń związanych z inwestycjami 68 MAGAZYN ITWIZ kwiecień 2016 w nowe technologie, a także podniesienie ich dostępności dla użytkowników. Dzięki nowym rozwiązaniom analityki dużych zbiorów danych, SAP zamierza wspierać firmy w maksymalnym wykorzystaniu dostępnych dla nich informacji biznesowych. „Wszyscy widzimy, jak dynamicznie zmienia się dzisiejszy świat. Funkcjonowanie całych branż może podlegać istotnym zmianom w ciągu ledwie jednej nocy” – mówi Kinga Piecuch, prezes zarządu SAP Polska. „Żyjemy w czasach, w których digitalizacja gospodarki na stałe zagościła w polskich przedsiębiorstwach, zarówno dużych, jak i w sektorze małych i średnich. Dzięki wdrożeniu nowa- torskich rozwiązań powstają zupełnie nowe modele działania firm” – dodaje. Z kolei Jonathan Becher, Chief Digital Officer w SAP podkreśla, że rozpoczynająca się obecnie fala, opartych na technologiach IT zmian gospodarczych może mieć największe znaczenie dla ludzkości od czasów rewolucji przemysłowej. „W ciągu poprzednich dziesięcioleci mieliśmy do czynienia ze zmianą liniową, stanowiącą rozwinięcie istniejących technologii, a więc potencjalnie możliwą do przewidzenia i przygotowania się. Dziś jest inaczej. Mamy do czynienia ze zmianami, których skala rośnie wykładniczo. Wszyscy widzimy, jak dynamicznie zmienia się dzisiejszy świat. Funkcjonowanie branż może podlegać istotnym zmianom w ciągu zaledwie jednej nocy. Żyjemy w czasach, w których digitalizacja gospodarki na stałe zagościła w polskich przedsiębiorstwach, zarówno dużych, jak i w sektorze małych i średnich. Dzięki wdrożeniu nowatorskich rozwiązań powstają nowe modele działania firm. Kinga Piecuch, prezes zarządu SAP Polska RYNEK W takich warunkach liniowe podejście do estymacji potencjału zmian rynkowych i planowania biznesu nie znajduje zastosowania. Myślenie o przyszłości przez pryzmat teraźniejszości staje się barierą” – twierdzi Kinga Piecuch. Przykład firmy Uber pokazuje nie tylko potencjał biznesowy pomysłowego zastosowania technologii. Dowodzi też, że cyfrowa transformacja opiera się na nowym podejściu do wybranych, często kluczowych procesów biznesowych. „Tradycyjnie w korporacjach taksówkowych zasobem koordynującym działalność operacyjną jest siedzący w centrali człowiek. W przypadku firmy Uber – kluczowe z punktu widzenia biznesu – procesy związane z realizacją przewozów zostały zautomatyzowane i częściowo przekazane w ręce klienta” – dodaje Jonathan Becher. Dostępne obecnie technologie pozwalają na wprowadzenie równie szerokich zmian praktycznie niezależnie od branży. „Wszystkie potencjalnie potrzebne rozwiązania są najpewniej dostępne już dziś. Zmiana opiera się na nowym sposobie myślenia. Gotowość do cyfrowej rewolucji polega na tym, że centrum biznesu stają się dane i technologia” – zauważa Jonathan Becher. Platformy dla biznesu w dynamicznych i nieprzewidywalnych warunkach Wzrost znaczenia oczekiwań względem systemów wspierających zarządzanie i narzędzi ułatwiających wnioskowanie na podstawie dostępnych danych potwierdzili też uczestnicy odbywającego się podczas SAP Forum 2016 panelu dyskusyjnego. Wzięli w nim udział m.in. przedstawiciele firm: Komfort, KPMG, Cinkciarz.pl oraz ZUS. Potrzebom wynikającym z konieczności prowadzenia biznesu w dynamicznych W ciągu poprzednich dziesięcioleci mieliśmy do czynienia ze zmianą liniową, stanowiącą rozwinięcie istniejących technologii, a więc potencjalnie możliwą do przewidzenia i przygotowania się. Dziś jest inaczej. Mamy do czynienia ze zmianami, których skala rośnie wykładniczo. W takich warunkach liniowe podejście do estymacji potencjału zmian rynkowych i planowania biznesu nie znajduje zastosowania. Myślenie o przyszłości przez pryzmat teraźniejszości staje się barierą. Jonathan Becher, Chief Digital Officer w SAP i nieprzewidywalnych warunkach biznesowych odpowiadać ma koncepcja SAP Digital Framework oraz rozwijane na jej bazie narzędzia SAP. Koncepcja ta zakłada, że kluczowe znaczenie dla efektywnego biznesu mają obecnie: zaangażowanie pracowników, wielokanałowe doświadczenia klientów, zarządzanie zasobami oraz internet rzeczy, a także – współpraca z dostawcami w ramach wielowymiarowych sieci biznesowych. Wokół tych 4 obszarów koncentrować mają się funkcje biznesowe o największym znaczeniu dla sprawności organizacji. „W większości firm funkcjonują procesy biznesowe, które są nałożeniem stworzonych lata temu modeli na obecne technologie. Nowoczesne podejście wymaga jednak nieliniowego modelu, który jest nierealny przy wykorzystaniu tradycyjnych rozwiązań” – uważa Jonathan Becher. analitycznych opartych na technologii in-memory, rozwiązanie S/4HANA ma zyskać m.in. możliwość wykrywania zmian zachodzących w otoczeniu biznesowym firmy i jej wnętrzu oraz automatycznego dostosowywania przebiegu procesów biznesowych do nowych potrzeb. I tak, SAP zamierza rozwijać platformę HANA m.in. pod kątem szerszego zastosowania mechanizmów sztucznej inteligencji. Platforma HANA jest zaś fundamentem dalszego rozwoju nowej generacji systemu SAP wspierającego zarządzanie. Dzięki wykorzystaniu na szeroką skalę funkcji SAP systematycznie podejmuje też działania mające na celu zwiększenie dostępności, ergonomii, a także swobody w zakresie wykorzystania oferowanych rozwiązań przez klientów. Podczas konferencji SAP Forum zaprezentowano możliwości chmurowej wersji platformy SAP HANA. Co ważne, dostęp do poszczególnych, opartych na utrzymywanym przez SAP środowisku aplikacji biznesowych, komponentów technicznych i usług można łatwo nabyć za pośrednictwem – dostępnej też dla klientów z Polski – platformy SAP Store. Koncepcja SAP Digital Framework zakłada, że kluczowe znaczenie dla efektywnego biznesu mają obecnie: zaangażowanie pracowników, wielokanałowe doświadczenia klientów, zarządzanie zasobami oraz internet rzeczy, a także – współpraca Zmienia się również koncern SAP i jego lokalne struktury. „Zatrudniliśmy ekspertów, którzy nie tylko rozumieją technologię, lecz także potrzeby poszczególnych sektorów gospodarki. Zależy nam na tym, aby stać się firmą wspierającą klientów w kreowaniu wizji rozwoju biznesu” – podkreśla Kinga Piecuch. Wskutek tego typu zmian, obok dedykowanych usług doradczych, w ofercie SAP pojawiać mają się także rozwiązania specjalizowane, odpowiadające na potrzeby specyficzne dla poszczególnych branż. z dostawcami w ramach wielowymiarowych sieci biznesowych. Piotr Waszczuk kwiecień 2016 ITWIZ MAGAZYN 69 RYNEK Nowości od Intela stworzone z myślą o przetwarzaniu w chmurze Intel poszerza portfolio produktów dla przedsiębiorstw o nową serię procesorów Intel Xeon E5-2600 v4 (Broadwell) oraz dyski SSD typu 3D NAND zoptymalizowane pod przetwarzanie w chmurze. Premierę nowych podzespołów połączono z nawiązaniem wielu partnerstw i kolejnych inwestycji Intela. Wszystkie związane są z rozwiązaniami opartymi na chmurze. Podczas odbywającej się w San Francisco konferencji Intel Cloud Day zaprezentowano przykłady wdrożeń rozwiązań cloud computing w wielu przedsiębiorstwach. Była to też okazja do przedstawienia przez Intela najnowszych rozwiązań, mających zapewnić szybsze, wydajniejsze i wygodniejsze przetwarzanie w modelu cloud computing. Nowe procesory i dyski mają pozwolić firmom na stworzenie wydajnych infrastruktur chmur prywatnych i hybrydowych. Dzięki nowościom sprzętowym Intela przedsiębiorstwa zyskują dostęp do technologii, z których do tej pory korzystały jedynie duże chmury publiczne. „Firmy oczekują od architektury chmury efektywności i elastyczności. To one dyktują warunki i chcą mieć możliwość korzystania z chmury publicznej, prywatnej lub obu jednocześnie. Wynikiem tego jest zapotrzebowanie na infrastrukturę zdefiniowaną programowo SDI (Software-Defined Infrastructure)” – powiedziała Diane Bryant, wiceprezes i dyrektor generalna Data Center Group w Intelu. „Intel inwestuje w dojrzałe rozwiązania SDI, które umożliwiają przedsiębiorstwom każdej wielkości czerpanie korzyści z chmury” – dodaje. Software-Defined Infrastructure stanowi podstawę najbardziej zaawansowanych chmur obliczeniowych na świecie. Umożliwia ona szybsze i bardziej efektywne świadczenie usług przetwarzania w chmurze dzięki oprogramowaniu, dynamicznie przydzielającemu zasoby obliczeniowe, sieciowe oraz pamięć masową. Pozwala to na rozwiązania, z których jednocześnie może korzystać duża grupa użytkowników. Nowy Intel Xeon E5-2600 (Broadwell) Nowa generacja procesorów Intel Xeon E5-2600 v4 produkowana jest w procesie 70 MAGAZYN ITWIZ kwiecień 2016 Software-Defined Infrastructure stanowi podstawę najbardziej zaawansowanych chmur obliczeniowych na świecie. Umożliwia ona szybsze i bardziej efektywne świadczenie usług przetwarzania w chmurze dzięki oprogramowaniu, dynamicznie przydzielającemu zasoby obliczeniowe, sieciowe oraz pamięć masową. Pozwala to na rozwiązania, z których jednocześnie może korzystać duża grupa użytkowników. 14-nanometrowym i ma o 20% większą liczbę rdzeni i ilość pamięci podręcznej w porównaniu z poprzednią wersją v3. Procesory te zawierają elementy SDI, w tym Intel Resource Director. Pozwala on na dynamiczne zarządzanie dostępnymi zasobami platformy opartej na tych procesorach. Technologia RDT umożliwia znaczącą automatyzację, a przede wszystkim pełną kontrolę zasobów. W uaktualnionej grupie procesorów Intel Xeon E5 wprowadzono również udoskonalenia w zakresie bezpieczeństwa. Wśród nich są takie rozwiązania, jak izolowanie obciążeń, egzekwowanie reguł bezpieczeństwa czy szybsza kryptografia, mająca zapewnić skuteczniejszą ochronę danych. Dyski SSD skrojone pod chmurę Aby zapewnić niezawodność i odpowiednią szybkość dostępu do danych zgromadzonych w chmurze, Intel wprowadza nowe dyski SSD. Dyski z serii DC P3320 i P3520 wykorzystują technologię 3D NAND. To pierwsze dyski SSD od Intela korzystające z tej technologii, która zapewnia największą gęstość pamięci. Według producenta, seria P33320 oferuje 5 razy większą wydajność w stosunku do napędów SATA. W przypadku serii D3700 i D3600 zastosowano dwa złącza PCI oraz obsługę protokołu NVMe (Non-Volatile Memory Express). Taka konstrukcja ma chronić przed utratą najważniejszych danych. W testach seria dysków D3700 jest 6-krotnie wydajniejsza od dwuportowych rozwiązań SAS. Wszystkie nowe dyski SSD zoptymalizowano do pracy z nowymi procesorami Intel Xeon E5. Intel nie tylko tworzy rozwiązania, które mają sprawdzić się w infrastrukturze opartej na chmurze, ale też zachęca firmy do wdrażania tych technologii. W ramach programu Intel Cloud for All nawiązywane są strategiczne partnerstwa oraz inwestycje, które mają zapewnić szybki rozwój chmury obliczeniowej oraz standaryzację stosowanych rozwiązań. Nowości sprzętowe wraz z rozwiązaniami stworzonymi wspólnie z partnerami – jak współpraca z CoreOS i Mirantis nad platformą Open Source do zarządzania kontenerami i aplikacjami na maszynach wirtualnych – mają przyczynić się do powstania 10 tys. nowych chmur. Paweł Okopień RYNEK Data Center Intela w siedzibie głównej w Santa Clara Intel przekształcił dawną fabrykę półprzewodników w centrum danych. Znajdujący się tam klaster komputerów znalazł się na 81 miejscu wśród TOP 500 superkomputerów na świecie, a jest tylko jednym z 59 centrów danych Intela na świecie. Sprawdziliśmy, do czego ten producent procesorów potrzebuje tak potężnej mocy obliczeniowej. Santa Clara w Kalifornii znajduje się w sercu Doliny Krzemowej. Tutaj siedzibę główną ma Intel, a także Nvidia, McAffe i wiele innych firm. W siedzibie głównej Intela znajdują się muzeum, przestrzeń biurowa i właśnie centrum danych, wcześniej mieściła się tu fabryka półprzewodników wykorzystywanych w produktach Intela. Obecne centrum danych podzielone jest na dwie części – starą i nową. Starsza to klaster SCTO HPC 2A z 2012 roku, oparty na 8-rdzeniowych procesorach Intel Xeon E5-2670. To łącznie 7360 rdzeni o mocy 83,10 teraflopsów. Superkomputer w nowej części to klaster SC D2P4 powstały w 2015 roku. Składa się z serwerów typu blade HD BL460c, z 12-rdzeniowymi procesorami Intel Xeon E5-2680 v3. Całość to 30 672 rdzenie połączone InfiniBand. Ich łączna moc wynosi 833,92 TFLOPS. Intel zamknął fabrykę w Santa Clara w 2009 roku. Produkcja procesorów przeniosła się do innych miejsc w Stanach Zjednoczonych i na świecie. Jak widać powierzchnia ta się nie marnuje, ale nadal spora część została jeszcze do wykorzystania. Olbrzymie hale będą przygotowywane do rozbudowy tutejszego data center. W niedalekiej przyszłości powstanie jeszcze nowocześniejszy klaster. Chłodzenie za pomocą ciepłych i zimnych korytarzy Centrum danych Intela chłodzone jest głównie powietrzem, a nie cieczą. Firma wykorzystuje klimat, jaki panuje w rejonie Santa Clara. Zastosowano tutaj metodę zimnych i ciepłych korytarzy (tzw. hot & cold aisles). Dzięki wysoko wydajnej klimatyzacji – i dopływowi zimnego powietrza, które miesza się z ciepłym – wiatraki w centrum Intela działają jedynie przez 40 godzin rocznie. Za sprawą swojego Dlaczego Intel ma olbrzymi superkomputer w głównej siedzibie oraz 58 innych Data Center na całym świecie? Tak potężna moc obliczeniowa potrzebna jest Intelowi do tworzenia nowoczesnych układów. Data Center w Santa Clara wspiera inżynierów na całym świecie przy projektowaniu kolejnych generacji procesorów Intela. Współcześnie do zaprojektowania nowych chipsetów potrzeba aż 4600 większej mocy obliczeniowej, niż było to konieczne 12 lat temu. energooszczędnego systemu chłodzenia, centrum to – w porównaniu z pozostałymi Data Center Intela – przynosi 1,9 mln USD oszczędności rocznie. Tylko dzięki temu jego koszty budowy mają się zwrócić w ciągu 6 lat. W superkomputerze Intela w Santa Clara nie brakuje rozwiązań prosto z Polski. To w gdańskim centrum R&D Intela, 50-osobowy zespół pracuje nad rozwiązaniami dla superkomputerów i oprogramowaniem serwerowym. Inżynierowie z Gdańska odpowiadają również za opracowanie oprogramowania do zarządzania centrami danych, w tym za ograniczanie zużycia energii. Dlaczego Intel potrzebuje Data Center? Dlaczego Intel ma olbrzymi superkomputer w głównej siedzibie oraz 58 innych Data Center na całym świecie? Tak potężna moc obliczeniowa potrzebna jest Intelowi do tworzenia nowoczesnych układów. Data Center w Santa Clara wspiera inżynierów na całym świecie przy projektowaniu kolejnych generacji procesorów Intela. Współcześnie do zaprojektowania chipsetów potrzeba aż 4600 większej mocy obliczeniowej, niż było to konieczne 12 lat temu. Takie centrum danych Intela to także możliwość demonstracji najnowszych innowacji na własnym przykładzie. Firma może pokazać gotowe wdrożenia partnerom, a także testować najnowsze rozwiązania w chłodzeniu czy w samych procesorach. Wnętrze centrum danych Intela w Santa Clara na co dzień dostępne jest wyłącznie dla pracowników. W tym samym budynku mieści się jednak otwarte i bezpłatne muzeum Intela. Można tam obejrzeć pierwsze procesory firmy, zapoznać się z jej historią, a także poznać najnowsze technologie, takie jak Intel RealSense. Paweł Okopień kwiecień 2016 ITWIZ MAGAZYN 71 RYNEK Wydajność aplikacji tożsama z wydajnością biznesu W świecie cyfrowej transformacji wydajność aplikacji powinna być oceniana nie tylko pod kątem sprawności działania oprogramowania, lecz także sposobu jego postrzegania oraz wartości dla użytkownika. Tematyka zarządzania wydajnością oprogramowania nabiera znaczenia w świecie biznesowym, który w coraz większym stopniu staje się zależny od aplikacji dostarczanych użytkownikom i klientom na wiele sposobów – poprzez lokalną infrastrukturę, w modelu cloud computing czy za pośrednictwem urządzeń mobilnych. Tematyce zarządzania wydajnością organizacji poświęcona była – organizowana w ramach globalnego cyklu, a po raz pierwszy w Polsce – konferencja Perform Day Warsaw. Warszawskie spotkanie było okazją do poznania aktualnych trendów wpisujących się w potrzebę kontrolowania działania oprogramowania, jako czynnika nabierającego rangi biznesowej. Aplikacje muszą podlegać szczegółowej kontroli „Google ustanowił pewien trend, zakładający, że czas odpowiedzi usług internetowych dłuższy niż 2 sekundy staje się nieakceptowalny przez użytkowników. To powoduje, że precyzyjna kontrola wydajności środowiska aplikacyjnego nabiera ogromnej wagi” – mówi Jacek Kujawa, prezes zarządu Omnilogy, RFO Dynatrace (więcej o tym, w jaki sposób tego dokonuje, na stronach 52–57). Dodaje przy tym, że w obliczu cyfrowej transformacji wiele firm stawia na rozwój własnych, wspierających unikalne potrzeby biznesowe aplikacji, które muszą podlegać szczegółowej kontroli. „Staramy się promować podejście DevPOps, czyli metodykę DevOps uzupełnioną czynnikami wydajnościowymi. Nie mówimy jednak wyłącznie o wydajności aplikacji, ale o kolejnym etapie w podejściu do oceny wydajności organizacji. Podejściu ukierunkowanym na zachowania oraz doświadczenia klientów” – dodaje. Z analiz IDC wynika, że w 2020 roku na świecie wykorzystywanych będzie co najmniej 25 mln aplikacji i tysiąckrotnie więcej systemów wbudowanych i inteligentnych. Dużo z nich nabierze przy tym cech rozwiązań kluczowych 72 MAGAZYN ITWIZ kwiecień 2016 Konferencja Perform Day Warsaw była okazją do poznania aktualnych trendów wpisujących się w potrzebę kontrolowania działania oprogramowania, jako czynnika nabierającego rangi biznesowej. Google ustanowił pewien trend, zakładający, że czas odpowiedzi usług internetowych dłuższy niż 2 sekundy staje się nieakceptowalny przez użytkowników. To powoduje, że precyzyjna kontrola wydajności środowiska aplikacyjnego nabiera ogromnej wagi. dla realizacji celów biznesowych wielu firm. Rozwiązania aplikacyjne i systemy wbudowane będą też często punktem styku organizacji biznesowej z klientem. „W centrum huraganu zmian znajdują się klienci oraz ich doświadczenia w komunikacji z markami biznesowymi. Złożoność relacji i komunikacji z użytkownikami staje się motorem zmian” – stwierdza Luís Miguel Porém, Regional Business Head w Dynatrace. Istotnym czynnikiem wpływającym na funkcjonowanie dzisiejszych środowisk IT jest postępująca, wielowymiarowa integracja różnych aplikacji i rozwiązań biznesowych. Uwzględnić trzeba też wyzwania związane z postępującym zakresem wykorzystania internetu rzeczy. Wkraczając w kolejne obszary życia, staje się on inspiracją do nowych koncepcji biznesowych. Na to nakłada się upowszechnienie urządzeń mobilnych. Z perspektywy dostawcy rozwiązań i usług powinny być one traktowane jako kolejny kanał kontaktu z klientem. Musi więc być on obsłużony sprawnie, i to w sposób nieograniczający mobilności. RYNEK Wkraczamy na ścieżkę ciągłej transformacji, gdzie liczą się szybkość dostarczania nowych produktów i usług oraz tempo wdrażania innowacji. Wszystko to, przy obligatoryjnym zachowaniu najwyższych poziomów obsługi klienta. Tego typu oczekiwania wprost odnoszą się do wymagań stawianych systemom IT. Na koniec dnia to od działania aplikacji – za pośrednictwem których jako konsumenci korzystamy z usług i kupujemy produkty, a jako dostawcy zdobywamy udziały rynkowe – zależy powodzenie biznesu. Prognozowanie wystąpienia błędów i zapobieganie awariom aplikacji „Wkraczamy na ścieżkę ciągłej transformacji, gdzie liczą się szybkość dostarczania nowych produktów i usług oraz tempo wdrażania innowacji. Wszystko to, przy obligatoryjnym zachowaniu najwyższych poziomów obsługi klienta” – twierdzi Luís Miguel Porém. Tego typu oczekiwania wprost odnoszą się do wymagań stawianych systemom IT. „Na koniec dnia to od działania aplikacji – za pośrednictwem których jako konsumenci korzystamy z usług i kupujemy produkty, a jako dostawcy zdobywamy udziały rynkowe – zależy powodzenie biznesu” – dodaje Luís Miguel Porém. Powołując się na analizy Forrester Research, podkreśla on, że w takich realiach tradycyjne narzędzia wspierające zarządzanie wydajnością aplikacji stają się niewystarczające. Takiego zdania jest ponad 53% ankietowanych menedżerów. Istotnego znaczenia nabiera nie tyle wykrywanie i neutralizowanie błędów, ile prognozowanie ich wystąpienia i zapobieganie awariom, które mogłyby wpłynąć na doświadczenia użytkowników. „Widać dziś, że monitoring IT skupiony na samej infrastrukturze nie będzie oczami biznesu. Niezbędne jest spojrzenie szersze. W jaki bowiem sposób będziemy w stanie efektywnie przetestować aplikacje pod kątem działania na 20 tys. różnych urządzeń, z których potencjalnie mogą skorzystać nasi klienci? Na to nakładają się mikrousługi, które – z perspektywy osób odpowiedzialnych za działanie środowiska IT – mogą być niezwykle problematyczne” – stwierdza Sławek Michalik, Sales Engineer Manager w Dynatrace. Efektywne zarządzanie środowiskiem IT w takich realiach wymaga zmiany narzędzi wspierających monitoring IT, ale także innego podejścia do komunikacji w obrębie organizacji. Więcej aplikacji, większe potrzeby Wiedza na temat wydajności aplikacji nabiera znaczenia biznesowego. Na – podlegający ocenie użytkowników bardziej niż kiedykolwiek w przeszłości – czas obsługi klienta wpływa nie tylko sprawność procesowa organizacji, lecz także szybkość działania technologii. Wraz z rosnącą ilością aplikacji używanych w statystycznej firmie rośnie znaczenie możliwości gro- madzenia informacji na temat ich działania w sposób, który w minimalnym stopniu wpływa na środowisko aplikacyjne, a zarazem gwarantuje możliwość szybkiego wykorzystania danych o wydajności oprogramowania. „Istotny jest też sposób prezentacji danych, a także zachowanie pełnego ich kontekstu. Nie można mówić o efektywnym spojrzeniu na obszar User Experience, patrząc tylko na czasy odpowiedzi aplikacji. Potrzebna jest pełna perspektywa dotycząca wydajności, sposobu działania aplikacji, ewentualnych błędów, jak również użytkownika i rozwiązań, z jakich korzysta” – dodaje Sławek Michalik. Na oczekiwania związane z zapewnieniem jak największej wydajności rozwiązań wspierających użytkowników nakładają się zmiany technologiczne i postępująca fragmentacja aplikacji. W firmach stopniowo pojawiają się środowiska zautomatyzowane, zdolne do samodzielnego, dynamicznego skalowania pojawiających się potrzeb. „W takich warunkach sampling danych o wydajności poszczególnych elementów środowiska aplikacyjnego w ogóle się nie sprawdzi. Oparte na tego typu podejściu rozwiązania do monitoringu być może wcale nie wychwycą pojawienia się niektórych komponentów” – dodaje Sławek Michalik. Równolegle, narzędzia wykorzystywane do monitorowania środowisk aplikacyjnych – w obliczu rosnącego stopnia ich złożoności – powinny obejmować W firmach stopniowo pojawiają się środowiska zautomatyzowane, zdolne do samodzielnego, dynamicznego skalowania pojawiających się potrzeb. W takich warunkach sampling danych o wydajności poszczególnych elementów środowiska aplikacyjnego w ogóle się nie sprawdzi. Oparte na tego typu podejściu rozwiązania do monitoringu być może wcale nie wychwycą pojawienia się niektórych komponentów. funkcjonalnością wszystkie elementy infrastruktury, również te dostarczane w modelu cloud computing. W odpowiedzi na tego typu potrzeby Dynatrace rozwija nowe rozwiązanie, które – na podstawie scentralizowanych narzędzi gromadzących dane o komponentach aplikacyjnych – będzie w stanie obsługiwać różnego rodzaju aplikacje, także chmurowe oraz zachowania klientów. Konferencja Perform Day Warsaw – której patronem był ITwiz – była też okazją do poznania szczegółów realizowanych przez partnerów Dynatrace – m.in. Compfort Meridian, EM&CA iSpica Solutions – projektów budowy kompleksowych środowisk monitorowania IT w polskich firmach. Omawiano m.in. przykłady z sektorów bankowości i energetyki. Piotr Waszczuk kwiecień 2016 ITWIZ MAGAZYN 73 RYNEK Cisco Forum 2016 – po drugiej stronie szachownicy W Zakopanem odbyła się już 18. edycja Cisco Forum, jednej z największych w Polsce konferencji IT. Z tej okazji organizatorzy wprowadzili do agendy – oprócz jak zawsze interesującego programu prelekcji i wykładów – ciekawe nowinki, w tym ścieżkę innowacji – poświęconą start-upom. Sesja plenarna była okazją do bliższego przyjrzenia się cyfryzacji – temu, jaki jest stan tego procesu w Polsce i jakie wyzwania czekają naszą gospodarkę, aby była konkurencyjna na globalnych rynkach. Prezentowane raporty wskazywały, że Polska nie wypada dobrze. Przykładowo, okazuje się, że liczba robotów przemysłowych na 10 tys. pracowników jest u nas mniej więcej trzykrotnie niższa niż w Czechach i na Słowacji. Jest więc jeszcze wiele do zrobienia, a Dariusz Fabiszewski, dyrektor generalny polskiego oddziału Cisco podkreślał, że duża odpowiedzialność – aby te braki nadrobić – spoczywa również na zgromadzonych na konferencji przedstawicielach branży IT. Rozwój technologiczny jest coraz trudniejszy do przewidzenia Bardzo dobrze wypadła prezentacja dyrektora technicznego Cisco Macieja Szeptyckiego, który opowiadał, jak daleko idący, a jednocześnie trudny do przewidzenia wpływ na nasze życie będzie miała cyfryzacja. Okazuje się, że to, co 10 lat temu uznani naukowcy uważali w świecie technologii za niemożliwe, teraz staje się rzeczywistością. Co więcej, dalszy rozwój technologiczny jest coraz trudniejszy do przewidzenia. Aby to zobrazować, posłużył się przykładem szachownicy, na której polach układa się ziarna ryżu. Na pierwszym jedno, a na każdym następnym dwa razy więcej. Po zapełnieniu pierwszej połowy szachownicy, na drugiej połowie liczba ziaren jest tak duża i rośnie tak szybko, że człowiek nie potrafi już tego objąć swoim umysłem. Według Macieja Szeptyckiego, drugą połowę szachownicy osiągnął już np. rozwój procesorów. Swoje wystąpienia w trakcie sesji plenarnej mieli również główni sponsorzy konferencji – Intel oraz Integrated Solutions. 74 MAGAZYN ITWIZ kwiecień 2016 Dalszy rozwój technologiczny jest coraz trudniejszy do przewidzenia. Aby to zobrazować, posłużył się przykładem szachownicy, na której polach układa się ziarna ryżu. Na pierwszym jedno, a na każdym następnym dwa razy więcej. Po zapełnieniu pierwszej połowy szachownicy, na drugiej połowie liczba ziaren jest tak duża i rośnie tak szybko, że człowiek nie potrafi już tego objąć swoim umysłem. Według Macieja Szeptyckiego, drugą połowę szachownicy osiągnął już np. rozwój procesorów. W tym roku konferencja odbyła się w zmienionej formule – trwała 2 dni, czyli o dzień krócej niż w ostatnich latach. Agenda była podzielona aż na sześć ścieżek: forum ekspertów, case study, forum TAC (Technical Assistance Center), innowacji, partnerów oraz architektur. W programie znalazły się tradycyjne sesje 75-minutowe, podczas których szczegółowo omawiano wybrane zagadnienie. Oprócz tego można było wziąć udział w półgodzinnych sesjach, tzw. flash, na których przedstawiano wybraną technologię, produkt czy trend. Tematyka prezentacji dotyczyła przede wszystkim praktycznego wykorzystania technologii Cisco – przez partnerów, start-upy i firmy deweloperskie. Uczestnicy mieli też możliwość poznania oferty i nawiązania kontaktu z przedstawicielami obiecujących, polskich start-upów technologicznych. Jednym z nich było Ifinity (opisywaliśmy ją na łamach ITwiz 2/2015), firma zajmująca się projektami związanymi z mikrolokalizacją i nawigacją. Swoje technologie rozwija od dwóch lat, wykorzystując Bluetooth Low Energy. Ifinity bierze udział w programie start-upów Challenge Up!, organizowanym przez Intel, Cisco i Deutsche Telekom. T-Mobile Polska, spółka Grupy Deutsche Telekom, była partnerem tegorocznego Cisco Forum. Spotkania one-2-one z inżynierami Trafionym pomysłem okazała się Technical Clinic – uczestnicy mieli możliwość spotkania 1:1 z inżynierami TAC i Advanced Services o różnych specjalizacjach. Dla osób, które wolały spędzać czas w przestrzeni barowej, przygotowano CiscoTV, czyli transmisję na żywo sesji tematycznych odbywających się w trakcie Cisco Forum. Jeśli ta forma przekazu się sprawdzi, organizatorzy planują, że w przyszłym roku będzie ona nadawać na żywo w internecie. Organizatorzy dokładali starań, aby zapewnić miejsce dla jak największej liczby uczestników. W tym roku przed hotelem Kasprowy (miejsce konferencji to jeden z nielicznych elementów, który pozostał niezmieniony) pojawił się duży namiot, w którym odbyła się m.in. sesja plenarna, a także sesje ze ścieżki innowacje. Mimo tych starań liczba chętnych była większa, niż liczba dostępnych miejsc. W imprezie udział wzięło aż 1300 osób, a rejestracja zakończyła się na miesiąc przed rozpoczęciem Cisco Forum. Rafał Janus RYNEK Cisco otwiera w Krakowie EMEAR Security Operations Center Cisco Global Services Center w Krakowie rozszerza zakres działalności i dodaje nowe usługi. Jedną z nich jest EMEAR Security Operations Center (SOC), dostarczające klientom usługi związane z cyberbezpieczeństwem, od monitoringu i zarządzania, po kompleksową ochronę przed zagrożeniami. Polskie SOC jest trzecim – po Stanach Zjednoczonych i Japonii – które Cisco posiada na świecie. Taka struktura pozwala Cisco na całodobowe dostarczanie usług związanych z bezpieczeństwem IT w modelu „follow the sun”, czyli niezależnie od tego, w jakiej strefie czasowej zlokalizowani są klienci. Cisco Security Operations Center w Krakowie jest trzecim – po Stanach Zjednoczonych i Japonii – które firma ta posiada na świecie. Jak twierdzą przedstawiciele firmy, taka struktura pozwala Cisco na całodobowe dostarczanie usług związanych z bezpieczeństwem IT w modelu „follow the sun”, czyli niezależnie od tego, w jakiej strefie czasowej zlokalizowani są klienci. Z krakowskiego Security Operations Center świadczona jest usługa Cisco Active Threat Analytics (ATA). Umożliwia ona szybkie wykrycie i odpowiedź na incydenty bezpieczeństwa, dzięki analizie ruchu w sieciach klientów, ocenie danych telemetrycznych i wykorzystaniu globalnej wiedzy o aktualnych zagrożeniach. Inżynierowie w SOC zapewniają monitoring cyberzagrożeń i mogą zdalnie zarządzać infrastrukturą bezpieczeństwa. Jednak dziś nasi klienci i partnerzy stoją przed nowymi wyzwaniami, takimi jak cyfryzacja, coraz bardziej złożony krajobraz cyberbezpieczeństwa, nowe modele dostarczania IT i zapotrzebowanie na usługi IT nowego typu. Nowe funkcje, które teraz ogłaszamy, odpowiadają na te właśnie potrzeby i będą realizowane przez zespół ekspertów, który tu zbudowaliśmy przez ostatnie lata” – mówi Norm DePeau, dyrektor Cisco Global Services Center w Krakowie. Czwarty rok i dwie nowe usługi Cisco w Krakowie 1000 pracowników w Cisco Global Services Center Poza MEAR Security Operations Center, w krakowskim ośrodku Cisco uruchamiany jest Global Customer Success (GCS). Wspiera on klientów, którzy korzystają z subskrypcji Cisco na oprogramowanie, usługi, rozwiązania chmurowe i inne, pomagając w ich bardziej efektywnym wykorzystaniu w ramach procesów biznesowych klientów oraz w szybszym generowaniu realnych wyników. Cisco Global Services Center w Krakowie zatrudnia obecnie ok. 1000 osób. Do pracy w tej firmie specjalistów IT przyciągają m.in. oferowane warunki i atmosfera. 30 marca 2016 r. Cisco Poland zostało wybrane najlepszym miejscem pracy w Polsce w kategorii firm zatrudniających ponad 500 osób. Ranking sporządził Instytut Great Place to Work na podstawie anonimowych ankiet przeprowadzonych wśród pracowników Cisco w Warszawie i Krakowie oraz analizy stosowanych praktyk HR. Instytut Great Place to Work mierzy 5 kluczowych kategorii: wiarygodność, szacunek, uczciwość, poczucie dumy i relacje w firmie. Cisco uzyskało wyróżniającą się ocenę w każdej z powyższych kategorii. „W roku 2012 Cisco otworzyło centrum usług wspólnych w Krakowie, mając na celu zapewnienie klientom w Europie, na Bliskim Wschodzie, w Afryce i Rosji – region EMEAR – szerokiego zakresu usług w wielu językach, dostępnych z miejsca odpowiadającego ich strefom czasowym. Ten cel pozostaje aktualny. „Cisco Global Services Center w Krakowie odgrywa kluczową rolę w naszej strategii obsługi klientów, partnerów i pracowników w regionie EMEAR i poza nim, a stworzony tu zespół przerósł nasze najśmielsze oczekiwania. Cieszymy się, że rozbudowując krakowski ośrodek i dodając do niego nowe funkcje, możemy tworzyć nowe miejsca pracy dla inżynierów i ekspertów biznesowych, jednocześnie przyczyniając się do rozwoju w Polsce gospodarki opartej na wiedzy. W dzisiejszych czasach kluczem do sukcesu każdego przedsiębiorstwa jest znalezienie utalentowanych pracowników. Jesteśmy niezwykle dumni, że Cisco Poland zostało uznane najlepszym miejscem pracy w Polsce na podstawie opinii samych pracowników” – komentuje Norm DePeau. Cisco Global Services Center w Krakowie świadczy usługi wsparcia technicznego i biznesowego dla klientów, partnerów oraz pracowników Cisco, obejmując zakresem działań takie obszary, jak Consulting & Technical Services, Cloud & Managed Services czy Finance & Operations. Centrum należy do sieci ośrodków Cisco rozmieszczonych na całym świecie. Adam Jadczak kwiecień 2016 ITWIZ MAGAZYN 75 Już w czerwcu przedstawimy kolejną edycję raportu „Dwa oblicza rynku IT – Ranking firm IT i analiza potrzeb ich klientów” KTÓRY DOSTAWCA ROZWIĄZAŃ IT ZDOBĘDZIE 1 MIEJSCE W RANKINGU? JAKIE SĄ PLANY ZAKUPOWE NA TECHNOLOGIE INFORMATYCZNE POLSKICH PRZEDSIĘBIORSTW? W raporcie poruszymy takie tematy, jak: cyfrowa transformacja – przykłady udanych projektów i trendów wpływających na zmianę roli CIO i nowoczesnych technologii w poszczególnych sektorach gospodarki, współpraca IT i biznesu – działające i niedziałające modele, W raporcie ITwiz Best 100 opublikujemy także wiele analiz i porównań, m.in.: największe firmy IT w Polsce, największe grupy kapitałowe w Polsce, najbardziej zyskowne firmy IT w Polsce, najszybciej rozwijające się firmy IT w Polsce, najwięksi eksporterzy IT w Polsce, priorytety wydatków na IT w polskich przedsiębiorstwach i instytucjach, m.in. na: cloud computing, infrastrukturę IT, wirtualizację, pamięci masowe, systemy backupu i archiwizacji danych, bezpieczeństwo, oprogramowanie, sprzęt, usługi, rozwiązania sieciowe, rozwiązania mobilne, perspektywy rozwoju branży IT w ciągu 12 miesięcy, innowacje w polskiej branży IT – rynek polskich start-upów, ich pozycja na świecie, trendy technologiczne, które będą w największym stopniu wpływać na rozwój branży IT. najwięksi dostawcy rozwiązań IT w sektorach: administracja publiczna, banki, finanse, telekomunikacja, media, przemysł, utilities, handel, transport i logistyka, opieka zdrowotna, edukacja i R&D, największe firmy oferujące usługi IT (ogółem i w kilku podkategoriach), najwięksi dostawcy oprogramowania (ogółem i w kilku podkategoriach), najwięksi dostawcy sprzętu IT. 199 zł + 5% VAT wyślij: rezerwuję na adres: [email protected]