Integrator Review Wydanie Jubileuszowe
Transkrypt
Integrator Review Wydanie Jubileuszowe
WYDANIE JUBILEUSZOWE KWIECIEŃ 2010 BIULETYN INFORMACYJNY SOLIDEX PLATINUM CHANNELCONNECT PARTNER Spis treści 5 Wstęp 8 Wyścig z technologią ... na świecie 9 Switching czy routing? 11 Realizacja sieci wirtualnych w oparciu o sprzęt i oprogramowanie Cisco 15 Techniczne aspekty bezpieczeństwa sieci komputerowych 18 SSH - nowa era bezpiecznych połączeń? 21 Protokół IPSec - bezpieczeństwo w Internecie 24 Praktyczne zastosowania silnej autentykacji 27 Rewolucja Internetowa? 30 ContactCenter - wielomedialny kontakt z klientem 34 Usługi katalogowe - proces wdrożenia 40 Bezpieczeństwo pamięci masowych - storage security 43 Odpowiedzialność zawodowa informatyków i w informatyce 46 Rozliczanie usług typu prepaid w oparciu o SOLIDEX.callnet 49 System zarządzania treścią SmartContent 53 Produkty WebService: more:multinetR.CBSG 55 Kompendium wiedzy o load balancingu oraz omówienie load balancerów firmy Cisco, Juniper i F5 63 Cisco NAC Appliance i jego możliwości 68 Innowacja w zabezpieczeniu danych - Cisco GET VPN 74 Guest networking - realizacja dostępu gościnnego w sieciach 78 Przegląd rozwiązań mobilnych w świecie UC © SOLIDEX, 2010 20 lat SOLIDEX Wstęp Oddajemy do Państwa rąk okolicznościowy numer „Integratora” związany z 20-leciem istnienia firmy SOLIDEX. Prezentujemy w nim 20 artykułów pochodzących z poprzednich wydań naszego pisma. Ta swoista „historyczna podróż” pozwoli spojrzeć na przemiany jakie dokonywały się w technologiach, które SOLIDEX wdrażał wraz ze swymi Klientami. Staraliśmy się zaprezentować wybór artykułów ciekawych i jednocześnie pokazujących przegląd zagadnień z jakimi mieliśmy do czynienia. Znamienne jest to, że szereg tematów nie traci na aktualności. Niektóre powracają w zmienionej nieco formie, można powiedzieć „odmłodzone” nowymi osiągnięciami techniki. Cały czas jesteśmy świadkami przemian, które towarzyszą nam od 20 lat. Współdziałając z Klientami oraz dostawcami technologii staramy się tworzyć optymalne rozwiązania dobierając właściwe narzędzia i technologie stosownie do problemów i potrzeb Klientów. Mamy nadzieję, że nasze propozycje zyskają zainteresowanie naszych Klientów i będziemy wspólnie tworzyć historię kolejnych lat SOLIDEXu. „Dwie dekady SOLIDNego Integratora” 20 lat minęło… Trudno oprzeć się nutce refleksji a nawet nostalgii i melancholii zatrzymując się na okrągłych datach. Taką datą niewątpliwie jest 20 rocznica powstania SOLIDEXu. To naprawdę kawał czasu. 20 lat temu nie przypuszczaliśmy, dokąd zawiedzie nas historia. Były w minionych 20 latach chwile wzlotów i być może mniejszych lub większych upadków, chwile chwały i zwątpienia. Nie popadajmy jednak w patos – nie mnie oceniać doniosłość zdarzeń, bo chociaż byłem ich świadkiem, to nie jestem ich badaczem. Zostawmy tę kwestię kronikarzom i historykom. Zatrzymując się tylko nad niektórymi wydarzeniami, spróbuję prześledzić losy firmy na tle nowej rewolucji technologicznej, na okres której przypada jej historia. Historia zaczyna się paradoksalnie nie od istotnych faktów technologicznych ale od zmian polityczno-ustrojowych w Polsce. Dały one szansę rozwoju indywidualnej myśli, zaangażowania i przedsiębiorczości. Bez tych zmian z całą pewnością nie byłoby dziś SOLIDEXu. Pomijając szereg zbiegów okoliczności i szczęśliwych zdarzeń, które mocno wpłynęły nie tylko na początki ale i dalszy rozwój firmy, postaram się skupić jedynie na technologiach i historii rozwiązań technicznych jakie obserwowaliśmy w minionych 20 latach. Początki Pierwsze lata funkcjonowania firmy to zachłyśnięcie się „technologiami zachodu”. Po dość siermiężnym w tym względzie okresie lat 70 i 80 mogliśmy doświadczać obecności tych nowoczesnych wytworów technologii „zachodu” nie tylko na zdjęciach, opisach, czy tłumaczonych z języków obcych fachowych książkach. Fakt ten obecny był nie tylko w branży informatycznej – dotyczył również bardzo wielu innych dziedzin nauki, techniki i życia codziennego. Niech w pewnym sensie znamienny będzie fakt, że © SOLIDEX, 2010 5 ja osobiście po 5 latach studiów informatycznych miałem po raz pierwszy, już jako absolwent uczelni technicznej, możliwość własnoręcznie montować połączenia światłowodowe legendarnej technologii FDDI. Rozdźwięk, niemal przepaść technologiczna jaka dzieliła wówczas Polskę od krajów Europy Zachodniej oraz USA decydowały o tym, że nasza działalność skupiała się na naśladowaniu i próbach doścignięcia tych wzorców. Nikt nie analizował roli jaką rozwiązania te będą odgrywały w przyszłości, czy są rozwojowe i jakie niosą ze sobą ograniczenia. Wystarczyło proste stwierdzenie: „oni tak mają, to my też powinniśmy”. Wobec wspomnianej ogromnej różnicy poziomu dostępnych rozwiązań takie podejście było nie tylko usprawiedliwione ale również skuteczne. W taki oto sposób znalazły swoje miejsce w Polsce rozwiązania takie jak Ethernet czy TokenRing w sieciach LAN, FDDI w sieciach kampusowych i miejskich, stacje graficzne Sun czy SGI na wybranych stanowiskach pracy w firmach i uczelniach czy serwery sieciowe dysponujące ogromnymi na ówczesne czasy zasobami dyskowymi 2-10GB. Sieć rozległa – a co to takiego? Kolejnym istotnym z technologicznego punktu widzenia etapem rozwoju było rozpowszechnienie komputerowych sieci rozległych. Wobec braku praktycznych doświadczeń wykraczających poza transmisję modemową pomiędzy dwoma komputerami, nie mieliśmy dowodów na skuteczne działanie sieci WAN większej skali. Dobrze pamiętam wielogodzinne dyskusje z Klientami na temat możliwości zastosowania rozwiązań, które pozwolą komunikować się komputerom, do których modemy nie będą fizycznie podłączone i w ten sposób zbudować sieć rozległą. Wobec znanych z praktyki problemów z łączami i jakością transmisji, prawie wszyscy poddawali w wątpliwość możliwość zbudowania takiej sieci: „przecież to niemożliwe, żeby ten plik udało się przesłać bez błędów; my zawsze po takiej transmisji dzwonimy i sprawdzamy, czy plik udało się przesłać bez błędów; może w Stanach takie rozwiązania działają, ale nie w Polsce…”. Jak miało się szybko okazać, w Polsce również te rozwiązania zadziałały. Szlagierem rynkowym stały się sieci X.25 i rozwiązania umożliwiające ich wykorzystanie do połączenia ze sobą odległych sieci LAN. Poważnym problemem ówczesnych lat była mnogość protokołów sieciowych: DecNet, IP, XNS, IPX, AppleTalk, Apollo Domain, Banyan VINES, SNA, LAT – do wyboru do koloru. Tyle, że wcale kolorowo nie było. Ta swoista „wieża Babel” protokołów komunikacyjnych wprawiała w zakłopotanie nie tylko użytkowników ale również fachowców. Większość wspomnianych rozwiązań miała swoich firmowych „sponsorów”, którzy za wszelką cenę usiłowali udowodnić, że ich protokół jest najlepszy. Ciekawym zjawiskiem było oczekiwanie ze strony użytkowników, że firma taka jak SOLIDEX dostarczy rozwiązanie automatycznie tłumaczące transmisję pomiędzy różnymi protokołami. I na niewiele się zdawało tłumaczenie, że takich translatorów nie ma i nie będzie, że protokoły sieciowe są w większości rozwiązaniami prywatnymi firm, które te protokoły opracowały, że… Miało być tłumaczenie i już. Internet „słowo to zrobiło w ostatnich czasach oszałamiającą karierę…” (jeśli ktoś pamięta skecze „Spoko spoko stara, to ja, twój Niezależny” z programu 3 PR z lat osiemdziesiątych minionego wieku). Zanim jednak tę karierę zrobiło, zaczęło się nader skromnie (z dzisiejszego punktu widzenia) od poczty elektronicznej i grup dyskusyjnych Usenet. Stopniowo świat mnogich protokołów komunikacyjnych zmierzał do jednego wspólnego języka – protokołu TCP/IP. Nawet giganci tacy jak Microsoft po okresie sceptycznego traktowania tego wojskowo-akademickiego wynalazku przekonali się, że nie opłaca się iść pod prąd. Rosnąca rzesza użytkowników i firm dostarczających otwarte i zestandaryzowane rozwiązania przyczyniła się do sukcesu protokołu IP, o którym pewnie jego twórcy nawet nie śnili. Technologicznym kamieniem milowym w rozwoju sieci Internet stało się opracowanie standardu HTML i protokołu http pozwalających znacznie wygodniej korzystać z zasobów tej światowej sieci. Od tego momentu sieć Internet rozpoczęła transformację od rozwiązania stricte komunikacyjnego do infrastruktury informacyjnej sięgającej niemal wszystkich dziedzin INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 6 20 lat SOLIDEX życia. Podstawy sukcesu Internetu to standaryzacja technologii, otwartość dostępu do sieci i rzesze aktywnych użytkowników korzystających z informacji w sieci zawartych i zarazem tworzących tę zawartość. Współczesny Internet to bardziej zjawisko socjologiczne niż technika; poza niewątpliwymi zaletami wprowadza również zagrożenia: uzależnienia od sieci, cyberprzestępstwa, naruszanie własności intelektualnej,… Jednakże raz wprawionego w ruch mechanizmu tego „perpetum mobile” XXI wieku nie sposób zatrzymać. I nikt nawet nie próbuje, bo znacznie łatwiej i korzystniej wpisać się w ten ogólny nurt. Od czasu do czasu odzywają się jedynie głosy „naprawiaczy świata” wołające o konieczność nałożenia na ten wirtualny świat regulacji prawnych, ograniczeń, surowych sankcji – wszystko to w imię „dobra wspólnego”. Obserwując to co się w sieci dzieje można nad wyraz łatwo znaleźć uzasadnienie dla tego typu pomysłów. Żadne regulacje prawne nie zastąpią jednak zdrowego rozsądku i indywidualnej odpowiedzialności za własne czyny każdego z użytkowników. Bo myślenie i odpowiedzialność mają kolosalną przyszłość. Niestety wrażenie anonimowości w sieci rozluźnia bariery obyczajów, samokontroli, zwalnia od myślenia. Stanisław Lem powiedział „Dopóki nie skorzystałem z Internetu, nie wiedziałem, że na świecie jest tylu idiotów”. Myślmy zatem, i bierzmy odpowiedzialność za nasze czyny, również te w świecie wirtualnym, by własnym postępowaniem nie przyczyniać się do namacalnego dowodu tezy klasyka. A tak nawiasem mówiąc, to nie udało mi się w Internecie znaleźć skeczy o Niezależnym, więc to nieprawda, że w Internecie jest wszystko, albo jeśli jest wszystko, to niestety nie wszystko można odnaleźć. Upływ czasu w rozwiązaniach informatycznych Od wielu pokoleń przywykliśmy mierzyć czas w sekundach, godzinach, dniach i latach. To nasze „liniowe” postrzeganie czasu niestety nie bardzo przystaje do oceny „wiekowego zaawansowania” rozwiązań w informatyce. Obserwowane zmiany i postęp w minionych 20 latach skłaniają raczej do rozważenia zastosowania jakiejś logarytmicznej skali czasu. Upływ czasu w rozwiązaniach informatycznych mógłby być mierzony nie w sekundach, godzinach i latach, lecz w megabitach/s dostępnych w sieciach, których używamy. W taki to sposób moglibyśmy podzielić historię sieci komputerowych na kolejne dziesiątki megabitów na sekundę: 1Mbps, 10Mbps, 100Mbps, Gbps, 10Gbps. Dokąd zawiedzie nas ta skala w przyszłości ? Pewnie będziemy jeszcze świadkami kolejnych „dekad” tej historii, bo to co dziś wydaje się odległe i nieprzewidywalne w liniowej skali czasu, w skali logarytmicznej jest znacznie bliżej nas. Jaka czeka nas przyszłość? Jedyną pewność jaką dziś mamy, to pewność zmian. Przypisywane Heraklitowi powiedzenie „panta rhei kai ouden menei” sprawdza się po dzień dzisiejszy (może nawet jego obrazowa rzeka płynie jeszcze szybciej). Poddajemy się mimo woli powodzi zupełnie „nowych nowości”, nie zawsze zdając sobie sprawę, że wiele z tych nowinek to w istocie powtórnie wprowadzane w życie, „odmłodzone” stare koncepcje i pomysły. Bo współczesna informatyka to nie tylko technika ale również marketing. Może przede wszystkim marketing. Takie są losy wynalazku: od fascynata - wynalazcy lub grona uczonych fachowców, do masowej sprzedaży ze świątecznymi promocjami w supermarketach. Ulegając tej potędze marketingu zbyt łatwo przypinany różnym rozwiązaniom etykietki „naj…”, zanim praktyka zweryfikuje faktyczną ich przydatność. Rzeczywista trudność polega na tym, aby w tym morzu „nowych nowości” odnaleźć te faktycznie innowacyjne, stanowiące realną wartość, a nie tylko posiadające atrakcyjne opakowanie. Z nadzieją spoglądamy w przyszłość. Podstawą tej nadziei jest bagaż 20 lat doświadczeń oraz wiedza i zaangażowanie ludzi tworzących firmę. W kolejnych latach będziemy starać się sprostać standardom uczciwości, rzetelności i solidności wyznaczonymi przez dotychczasową historię firmy. Henryk Michalec Dyrektor ds. Rozwoju Technologicznego SOLIDEX © SOLIDEX, 2010 7 Wyścig z technologią ... na świecie Artykuł z Nr 1/1994 (1) Gwałtowny, praktycznie niekontrolowany rozwój Internetu na świecie i wzrost ilości dostępnych usług uczynił tą sieć praktycznym środkiem komunikacji nie tylko dla środowisk akademickich i naukowo-badawczych, ale także dla zastosowań komercyjnych. Wchodzące w powszechne użytkowanie techniki multimedialne są również motorem rozwoju technologii sieci komputerowych w zakresie połączeń międzysieciowych oraz dla końcowego użytkownika. Ostatnie kilkanaście miesięcy na światowym rynku to okres dynamicznych zmian technologii oferowanych komercyjnie dla budowy nowoczesnych sieci LAN, MAN i WAN i zastosowań „klientserwer”. Znaczny wkład w ich dynamiczny rozwój mają dwaj uznani liderzy światowego rynku, partnerzy SOLIDEXu już od ponad trzech lat: CISCO SYSTEMS (dotąd znany jako największy producent routerów), oraz SUN Microsystems (twórca standardu klient-serwer i największy producent stacji roboczych). SUN Microsystems wprowadził nowe rodziny szybkich stacji roboczych i serwerów opartych o procesory microSPARC II oraz superSPARC+. W stacjach roboczych serii 5 i 20 można zastosować nowe typy akcelerowanych 24-bitowych kart graficznych S24 i SX, optymalizowanych pod kątem zastosowań multimedialnych. Przełamana została bariera cenowa ograniczająca powszechność zastosowania stacji oraz bariera technologiczna pozwalając na sprawne wykorzystanie technik multimedialnych. CISCO SYSTEMS, dotychczas znany z technik wieloprotokołowego routingu poszerzył radykalnie swą ofertę w dwóch kierunkach: tanich węzłów dostępowych dla sieci rozległych, szybkich technologii dla sieci lokalnych (ATM, FDDI, Ethernet switching), zapewniających stanowiskom roboczym komunikację z przepustowością rzędu 100 Milionów bitów na sekundę. Nowa technologia CISCO o nazwie CiscoFusion pozwala na efektywne łączenie stanowisk roboczych w standardach ATM, FDDI czy Ethernet, switching oraz integrację z sieciami rozległymi pod ujednoliconą kontrolą międzysieciowego systemu operacyjnego zwanego CISCO IOS (Internetworking Operating System) i implementacje konceptu „Virtual LAN”. Wzrost zapotrzebowania na techniki multimedialne spowodował „przyspieszenie technologiczne” wśród czołowych producentów - oprócz ATM na rynek wchodzą inne techniki switchingu, a koncept „Virtual LAN” (oparty o równoległy routing i switching) pozwoli odetchnąć administratorom dużych sieci. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 8 20 lat SOLIDEX Switching czy routing? Artykuł z Nr 3/1995 (3) Komunikacja pomiędzy sieciami lokalnymi jest najistotniejszym czynnikiem decydującym o efektywności i niezawodności pracy sieci. Istnieje kilka metod realizacji takich połączeń. Pierwszą a zarazem najprostszą z nich jest bridging. Metoda ta jest obecnie wykorzystywana głównie do łączenia segmentów małych sieci lokalnych. Ze względu na brak możliwości zabezpieczenia dostępu do sieci i separacji ruchu typu broadcast i multicast w większych strukturach sieciowych, bridgingu nie stosuje się. Najczęściej stosowaną obecnie metodą komunikacji międzysieciowej jest routing. Ostatnio coraz większe znaczenie zyskuje również switching, w szczególności do budowy szybkich połączeń lokalnych w ramach kampusu czy sieci LAN. Technologia ta staje się również dostępna dla sieci MAN i WAN. ków są przywiązane do fizycznej infrastruktury sieci. Kiedy następują zmiany w organizacji instytucji lub zmiany lokalizacji grup roboczych czy ich części, muszą być dokonane modyfikacje sprzętowe (inne połączenia kablowe, interfejsy sieciowe, itp.) i zmiany adresacji urządzeń w sieci. Routery pracując w 3 warstwie modelu ISO OSI, wykorzystują bardzo zaawansowane techniki sprzętowe i programowe. Umożliwiają dzięki temu łączenie ze sobą różnorodnych sieci LAN, takich jak: Ethernet, Token Ring, FDDI i ATM oraz pozwalają budować struktury sieci rozległych (WAN) wykorzystujące różne media i technologie połączeń (point-to-point, X.25, Frame Relay, SMDS, ISDN, itd.) Routery pracując na poziomie 3 modelu OSI (poziom adresów logicznych) znoszą ograniczenia i niedogodności związane z zastosowaniem bridgy. Sieć wykorzystująca routery zapewnia optymalne drogi przesyłania pakietów dzięki zastosowaniu protokołów dynamicznego routingu takich jak IGRP, Enhanced IGRP, czy tez OSPF. Zalety związane z wykorzystaniem routerów spowodowały gwałtowny rozwój sieci komputerowych. Obecnie, sieci dużych instytucji, w których pracuje np. 1000 routerów firmy CISCO, nie są rzadkością. Umożliwiają one sprawną wymianę informacji i dostęp do zasobów tysiącom użytkowników komputerów. Ostatnio jako alternatywę lub uzupełnienie dla routingu coraz częściej stosuje się metodę switchingu. Metoda ta pozwala na polepszenie parametrów sieci, jej przepustowości i skalarności w sposób znacznie tańszy i zwykle nie mniej efektywny niż routing, dając jednocześnie możliwości realizacji wirtualnych połączeń, uniezależniając w ten sposób logiczną i fizyczną strukturę sieci. Obecnie switching rozwija się w dwóch kierunkach: Frame Switching Cell Switching Jedynym mankamentem sieci budowanych z wykorzystaniem routerów jest fakt, iż grupy robocze użytkowni- Frame Switching Metoda ta polega na switchingu ramek o zmiennej długości (np. Ethernet, Token Ring). Głównym zadaniem switchingu ramek jest ograniczenie zbędnego ruchu w sieci oraz zwiększenie możliwości komunikacyjnych w jej obrębie poprzez zastosowanie techniki mikrosegmentacji. Mikrosegmentacja sieci polega na podziale jej użytkowników na grupy robocze (zazwyczaj budowane w oparciu o pojedynczy segment sieciowy), z których każda posiada dedykowane pasmo przepustowości. Ramki są przesyłane przez sieć zgodnie z ustalo- ną ścieżką od stacji nadawczej do stacji odbiorczej. Operacja ta jest podobna jak w technice bridgingu oprócz ruchu typu broadcast i multicast. Ramki broadcast/multicast są przesyłane tylko do portów należących do tej samej sieci logicznej, a nie do wszystkich portów. Ruch pomiędzy sieciami logicznymi jest regulowany przez urządzenia routerowe. Urządzenia realizujące switching ramek pracują w 2 warstwie modelu OSI ISO. Typowym przykładem takiego switchingu jest Ethernet switching, który zapewnia m.in.: pełną prędkość transmisji 10 Mbps administrację wieloma sieciami logicznymi równoległe i redundantne połączenia. Technika taka pozwala na znaczne polepszenie parametrów sieci przy bardzo małych nakładach, gdyż nie wymaga instalacji nowych interfejsów w stacjach czy routerach. Cell Switching Ten rodzaj switchingu operuje na ramkach o stałej długości. Przykładem takiej technologii jest ATM (Asynchronous Transfer Mode). Każda informacja (dane, video, fonia) musi być „enkapsulowana” (odpowiednio dzielona i pakowana) w ramkę ATM. Technika taka pozwala na obsługę aplikacji działających w czasie rzeczywistym (multimedia), zapewniając większą skalowalność i efektywność urządzeń. © SOLIDEX, 2010 9 Cechy switchingu Obydwie przedstawione metody switchingu cechuje duża skalowalność oraz możliwość budowy zarządzalnych sieci wirtualnych. Przepustowość sieci opartych na switchach można prawie dowolnie dostosowywać do wymogów użytkowników. Zwiększenie ilości portów na switchu pociąga za sobą konieczność zwiększenia jego przepustowości. munikację pomiędzy wieloma segmentami sieci. Ze względu na małą ilość stacji w danym segmencie zmniejsza się również czas dostępu do medium. Dla realizacji tej techniki, idealnym wydaje się switching. Pozwala osiągnąć cel za pomocą nieporównywalnie mniejszych kosztów niż router, dając jednocześnie znacznie większe możliwości zarządzania i sterowania ruchem w sieci niż bridge. Kolejną bardzo istotną cechą switchingu jest możliwość tworzenia sieci wirtualnych (Virtual Networks, Virtual LAN). Sieci wirtualne pozwalają na uniezależnienie logicznej topologii sieci od jej fizycznej topologii. Stacje należące do jednej wirtualnej sieci mogą być rozproszone po całym kampusie, natomiast dostęp do nich odbywa się tak jakby należały do jednego wspólnego segmentu sieci LAN. Sieci wirtualne Aby sprostać coraz większemu zapotrzebowaniu na przepustowość w sieciach komputerowych wielu projektantów rozważa wykorzystanie nowych technologii. Podstawowe nadzieje wiąże się z technologią ATM (Asynchronous Transfer Mode), która obiecuje bardzo duże szybkości przesyłania informacji oraz możliwość przesyłania danych, obrazu i dźwięku. Drugą podstawową, coraz częściej wykorzystywaną technologią, jest technologia FDDI lub CDDI. Trzecia to tzw. LAN switching, który umożliwia komunikację między dwoma urządzeniami sieci komputerowej z przepustowością standardu (np. Ethernet). Urządzenia komunikujące się ze sobą nie dzielą przepustowości medium z innymi, zestawiając między sobą połączenie na potrzeby własnej komunikacji. Rozwiązanie to zwiększa elastyczność i możliwość zarządzania ruchem w sieci. Możliwości takie nie są dostępne w sieciach budowanych w oparciu o bridge czy routery. Zwiększenie przepustowości tradycyjnej sieci polega na zwiększeniu prędkości pracy (Token Ring z 4 Mbps do 16 Mbps, Ethernet z 10 Mbps do 100 Mbps). Rozwiązanie takie pociąga za sobą znaczne koszty związane z medium transmisji oraz zmianę interfejsów we wszystkich stacjach. Inną metodą na polepszenie parametrów sieci jest jej podział na wiele segmentów z kilkoma stacjami. Krańcowym, a zarazem idealnym przypadkiem mikrosegmentacji będzie segment z jedną tylko stacją. Technika taka zapewnia równoległą ko- Wykorzystując technologię ATM do realizacji rdzenia sieci, technikę LAN switching do organizacji sieci lokalnych oraz technologię routingu, mamy możliwość budowy sieci komputerowych o nowych własnościach dotyczących przepustowości, realizacji grup roboczych i technologii klient-serwer oraz zarzą- dzania i ochrony sieci. W takim środowisku pojawia się możliwość realizacji tzw. „sieci wirtualnych” (Virtual LAN). Przypomnijmy, że obecnie użytkownik sieci należący do określonej grupy roboczej podłączony jest do tego samego koncentratora co inni przedstawiciele grupy (lub tego samego portu routera). Każdy koncentrator lub pojedynczy LAN umożliwiają komunikacje w obrębie grupy roboczej. Wszelkie zmiany w takiej strukturze wymagają zmian okablowania (np. krosowanie połączeń dla okablowania strukturalnego) oraz zmian w adresacji sieci. Dla sieci wirtualnych zmiany logiczne sieci nie pociągają za sobą konieczności zmian fizycznej infrastruktury. Dzieje się to dlatego, ze dany port switcha może być przypisany przez zmianę konfiguracji „softwarowej” do innej grupy roboczej. Multilayer Switching Pod tym terminem kryje się konglomerat technologii switchingu i routingu działających w warstwie drugiej i trzeciej modelu OSI zapewniający realizację równolegle szybkiego przełączania ramek czy komórek z możliwościami operowania na ich zawartości dla dokonywania inteligentnych akcji niezbędnych dla podejmowania decyzji sterujących ruchem na zasadach jak w mechanizmach routingu. Multilayer Switching jest technologią, która pozwala na łączenie różnych standardów mediów i protokołów i ich równoległego przesyłania z bardzo dużą szybkością. Przykładem urządzeń realizujących wielowarstwowe przełączanie jest prezentowany w Integratorze LightStream 2020 oraz Catalyst 5000. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 10 20 lat SOLIDEX Realizacja sieci wirtualnych w oparciu o sprzęt i oprogramowanie Cisco Artykuł z Nr 10-11/1996 (18) Postęp w dziedzinie sieci komputerowych w ostatnich latach objawia się dostępnością nowych szerokopasmowych technologii (FastEthernet 100Mbps, ATM) oraz wprowadzaniem nowych koncepcji wykorzystania sieci komputerowych w zastosowaniach multimedialnych (przesyłanie obrazów, filmów, konferencje foniczne oraz video). Wobec wszechobecnego postępu rodzi się pytanie jak efektywnie zagospodarować zasoby zgromadzone w już zainstalowanych sieciach. Czy dla nowych idei zastosowań sieci konieczna jest kompletna wymiana instalacji sieciowych, sprzętu komputerowego oraz oprogramowania? Ze względu na ogromną ilość sprzętu i oprogramowania pracującego w sieciach komputerowych na całym świecie, praktycznie niemożliwym jest dokonanie jego kompletnej wymiany. Czynniki rynkowe stawiają wymóg dla nowych rozwiązań i technologii by ich wdrożenie oraz eksploatacja była możliwa w warunkach zachowania inwestycji z lat ubiegłych. Elementem pozwalającym sprawnie integrować nowe rozwiązania technologiczne oraz nowe idee eksploatacji sieci komputerowych z tradycyjnymi, wykonanymi kilka lat temu instalacjami sieciowymi jest technologia przełączania - switching. Switching w sieciach lokalnych pozwala zwiększyć efektywne pasmo transmisji dostępne dla indywidualnych komputerów lub ich grup, uzyskać sprawniejszy dostęp do współdzielonych zasobów w sieciach oraz jest podstawą do realizacji logicznego podziału sieci na grupy robocze - zespoły użytkowników dzielących wspólne zasoby i realizujących wspólne zadania. Mechanizmem pozwalającym realizować logiczny podział sieci na grupy są sieci wirtualne (VLAN). W dalszych rozważaniach skupimy się na technologii Ethernet aczkolwiek większość uwag oraz wniosków prezentowanych poniżej jest słusznych również dla innych technologii sieci LAN (np. Token Ring). Klasyczne struktury sieci LAN Klasyczne realizacje lokalnych sieci komputerowych bazują na technologii repeaterów lub bridge’y. Repeatery pozwa- lają pokonać podstawowe ograniczenia odległościowe związane ze stosowaniem konkretnych technologii okablowania sieciowego. Charakterystyczne dla sieci budowanych na repeaterach jest propagowanie pakietów w całej strukturze połączeń fizycznych obejmujących sieć LAN, czego skutkiem jest współdzielenie pasma transmisji przez użytkowników sieci LAN co obniża jej efektywność. Całe pasmo transmisji, np. 10Mbps dla technologii Ethernet, musi wystarczyć dla wszystkich użytkowników - w związku z tym statystycznie na jednego użytkownika przypada fragment pasma, którego szerokość jest odwrotnie proporcjonalna do ilości użytkowników. Sieci budowane na bridge’ach pozwalają nie tylko pokonać ograniczenia odległościowe ale również dają możliwości separacji ruchu w sieciach. Technologia bridgingu, bazując na interpretacji adresów fizycznych MAC komputerów pracujących w sieci, pozwala wyeliminować zbędne przesyłanie pakietów do innych fragmentów sieci niż ten, w którym znajduje się odbiorca pakietu. Technologia switchowanego Ethernetu pozwala efektywniej zarządzać pasmem transmisji dostępnym dla poszczególnych stanowisk. Switch Ethernet z punktu widzenia sposobu interpretacji adresów docelowych zapisanych w poszczególnych pakietach jest de facto wieloportowym bridgem. W stosunku do bridge’a posiada możliwości równoczesnego przesyłania pakietów pomiędzy różnymi parami interfejsów, co w efekcie podnosi ogólną przepustowość sieci. Broadcasty w sieci LAN Zarówno bridge jak też switche propagują pakiety broadcastowe (adresat tych pakietów jest nieokreślony) oraz multicastowe (adresatem jest grupa urządzeń). Przy wykorzystaniu pakietów broadcastowych realizowany jest szereg usług sieciowych, zwłaszcza związanych z automatycznym kojarzeniem adresów warstwy trzeciej z adresami MAC (protokoły Address Resolution Protocol - ARP) oraz rozpoznawaniem serwerów oraz usług w sieciach. W praktyce większość pakietów broadcastowych zawiera informacje istotne dla bardzo nielicznych stanowisk, np. pytanie ARP o adres MAC kierowane do komputera o określonym adresie sieciowym w warstwie trzeciej musi być wysłane jako broadcast warstwy drugiej - odbiorcą takiej informacji jest jeden komputer. Bardzo istotne znaczenie ma fakt, że pakiety broadcastowe oraz multicastowe wymagają pełnej obsługi od każdego komputera, tak jak pakiety do niego adresowane - w sieciach o dużej liczbie stanowisk powoduje to wzrost obciążenia procesorów wszystkich komputerów dla obsługi zupełnie nieużytecznych zadań. W praktyce mamy stosunkowo niewielkie możliwości wpływania na ilość broadcastów w sieci LAN. Częściowo ich ilość daje się ograniczyć przez poprawne skonfigurowanie i odpowiednie dostrojenie oprogramowania sieciowego komputerów. Dla większości przypadków ilość broadcastów w sieci zależy od rodzaju zastosowanego protokołu sieciowego warstwy trzeciej oraz charakteru pracy oprogramowania. W © SOLIDEX, 2010 11 konkretnych przypadkach przyjmuje się założenia projektowe ograniczające ilość komputerów zlokalizowanych w domenie broadcastowej zależne od wykorzystywanego protokołu warstwy trzeciej oraz konfiguracji i rodzaju oprogramowania - ogólnie można stwierdzić, że liczba ta nie przekracza 500 stanowisk w jednym obszarze broadcastowym. Bezpieczeństwo w sieciach LAN Zarówno dla sieci budowanych w oparciu o repeatery jak też o switche lub bridge wspólną cechą jest przesyłanie pakietów do ich odbiorców bez możliwości sprawdzania kto jest nadawcą pakietu oraz jakie dane (jakie protokoły) przesyłane są w jego wnętrzu. Rezultatem tej cechy jest możliwość dostępu do wszystkich zasobów (serwerów oraz świadczonych przez nich usług) zlokalizowanych w sieci LAN co uniemożliwia wręcz konstruowanie mechanizmów ochrony danych i usług. Usługi dostępne w sieciach są zwykle dedykowane dla konkretnych użytkowników. Zasady dostępności usług określane są przez odpowiedzialnych za bezpieczeństwo danych pracowników firmy - osoby te ściśle współpracują z zespołami administratorów systemów komputerowych przy implementacji przyjętych metod zabezpieczeń. Dla wdrożenia mechanizmów ochrony danych konieczna jest dostępność środków technicznych - jednym z nich jest możliwość kontrolowania adresów nadawców oraz odbiorców pakietów jak też identyfikacji usług sieciowych w poszczególnych pakietach. Ani repeatery ani bridge bądź switche takich możliwości niestety nie dają. Sieć wirtualna Wiele instytucji posiadających infrastrukturę sieci LAN stawia wymaganie podziału użytkowników pracujących w tych sieciach na grupy stosownie do zakresu ich obowiązków, zajmowanego stanowiska, działu w jakim są zatrudnieni etc. Jednym z efektów wprowadzenia takiego podziału jest podniesienie bezpieczeństwa zasobów - wybrane usługi są dostępne jedynie dla członków grupy. Spełnienie wymogu podziału użytkowników na grupy w przypadku kla- sycznych struktur sieci LAN jest możliwe przez rekonfigurację fizycznej struktury okablowania. Dla sieci zbudowanych na tzw. okablowaniu strukturalnym każdy z komputerów podłączony jest swoim indywidualnym przewodem (najczęściej skrętką 4-parową) prowadzącą do punktów zbiorczych okablowania (tzw. paneli krosujących) gdzie dokonuje się połączeń poszczególnych komputerów ze sobą w sieci LAN poprzez repeatery lub switche. Dla tego typu sieci rekonfiguracje polegają na zmianie układu połączeń na panelach krosujących - tworzone są w ten sposób niezależne sieci LAN grupujące użytkowników poszczególnych zespołów. Zmiany struktury okablowania, łatwe do wykonania w incydentalnych przypadkach, stają się uciążliwe w sieciach o dużej dynamice zmian, dużej ilości urządzeń oraz użytkownikach często zmieniających przynależność do określonych grup (czasami nazywanych „grupami roboczymi” i kojarzonych z konkretną siecią LAN). trator (hub - repeater) w okablowaniu strukturalnym. Przynależność do konkretnej sieci wirtualnej określana jest dla każdego z portów switcha dla sieci wirtualnych definiowanych statycznie lub przez identyfikację adresu MAC włączanego komputera dla dynamicznych sieci VLAN. Jeśli do danego portu switcha podłączonych jest więcej stanowisk (np. poprzez repeater, bridge, lub switch nie posiadający możliwości realizacji sieci wirtualnych), to wszystkie te stanowiska muszą należeć do jednej sieci wirtualnej - mianowicie do tej, która „obowiązuje” na współdzielonym przez nie porcie switcha. Sytuacja taka w szczególności ma miejsce w przypadku podłączania grupy komputerów pracujących w sieci z okablowaniem koncentrycznym do portu switcha - wszystkie tak podłączone komputery należą do tej samej sieci wirtualnej. W większości przypadków na decyzję o podłączaniu całej grupy komputerów do jednego portu switcha mają czynniki finan- Koncepcja sieci wirtualnych pozwala na definiowanie postaci struktury sieci LAN w sposób programowy przez zmianę konfiguracji oprogramowania switchy, bez konieczności ingerencji w strukturę fizycznych połączeń. Dla uzyskania pełnej efektywności możliwości konstruowania wirtualnych sieci LAN konieczne jest zapewnienie, by każdy z komputerów podłączony był do niezależnego portu switcha - uzyskujemy w ten sposób efekt nazywany niekiedy mikrosegmentacją. Pośrednio wprowadza to wymaganie użycia instalacji okablowania strukturalnego ponieważ w tym przypadku istnieje możliwość podłączania indywidualnych komputerów do elementów koncentrujących (w przypadku sieci wirtualnych elementami koncentrującymi są switche). Dla okablowania wykonanego przewodem koncentrycznym („cienki Ethernet” - cheapernet 10Base2, „gruby Ethernet” 10Base5) wszystkie połączone komputery współdzielą pasmo transmisji - ich wzajemne połączenie jest funkcjonalnie odpowiednikiem połączenia komputerów przez koncen- sowe - cena jednego portu Ethernet w switchu jest jak na razie znacznie wyższa niż cena portu w koncentratorze. W praktyce dla dużych sieci, dla których zdecydowano o podłączaniu indywidualnych stanowisk wprost do switchy, nie jest możliwe aby wszystkie komputery były podłączone do jednego switcha - po prostu nie istnieją switche oferujące więcej niż sto kilkadziesiąt portów (zwykle jest to znacznie mniejsza wartość). Drugim powodem jest konieczność ograniczania ilości komputerów pracujących w jednej domenie broadcastowej w celu uniknięcia zbędnego obciążania procesorów komputerów obsługą pakietów broadcastowych oraz multicastowych. Istnieje zatem potrzeba „rozciągnięcia” struktury sieci wirtualnej poza granice jednego switcha. Wprowadza to koniecz- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 12 20 lat SOLIDEX ność wyposażenia switchy w mechanizmy przekazywania informacji o sieciach wirtualnych pomiędzy switchami (najlepiej by mechanizmy te były zestandaryzowane dla umożliwienia współpracy urządzeń różnych producentów). Szczegółowe techniczne aspekty tej kwestii omówiono w następnym punkcie. Realizacja sieci wirtualnych Dla realizacji sieci wirtualnych konieczne są switche wyposażone w odpowiednie oprogramowanie (nie każdy switch sieci lokalnych daje takie możliwości). W obrębie jednego switcha realizacja sieci wirtualnych polega na określeniu przynależności każdego z portów do konkretnej sieci wirtualnej. Zwykle odbywa się to przez wydanie odpowiedniego polecenia konfiguracyjnego w trybie pracy terminalowej ze switchem (lokalna konsola lub zdalna sesja terminalowa) bądź też przesłanie odpowiedniego polecenia SNMP przy wykorzystaniu oprogramowania zarządzającego (często wyposażonego w intuicyjny interfejs graficzny). Otrzymujemy w ten sposób rozłączne podzbiory portów switcha - każdy z podzbiorów stanowi odrębną grupę w ramach której odbywa się switching (bridging); jest to grupa stanowiąca sieć wirtualną. Podział logiczny switcha jaki następuje wskutek takiej konfiguracji powoduje, że otrzymujemy kilka autonomicznych logicznych switchy umieszczonych w jednym fizycznym urządzeniu. Pomiędzy grupami tworzącymi odrębne sieci wirtualne nie ma możliwości komunikacji poprzez switch tworzący te grupy. Dla zapewnienia komunikacji między poszczególnymi grupami interfejsów konieczne jest ich „zewnętrzne” połączenie. Nie ma większego praktycznego sensu łączenie takich grup przez repeater lub bridge’a (switcha) - w takim przypadku można przecież po prostu zdefiniować jedną grupę interfejsów. Połączenie kilku sieci wirtualnych wymaga użycia technologii interpretujących pakiety głębiej niż w warstwie drugiej jak czynią to switche. Jedyne sensowne połączenie grup interfejsów (stanowiących odręb- ne sieci wirtualne) odbywa się przez router. Z punktu widzenia konfiguracji routera oraz adresacji w protokołach sieciowych warstwy trzeciej połączenie takie można porównać z połączeniem dwóch, fizycznie wyodrębnionych sieci LAN przez router. W najprostszym przypadku dla realizacji takiego połączenia konieczny jest router wyposażony w co najmniej dwa interfejsy Ethernet (dokładniej mówiąc, w taką ilość interfejsów, ile niezależnych sieci wirtualnych mamy zamiar połączyć). Bardziej złożone przypadki, w których łączenie sieci wirtualnych odbywa się przez router z jednym fizycznym interfejsem zostaną omówione w dalszej części. W praktyce niezwykle rzadko zdarza się, by cała struktura sieci lokalnych bazowała na dokładnie jednym switchu. Istnieje zatem konieczność realizacji sieci wirtualnych rozciągających się na wiele switchy. Dla przykładu, mając dwa switche X oraz Y chcemy skonfigurować sieci wirtualne A, B oraz C, tak by odpowiednio porty X1, X3, X4 switcha X oraz porty Y1, Y2, Y4 tworzyły sieć wirtualną A, porty X2, X6, X8 oraz porty Y6, Y7, Y8 tworzyły sieć wirtualną B zaś porty X5, X7 oraz Y3, Y5 sieć wirtualną C. Jak widać mamy tutaj trzy sieci wirtualne (A, B oraz C) rozciągające się na dwóch switchach (tzn. takie, których elementy-porty znajdują się zarówno na switchu X jak też na switchu Y). Najprostszy sposób komunikacji wewnątrz sieci wirtualnych pomiędzy switchami jest połączenie switchy w taki sposób, by połączona była para interfejsów na różnych switchach pochodząca z tej samej sieci wirtualnej. W powyższym przykładzie należałoby switche X oraz Y połączyć trzema niezależnymi połączeniami (każde z połączeń na rzecz innej sieci wirtualnej) łącząc np. porty X1-Y1 dla sieci A, X2-Y6 dla sieci B oraz X5-Y3 dla sieci C. Takie rozwiązanie problemu nie może być uznane za zadowalające. Nie oferuje ono wystarczającej elastyczności - możemy między switchami skonfigurować tyle sieci wirtualnych iloma dysponujemy połączeniami. Ponadto rozwiązanie takie wymaga zużycia na połączenia między switchami por- tów - nie mogą być one użyte do podłączenia komputerów. Zrealizowane połączenia fizyczne między switchami ograniczają nam możliwości definiowania sieci wirtualnych (ograniczają np. ich ilość do ilości połączeń między switchami jak również wpływają na topologię sieci wirtualnych). Dla uzyskania pełnej swobody w konfigurowaniu sieci wirtualnych musielibyśmy zrealizować połączenia switchy „każdy z każdym” (co dla n switchy daje nam nx(n-1) połączeń). Następnie musielibyśmy zwielokrotnić ilość połączeń między każdą parą switchy przez liczbę sieci wirtualnych jakie zamierzamy konfigurować (jeśli chcemy uzyskać k sieci wirtualnych, to musielibyśmy zarezerwować na każdym z n switchy kxnx(n-1) portów). Jak zatem widać konieczny jest mechanizm pozwalający łączyć fragmenty sieci wirtualnych zdefiniowanych na różnych switchach w bardziej efektywny sposób. Interfejsy „trunk” Switche posiadające możliwości konfigurowania sieci wirtualnych rozciągających się na kilka fizycznych switchy wyposażone są w interfejsy mogące pracować jednocześnie z wieloma sieciami wirtualnymi. Oznacza to, że przez dany interfejs switcha przesyłane są pakiety należące do różnych sieci wirtualnych. Interfejsy takie nazywa się często „trunk interface”. Należy zwrócić uwagę na fakt, że pomimo pracy jednego fizycznego interfejsu z kilkoma sieciami wirtualnymi nie dochodzi do „logicznego kontaktu” pomiędzy sieciami wirtualnymi. Tak więc również w tym przypadku do komunikacji pomiędzy różnymi sieciami wirtualnymi konieczny jest router. Nie należy mylić komunikacji sieci wirtualnych między sobą z komunikacją fragmentów tej samej sieci wirtualnej rozciągającej się na kilka switchy, do czego służą interfejsy „trunk”. Przesyłanie pakietów należących do różnych sieci wirtualnych przez ten sam fizyczny interfejs możliwe jest dzięki mechanizmom oznaczania pakietów. Każdy z pakietów ma we własnym wnętrzu zapisany znacznik - najczęściej jest nim wartość numeryczna. Każda z sieci wirtualnych ma własne, unikatowe w skali środowiska fizycznie połączonych © SOLIDEX, 2010 13 switchy oznaczenie. Oznaczenie takie jest nadawane pakietowi przez switch w momencie wysyłania pakietu przez interfejs „trunk”. Pakiet, otrzymawszy oznaczenie, wędruje z nim przez środowisko współdzielone przez wiele sieci wirtualnych i trafia do switcha, do którego podłączony jest docelowy komputer pracujący w sieci wirtualnej oznaczanej identycznie jak to zapisane wewnątrz pakietu. Switch odbierający oznaczony pakiet jest obowiązany usunąć oznaczenie przed wysłaniem pakietu przez odpowiedni interfejs docelowy. Dzięki temu urządzenia pracujące w sieciach LAN nie muszą być wyposażone w mechanizmy interpretacji oznaczeń pakietów. Ponieważ komputery w sieciach lokalnych nie „widzą” oznaczonych pakietów, więc nie muszą umieć nadawać oraz usuwać oznaczenia. Nie ma zatem konieczności modyfikowania oprogramowania pracującego na komputerach, tak aby komputery te mogły korzystać z sieci wirtualnych. Mechanizmy interpretacji oznaczeń pakietów są konieczne dla serwerów, które zamierzamy udostępniać poprzez interfejsy „trunk” switcha dla więcej niż jednej sieci wirtualnej. Podobnie wirtualną z emulowaną w środowisku ATM siecią LAN. Środowisko sieci ATM musi posiadać skonfigurowanych tyle emulowanych sieci LAN ile sieci wirtualnych mamy zamiar połączyć. Na uwagę zasługuje fakt, że jest to jak na razie jedyny w pełni zestandaryzowany mechanizm oznaczania pakietów w sieci wirtualnej na interfejsie „trunk”. Dla interfejsu FDDI Cisco stosuje w celu rozróżniania sieci wirtualnych adaptację standardu IEEE 802.10. Standard IEEE 802.10 opracowany został dla umieszczania w ramce informacji pozwalających zweryfikować odbiorcy autentyczność odbieranych informacji. Rozszerza on podstawową postać ramki o pola pozwalające zapisać w zakodowanej postaci adresy MAC nadawcy oraz odbiorcy oraz stwierdzić, czy informacja zawarta w ramce nie została zmieniona w trakcie transmisji. Adaptacja standardu stosowana dla oznaczania przynależności pakietów do konkretnej sieci wirtualnej wykorzystuje niektóre z pól przewidzianych przez IEEE 802.10 do zapisania identyfikato- Technicznie sposób oznaczania pakietów zależny jest od rodzaju interfejsu jakim pakiety mają być przesyłane. Niestety, obecnie mechanizmy te opracowane są jedynie dla wybranych typów interfejsów (ATM, FDDI oraz Fast Ethernet) i różnią się zasadniczo między sobą. Brak jest stosownych mechanizmów dla interfejsów Ethernet oraz TokenRing - interfejsy takie nie mogą pracować jako „trunk”. router musi umieć interpretować oznaczenia pakietów w celu realizacji routingu pomiędzy sieciami wirtualnymi. Interfejs „trunk” podłączony do routera pozwala łączyć sieci wirtualne poprzez router wyposażony w jeden interfejs fizyczny. Dla interfejsu ATM do rozróżniania pakietów należących do różnych sieci wirtualnych wykorzystywany jest standard LAN Emulation. Na switchach wyposażonych w interfejs ATM pełniący rolę interfejsu „trunk” łączymy logicznie grupy interfejsów tworzące sieć ra sieci VLAN - wymaga to od urządzeń sieciowych właściwej interpretacji zawartości ramki w celu określenia sieci wirtualnej do jakiej należy dany pakiet. Dla interfejsu Fast Ethernet Cisco opracowało własną metodę nazwaną ISL (Inter Switch Link). Podstawowa ramka Ethernet rozszerzana jest o 30 bajtów, wśród których 15 bitów przeznaczonych jest na zakodowanie identyfikatora sieci VLAN. Przez rozszerzenie ramki o 30 bajtów ulega zmianie maksymalna wielkość ramki z 1518 do 1548 baj- tów. W niektórych urządzeniach FastEthernet ramka o długości większej niż 1518 bajtów może być traktowana jako niepoprawna. Przy doborze koncentratorów FastEthernet dla środowiska mającego łączyć interfejsy „trunk” FastEthernet z protokołem ISL należy zwracać uwagę, czy koncentrator będzie zezwalał na przesyłanie ramek o wielkości do 1548 bajtów. Koncentratory FastEthernet Cisco spełniają ten wymóg. Trwają prace nad pełną standaryzacją połączeń międzyswitchowych - IEEE 802.1q. Być może w przyszłości pozwoli to konfigurować funkcje „trunk” na dowolnym typie interfejsu. Podsumowanie Przyjmując za punkt wyjścia ewolucyjne przekształcanie struktur sieci komputerowych w celu umożliwienia obsługi nowego rodzaju zadań jakimi są obsługa przesyłania obrazów, dźwięku, video itp. postrzegamy technologię switchingu jako jedno z rozwiązań technicznych integrujących środowisko klasycznych sieci LAN oraz nowe technologie i idee zastosowań. Efektywne wdrożenie switchingu jak również możliwości zastosowania w środowisku sieci LAN nowych technologii jak ATM czy FastEthernet związane są z wymogami odpowiedniego okablowania. Niewątpliwie w tym względzie przyszłość należy do okablowania strukturalnego. Dla sieci zrealizowanych na okablowaniu koncentrycznym jesteśmy niestety zmuszeni pozostać przy schemacie współdzielonego medium transmisji bądź przebudować istniejącą infrastrukturę. Nowoczesne metody zarządzania sieciami LAN dają nam do dyspozycji tak efektywne narzędzia jak sieci wirtualne. Połączenie tych mechanizmów z szerokopasmowymi technologiami możliwymi do zastosowania w rdzeniu sieci daje niespotykane dotychczas możliwości tworzenia struktur sieci komputerowych w pełni odpowiadających wymogom stawianym przez organizację oraz sposób funkcjonowania przedsiębiorstwa. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 14 20 lat SOLIDEX Techniczne aspekty bezpieczeństwa sieci komputerowych Artykuł z Nr 11-12/1997 (26) Tworząc współcześnie sieć teleinformatyczną jednym z podstawowych wymogów jaki stawiany jest ich projektantom i wykonawcom jest zapewnienie odpowiedniego poziomu zabezpieczenia sieci. Dotyczy to zarówno sieci lokalnych, jak i sieci o zasięgu ogólnokrajowym, czy nawet światowym. Jednak w wielu przypadkach stwierdzenie odpowiedni poziom zabezpieczeń rozumiane jest bardzo różnie ze względu na różny poziom realnych potrzeb i świadomość użytkowników. Artykuł ten jest próbą scharakteryzowania i usystematyzowania funkcji i metod poszczególnych elementów składających się na spójny i kompletny system zabezpieczania sieci teleinformatycznej. Niezawodność sieci Często jednym z najistotniejszych elementów zabezpieczeń sieci jest zapewnienie nieprzerwanej jej pracy. W zależności od sposobu wykorzystywania struktury sieciowej przyjmowane są różne definicje zapewnienia ciągłości pracy sieci, dla jednych akceptowalna będzie nawet kilkugodzinna przerwa w pracy, dla innych 5 minut to znacznie za długo. Uwzględniając swoje własne kryteria ciągłości pracy należy przewidzieć stosowanie zapasowych elementów sieci. Dotyczy to przede wszystkim nadmiarowości mediów transmisyjnych (zarówno w sieciach LAN, jak i WAN) oraz urządzeń aktywnych sieci (routery, switche, huby, itp.). Nadmiarowość łączy w sieciach rozległych realizowana jest zależnie od typu stosowanych linii poprzez zapewnienie co najmniej kilku możliwych dróg transmisji pomiędzy każdymi dwoma punktami sieci. Wybór drogi odbywa się automatycznie w oparciu o oprogramowanie urządzeń aktywnych sieci (routerów, switchy). Jeżeli nie są wykorzystywane połączenia punkt-punkt, ale publiczne sieci wielodostępne (x.25, Frame Relay, ATM) można bazować na pewnej nadmiarowości połączeń zapewnianej przez operatora sieci publicznej. W takiej sytuacji stosowanie ewentualnych dodatkowych łączy zapasowych powinno bazować na połączeniach pochodzących od innego operatora. Obsługa połączeń zapasowych zarówno podczas awarii jak i w celu zrównoleglenia ich z łączami podstawowymi może być oparta o specjalne funkcje oprogramowania urządzeń aktywnych bądź protokół dynamicznego routingu (np. OSPF, RIP, EIGRP, BGP, IS-IS). Nadmiarowość routerów łączących sieci LAN z siecią WAN wymaga zadecydowania w jaki sposób stacje robocze pracujące w sieci LAN będą wybierały poprzez który z zainstalowanych routerów mają być wysyłane pakiety do sieci WAN. Istnieje kilka możliwości automatycznej obsługi takiej sytuacji, np.: Hot Standby Routing Protocol (HSRP), Router Discovery Protocol (RDP), routing dynamiczny. HSRP polega na tym, że dwa routery przyłączone do jednej sieci LAN skonfigurowane są tak, by widoczny był dla komputerów w tym segmencie logiczny (nieistniejący fizycznie) jeden router o konkretnym adresie IP. Stacje użytkowników konfigurowane są tak, że jako default gateway pokazywany jest właśnie ten logiczny router; natomiast decyzja poprzez który z fizycznie przyłaczonych routerów pakiety będą wysyłane podejmowana jest poprzez routery w sposób niewidoczny dla stacji użytkownika. RDP bazuje na fakcie, że stacje użytkowników potrafią znaleźć adres działającego routera. W przypadku poprawnej pracy obydwu routerów pakiety będą wysyłane poprzez ten router, który odpowie jako pierwszy. RDP ma jednak poważną wadę w stosunku do HSRP, wymaga czynnego uczestnictwa stacji użytkownika w całym procesie, co oznacza, że protokół RDP musi być zaimplementowany w oprogramowaniu stacji. Stacje użytkowników mogą również czynnie uczestniczyć w routingu dynamicznym, co jednak wymaga zaimplementowania w oprogramowaniu stacji odpowiedzniego protokołu (np. RIP, OSPF). Ochrona przed niepowołanym dostępem do sieci LAN W przypadku korzystania z sieci publicznych do łączenia sieci LAN nie można wykluczyć prób uzyskania dostępu do sieci lokalnych przez nieuprawnionych użytkowników. Jednak całkowite odcięcie sieci lokalnej od sieci publicznej pozbawiałoby strukturę sieci podstawowej funkcjonalności. W praktyce oznacza to konieczność spełnienia pozornie sprzecznych założeń: zapewnienie dostępu do sieci lokalnej (poprzez sieć publiczną) użytkownikom uprawnionym i jednocześnie niedopuszczenie do wejścia do sieci lokalnej innych użytkowników tej samej sieci publicznej. W sytuacjach takich pojawia się konieczność skonfigurowania firewalla czyli rozbudowanego mechanizmu filtrowania wchodzącego i wychodzącego ruchu na styku sieci LAN i WAN. Poprawnie zaprojektowany firewall to nie jest jedno urządzenie, czy pakiet oprogramowania jest to raczej zespół współpracujących ze sobą ele- © SOLIDEX, 2010 15 mentów sprzętowych i programowych zapewniających funkcje filtrowania ruchu, weryfikacji połączeń, rejestrowania zdarzeń i alarmowania w przypadku stwierdzenia próby naruszenia prywatności sieci. Mechanizmy filtrowania ruchu mogą być realizowane poprzez funkcje oprogramowania routerów, komputerów, jak również specjalizowane rozwiązania sprzętowo-programowe. Filtrowanie takie może się opierać na kombinacjach wielu różnych kryteriów: adresów komputerów źródłowych i docelowych (w sensie warstwy II i III modelu OSI), typach usług (np.: ftp, telnet, http, SMTP), a także kierunku zestawiania połączenia. Dodatkowo można zastosować odpowiedni skonfigurowany (na routerze lub specjalizowanym urządzeniu) mechanizm Network Address Translation (NAT). Polega on na dynamicznym tłumaczeniu prywatnych adresów IP na oficjalnie przyznane. Sam NAT nie służy bezpośrednio do zabezpieczania dostępu do sieci, jednak w wielu implementacjach można go tak skonfigurować, by realizował translację adresów jedynie dla sesji zestawianych z sieci lokalnej do sieci rozległej próby zestawienia jakichkolwiek sesji w kierunku przeciwnym nie zostaną zrealizowane. Oczywiście musi być możliwość skonfigurowania pewnych wyjątków od tej zasady chociażby wpuszczanie poczty przychodzącej z zewnątrz. Dodatkowe aspekty konfiguracji firewalla pojawiają się w momencie, kiedy pojawia się potrzeba chronienia zasobów sieci lokalnej i równocześnie trzeba wystawić serwer usług publicznych (np. serwer WWW). W sytuacji takiej proponuje się zwykle rozdzielenie sieci lokalnej na dwie części: tzw. sieć zdemilitaryzowaną (zawierającą serwery usług publicznych) oraz sieć prywatną. Zaprojektowania wymagają w takiej konfiguracji dwa zestawy filtrów i innych zabezpieczeń: na styku sieci WAN ze strefą zdemilitaryzowaną; oraz na styku strefy zdemilitaryzowanej z siecią prywatną. Kontrola dostępu do sieci poprzez łącza komutowane Bardzo często pojawia się potrzeba realizacji zdalnego dostępu do sieci LAN poprzez łącza komutowane (analogowe lub ISDN). Jest to szczególnie istotne dla osób podróżujących służbowo, które z praktycznie dowolnego miejsca potrzebują dostępu do zasobów sieci. Równocześnie jest to bardzo duże zagrożenie dla prywatności danych znajdujących się na komputerach w sieci lokalnej. Skuteczna ochrona dla tego typu połączeń musi bazować na implementacji trzech mechanizmów: legalizacji połączeń, autoryzacji użytkowników i rejestrowania zdarzeń. < align=justify> Legalizacja polega na jednoznacznym i wiarygodnym stwierdzeniu tożsamości osoby, która uzyskała połączenie z serwerem dostępowym do sieci. Funkcja ta wspomagana jest wieloma mechanizmami od klasycznych haseł do inteligentnych kart identyfikacyjnych i oprogramowania obsługującego je. Kolejnym elementem legalizacji może być wymuszenie oddzwaniania (call-back) po zestawieniu połączenia i ustaleniu tożsamości użytkownika, sesja jest automatycznie zrywana i router dzwoni na konkretny numer telefonu skojarzony z danym użytkownikiem. W ten sposób uzyskujemy pewność, że dany użytkownik zestawiał połączenie ze swojego numeru telefonu. Autoryzacja użytkownika następuje bezpośrednio po legalizacji. Polega ona na przyznaniu konkretnemu użytkownikowi precyzyjnych przywilejów do korzystania z sieci lokalnej. W ten sposób zyskuje się możliwość elastycznego konfigurowania pozwoleń opartych o adresy komputerów, z którymi wolno użytkownikom zestawiać sesje; godziny, w których mogą pracować zdalnie; aplikacje, które mogą uruchamiać; itp. Rejestrowanie wszelkiej aktywności na połączeniach komutowanych ma na celu umożliwienie administratorowi wychwycenie prób włamania do sieci, przekroczenia przywilejów, itp. Istotne jest także to, by tożsamość użytkownika była stwierdzana jak najwcześniej: czyli na serwerze dostępowym (routerze), a nie dopiero na serwerach usług (komputerach) w sieci lokalnej. Oznacza to konieczność implementowania legalizacji, jak również pozostałych elementów zabezpieczenia, w oprogramowaniu routerów. Oczywiście na routerze jako urządzeniu najbardziej wystawionym w sieć WAN nie powinna być przechowywana baza użytkowników, haseł i autoryzacji dlatego poprzez specjalne protokoły (np. TACACS+) realizowana jest komunikacja pomiędzy serwerem dostępowym, a serwerm wewnątrz sieci lokalnej przechowującym te bazy. Ochrona prywatności i spójności przesyłanych danych W celu zapewnienia poufności przesyłanych danych wykorzystywane są mechanizmy szyfrowania ich. Pierwsze pytanie przy wyborze rozwiązania szyfrującego transmisje powinno dotyczyć warstwy (w sensie modelu OSI), w której szyfrowanie ma być realizowane. Szyfrowanie w warstwie połączeń daje całkowitą niezależność od typu wykorzystywanych protokołów warst wyższych (w tym aplikacji). Jednak jest silnie zależne od typu sieci (X.25, Frame Relay, itp.). Dla takiej realizacji szyfrowania trzeba myśleć o niezależnych szyfratorach dla łączy podstawowych i zapasowych. Szyfrowanie w warstwie sieciowej jest natomiast niezależne z jednej strony od typu sieci (X.25, Frame Relay, itp.), z drugiej strony od wykorzystywanych aplikacji. Jest natomiast silnie zależne od typu protokołów w warstwie trzeciej (IP, IPX, itp.). Dla tak zaimplementowanego szyfrowania nie ma przeważnie konieczności interesowania się strukturą łączy podstawowych i zapasowych. Szyfrowanie w warstwie aplikacji jest całkowicie niezależne od typu sieci i protokołów w niej wykorzystywanych. Wymaga natomiast implementowania w każdej aplikacji, której dane mają być szyfrowane. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 16 20 lat SOLIDEX Istotnym parametrem rozwiązań szyfrujących jest algorytm stosowany do enkrypcji. Najczęściej stosowane algorytmy to DES56, TrippleDES, IDEA. Wybierając rozwiązanie szyfrowania należy także zwrócić uwagę na stosowane mechanizmy wymiany kluczy publicznych, ponieważ w znaczny sposób może to wpływać na łatwość konfiguracji i administracji produktami. Należy także uwzględnić pewne uwarunkowania proceduralne, np. konieczność kompetencyjnego i organizacyjnego rozdzielenia zarządzania aplikacją, zarządzania siecią oraz zarządzania systemem bezpieczeństwa. W przypadku implementacji szyfrowania w aplikacji, przeważnie niemożliwe jest rozdzielenie administracji oprogramowaniem od administracji systemem zabezpieczeń. Podona sytuacja wystąpi przy implementacji szyfrowania w routerach tym razem niemożliwe będzie rozdzielenie zarządzania systemem zabezpieczeń od zarządzania siecią. Spójność przesyłanych danych weryfikowana może być o mechanizmy podpisu elektronicznego do każdej wiadomości dołączany jest ciąg znaków umożliwiający odbiorcy wiadomości jednoznaczne stwierdzenie, czy pochodzi ona od podpisanego nadawcy; a także stwierdzenie, czy nie została zmodyfikowana od momentu nadania do otrzymania. Podpis elektroniczny zapewnia także niezaprzeczalność, czyli możliwość udowodnienia nadawcy faktu wysłania konkretnej wiadomości. Kontrola dostępu do danych w sieciach LAN Zarówno dla sieci budowanych w oparciu o repeatery jak też o switche lub bridge wspólną cechą jest przesyłanie pakietów do ich odbiorców bez możliwości sprawdzania kto jest nadawcą pakietu oraz jakie dane (jakie protokoły) przesyłane są w jego wnętrzu. Rezultatem tej cechy jest możliwość dostępu do wszystkich zasobów (serwerów oraz świadczonych przez nich usług) zlokalizowanych w sieci LAN co uniemożliwia konstruowanie mechanizmów ochrony danych i usług. Usługi dostępne w sieciach są zwykle dedykowane dla konkretnych użytkowników. Dla wdrożenia mechanizmów ochrony danych konieczna jest dostępność środków technicznych - jednym z nich jest możliwość kontrolowania adresów nadawców oraz odbiorców pakietów jak też identyfikacji usług sieciowych w poszczególnych pakietach. Ani repeatery ani bridge bądź switche takich możliwości niestety nie dają. Wiele instytucji posiadających infrastrukturę sieci LAN stawia wymaganie podziału użytkowników pracujących w tych sieciach na grupy stosownie do zakresu ich obowiązków, zajmowanego stanowiska, działu w jakim są zatrudnieni etc. Jednym z efektów wprowadzenia takiego podziału jest podniesienie bezpieczeństwa zasobów - wybrane usługi są dostępne jedynie dla członków danej grupy. Spełnienie wymogu podziału użytkowników na grupy w przypadku klasycznych struktur sieci LAN jest możliwe przez rekonfigurację fizycznej struktury okablowania. Dla sieci zbudowanych na tzw. okablowaniu strukturalnym każdy z komputerów podłączony jest swoim indywidualnym przewodem (najczęściej skrętką 4-parową) prowadzącą do punktów zbiorczych okablowania (tzw. paneli krosujących) gdzie dokonuje się połączeń poszczególnych komputerów ze sobą w sieci LAN poprzez repeatery lub switche. Dla tego typu sieci rekonfiguracje polegają na zmianie układu połączeń na panelach krosujących - tworzone są w ten sposób niezależne sieci LAN grupujące użytkowników poszczególnych zespołów. Zmiany struktury okablowania, łatwe do wykonania w incydentalnych przypadkach, stają się uciążliwe w sieciach o dużej dynamice zmian, dużej ilości urządzeń oraz użytkownikach często zmieniających przynależność do określonych grup (czasami nazywanych grupami roboczymi i kojarzonych z konkretną siecią LAN). Koncepcja sieci wirtualnych pozwala na definiowanie postaci struktury sieci LAN w sposób programowy przez zmianę konfiguracji oprogramowania switchy, bez konieczności ingerencji w strukturę fizycznych połączeń. Podsumowanie Faktyczne zabezpieczenie sieci teleinformatycznej musi być oparte o wnikliwą analizę wymagań funkcjonalnych i wartość oraz ważność przesyłanych danych. Wynikiem tej analizy powinno być opracowanie założeń polityki bezpieczeństwa. Dopiero te założenia powinny, poprzez opracowanie szczegółowego projektu technicznego, zostać przełożone na dobór urządzeń i oprogramowania zapewniających wymagany poziom bezpieczeństwa sieci. Z założeń polityki bezpieczeństwa powinny także wyniknąć parametry konfiguracyjne zabezpieczeń oraz procedury organizacyjne do realizacji stworzonych założeń. SOLIDEX jest firmą zajmującą się projektowaniem i wdrażaniem sieci teleinformatycznych od 7 lat. W swojej pracy specjaliści SOLIDEX często stają przed zadaniem współtworzenia założeń polityki bezpieczeństwa oraz doboru urządzeń, oprogramowania; i wdrożenia zaprojektowanego systemu. Rozwiązania, na których oparte są projekty zabezpieczeń realizowane przez SOLIDEX bazują najczęściej na produktach firm Cisco Systems, Cylink Inc., oraz Sun Microsystems. © SOLIDEX, 2010 17 SSH - nowa era bezpiecznych połączeń? Artykuł z Nr 9-10/1998 (31) Dawno, dawno temu, kiedy komputer osobisty był tylko teorią, lub drogą fanaberią, w czasach gdy Internet nie był jeszcze rzeczą tak powszechną, jak Microsoft Windows, lub sklepy MacDonalds - w tych zamierzchłych czasach narodziła się idea zdalnej pracy na komputerach.... Zdawało by się - nic prostszego - programiści dostali zlecenie stworzenia metod pozwalających na efektywniejszą pracę, zdalne zarządzanie odległymi maszynami, itp. Doszło nawet do tego, że stworzono protokół umożliwiający przesyłanie grafiki ze zdalnego serwera na terminal, przy którym siedział użytkownik. stał ze standardowych narzędzi dostarczanych wraz z systemem (tzw. zdalnych komend - r-commands), to duzy_komputer nigdy nie sprawdzał, czy jan_kowalski jest rzeczywiście tym samym użytkownikiem, co zwykle, a każda maszyna, która miała swój adres zgodny z adresem systemu maly_komputer traktowana była automatycznie jak system zaufany. W tych zamierzchłych czasach pełen dostęp do maszyn mieli tylko wielcy kapłani - administratorzy, a wszystkie systemy znajdowały się w dobrze zabezpieczonych, chronionych przed niepowołanym dostępem środowiskach, i nikomu nie przychodziły do głowy tak nierozważne pomysły jak włączanie komputerów do jakiejś ogólnodostępnej sieci. A nawet jeśli ktoś już wpadł na taki pomysł, to i tak wierzył, że jego system jest doskonale zabezpieczony..... Powszechnie stosowane sposoby łączenia się z odległymi komputerami opierały się na niczym niezmąconej wierze w to, że użytkownik, który próbuje nawiązać połączenie jest dokładnie tym, za kogo się podaje, zaś nikomu w głowie nie powstał nawet cień myśli, że jakiś hacker mógłby skonfigurować swoją maszynę tak, aby udawała ona jakiś inny, zaufany system. I niby nic w tym dziwnego... skoro wszystkie systemy znajdowały się w zaufanym miejscu, bez możliwości zmiany ich konfiguracji przez kogokolwiek poza administratorem, a wszystko działo się w czasach, gdy słowem hacker określano jeszcze bardzo zdolnego programistę, a nie, jak to nastąpiło potem - człowieka włamującego się do cudzych systemów komputerowych... Tak więc - jeśli użytkownik jan_kowalski z maszyny maly_komputer miał prawo do zdalnej pracy na znajdującym się gdzie indziej serwerze duzy_komputer - i korzy- Kilka lat później.... Czasy zaczęły się jednak zmieniać, i to wcale nie na lepsze... Coraz więcej komputerów zaczęto włączać do sieci... Sieci zaczęły być wszechobecne - a zwłaszcza jedna z nich - Internet. Początkowo wydawało się, że będzie doskonałym narzędziem do pracy.... Prawda. Był narzędziem tak idealnym, że technologie internetowe zaczęto stosować wszędzie - w szkołach, szpitalach, w sieciach rozległych firm, w sieciach wewnętrznych firm. I jakby nikt nie pamiętał o tym, jakie zagrożenia niosą ze sobą stare, od lat nie modyfikowane protokoły stosowane w Internecie, które były stosunkowo niezawodne - w końcu stworzono je tak, aby wiadomość dotarła do adresata niezależnie od uszkodzenia dużych fragmentów sieci, ale nikt nie zadbał o to, żeby wiadomości te docierały w stanie nienaruszonym. Nie projektowano ich także z myślą o zapewnieniu poufności danych. I to był początek końca..... Od włamań prostych i nieskomplikowanych, wykorzystujących słabości metod autentykacji, stosowanych przez r-commands - polegających na włamaniu się na konto ofiary na maszynie klienckiej a następnie zupełnie „legalnym” wejściu na system docelowy - włamywacze przeszli do włamań o wiele bardziej wyrafinowanych. Pomijając sprawy tak oczywiste i trywialne, jak sniffing, czyli, mówiąc językiem normalnych ludzi przechwytywanie danych znajdujących się w sieci, a wśród nich haseł, numerów kart kredytowych, kont i tym podobnych zupełnie niezabezpieczonych (czytaj - niezaszyfrowanych) cennych informacji, protokół TCP/IP stosowany do łączenia maszyn i przesyłania danych w Internecie umożliwia także np. przechwycenie sesji przez włamywacza. Atak taki nazwano tcp session hijacking, a polega on (w skrócie) na tym, że atakujący podsłuchuje zdalną sesję klienta-ofiary na serwerze docelowym i w dogodnym dla siebie momencie, strumieniem specjalnie spreparowanych danych, odcina ofiarę od sieci, samemu zajmując jej miejsce w już zestawionej, zautentykowanej sesji - wszystko odbywa się niezauważalnie dla serwera. Ponadto okazało się, że można oszukać system mapowania adresów internetowych - DNS - w taki sposób, że komputer, do którego próbuje dostać się hacker „myśli”, że logowanie następuje z jednego z uprawnionych systemów (nazwy uprawnionych systemów przechowywane są albo w ogólnosystemowym pliku hosts.equiv, albo w plikach .rhosts znajdujących się w katalogach domowych użytkowników) i rzecz jasna wpuszcza go bez uruchamiania jakiegokolwiek systemu alarmowego, bo i dlaczego miałby to robić. Ten typ ataku nazwano DNS spoofingiem. W takich warunkach nie dało się pracować bezpiecznie - nie było wiadomo, kto jest kim, czy wysyłane przez kogoś dane są rzeczywiście tymi danymi, które miały dotrzeć.... koszmar - potrzebne było narzędzie, które będzie proste w implementacji, zapewni dobrą autentykację zarówno dla użytkownika, jak i dla obu systemów biorących udział w sesji, mało tego - musi umoż- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 18 20 lat SOLIDEX liwić ochronę danych - poprzez szyfrowanie, a do tego wszystkiego będzie łatwe w użyciu, proste i niekłopotliwe w implementacji na systemach końcowych. Najlepiej byłoby oczywiście, gdyby było niezależne od platformy sprzętowo/systemowej itp., itd. Trudne ?! Być może. Ale nie niemożliwe. Internet/Intranet - dzień dzisiejszy Pewnego dnia na listach dyskusyjnych dotyczących bezpieczeństwa sieci pojawiła się informacja o dostępności nowego narzędzia - SSH, czyli secure shell. Czy to było właśnie to, czego wszystkim dbającym o bezpieczeństwo danych było trzeba ?! Na pewno nie wszystkim, ale dużej części owszem. Od instalacji, poprzez konfigurację, a na użytkowaniu skończywszy - SSH doskonale spełnia wszystkie wymagania jakie są przed tego typu oprogramowaniem stawiane. Użytkownicy MS Windows otrzymują przyjazny dla użytkownika, łatwy w konfiguracji interfejs graficzny, do którego są przyzwyczajeni - nieco przypominający standardową okienkową implementację telneta. Użytkownicy wersji Unixowych otrzymują narzędzie tak proste w użyciu jak zwykły telnet, czy rkomendy (rsh, rlogin) i w podstawowej formie prawie nie wymagające konfiguracji po stronie użytkownika (istnieje możliwość instalacji SSH z nadpisaniem oryginalnych r-komend tak, że użytkownicy nawet nie dostrzegają zmian). Sposób działania ?! Host Stworzenie SSH nie było zadaniem trywialnym. Przyjrzyjmy się więc w jaki sposób udało się osiągnąć to, o czym powyżej napisałem. Podstawowym zadaniem było zapewnienie niezależnej od normalnych usług nazewniczych (takich jak plik / etc/hosts, czy Domain Name Service wykorzystywany w Internecie) autentykacji systenów biorących udział w połączeniu (dokonuje się jej używając metod kryptografii klucza publicznego). Każdy system musi posiadać swój klucz prywatny i publiczny. Przy pierwszym połączeniu klienta z wybranym serwerem na- stępuje wymiana kluczy pomiędzy systemami i każda następna sesja jest przy ich użyciu autentykowana. Taka metoda wymiany kluczy (brak centralnego repozytorium kluczy publicznych - Certificate Authority) zapewnia łatwiejsze i szybsze wdrożenie SSH, jednak czyni ten protokół wrażliwym na tzw. aktywny atak typu man-in-the-middle (polega on w skrócie na tym, że atakujący, który śledzi poczynania obu stron zamierzających wymienić miedzy sobą w czasie pierwszego połączenia klucze publiczne, może przechwycić jeden z kluczy, podmienić go na wygenerowany przez siebie i jeśli strona atakowana zaakceptuje taką „fałszywkę” - ma możliwość późniejszego podszywania się pod uprawniony system). Należy jednak zwrócić uwagę, że na atak taki podatna jest tylko i wyłącznie pierwsza sesja, i jeśli zostaną zachowane odpowiednie środki ostrożności - np. zostanie przeprowadzona niezależna (można dokonać jej przez telefon) weryfikacja tzw. odcisków palców kluczy (ang. key fingerprints) będących krótkimi ciągami znaków unikalnymi dla każdego, długiego klucza - można się „człowieka pomiędzy” nie obawiać. Key fingerprints są generowane przy użyciu silnych metod kryptograficznych, na przykład algorytmu MD5 - Message Digest 5). Użytkownik Po rozwiązaniu problemu autentykacji biorących udział w sesji systemów należało rozwiązać problem prawidłowej autentykacji użytkowników logujących się na zdalnych maszynach. Dla ułatwienia wdrożenia pozostawiono wszystkie standardowe metody autentykacji - autentykację hasłem w której wykorzystywane są standardowe hasła systemowe (w chwili obecnej implementacje serwera SSH istnieją wyłącznie na systemy Unixowe) oraz autentykację wyłącznie z użyciem plików .rhosts lub hosts.equiv (omówioną w części Dawne czasy) - stanowiącą istotne zagrożenie dla bezpieczeństwa systemu. Oprócz tych dwóch typów autentykacji pojawiły się jednak dwa dodatkowe, które zapewniają wyższy poziom bezpieczeństwa - Rhosts Rsa Authen- tication - korzystająca z plików .rhosts i hosts.equiv, lecz wyłącznie po przeprowadzonej poprawnej autentykacji hostów z użyciem kluczy publicznych RSA, oraz najodporniejsza na wszelkie oszustwa autentykacja z wykorzystaniem klucza publicznego RSA, generowanego dla chcącego z niej korzystać użytkownika. RSA Authentication jest metodą zalecaną we wszystkich środowiskach, jako metoda najbezpieczniejsza i dająca największe możliwości. Jej wadą jest jednak konieczność specjalnego przygotowania środowiska pracy, czego nie wymagają pozostałe trzy metody - nie jest to jednak procedura specjalnie skomplikowana. Wymaga ona utworzenia przez użytkownika na systemie nawiązującym połączenie pary kluczy - tzw. ssh identity, a następnie skopiowania publicznej części (ssh identity składa się z części publicznej i prywatnej) na serwer docelowy, do katalogu zawierającego dane SSH użytkownika. Część prywatna powinna być chroniona hasłem, które jest ustalane przy generacji ssh identity przez użytkownika. Jak wygląda więc, z punktu widzenia użytkownika, sesja SSH z wykorzystaniem RSA Authentication ?! Przy próbie nawiązania połączenia, po udanej negocjacji sposobu autentykacji pomiędzy klientem a serwerem, w sytuacji gdy dozwolona jest autentykacja RSA, i gdy serwer posiada klucz publiczny użytkownika - użytkownik wprowadza lokalnie hasło odblokowujące klucz prywatny znajdujący się wyłącznie na systemie klienckim, następuje weryfikacja kluczy i użytkownik zostaje wpuszczony na serwer. Jeśli dysponujemy kilkoma serwerami SSH, na różnych maszynach - użytkownik musi mieć albo wszędzie zainstalowane pliki .rhosts, bądź też przy logowaniu się na każdą z maszyn podawać hasło. Tutaj przychodzi na pomoc autentykacja kluczami RSA wraz z tzw. ssh-agentem. SSH-agent jest programem, do którego przed nawiązaniem sesji wprowadza się klucze autentykacyjne, i który następnie (jeśli w konfiguracji SSH jest to dozwolone) wyręcza użytkownika w procesie autentykacji. © SOLIDEX, 2010 19 Dane Po załatwieniu problemów związanych z mechanizmami autentykacji pozostała wciąż aktualna kwestia ochrony danych (zagrożenie sniffingiem) i przeciwdziałania TCP hijackingowi. Najlepszym sposobem na to jest po prostu szyfrowanie danych - uniemożliwia ono przechwycenie danych (zastosowano do ich enkrypcji bardzo silne metody) i czyn niemożliwym hijacking - napastnik nawet po przechwyceniu sekwencji TCP, odcięciu właściwego klienta od serwera jest bezradny - w związku z tym, że dane są szyfrowane, nie jest w stanie wykonać żadnej komendy na serwerze. Dodatkowym mechanizmem zapewniającym integralność danych jest kod autentykacyjny wiadomości (MAC - Message Authentication Code) dołączany do każdego pakietu. MAC jest wyliczany przy użyciu wspólnego dla klienta i serwera klucza, numeru sekwencyjnego pakietu TCP, oraz zawartości samego pakietu. Pozostawało pytanie - w jaki sposób szyfrować przesyłane dane ?! Najbezpieczniejszym i dającym najwyższy stopień poufności systemem była oczywiście kryptografia klucza publicznego (z wykorzystaniem kluczy RSA), stosowana przez wiele publicznie dostępnych pakietów szyfrujących - chociażby przez PGP (Pretty Good Privacy). Kryptografia kluczem publicznym jest jednak zbyt złożona obliczeniowo i z powodu wydajności nie została zastosowana w SSH dla wymiany dużych ilości danych. Z powodu zaś „organizacyjnego” nie można było zastosować wyłącznie kryptografii kluczem tajnym - dużo wydajniejszej, lecz wymagającej od obu stron posiadania tego samego, tajnego klucza szyfrującego. Problemem było zapewnienie tajności klucza - jego przechwycenie przez napastnika oznaczało ujawnienie treści wszystkich pakietów przesyłanych przez SSH. Problem ten rozwiązano więc stosując rozwiązanie będące hybrydą obu poprzednich - po nawiązaniu połączenia przez oba systemy i wzajemnej autentykacji hostów kluczami RSA, następuje negocjacja metody szyfrowania danych kluczem tajnym, a następnie - po jej uzgodnieniu (do wyboru jest kilka różniących się skutecznością i wydajnością algorytmów szyfrujących klucza tajnego), następuje szyfrowana kluczem publicznym (a więc po odrzuceniu man-inthe-middle attack - bezpieczna) wymiana klucza tajnego którym następnie szyfrowane są przesyłane dane. Dane ?! Jakie dane ?! Tak oto znaleźliśmy się w czasach dzisiejszych z możliwością pracy w bezpieczny sposób - hosty zostają w słuszny sposób zautentykowane, tożsamość użytkowników przestaje budzić wątpliwości - zdalna praca terminalowa staje się bezpieczna dzięki szyfrowaniu danych, samo przesyłanie danych dzięki usługom typu scp (secure copy) także. A co z innymi usługami - spytali użytkownicy ?! Okazało się, że przydałoby się szyfrować także inne transmisje. Nie każdy mógł pozwolić sobie na szyfrowanie na poziomie samego protokołu IP - wymaga to albo głębokiej ingerencji w system operacyjny, albo zastosowania specjalnych urządzeń takich, jak router z oprogramowaniem szyfrującym, czy specjalizowany szyfrator. Rozwiązania tego typu mają jednak tą wadę, że są dosyć skomplikowane w konfiguracji, oraz instalacji, a poza tym - szyfrują wszystko, podczas, gdy chodziło o udostępnienie szyfrowania na znacznie wyższym poziomie, właściwie per usługa. I tutaj znowu na pomoc przychodzi SSH - wraz ze swoją możliwością przesyłania strumieni TCP ponad szyfrowanym połączeniem SSH, czy spoofingiem x-authority. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 20 20 lat SOLIDEX Protokół IPSec - bezpieczeństwo w Internecie Artykuł z Nr 11-12/1998 (32) Internet gwałtownie zmienił sposób prowadzenia interesów, jednak równocześnie rozwój ten jest silnie hamowany przez brak odpowiedniego poziomu bezpieczeństwa przesyłanych danych. Na porządku dziennym zdarzają się próby włamania do naszych systemów, chociażby poprzez spoofing (podszywanie się pod legalne adresy), utrata prywatności i integralności przesyłanych informacji. Wprowadzenie Internetu na szeroką skalę umożliwiło budowę różnych struktur przesyłu informacji, takich jak: Extranet - gdzie przedsiębiorstwa mogą budować połączenia ze swoimi dostawcami i partnerami. Dotychczas możliwe to było na bazie drogich łączy dzierżawionych, lub wolnych łączy dzwonionych, teraz budowę takich sieci umożliwia Internet Intranet - czyli struktur sieci prywatnych, obejmujących różne lokalizacje przedsiębiorstwa Remote users (zdalni użytkownicy) dla których Internet staje się tanią alternatywą dostępu do zasobów macierzystego przedsiębiorstwa. Internet stanowi więc publiczną infrastrukturę niezbędną do stworzenia wszystkich powyższych konfiguracji. Nieszczęśliwie jednak w trakcie rozwoju sieci Internet, nie zadbano w porę o tak fundamentalne elementy, jak bezpieczeństwo, gwarancja jakości usług, praca w czasie rzeczywistym i zarządzanie zasobami sieciowymi. Protokół IPSec Cisco Systems wychodzi naprzeciw potrzebom zbudowania pewnego mechanizmu ochrony przesyłanych danych. Jako firma jest liderem wśród wszystkich, zajmujących się rozwojem protokołu IP Security (IPSec). Protokół IPSec jest właśnie odpowiedzią na te niedociągnięcia w dziedzinie bezpieczeństwa transferu danych. Protokół ten jest zestandaryzowaną metodą umożliwiającą pełną prywatność, integrację i autentykację informacji przesyłanych przez sieci IP. Protokół IPSec zapewnia szyfrowanie na poziomie protokołu IP. W standardach zdefiniowanych jest kilka nowych formatów pakietów: nagłówek autentykacyjny (authentication header AH), który zapewnia integralność przesyłanych danych, oraz obszar danych - encapsulating security payload (ESP), zapewniający dodatkowo poufność transmisji. Parametry IPSec pomiędzy dwoma urządzeniami są negocjowane poprzez centralną jednostkę Internet Key Exchange (IKE, znaną wcześniej jako Internet Security Association Key Management Protocol, lub ISAKMP/Oakley). IKE używa cyfrowych certyfikatów (rodzaj zabezpieczenia dokumentu lub pliku, pozwalający na stwierdzenie jego autentyczności) do autoryzacji urządzenia, umożliwiając tworzenie dużych kryptowanych sieci. Bez cyfrowego certyfikatu rozwiązania oparte o IPSec nie będą mogły być wprowadzane do Internetu. Cisco wprowadziło protokół IPSec zarówno do swojej platformy software’owej - Cisco IOS, jak i do urządzeń stanowiących zapory ogniowe - PIX Firewall. przesyłania. To ryzyko jest obecnie największą wadą, hamującą wykorzystanie Internetu na skalę globalną w prowadzeniu interesów. Nie kodowana wiadomość transmitowana przez sieć może być odczytana przez nieuprawnione osoby. Zagrożenia bezpieczeństwa transmisji danych w sieci Internet Prywatne dane transmitowane w sieci Internet bez właściwej kontroli i zabezpieczenia, narażone są na różne typy niebezpieczeństw. Poniżej przedstawiono najczęściej występujące zagrożenia. Podszywanie się pod legalnych użytkowników (Identity spoofing) Ochrona własnej identyfikacji w Internecie jest również elementarną częścią bezpieczeństwa danych. Intruz może podszyć się pod legalnego użytkownika i korzystać z poufnych zasobów. Obecnie wiele systemów zabezpieczeń bazuje na adresacji IP w celu identyfikacji użytkownika. Niestety ten system jest łatwy do złamania. Brak poufności Brak poufności występuje wtedy, gdy nieuprawniony obserwator może przechwycić tajne dane w trakcie ich Utrata integralności przesyłanych danych Istnieją sytuacje, w których nie wymaga się poufności przesyłanych informacji, natomiast konieczne jest zapewnienie integralności transmisji. Przykładowo istnieją rutynowe transakcje, które mogą być udostępniane publicznie, natomiast konieczna jest pewność, że transmitowane dane nie zostały po drodze zmodyfikowane. Przykładem jest zapytanie o cenę końcową (znając poziom upustów) i parametry techniczne jakiegoś produktu, gdzie na podstawie takich danych tworzy się ofertę handlową. Dotyczy to również sytuacji, gdy po autoryzacji połączenia z bankiem, musi istnieć pewność, że transakcja nie zostanie po drodze zmodyfikowana. © SOLIDEX, 2010 21 Uszkodzenie systemu realizacji usług sieciowych (Denial-of-service) Organizacje korzystające z usług Internetu muszą mieć pewność, że ich systemy są dostępne w sieci. W ciągu kilku ostatnich lat hackerzy znaleźli dziury w protokole TCP/IP, które umożliwiają im zawieszanie systemów komputerowych. Opis protokołu IPSec IPSec jest zbiorem otwartych standardów, zapewniających bezpieczną prywatną komunikację w sieciach IP. Bazując na standardach wdrożonych przez IETF (Internet Engineering Task Force), IPSec umożliwia zachowanie poufności, spójność i autentykację danych przesyłanych po sieciach IP. Szyfrowanie i autentykacja może być prowadzona na kilku warstwach sieciowych (fizycznej, łącza danych, sieciowej, transportowej i aplikacji). Wcześniej przed wdrożeniem standardów IPSec, istniały jedynie częściowe rozwiązania. Przykładowo Secure Socket Layer (SSL) zapewniał kryptowanie dla przeglądarek webowych i innych aplikacji. SSL zapewnia poufność przesyłu informacji pomiędzy aplikacjami które go używają, jednak nie chroni danych z innych aplikacji. Kolejne rozwiązanie, stosowane często, to kodowanie transmisji na poziomie łącza transmisyjnego, co wymaga stosowania na każdym końcu urządzenia szyfrującego. Ten sposób zapewnia pełną ochronę danych, jednak jest kosztowny i trudny w zarządzaniu. IPSec stanowi połączenie kilku różnych technologii zabezpieczeń, dzięki czemu tworzy pełny system chroniący dane. W szczególności IPSec używa: Klucza wymiany Diffie-Hellmana dla tworzenia kodów pomiędzy węzłami połączonymi siecią publiczną Szyfrowania klucza publicznego przez potwierdzanie algorytmów Diffie-Hellmana, co gwarantuje identyczność każdej z dwóch części i chroni przed atakiem typu man-in-the-middle. Stosowania algorytmów szyfrowania danych typu DES Stosowania kluczowych algorytmów funkcji skrótu, takich jak HMAC, łącznie z tradycyjnymi algorytmami typu MD5 lub SHA, w celu uwierzytelnienia pakietu Cyfrowych certyfikatów potwierdzanych przez certyfikaty autoryzacyjne takie jak cyfrowe karty ID IPSec definiuje nowy zbiór nagłówków, które mogą być dodawane do datagramów IP. Nowe nagłówki umieszczane są po nagłówkach IP, a przed protokołami warstwy 4 (typowo TCP lub UDP). Nowe nagłówki dostarczają informacji służących ochronie właściwych danych pakietu IP. Nagłówki te składają się z dwóch części: Authentication Header (AH) Encapsulating Security Payload (ESP) Pierwszy z nich dodany do datagramu IP zapewnia spójność i autentykację danych, łącznie z niezmiennymi polami w wyższym nagłówku IP. Nie zapewnia on ochrony poufności. AH używa częściej funkcji skrótu, niż podpisów cyfrowych, ponieważ technologia elektronicznego podpisu jest zbyt wolna. Encapsulating Security Payload (ESP), kiedy zostaje dodany do datagramu IP, zapewnia mu poufność, spójność i autentykację. AH i ESP mogą być używane niezależnie, lub razem, z tym, że dla większości aplikacji użycie jednego z nich jest już wystarczające. IPSec pracuje w dwóch trybach, transportowym i tunelowym (tunnel mode). W trybie transportowym kodowane są w pakiecie tylko dane, natomiast oryginalny nagłówek IP pozostaje niezmieniony. Zaletą tego rozwiązania jest to, że dodawanych jest tylko kilka bajtów do każdego pakietu. Tryb ten umożliwia urządzeniom sieci publicznej określanie adresu początkowego i docelowego każdego pakietu. Taka konstrukcja zapewnia uruchamianie na urządzeniach pośrednich specjalnych procesów, bazujących na informacjach z nagłówka IP (przykładowo gwarancja jakości usług). Pozostawienie niekodowanego nagłówka umożliwia nieautoryzowanym użytkownikom prowadzenie analizy ruchu pomiędzy poszczególnymi węzłami. Jednakże mogą oni jedynie określić, że nastąpiła transmisja, bez możliwości stwierdzenia, czy był to mail, czy też inna aplikacja. W trybie tunelowym oryginalny datagram wejściowy IP jest w całości kodowany, stając się zawartością z danymi w nowym pakiecie IP. Tryb ten umożliwia urządzeniom sieciowym, takim jak router, pracę jako IPSec proxy. Oznacza to, że router wyręcza hosty w kodowaniu danych. Źródłowy router kryptuje pakiety i wysyła je wzdłuż tunelu IPSec. Router docelowy deszyfruje oryginalny datagram IP i przesyła go do docelowego miejsca w systemie. Główną zaletą tego rozwiązania jest fakt, że docelowe systemy nie muszą być modyfikowane, by korzystać z usług IPSec. Tryb tunelowy zabezpiecza przesyłane informacje przed możliwością analizy ich ruchu. W tym trybie hacker może jedynie określić końce tunelu, a nie właściwego nadawcę i odbiorcę informacji. Opierając się na definicji IETF, tryb transportowy może być stosowany jedynie gdy oba systemy, źródłowy i docelowy, rozumieją IPSec. Security Association (bezpieczne połączenie) Security Association (SA) jest relacją pomiędzy dwoma lub więcej jednostkami, która wyjaśnia w jaki sposób jednostki używać będą systemów zabezpieczeń do bezpiecznej komunikacji. Security Association jest jednokierunkowe. Oznacza to, że dla każdej pary komunikujących się urządzeń zdefiniowane są przynajmniej dwa bezpieczne połączenia - z A do B i z B do A.. Security Association jest jednoznacznie definiowane przez losowo wybrany jednoznaczny numer zwany Security Parameter Index (SPI) i docelowy adres IP odbiorcy. Kiedy system wysyła pakiet, który wymaga ochrony IPSec, przegląda S.A. w swojej bazie, uruchamia od- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 22 20 lat SOLIDEX powiedni proces i wtedy wkłada właściwy SPI do nagłówka IPSec. Kiedy węzeł wyposażony w IPSec otrzymuje pakiet, przegląda SA po adresie docelowym i SPI w swojej bazie i wtedy analizuje pakiet. Reasumując Security Association jest po prostu ustaleniem wynegocjowanej polityki bezpieczeństwa pomiędzy dwoma urządzeniami. Internet Key Management Protocol IPSec potrafi ustalić, czy Security Assotiation jest ustawione, natomiast nie ma mechanizmów budowania takich połączeń. IETF postanowił ustanowić ten proces w dwóch częściach: IPSec wykonuje procesy na poziomie pakietów, podczas gdy Internet Key Management Protocol (IKMP) negocjuje bezpieczne połączenia. Po rozpatrzeniu kilku opcji IETF wybrało IKE jako standard konfigurowania bezpiecznych połączeń dla IPSec. IKE buduje sprawdzony, bezpieczny tunel pomiędzy dwoma jednostkami i wtedy negocjuje bezpieczne połącze- nie dla IPSec. Proces ten wymaga by każda jednostka sprawdziła się nawzajem i ustanowiła wspólne klucze. Autentykacja Oba końce połączenia muszą autentykować się wzajemnie. IKE dopuszcza tutaj wiele sposobów uwierzytelniania. Obie jednostki muszą wyrazić zgodę na wspólny protokół autentykacyjny, budując go w procesie negocjacyjnym. W chwili obecnej zaimplementowane są trzy mechanizmy negocjacji: Pre-shared keys - takie same klucze pre-instalowane są na każdym hoście. IKE autentykuje każdy węzeł przez wysyłanie skróconych danych klucza, które zawierają klucze typu pre-shared. Public key cryptography - każda strona generuje pseudo losowy numer i koduje go w kluczu publicznym drugiej strony. Digital signature (podpis elektroniczny) - każde urządzenie podpisuje cyfrowo zbiór danych i wysyła je do drugiej strony. Implementacja IPSec w rozwiązaniach Cisco Cisco zaimplementowało rozwiązania IPSec na oprogramowaniu Cisco IOS od wersji 11.3, oraz na sprzętowej zaporze ogniowej PIX firewall. IPSec na oprogramowaniu Cisco IOS oferuje następujące właściwości: Rozwiązanie softwarowe, nie wymagające modyfikacji sieci, a tylko upgrade oprogramowania Obsługuje podpisy elektroniczne Cisco i Verisign rozwinęły protokół certyfikacyjny Certificate Enrollment Protocol (CEP). Wielu usługodawców, łącznie z Verisign i Entrust Technologies będzie obsługiwało Cisco CEP Tworzy elastyczną politykę bezpieczeństwa Jest częścią ogólnych rozwiązań w dziedzinie bezpieczeństwa - zapewnia wiele funkcji zabezpieczeń, łącznie z usługami Cisco IOS firewall, autentykacją, kontrolą dostępu i accountingiem (AAA), route authenttication i Kerberos. © SOLIDEX, 2010 23 Praktyczne zastosowania silnej autentykacji Artykuł z Nr 9-10/1999 (37) Już w starożytnym Rzymie zabezpieczenie poufności danych było zagadnieniem interesującym zarówno kręgi militarne, jak i ekonomiczne. Autentykacja jest sposobem identyfikacji użytkownika. Zidentyfikowanie użytkownika umożliwia przydzielenie praw dostępu do zasobów - czy będzie to tajna broń, czy będą to dane kont bankowych lub tajemnice handlowe. W chwili obecnej firmy mają bardzo wiele powodów do zabezpieczania dostępu do zasobów - poczynając od nakazów prawnych, a skończywszy na ochronie własności firmy. Autentykacja nie może funkcjonować w próżni. Najczęściej mówi się w tym kontekście o „modelu trzech A”: authentication, authorization, accounting. Autentykacja jest rozumiana jako identyfikacja użytkownika - określenie kto usiłuje uzyskać dostęp do danego zasobu. Autoryzacja umożliwia określenie praw danego użytkownika - określenie co może zrobić zidentyfikowany użytkownik w systemie. Accounting daje możliwość śledzenia przebiegu sesji (rozumianej jako czas, w którym użytkownik miał dostęp do zasobu) użytkownika w danym systemie. Inaczej mówiąc, umożliwia on zespołowi zarządzającemu systemem określenie co zrobił użytkownik w czasie sesji. Opisywane dalej rozwiązanie służy przede wszystkim do silnej autentykacji użytkowników (autoryzacja i accounting realizowane są w oparciu o współpracujące produkty innych producentów - np. oprogramowanie CiscoSecure Access Control Server). Aby sprecyzować obiekt rozważań przeanalizujmy, pod względem bezpieczeństwa, najpopularniejszą metodę autentykacji, oraz podstawowe metody jej łamania. Hasła W dużym uogólnieniu metody autentykacji dzielą się na trzy zasadnicze grupy: coś, co masz, jak na przykład klucz do drzwi lub karta magnetyczna; coś, co wiesz, w tej kategorii mieszczą się hasła; coś, czym się charakteryzujesz, na przykład odciski palców, charakterystyka głosu czy też wzór siatkówki. Każda z tych metod ma swoje wady i zalety - „coś co masz” można ukraść. „Coś co wiesz” może zostać odgadnięte, przejęte czy nawet zapomniane. „Coś czym się charakteryzujesz” jest najsilniejszą, ale jednocześnie najkosztowniejszą i wciąż jeszcze zawodną metodą. Bazując na tym jednoczynnikowym modelu logicznym następstwem jest stworzenie systemu autentykacji wykorzystującego kombinację dwóch z powyżej podanych czynników. Przykładem może być system autentykacji użytkowników w bankomatach używający kombinacji karty magnetycznej („coś co masz”) oraz kodu PIN („coś co wiesz”). Hasła - są najpopularniejszym obecnie sposobem autentykacji w systemach komputerowych. W przeszłości prawie wszystkie systemy dopuszczające pracę wielu użytkowników używały autentykacji hasłem. Wyróżniane są dwa typy haseł - wielokrotne i jednorazowe. W większości systemów domyślnie używa się haseł wielokrotnych. Hasła wielokrotne są w chwili obecnej zbyt łatwe do złamania, są wrażliwe na ataki typu: monitorowanie naciskanych klawiszy, atak może polegać na przechwytywaniu wszelkich znaków genero- wanych przez klawiaturę przez wprowadzone oprogramowanie, lub w przypadku braku dostępu do danego urządzenia monitorowanie emisji elektromagnetycznej; techniki psychologiczne, czyli wszelkie działania mogące doprowadzić do dobrowolnego ujawnienia hasła, np. podanie się za członka ekipy technicznej, czy też zarządzającej lub tzw. shoulder surfing, czyli podejrzenie hasła wpisywanego przez użytkownika autentykującego się w systemie; ataki brute force - po uzyskaniu dostępu do terminala uruchamiany jest program testujący różne kombinacje szyfrowania haseł, lub też w wolniejszej wersji próbujący kolejno różnych haseł w celu autentykowania w systemie; monitorowanie sieci, jest to jedna z najgroźniejszych metod łamania haseł; polega ona na przechwytywaniu pakietów zawierających pełny zapis sesji logowania, wraz z hasłami. Hasła jednorazowe są znacznie mniej wrażliwe na ataki niż wielokrotne. Nie są one jednakże zabezpieczeniem doskonałym - wrażliwe są między innymi na ataki: man-in-the-middle polegający na przechwyceniu hasła jednorazowego pomiędzy terminalem użytkownika a serwerem autentykacji i wysłaniu tego hasła jako własnego; INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 24 20 lat SOLIDEX „wyścig” - włamywacz monitoruje przesyłane przez użytkownika znaki i przed wysłaniem przez użytkownika ostatniego znaku blokuje jego sesję, próbując się autentykować za pomocą uzyskanej części hasła uzupełnianej przez pozostały znak. Jak widać z tych przykładów wykorzystanie jednoczynnikowego systemu autentykacji nie zapewnia wystarczającego bezpieczeństwa procesu identyfikacji użytkownika. Do pełniejszego zabezpieczenia stosowane są obecnie metody silnej autentykacji. Silna autentykacja Definiujemy silną autentykację jako taką, która używa dwóch z trzech podstawowych składników autentykacji. Dla przykładu silną autentykacją będzie taka, która używa token card (tokena) oraz numeru PIN użytkownika. Tego typu zabezpieczenie ma dwie zalety - jest odporne na większość ataków na hasła wielokrotne i jednorazowe. Drugą zaletą jest możliwość wykorzystania do accountingu dzięki dużej pewności prawidłowej autentykacji użytkownika. W chwili obecnej dostępnych jest wiele metod silnej autentykacji, włączając w to również drogie rozwiązania łączące odczyt danych biometrycznych z podawaniem hasła. Jedną z bardziej rozpowszechnionych na rynku metod jest połączenie karty tokenowej z indywidualnym numerem PIN użytkownika, rozwiązanie firmy Security Dynamics. SecureID SecurID jest rozwiązaniem pozwalającym na implementację silnej autentykacji w środowiskach sieci teleinformatycznych. Opiera się ona na dwóch czynnikach: karta tokenowa, generująca kod zmieniany co 60 sekund według specjalnego algorytmu; numer PIN, będący elementem stałym w kodzie autentykującym. Kod generowany przez token SecurID jest zależny od dwóch czynników: od czasu i od ziarna, czyli pewnej tajnej wartości, unikalnej dla każdej karty, na podstawie której wyliczany jest kod w kolejnych, 60-cio sekundowych przedziałach czasu. Użytkownik, inicjując proces autentykacji, musi wpisać cyfry, które aktualnie wyświetlane są na wyświetlaczu tokena, poprzedzone przez unikalny, znany tylko użytkownikowi kod PIN. Zmienność kodu w czasie zapewnia zabezpieczenie przed przechwyceniem kodu dostępu przez nieautoryzowanego użytkownika (nawet w przypadku podejrzenia ciągu cyfr wpisywanego przez autentykującego się użytkownika, ciąg raz użyty do autentykacji jest blokowany). Obecność czynnika niezależnego od użytkownika, czyli kodu generowanego przez token, zabezpiecza system przed ujawnieniem hasła na skutek stosowania technik psychologicznych. Jednocześnie wymóg podania kodu PIN zabezpiecza system przed dostępem osób niepowołanych, które weszły w posiadanie tokena. Elementami systemu wchodzącymi w interakcję z autentykującym się użytkownikiem są tzw. agenci (ACE/Agent). Dzięki wykorzystaniu różnorodnych agentów zabezpieczyć można praktycznie każde urządzenie w sieci, włączając w to wewnętrzne połączenia w sieci, serwery dostępowe oraz wirtualne sieci prywatne. Dzięki wykorzystaniu tokenów SecurID wdrożenie rozwiązania nie jest uzależnione od stosowania specjalnych urządzeń takich jak czytniki kart magnetycznych. Według niezależnego testu, o którym szerzej pod koniec artykułu, oprogramowanie klienckie ACE/Agent jest jednym z lepszych rozwiązań w tym zakresie dzięki szerokiej gamie oprogramowania z którym może ono współpracować. W chwili obecnej agenci dostępni są dla następujących platform: IBM AS/400; IBM MVS, OS/390; serwery Netscape; Apple ARA; Sun Solaris; HP-UX; IBM AIX; Digital Unix; Novell Netware Connect; Open VMS; SCO; SGI Irix; TACACS+; UNIX; Microsoft Windows NT. Agenci kontaktują się z oprogramowaniem zarządzającym danymi o użytkownikach - ACE/Server, który pozwala na wprowadzenie scentralizowanych usług autentykacji w dużych sieciach korporacyjnych. Oprogramowanie ACE/Server dostępne jest w chwili obecnej na platformach Sun Solaris, HP -UX, IBM AIX oraz Windows NT. Użytkownicy zdalni, pracujący za pośrednictwem Internetu, muszą podać swój kod PIN oraz kod podany przez token SecurID w celu udostępnienia zasobów wewnętrznych. Serwer dostępowy (ACE/Agent współpracujący z nim) kontaktuje się w celu dokonania autentykacji z ACE/Server. Na podstawie bazy danych zarejestrowanych tokenów i użytkowników, ACE/Server określa czy dany użytkownik figuruje na jego liście, czy też nie. Pozwala to na jednoznaczną identyfikację użytkownika próbującego uzyskać dostęp do zasobów. Rozwiązanie autentykacji w sieci lokalnej zakłada wykorzystanie agentów na wszystkich urządzeniach mających dostęp do tej sieci. Token SecurID Oprócz modelu o formacie karty kredytowej dostępne są także tokeny - breloki, tokeny softwaerowe SoftID, toke- © SOLIDEX, 2010 25 ny w postaci apletów oraz oprogramowanie pozwalające pełnić funkcję tokena PalmPilotowi. Generowany co 60 sekund kod odczytywany jest w tokenach sprzętowych z wyświetlacza LCD. Bardzo dokładny zegar wbudowany w token zapewnia pełną synchronizację z czasem ACE/Server, który, aby zapewnić równie dużą dokładność powinien współpracować z serwerem NTP (Network Time Protocol). Kod generowany jest na podstawie aktualnego czasu oraz ziarna, czyli pewnej wartości początkowej dla algorytmu. Algorytm generacji kodu jest pseudolosowy, co sprawia, że nie jest możliwe wyliczenie na podstawie poprzedniego kodu następnej wartości. Token jest nierozbieralny, co uniemożliwia ingerencję w działanie układów elektronicznych bez jego zniszczenia. ziarna, przy użyciu algorytmu używanego przez token SecureID, wyliczana jest wartość, która powinna zostać podana przez użytkownika. W przypadku poprawnego zidentyfikowania (tj. podania prawidłowego kodu PIN oraz kodu SecurID) ACE/Server blokuje daną sekwencję. Oznacza to, że w ciągu trwania sześćdziesięciu sekund jeden użytkownik może się autentykować tylko raz. Ma to bardzo duże znaczenie dla bezpieczeństwa zasobów. Przechwycony ciąg cyfr mógłby zostać wykorzystany do autentykacji przez nieuprawnionego użytkownika gdyby możliwe było dwukrotne wykorzystywanie tego samego kodu. Wynika stąd jeszcze jeden warunek - system musi mieć kontakt z wiarygodnym serwerem NTP (są dostępne na rynku niedrogie rozwiązania sprzętowe). Dodatkowe zabezpieczenie można zapewnić wykorzystując token SecurID PINPAD. Wbudowana klawiatura umożliwia wprowadzenie kodu PIN, który jest dodatkowym czynnikiem branym pod uwagę przy generowaniu kodu. Dzięki temu przejęcie samego tokena nie daje niepowołanej osobie nawet części kodu niezbędnego do autentykacji. Dodatkową zaletą jest lepsze zabezpieczenie samego kodu PIN, który nie może być w żaden sposób przechwycony na drodze od serwera dostępowego do ACE/Agent. Oczywiście cała transmisja na tej drodze jest kodowana, jednakże wyeliminowanie jawnego podawania PINkodu eliminuje jedyny element stały, czy też podejrzany przy wpisywaniu na klawiaturze. Bardzo istotną funkcją oferowaną przez ACE/Server jest możliwość współpracy z rozwiązaniami opartymi o serwery TACACS, TACACS+ lub RADIUS. Dzięki temu rozwiązanie SecureID może stanowić część większego systemu bezpieczeństwa. Należy bowiem pamiętać, że SecureID pozwala na jednoznaczne zidentyfikowanie osoby uzyskującej dostęp, a do nadania konkretnych uprawnień i śledzenia przebiegu sesji (authorization i accounting) - należy wykorzystać współpracujące narzędzia. Ze względu na konieczność zapewnienia ciągłości funkcjonowania w sieciach korporacyjnych ACE/Server wyposażony został w funkcję hot-backup server, dzięki czemu w przypadku awarii serwera podstawowego jego rolę natychmiast może przejąć serwer zapasowy. ACE/Server Oprogramowanie ACE/Server jest punktem centralnym systemu autentykacji SecurID. Każdy używany w sieci token musi zostać zarejestrowany w ACE/ Server. Na podstawie numeru seryjnego określane jest ziarno tokena, i na podstawie czasu w chwili dokonywania autentykacji oraz określonego Test systemu Według testu przeprowadzonego przez pismo Network Computing rozwiązanie proponowane przez Secure Dynamics przewyższa rozwiązania konkurencyjne, zarówno pod względem kompleksowości oferty (rozumianej przez kompatybilność z rozwiązaniami innych producentów) jak i pod względem ilości do- stępnych funkcji. Dużą zaletą jest również zastosowanie własnego, opatentowanego algorytmu synchronizacji czasu, zapewniającego realizację poprawnej autentykacji. Pomocą dla administratorów planujących duże wdrożenia systemów bezpieczeństwa są dostarczane razem z tokenami pliki skryptowe dla ACE/Servera pozwalające na automatyczną rejestrację tokenów. System wymaga sporej wiedzy już przy konfiguracji. Choć z początku może się to wydawać wadą, to dzięki temu można jednak uzyskać rozwiązanie elastyczne, w pełni dostosowane do potrzeb konkretnego zastosowania. Wynika stąd kolejna ważna zaleta technologii SecurID - skalowalność. System oparty na ACE/ Server zapewnia większą funkcjonalność niż jest potrzebna małym firmom, jednakże wraz ze wzrostem przedsiębiorstwa doceniane są możliwości skalowania ACE/Servera. Dla organizacji korzystających z dużych sieci wieloplatformowych zastosowanie rozwiązania SecurID z pewnością przynosi duże korzyści. Współpraca z Cisco Secure Access Control Server (ACS) Ze względu na popularność rozwiązań dostępowych firmy Cisco Systems jedną z ważniejszych funkcji ACE/Server jest możliwość współpracy z oprogramowaniem CiscoSecure ACS. Wykorzystanie technologii CiscoSecure umożliwia realizację pełnego systemu kontroli bezpieczeństwa uwzględniającego wszystkie niezbędne do tego celu elementy: autentykację (dokonywaną przez ACE/ Server), autoryzację i accounting, realizowane przez serwer ACS. Komunikacja pomiędzy SecurID a CiscoSecure, wykonywana jest przez API klienta ACE/Agent. Połączenie ze sobą możliwości tych dwóch narzędzi daje do dyspozycji system o potężnych możliwościach, umożliwiający kontrolę dostępu użytkowników do poszczególnych zasobów. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 26 20 lat SOLIDEX Rewolucja Internetowa? Atykuł z Nr 11-12/2000 (44) Niniejszy artykuł zawiera główne tezy i streszczenie wykładu założyciela SOLIDEXu przygotowanego na konferencję „Informatyka w przemyśle” zorganizowaną w Krakowie, w listopadzie 2000r. U schyłku wieku Mało kto pamięta zapewne jak jeszcze bardzo niedawno korzystaliśmy z maszyny do pisania, teleksu czy telegramu, by zapisać, przekazać i odebrać myśli kierowane do naszych rozmówców, czy to prywatnych czy też służbowych. Pewnie lepiej pamiętamy, jaką przed zaledwie kilku laty rewolucyjną zmianę dokonał w naszych metodach komunikacji faks, z którego chętnie korzystamy przecież i dzisiaj, choć ja przynajmniej coraz rzadziej. Ciągle jeszcze korzystamy z klasycznego telefonu, choć czy pamiętamy jeszcze panie telefonistki, które łączyły (godzinami) nasze rozmowy międzymiastowe, że nie wspomnieć o międzynarodowych, np. do Stanów Zjednoczonych, gdzie często po 24. godzinach oczekiwania nadal nie mieliśmy oczekiwanego połączenia. Nie tak dawno przecież ciężko było uzyskać połączenie telefoniczne pomiędzy dzielnicami Warszawy. Może pamiętamy jeszcze kilkukilogramowe pierwsze telefony komórkowe, z którymi paradowaliśmy po mieście częściowo niezależnieni od łaski monopolisty telekomunikacyjnego. Jaki to miało wpływ na biznes? Ogromny! Jeśli chcieliśmy dowiedzieć się czegoś o produkcie, którym nasz potencjalny Klient lub Partner był zainteresowany prosiliśmy go o kilkanaście dni cierpliwości. Po czym kierowaliśmy nasze zapytania do producenta lub jego przedstawicieli pocztą, a w najlepszym wypadku faksem i cierpliwie (od czasu do czasu ponaglając telefonicznie) czekaliśmy na informacje. Potem spotkania i rozmowy z Klientem, a na końcu kontrakt. I wtedy następował krok drugi - zamawianie, uzgadnianie dostaw i oczekiwanie na towary czy materiały. W sumie jeden lub dwa miesiące. Głównie dlatego, że czas spędzony na komunikacji czyli wymianie informacji był często dłuższy niż czas wyprodukowania interesującego nas dobra! Już wtedy, kto szybciej potrafił pozyskać informację, ten szybciej był w stanie nie tylko zdobyć kontrakt, ale przede wszystkim szybciej uzyskać za niego zapłatę (tę samą co opieszały konkurent). Ostatnia dekada w Polsce Nagle okazało się, że można inaczej - szybciej, skuteczniej i taniej. Nie od razu wszyscy to zauważyli. W Polsce, podobnie zresztą jak w krajach lepiej uprzemysłowionych, zaczęło się w świecie akademików, którym - z lenistwa chyba - zachciało się komunikować miedzy sobą przy pomocy sieci komputerowych. I tak, jeszcze będąc adiunktem w Instytucie Informatyki zacząłem zajmować się sieciami komputerowymi, by sprostać jakże dziś prostemu zadaniu - połączenia Instytutu z jednym z kilku węzłów sieci EARN zafundowanej kilku uczelniom przez IBM (chwała im za to). Zadanie nie było proste (zresztą do dziś połączenie czegokolwiek z IBM-mainframe należy do sztuki!). Okazało się (na szczęście), że wśród kilkunastu protokołów komunikacji istnieje coś takiego jak „IP” czyli Internet Protocol. I tak wkrótce (zamiast połączenia IBM-mainframe w węźle EARN) miałem przyjemność wraz z moją firmą uczestniczyć w instalacjach dwóch pierwszych profesjonalnych węzłów polskiego Internetu (Kraków - Warszawa, 1991rok). A dalej poszło już samo, jak lawina. Od raptem pięciuset użytkowników dziewięć lat temu do chyba 5 milionów dzisiaj! Nie wszyscy pamiętają zapewne, kiedy zaczęli powszechnie używać tajemniczego adresu internetowego na wizytówkach (3-4 lata temu), kiedy powstały pierwsze serwisy WWW (kilkadziesiąt serwisów akademickich powstało w 1994 roku). Nasz biuletyn firmowy „integrator” pojawił się drogą elektroniczną już 5 lat temu, ale prawdziwy i powszechnie widoczny (w mediach) boom internetowy w Polsce zaczął się zaledwie rok temu! Przypomnę jeszcze, że pierwsze pionierskie połączenia placówek banków w sieć rozległą miało miejsce dopiero 6 lat temu, a kilka największych polskich banków dokonało tego dopiero dwa lata temu. Masa krytyczna No i stało się - masa krytyczna internetu została przekroczona - nie wypada nie mieć dzisiaj adresu internetowego i nie używać poczty komputerowej. Dotarło to nawet do konserwatywnej raczej części pokolenia parającej się zarządzaniem. Każda szanująca się firma stara się (z lepszym czy gorszym skutkiem) stworzyć swoją wizytówkę wywieszając ją na „inteligentnym słupie ogłoszeniowym” zwanym WWW. A konserwatywni zwykle ludzie finansów na całym świecie dali się zwariować i uwierzyli w tzw. „nową ekonomię internetową” powodując nieracjonalny wręcz boom na światowych giełdach, gdzie młode spółki „internetowe” osiągnęły takie ceny, że aby je kupić trzeba z góry zapłacić więcej niż stokrotny ich zysk roczny (czyli musiałyby tak pracować 100 lat!). © SOLIDEX, 2010 27 Moda czy racjonalna potrzeba Czy ma to jakieś racjonalne podstawy? Czy jest to tylko kolejna moda? Cóż takiego może ten internet, iż jest tak pożądany zarówno przez biznes, jak też przez użytkowników domowych? Dużo może! I nie jest to moda. Przede wszystkim należy wyjaśnić co to jest „internet”? Podam dwie definicje. Internet technicznie Pierwsza, bardziej techniczna, definicja określi „internet” jako ogólnoświatową sieć wzajemnie połączonych komputerów (hostów) porozumiewających się wspólnym językiem (protokołem komunikacji zwanym Internet Protocol, IP). Każdy z tych komputerów jest równoważny innym, określony jednoznacznym adresem wyróżniającym go w sieci. Każdy z tych komputerów może świadczyć dla wszystkich innych szeroki pakiet usług, zwanych usługami sieciowymi (podstawowe to np. poczta, transfer plików i serwis WWW). I tu trzeba dodać jeszcze pojęcie „intranet”, które ... jest tym samym technologicznie tworem co „internet”, a jedyną różnicą jest ograniczenie geograficzne do zasięgu budynku, korporacji czy dowolnej organizacji i przeznaczenie do wykorzystania przez upoważnione osoby (mówi się o sieci prywatnej czy korporacyjnej). Dla jasności: Gdy mówię „internet” myślę „Internet oraz tyle Intranetów, ile prywatnych sieci”. Intranety oddziela się od Internetu ... łącząc poprzez tzw. ściany ogniowe (firewall). Internet ... socjologicznie Druga definicja ma raczej charakter socjologiczny - „internet” to spontaniczne zjawisko rozwijające się na świecie pod koniec XX wieku polegające na masowym łączeniu się ludzi w sieć komunikacyjną pozwalającą im czuć się bliżej siebie, niwelować odległości, cieszyć się i bawić, pracować i zarabiać pieniądze oraz ostatnio nawet podglądać innych w ich prywatnym życiu. Zja- wisko to rozwija się w fantastycznym tempie we wszystkich zakątkach świata, a jedynym co może go ograniczyć to monopole telekomunikacyjne, które starają się zapobiegać wypieraniu klasycznej metody komunikacji głosowej (źródło ich dochodów) ograniczając (m.in. poprzez ceny) możliwości dołączania się kolejnych szaleńców do światowej pajęczyny połączeń internetowych. Zjawisko rozpowszechnia się w szalonym tempie zmieniając rzeczywistość, sposób postrzegania świata, sposób wychowania młodzieży, metody konkurowania i sposoby zarabiania pieniędzy. Podstawę rozwoju zjawiska zwanego internetem jest brak możliwości zapanowania nad jego pączkowaniem przez dowolną z organizacji oraz równość podmiotów uczestniczących w sieci. Na koniec XX wieku powstaje globalne społeczeństwo internetowe. Co dziś daje internet przedsiębiorcy (SOLIDEXowi) Spróbuję ocenić na podstawie firmy, którą dziesięć lat temu zakładałem (poczynając od maszyny do pisania, teleksu i tradycyjnych ksiąg rachunkowych zwanych „amerykankami”). Już od dawna każdy pracownik SOLIDEXu nie tylko ma, ale musi na co dzień korzystać na swym stanowisku pracy z komputera połączonego z innymi w sieć korporacyjną (intranet) łączącą nasze oddziały i włączoną na stałe w strukturę globalnego internetu. Umiejętność korzystania z metod i zasobów internetu jest tak samo podstawowa jak umiejętność czytania, pisania i mówienia! Po pierwsze - poczta komputerowa (każdy zwykle zaczyna od tej usługi sieciowej). Czas przesłania wiadomości zredukowany do sekund. Błyskawiczna propagacja informacji do wybranej grupy odbiorców. Możliwość wysłania i odbioru informacji w dowolnym momencie (asynchronicznie) bez przeszkadzania sobie w pracy, bez zbędnych spotkań w błahej sprawie. Z szansą na odpowiedź za chwilę z dowolnego zakątka globu. Z automatycznym zapamiętaniem przekazanej wiadomości i odpowiedzi. Z możliwością przesłania „w załączeniu” rysunku, tabeli, tekstu, ruchomego obrazu. Nie udaje się na razie przesłać smaku i zapachu (na szczęście, bo ludzie przestali by się spotykać!). Po drugie - wewnętrzne ogłoszenia i biblioteka wszelakiej użytecznej w firmie wiedzy. Wewnętrzny serwis WWW stał się podstawową metodą przekazywania informacji do Pracowników. Zarówno w dół struktury (zarządzenia, regulaminy, instrukcje), jak i w poprzek ( materiały szkoleniowe, projekty, teksty techniczne, nowości itp.). Po trzecie - dostęp do zewnętrznych składnic wiedzy: możliwość skorzystania z dowolnych zasobów serwisów WWW na świecie bez potrzeby zbędnych wyjazdów, zbędnej komunikacji, straty czasu czy zostawiania rodziny na długie dni delegacji. Po czwarte - dostęp do specjalizowanych serwisów naszych głównych partnerów technologicznych, czyli do bazy wiedzy o produktach oraz do bazy wiedzy i bezpośrednich kontaktów z służbami serwisowymi producentów. Po piąte - możliwość szybkiego zamawiania i sprowadzania towarów i materiałów z dowolnego zakątka świata, a także śledzenia drogi tych towarów do miejsca dostawy (ecommerce). Po szóste - możliwość dostępu do olbrzymich składnic specjalizowanego oprogramowania wykorzystywanego przez naszych specjalistów do budowy ... internetu. Po siódme - możliwość informowania o naszej działalności zainteresowanych, tanio, bez nachalności, w każdej chwili... to nasz serwis WWW. Po ósme - możliwość dostępu do wspólnych baz danych z dowolnego oddziału (księgowość, kasy, bazy adresowe, oferty, serwis i wiele innych). Po dziewiąte - możliwość zarządzania i administrowania zasobami komputerowymi z jednego miejsca (taniej tak i bezpieczniej) INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 28 20 lat SOLIDEX Po dziesiąte - między oddziałowe (międzymiastowe) rozmowy telefoniczne bez korzystania z połączeń telekomunikacyjnych (stały i z góry określony koszt i brak stresu wywoływanego długą i kosztowną rozmową na odległość) Co zrobimy za chwilę? Będziemy szkolić Pracowników przez Internet (E-learning) korzystając z technologii telewizji przez Internet (IP/TV), bo klasyczne metody są zbyt drogie i zawodzą w tak szybko rozwijającej się dziedzinie. A za 2-3 lata, gdy pojawi się technologia UMTS, gdy powszechna będzie telefonia internetowa (IP-phone) i telewizja przez internet (IP/TV) prawdopodobnie każdy będzie wszędzie miał dostęp do głosu, obrazu i danych ze swojego przenośnego telefono-komputero-telewizora, z dowolnego miejsca, z pożądaną jakością głosu, obrazu... A co daje to wszystko dziś i co da jutro mnie, zarządzającemu firmą? Oprócz pewnego komfortu zarządzania silnie rosnącą firmą (zarówno w sferze przychodów, jak i zasobów ludzkich) oraz dużo większej odporności na znaną „chorobę wzrostu” (wynikającą zwykle głównie z narzutu komunikacyjnego wywołanego wzrostem)technologia internetowa daje podstawę szansy na dalszy rozwój. Są tylko dwa powody korzystania z sieci komputerowej, Internetu i Intranetu: konieczność obniżania kosztów dla zachowania konkurencyjności na rynku zdolność do konkurowania i bycia konkurencyjnym I nie ma w tym nic odkrywczego. To stara prawda, która jest ekonomicznym uzasadnieniem fascynacji Internetem, prawdziwej rewolucji internetowej przełomu wieków. Jest dowodem na to, iż nie jest to moda, ale trwała zmiana rzeczywistości Co nas czeka? Bardzo dużo nieustannych zmian w każdej dziedzinie naszego życia. W jego prywatnej i służbowej części. Najbliższe lata będą jedną wielką zmianą, którą przetrwają wyłącznie Ci, którzy zachowają zdolność do ciągłych zmian, którzy nadążą PRZED zmieniającą się rzeczywistością. Nie wytrzymają Ci i te przedsiębiorstwa, które będą chciały kontynuować działalność (w domyśle rentowną) nie zmieniając metod działania, nie inwestując w przyszłość poprzez inwestycje (ciągłe i nieskończone!) w sieć pozyskiwania i wymiany informacji. Nie da się już żyć obok internetu, nie zauważając zmian jakie wywołuje. Będziemy popychani coraz szybszym tempem tych zmian. Internet już za 2-3 lata na trwałe wejdzie do naszych domów, samochodów, nie mówiąc już o miejscach pracy i szkole. Już od najmłodszych lat dzisiejszych szkolnych pokoleń zaczął się konkurencyjny wyścig z czasem, o wiedzę, o lepsze i lepiej płatne miejsce pracy, o szybszy dostęp do informacji. Pokolenie pięćdziesięciolatków marzyło by ojciec kupił im rower, czterdziestolatków o radiu tranzystorowym, trzydziestolatków o samochodzie. Dzisiejszy dwudziestolatek prosił ojca „kup mi komputer”, co rodzice najczęściej uznawali za ekstrawagancję młodego człowieka. Dzisiejszy trzynastolatek mówi „tato, kup mi łącze do internetu”, a jeśli rodzic spełni tę jego zachciankę - potrafi żeglować godzinami szukając wiedzy, zabawy, przyjaźni,.... szuka swojej nadchodzącej w ogromnym tempie przyszłości doby internetowej XXI wieku. Rewolucja internetowa?! Tak jak nikt nie przewidział pod koniec XIX wieku znaczenia i skutków wynalezienia maszyny parowej, tak i my jeszcze kilka lat temu, sto lat później, nie potrafiliśmy przewidzieć, że niepozorna i praktycznie nieznana sieć Internet używana jeszcze dziesięć lat temu pra- wie wyłącznie przez akademików rozwinie swe skrzydła na wszystkie dziedziny życia i zmieni naszą rzeczywistość w niewyobrażalny sposób. Tylko nieliczni potrafili przewidzieć dziesięć lat temu, czym może być Internet i wyprzedzić tę wielką zmianą. Nikt nadal nie jest w stanie przewidzieć czym będzie za lat trzy, pięć czy piętnaście. Druga Rewolucja Przemysłowa? Uczestnicząc aktywnie od 10 lat w rozwoju Internetu w Polsce nie wątpię, że internet jest tym dla ludzkości, czym maszyna parowa sto lat temu. Nie możemy nie docenić, czym jest internet dla przedsiębiorczości, dla przedsiębiorcy, dla zwykłego człowieka. Żyjemy w czasie Drugiej Rewolucji Przemysłowej, którą kreuje Internet. Kto ją przeżyje? Kto osiągnie sukces? Tylko Ci, którzy będą wyprzedzać zmiany. Przegrają Ci, którzy je przegapili. Różnica od normalnie następujących w historii zmian leży w ich tempie. Tempo rewolucji jest nieprzewidywalne. Z.S. Autor artykułu, Zbigniew Skotniczny doktor informatyki, były adiunkt AGH w Krakowie - jest założycielem krakowskiego SOLIDEXu (1990), która pod jego nadzorem już od dziesięciu lat jest wiodącą firmą wdrażającą infrastrukturę internetową w Polsce. O randze firmy świadczyć może partnerstwo z takimi gigantami jak Cisco Systems i Sun Microsystems. Dzisiejsza sprzedaż technologii internetowych realizowana przez SOLIDEX sięga ponad 150 mln złotych rocznie. Klientami są największe banki, korporacje przemysłowe i telekomunikacyjne oraz jednostki budżetowe. Firma zatrudnia ok. 150 osób w czterech placówkach - centrali w Krakowie i oddziałach w Warszawie, Gdańsku i Poznaniu. Swoje filie firma ma również w Mińsku na Białorusi oraz w Hamburgu w Niemczech. © SOLIDEX, 2010 29 ContactCenter - wielomedialny kontakt z klientem Artykuł z Nr 7-8/2001 (48) „Telefon ma za dużo wad, aby był traktowany poważnie jako środek komunikacji. Urządzenie z natury nie ma żadnej wartości.” 1876, Western Union internal memo „Wiele firm specjalnie szkoli telefonistki, aby potrafiły rozmawiać z klientami okazując im tonem głosu zainteresowanie i pełne zaangażowanie. Rozmówca będzie przekonany, że to firma zainteresowana jest jego osobą. Pamiętajmy o tym, kiedy jutro podniesiemy słuchawkę.” Dale Carnegie, 1936, wydawnictwo: Simon & Schuster, Inc. Wprowadzenie Telefoniczne systemy obsługi klienta stanowią obecnie istotny element prowadzenia każdej działalności na współczesnym rynku. Historia tych systemów rozpoczęła się w zamierzchłej epoce ręcznych central telefonicznych. Centrale ręczne wymagały dużej liczby telefonistek. Połączenie z telefonistką było czymś całkowicie naturalnym - u niej zamawiało się rozmowę. Z czasem jednak, centrale ręczne zaczęły ustępować miejsca centralom automatycznym. Powstał więc z jednej strony problem - co mają robić telefonistki, a z drugiej - pomysł, że skoro telefonistka może przyjmować i realizować zamówienia na rozmowy, można też za jej pośrednictwem zaoferować abonentowi - klientowi więcej: informację, usługę a nawet - towar. Okazało się przy tym, że wykorzystanie telefonu, jako narzędzia do kontaktu z klientem, może być dobrym sposobem oszczędzania a nawet zarabiania pieniędzy. Telefoniczne systemy obsługi klienta są obecnie, w krajach o dobrze rozwiniętej sieci telekomunikacyjnej, bardzo ważnym i wręcz niezbędnym elementem prowadzenia każdej działalności gospodarczej. Dla każdego przedsiębiorstwa, niezależnie od celu i misji firmy, klienci są po prostu źródłem pieniędzy. Dla tego większość działań podejmowanych przez firmy w stosunku do klientów służy temu, by przynosili jeszcze większe zyski. Najważniejszą wówczas sprawą staje się odpowiednie zarządzanie relacjami z klientem, utwierdzanie w jego świadomości trafnego wyboru tej właśnie firmy oraz przywiązywanie go do własnych towarów i usług. W obliczu rosnącej konkurencji, aby wygrać, należy ciągle doskonalić metody kontaktu z klientami oraz odpowiednio wykorzystywać bazy informacji na temat klientów. Według badań zastosowanie Contact Center integrującego nowoczesne formy kontaktu takie jak telefon, fax, WWW, e-mail oraz telefonię IP przynosi duże korzyści finansowe kontakt bezpośredni z klientem, twarzą w twarz jest około pięć razy droższy od kontaktu telefonicznego, a nawet do dziesięciu razy droższy od kontaktu przez internet. Call Center a nowe technologie Usługi Call Center stają się coraz bardziej wyrafinowane: technologie internetowe oraz rozwój telefonii komórkowej pozwalają na wykorzystywanie w kontaktach z klientami takich usług jak: krótkie wiadomości tekstowe (SMS), chat, poczta elektroniczna, witryny WWW oraz telefonia IP. Rola tych nowych metod kontaktu z klientami będzie stale rosła. Contact Center i koszty uruchomienia Aby uruchomić swoje własne Contact Center najprostszym rozwiązaniem wydawało by się zatrudnienie tak dużej liczby osób obsługujących rozmowy - telefonistek i zainstalowanie tak dużej liczby łączy, aby przychodzące połączenia w ogóle nie czekały na obsługę (każda rozmowa trafia do systemu, bo są wolne łącza i jest natychmiast obsługiwana, bo są wolne telefonistki). Koszt utrzymania takiego systemu jest jednak bardzo duży. Zarówno posiadanie i używanie dużej liczby łączy, które nie są w pełni wykorzystane, jak i zatrudnianie dużej liczby pracowników, którzy większość czasu spędzają czekając na połączenie i w konsekwencji nie pracują zbyt efektywnie, jest kosztowne. Zastosowanie systemu obsługi klienta ma zmniejszyć te koszty w sposób jak najmniej oddziałujący na rezultaty pracy (czyli liczbę i jakość obsłużonych połączeń). Jedna z firm posiadająca od wielu lat swoje Call Center z chwilą pojawienia się możliwości kontaktowania z klientem przez WWW oraz e-mail wprowadziła te usługi również u siebie. Cztery lata temu zaledwie ułamek procenta wszystkich kontaktów odbywał się za pomocą tych mediów. Dziś ponad 20 procent. W ten sposób powstała idea Contact Center czyli Call Center wykorzystującego również inne technologie do porozumiewania się z klientem internet, poczta tradycyjna i e-mailowa, faks i inne. Z technicznego punktu widzenia jest to miejsce w którym obsługuje się wyżej wymienione media do kontaktów z klientami. Aby zminimalizować koszty tworzenia Call Center, przy jednoczesnym zachowaniu odpowiedniego pozio- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 30 20 lat SOLIDEX mu usług, należy kłaść nacisk na efektywność obsługi klientów. W tym celu tworzy się bazy wiedzy, zawierające odpowiedzi na najczęściej zadawane pytania. Pomocą w poprawie efektywności obsługi są również systemy przyjmujące połączenie, automatycznie zadające pytania klientowi na które klient może odpowiadać za pomocą klawiatury tonowej aparatu. Aplikacje obsługujące system korzystają również z informacji zapisanych w systemie i identyfikowanych na podstawie numeru telefonicznego klienta. Konsultant przyjmujący rozmowę ma już wyświetlone na ekranie informacje na temat klienta zdobyte podczas wcześniejszych kontaktów. Zależnie od przeznaczenia systemu, jego wielkości i kosztu poszczególne funkcje realizowane są w mniej lub bardziej wyrafinowany sposób, przy użyciu dostępnych mechanizmów sprzętowych i programowych. Trzeba tu powiedzieć, że technologia nie pozostaje w tyle za potrzebami. Nowoczesne rozwiązania pozwalają na realizację Contact Center zarówno posiadające jedną siedzibę, jak i zbudowane z wielu oddalonych od siebie siedzib zorganizowanych funkcjonalnie jako jeden zcentralizowany system. Specyficzne cechy systemów Contact Center to: inteligentne kierowanie rozmów, automatyczna dystrybucja połączeń (ACD), integracja telefonii z sprzętem komputerowym (CTI), interaktywna odpowiedź głosowa (IVR), kolejkowanie rozmów, raportowanie. Otwarte standardy umożliwiają również wspieranie kontaktów z klientami wykorzystując WWW oraz e-mail. Zastosowanie nowoczesnej architektury VoiceOverIP umożliwia wykorzystanie istniejącej infrastruktury sieciowej firmy oraz obniża koszty administracji. Ponadto pozwala na łatwe rozszerzenie możliwości Contact Center pozwalając na włączenie do struktury systemu rozproszonych biur, agentów pracujących w domach oraz specjalistów pracujących poza strukturą systemu. Budowa typowych systemów Call Center Najważniejszym elementem Call Center jest serwer CTI (Computer Telephony Integration), będący pośrednikiem między centralą telefoniczną, telefonami konsultantów i lokalną siecią komputerową. Serwer ten komunikuje się z centralą za pomocą protokołu CSTA (Computer Supported Telecommunication Applications). Po stronie sieci lokalnej do komunikacji najczęściej wykorzystuje się protokoły TAPI (Telephony Application Programming Interface) oraz TSAPI (Telephony Services Application Programming Interface) służą one do przesyłania danych do aplikacji i systemów CRM. W nowoczesnych realizacjach całość obsługi głosowej odbywa się z wykorzystaniem protokołu IP. Serwer CTI spełnia kluczową rolę w procesie obsługi zgłoszeń: często wyposażony jest w moduł IVR (Interactive Voice Response) który jest punktem pierwszego kontaktu z klientem, odbierając przychodzące połączenia, udzielając standardowych objaśnień i określa profil zainteresowania klienta za pomocą zapytań głosowych na które klient może odpowiedzieć wybierając odpowiednie przyciski na tonowej klawiaturze aparatu; przełącza rozmowy do odpowiednich konsultantów na podstawie informacji o ich dostępności oraz na podstawie danych o kliencie zgromadzonych w bazach danych; podtrzymuje również połączenie gdy wszyscy konsultanci są zajęci, lub gdy klient nie zdecydował się jeszcze na konkretną opcję obsługi. Dane zbierane podczas kontaktu z klientem mogą być składowane w prostych bazach danych lub w złożonych systemach wspomagania relacji z klientami CRM (Customer Relationship Management). ACD, Automatic Call Distribution ACD (Automated Call Distribution) to jeden z podstawowych programów, w które wyposażone jest prawie każde centrum, w każdym razie każde, które prowadzi obsługę telefonów przychodzących. Zadaniem ACD jest au- tomatyczne kierowanie rozmów do określonych agentów lub grup agentów. Warunki dystrybucji są zwykle dość proste i zależą od numeru telefonu, który wykręciła osoba dzwoniąca lub od czasu, w którym zadzwoniła. W ACD pojawia się tendencja do coraz bardziej złożonych przeniesień: zależnych od regionu, produktu, planowanego zakupu lub potrzeby pomocy technicznej, a także przeniesień warunkowych. Jako element pakietów ACD obecne stają się aplikacje do planowania natężenia ruchu i ustalenia odpowiadającego temu natężeniu poziomu zatrudnienia telemarketerów w określonym czasie. Automatyczne rozdzielanie wywołań (ACD = Automatic Call Distribution) stanowi podstawowy mechanizm pracy systemu obsługi klienta. Umożliwia on równomierny rozdział połączeń przychodzących pomiędzy osoby obsługujące, nadzór nad odbywającymi się połączeniami, zarządzanie ruchem i prowadzenie statystyk. Na system automatycznego rozdzielania wywołań składa się kilka elementów: kolejkowanie wywołań - w sytuacjach natłoku pozwala na przyjęcie większej liczby połączeń, niż może być w danej chwili obsłużonych przez telefonistki. Mechanizmy kolejkowania wywołań powinny umożliwiać nadzór nad liczbą oczekujących połączeń, przekazywanie ich pomiędzy kolejkami, nadawanie priorytetów poszczególnym wywołaniom; zapowiedzi słowne - nadawane przed zestawieniem połączenia lub w jego trakcie, pozwalają na poinformowanie dzwoniącego o dostępnych możliwościach, zajętości wszystkich stanowisk, konieczności oczekiwania itd. W przypadku dłuższego oczekiwania na następny etap zestawienia połączenia zamiast zapowiedzi może być nadawana muzyka; raporty i statystyki - dostarczane przez system ACD, stanowią źródło informacji o bieżącym stanie systemu i efektywności jego działania w © SOLIDEX, 2010 31 zdefiniowanych przedziałach czasu (np. raporty godzinne, dzienne, tygodniowe itd.). Pozwalają one na ocenę pracy poszczególnych telefonistek, grup telefonistek, całego systemu i analizę jego efektywności; automatyczne rozdzielanie wywołań wychodzących - stosowane jest w systemach telemarketingowych, w których inicjatywa zestawiania połączeń leży po stronie systemu a nie abonentów. W systemach takich nie oczekuje się na połączenia przychodzące od abonentów, ale generuje się połączenia wychodzące na podstawie zdefiniowanych procedur. Numery abonentów pobierane są automatycznie z bazy danych i wybierane. Po zgłoszeniu się abonenta połączenie jest kierowane do telefonistki, która rozpoczyna i prowadzi rozmowę. Krok ten może być poprzedzony nadaniem do abonenta zapowiedzi słownej lub informacji o zestawianym połączeniu. IVR, Interactive Voice Response IVR (Interactive Voice Response) polega na zróżnicowaniu przekazu i treści rozmowy w zależności od informacji zebranych wcześniej od rozmówcy. Zbieranie informacji polega z reguły na obsłużeniu początku rozmowy w sposób automatyczny i poproszeniu dzwoniącego o wybranie tych opcji, które interesują go najbardziej: np. „jeżeli chcesz się dowiedzieć o sieci dystrybucji wciśnij 1, jeżeli chcesz zamówić materiały informacyjne wciśnij 2...” itp. W USA 70-80 proc. czasu rozmów obsługiwanego jest w ruchu automatycznym za pomocą systemów IVR. Pozwala to w dużym stopniu rozładować ruch przez automatyczne odpowiadanie na najczęściej zadawane pytania oraz podnosić efektywność działania centrum. Element, który najprawdopodobniej dodatkowo zwiększy ów próg, to rozpoznawanie mowy (speech recognition). Już w tej chwili działają systemy rozpoznające wypowiedzi dzwoniących, co pozwala na obsługę systemu nie tylko z telefonów tonowych, ale i z impulsowych oraz umożliwia dużo większą interakcję z klientem. Obsługa taka jest również bardziej intuicyjna i przyjazna dla użytkownika. Trwają prace nad rozwojem systemów rozpoznających ciągłe wypowiedzi (w odróżnieniu od oderwanych słów wypowiadanych po poproszeniu o nie) oraz rozpoznawaniem złożonych ciągów liczbowych (np. sto dwadzieścia trzy w odróżnieniu od jeden dwa trzy). CTI Computer Telephony Integration CTI to aplikacje, których zadaniem jest zintegrowanie dwóch dotychczas odrębnych systemów: sieci telefonicznej i sieci komputerowej. W trakcie połączenia telefonicznego następuje transfer danych z sieci komputerowej. Pozwala to na dotarcie do danych dzwoniącego, zanim zostanie odebrane połączenie. W swej najprostszej formie CTI objawia się pojawieniem ekranu z danymi klienta na monitorze telemarketera w sposób automatyczny (screen popping). Oprócz ułatwienia pracy agenta, CTI pozwala na zdobywanie informacji samemu zainteresowanemu (automatyczne pobranie danych o sobie, np. status zamówień, stan konta itp.). CTI daje możliwość uruchomienia funkcji fax-on-demand, której zadaniem jest udostępnienie osobie dzwoniącej niezbędnych informacji w formie wiadomości faksowej wysyłanej pod podany przez klienta numer. CTI, w swojej czystej formie, można zastosowania tylko w połączeniu z usługą DNIS (Digital Number Identification Service), czyli automatyczną identyfikacją rozmówcy. Ponieważ możliwości rozpoznawania numeru są ograniczone, więc wykorzystuje się połączenie wielu elementów IVR i ACD w celu zdobycia informacji na temat osoby dzwoniącej, np. w postaci osobistego numeru identyfikacyjnego. Łącząc elementy ACD, IVR i aplikacje CTI tworzy się złożone programy obsługi w rodzaju CRM (Customer Relationship Management) i EIM (Enterprise Interaction Management). Integracja z systemami CRM CRM jest to program zarządzania stosunkami z klientem, który pozwala na zautomatyzowanie procesu sprzedaży, wsparcia i serwisu dla klientów, dzięki zbieraniu szerokiego zakresu informacji na ich temat. CRM daje możliwość śledzenia i analizy rozwoju kontaktów pomiędzy firmą a klientem oraz doboru narzędzi marketingu i sprzedaży w zależności od historii tych kontaktów. EIM, z kolei, to program zarządzania reakcją przedsiębiorstwa, który automatycznie różnicuje odzew firmy na zgłoszenia klientów kontaktujących się z centrum telefonicznym. Na podstawie zebranych danych klient zostaje odpowiednio zaszeregowany, a następnie w zależności od przypisanego poziomu serwisu lub celu handlowego jest łączony z odpowiednią osobą. I tak na przykład, klient o wysokich obrotach handlowych przekazywany będzie do pracownika wyższego szczebla, a klient zalegający z zapłatą za fakturę łączony będzie automatycznie z pracownikiem działu windykacji. Zadaniem połączonych technologii, oprócz wzrostu produkcyjności centrów telemarketingowych, jest ułatwienie i usprawnienie kontaktów z punktu widzenia klienta. Połączenie informacji o klientach zebranych w systemie CRM, oraz innych bazach danych z systemem Call Center pozwala na szybkie udzielanie informacji klientom; np. o stanie konta, należnościach, przeprowadzanych operacjach itp. Taka formuła komunikowania się będzie uatrakcyjniana dodatkowo możliwością otrzymania materiałów drukowanych (fax-on-demand) czy też obejrzenia zdjęć lub filmów wideo, Medium wprowadzającym te nowości będzie Internet. Atrakcyjność Internetu i poczty elektronicznej polega na łatwości ich obsługi i na wykorzystaniu przyjaznych użytkownikowi interfejsów. Nawigacja za pomocą klawiatury i myszki, przy wykorzystaniu zmysłu wzroku jest bardzo atrak- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 32 20 lat SOLIDEX cyjna dla wielu ludzi. Do tych zaś, których odrzuca skomplikowanie techniczne i „samoobsługowość” Internetu, firmy kierować będą ofertę przez konsultantów - telemarketerów internetowych. Konsultanci mogą na przykład oglądać te same strony internetowe co ich rozmówca. Już obecnie takie możliwości dają dostępne programy np. Microsoft NetMeeting czy Netscape Collabra. Scenariusz pracy systemu Podczas telefonu do Call Center z sieci publicznej, połączenie zostaje przyjęte przez system ACD, który na podstawie przyjętych wcześniej kryteriów podejmuje decyzję dotyczącą dalszego zestawienia połączenia. W zależności od takich kryteriów jak: pora dnia, numer telefonu dzwoniącej osoby, wcześniejszych kontaktów, dostępności konsultantów i innych system ACD przełącza połączenie: do innego systemu ACD (w przypadku rozproszonego Call Center), do systemu IVR lub do odpowiedniego konsultanta. Podobną decyzję podejmuje system ACD po dokonaniu wyboru odpowiedniej opcji w systemie IVR (ponowne zestawienie połączenia na podstawie dodatkowych informacji uzyskanych przez IVR). Zanim jednak rozmowa zostanie przełączona do stanowiska jednego z dostępnych konsultantów, system CTI na podstawie zebranych informacji o połączeniu (numer telefonu, opcje wybrane w systemie IVR itp) identyfikuje dzwoniącego klienta i odpytuje bazę danych kontaktów o informacje na temat danego klienta. Informacje te zostają wyświetlone na ekranie stacji konsultanta przyjmującego połączenie. Przyszłość Contact Cener Dla klientów korzystających z Sieci do kontaktów z firmą opracowuje się technologie na bazie istniejących koncepcji telemarketingowych: przykładem może być idea IWR (Interactive Web Response). Koncepcja IWR jest identyczna jak koncepcja IVR: informacje o klien- cie są zbierane zanim agent się z nim skontaktuje. Dane zbierane są na podstawie analizy, które witryny w Internecie odwiedzała dana osoba oraz na których stronach przebywała przez dłuższy czas. Taka analiza pozwala na zindywidualizowanie kontaktów z klientem w podobny sposób, jak dzieje się to w programach CRM. Poczta elektroniczna stanie się jedną z najważniejszych form porozumiewania się w kontaktach handlowych. Charakteryzuje się dużą dostępnością, korzystanie z niej nie wymaga prawie żadnych nakładów inwestycyjnych. Jednakże poczta elektroniczna niesie ze sobą zagrożenia - zagrożenia spadku jakości w kontaktach z klientami. W przeprowadzonym w USA w 1998 roku przez firmę Jupiter Communications badaniu okazało się, że 42% badanych firm nie odpowiadało na e-mail, odpowiadało nań po okresie dłuższym niż 5 dni lub w ogóle nie oferowało kontaktu za pośrednictwem poczty elektronicznej na swoich stronach internetowych. Aby uniknąć tak negatywnego efektu, należy wykorzystać istniejące możliwości: są nimi właśnie Contact Center. Rozwój nowych rozwiązań telemarketingowych będzie szedł w kierunku integracji elementów multimedialnych i internetowych, w ramach istniejących aplikacji, takich jak ACD, IVR i CTI i łączenia ich w jeden system. Nie zapominajmy także, że Internet oferuje dużo tańsze połączenia niż sieć telefoniczna. Możliwość korzystania z darmowych telefonów (VoIP) jest zachętą do zdwojenia wysiłków w celu integracji tradycyjnych technologii telemarketingowych z technologiami komputerowymi. W przyszłości nowe programy kompresji danych umożliwią zarówno rozmowę, jak i połączenia wideofoniczne. O ile część klientów nie będzie chciała pokazywać swojej twarzy w trakcie połączenia, o tyle z pewnością wszyscy chętnie ujrzą twarz konsulanta. Podsumowanie Nagły wzrost zainteresowania centrami serwisowymi odzwierciedla najważniejsze kierunki rozwoju w europejskiej ekonomice. Firmy muszą się śpieszyć w wyścigu o klienta oferując mu usługi lepszej jakości po niższych cenach. Obecnie europejskie korporacje zwracają uwagę na zapewnienie satysfakcji dotychczasowych klientów w stopniu większym niż kiedykolwiek. Od dawna wiadomo bowiem, że pozyskanie nowego klienta kosztuje wielokrotnie więcej niż utrzymanie dotychczasowego. Jednak zamiast zwiększać zatrudnienie w swoich sklepach czy bankach w celu zaspokojenia tych rosnących potrzeb, wiele z nich zaczęło tworzyć właśnie centra serwisowe. Rzeczywiście, stają się one nieodłączną częścią coraz większej liczby europejskich korporacji. Pozwalają firmom wzbogacić się w nowe narzędzie oddziaływania na klienta po stosunkowo niskich kosztach, przy jednoczesnych obniżkach płac w innych sektorach. Wśród nich można wymienić także banki średniej wielkości, oferujące niektóre swoje produkty finansowe przez telefon, dzięki czemu udaje im się z powodzeniem konkurować na rynku z bankami znacznie większymi. Sprzedaż produktów tą właśnie metodą może być nawet o 25 proc. tańsza, niż przepuszczanie ich przez sieć oddziałów. Tworząc centrum obsługi klienta trzeba liczyć się z dużymi nakładami finansowymi. Szczególnie wysokie koszty są związane z przyjęciem i szkoleniem pracowników (60 proc. kosztów związane jest z kadrą). Ale osiągnięte zyski mogą być znaczne: szacuje się, że każdy dolar zainwestowany w Call Center w 1997 r. przyniósł 7,31 dolara przychodu (wg American Telemarketing Association). © SOLIDEX, 2010 33 Usługi katalogowe - proces wdrożenia Artykuł z Nr 1-2/2002 (51) Co łączy ze sobą następujące aplikacje: ścianę ogniową Check Piont, oprogramowanie PKI firmy RSA, oprogramowanie pocztowe iPlanet Messaging Server, oprogramowanie billingowe MEIPS firmy MIND, konsolę zarządzającą oprogramowaniem antywirusowym TVCS firmy Trend Micro, ...? Wszystkie te aplikacje korzystają/mogą korzystać z serwerów usług katalogowych LDAP (Lightweight Directory Accesss Protocol). Plan wdrożenia W procesie wdrażania Usług Katalogowych jednym z najważniejszych etapów jest projektowanie. Zgodnie ze starą zasadą, która mówi, że im więcej czasu zostanie spędzone na projektowaniu wdrożenia, tym mniej kłopotów będzie później. Dzieje się tak głównie dla tego, że usługi katalogowe są zwykle elementem łączącym wiele różnych systemów, projekt może zaważyć na ich stabilności. Zalecane jest również tworzenie instalacji pilotowych, które pozwalają wcześnie wykryć wszelkie problemy związane z dalszą pracą systemu. Cykl życia katalogu Cykl życia katalogu można generalnie podzielić na trzy fazy: fazę projektu, fazę wdrożenia oraz fazę utrzymania. Oczywiście, cykl życia nie jest tak prosty - trzy fazy stanowią jednak podstawową segmentację zadań związanych z uruchomieniem systemu. Sam proces wdrożenia powoduje częste przejścia między tymi fazami i tak na przykład nowe funkcje dodane w dowolnej z faz powodują konieczność przejścia cyklu projektowanie-wdrożenie-utrzymanie. Pomimo, że wymienione trzy fazy są ze sobą ściśle powiązane, warto o nich myśleć jako o oddzielnych etapach ułatwia to skupianie się na osiągnięciu właściwych dla każdego etapu celów. Każda z faz posiada własne zadania. Projektowanie Podczas fazy projektowania usług katalogowych najważniejszym zadaniem jest zrozumienie wymagań odnośnie katalogu. Zrozumienie wymagań jest kluczem do dobrego projektu. Rezultatem fazy projektowania jest dokument lub zestaw dokumentów opisujących usługi katalogowe, aplikacje korzystające z katalogu oraz główne decyzje projektowe. Jest wiele metod segmentacji procesu projektowania. Czy zostanie wybrana metoda od ogółu do szczegółu, czy też od szczegółu do ogółu należy pamiętać, że faza projektowania ma na celu dostosowania środowiska w następujących obszarach: Potrzeby katalogowe. Projektowane usługi katalogowe muszą podołać wymaganiom aplikacji korzystających z danych katalogowych. Dlatego zrozumienie zasad działania i potrzeb tych aplikacji, oraz potrzeb użytkowników używających te aplikacje jest bardzo ważne. Dane. Niezależnie od typu usług katalogowych, jakie projektujemy, musimy zapewnić obsługę wymaganych danych. Jeśli tworzymy nowy serwis, bardzo ważne staje się zidentyfikowanie tych danych, opisanie ich, zrozumienie zależności z katalogiem i przygotowanie do „załadowania” do katalogu. Dużo lepsza sytuacja jest kiedy projektujemy serwis katalogowy do działającego systemu komputerowego - dane zgromadzone w tym systemie są użyteczne do tworzenia katalogu. Schematy. Katalog funkcjonuje dla potrzeb wielu aplikacji. Aplikacje te mają różne wymagania odnośnie danych zawartych w katalogu, odnośnie ich formatu i interpretacji. Te zastosowania są determinowane przez schematy katalogu. Przestrzeń nazw. Po określeniu, jakie dane mają się znaleźć w katalogu następnym krokiem jest zdefinio- wanie metody organizacji tych danych. To właśnie jest celem części odpowiedzialnej za przestrzeń nazw, jej odpowiednie określenie ma wielkie znaczenie dla katalogu. Topologia. Projektowanie topologii komplikuje się w zależności od ilości serwerów, jakie są potrzebne by sprostać wymaganiom, od tego, jak dane są dzielone między tymi serwerami, oraz od ich umiejscowienia. Replikacja. Aplikacje korzystające z usług katalogowych mogą powodować duże obciążenie serwera katalogowego. Replikacja danych na kilka innych serwerów pozwala na balansowanie wydajności maszyn i obsługę większej liczby operacji katalogowych. Jednocześnie zwiększa bezpieczeństwo danych oraz niezawodność usług, przy skróceniu czasu odpowiedzi. Bezpieczeństwo. Aspekty bezpieczeństwa powinny być brane pod uwagę na każdym etapie projektowania. Należy zadbać o zabezpieczenie danych katalogowych przed utratą korzystając z mechanizmów redundancji, trzeba zadbać również o redundancję serwerów obsługujących katalog - w końcu dużo uwagi należy poświęcić zabezpieczeniu połączeń między aplikacjami a katalogiem. Wdrożenie Faza wdrożenia rozpoczyna się z chwilą, gdy projekt przeradza się w działający system. Należy dokonać wyboru oprogramowania dla serwera katalogowego, przeprowadzić testy, czy serwer jest w stanie podołać przewidywanemu obciążeniu. Korzystając z przy- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 34 20 lat SOLIDEX gotowanego projektu oraz zgromadzonych danych można wprowadzić projekt w fazę produkcyjną. Mogą okazać się potrzebne zmiany w projekcie pod wpływem uwag od użytkowników - jest to jak najbardziej normalne i iteracje projekt-wdrożenie powinny być powtarzane. Poniższa lista przedstawia skrótowy opis najważniejszych etapów wdrożenia: Wybór oprogramowania. Kluczową sprawą jest wybór odpowiedniego oprogramowania katalogowego. Oprogramowanie to powinno mieć możliwość łatwego skalowania oraz zwiększania wydajności. Wybór i ocena oprogramowania serwera katalogowego może być trudna - potrzebny jest kompromis pomiędzy ceną, wydajnością, wsparciem technicznym, możliwościami produktu. W pierwszym rzędzie należy jednak brać pod uwagę to, by produkt spełniał nasze wymagania aplikacyjne, by miał wsparcie techniczne i był ciągle rozwijany oraz by posiadał możliwości skalowania wraz ze wzrostem wymagań. Wybór oprogramowania tylko według kryteriów cenowych bardzo często okazuje się złym wyborem i w perspektywie czasu dużo bardziej kosztownym. Instalacja pilotowa. Celem fazy wdrożenia jest sprawdzenie założeń projektowych (ewentualnie stwierdzenie, że były złe i powrót do fazy projektu) oraz przetestowanie czy usługi katalogowe działają poprawnie. Najlepszą metodą na przeprowadzenie tych testów jest uruchomienie instalacji pilotowej. Instalacja taka jest odwzorowaniem całego systemu pracuje jednak w dużo mniejszej skali - użytkownicy testowi, którzy będą pracować na niej mogą najlepiej i najszybciej wykryć wady rozwiązania, źle zaprojektowany schemat oraz nieprawidłowości w działaniu. Wszelkie zgłoszone usterki i nieprawidłowości mają szansę zostać rozwiązane przed kompletnym wdrożeniem. Testy wydajności. Po zweryfikowaniu założeń dotyczących funkcjonalności systemu następnym krokiem po- winno być przetestowanie, czy system jest w stanie obsłużyć obciążenie w środowisku pracy. W tym miejscu należy rozpoznać, jaką wydajność zapewnia system, jakie są metody jej podniesienia (skalowania systemu). Poznanie ograniczeń jest potrzebne dla szybszego rozpoznawania sytuacji, w których obciążenie osiąga granice wydajności. Warto również przygotować plan zwiększenia wydajności systemu - pozwoli to oszczędzić czas w chwili, gdy rosnące potrzeby wymuszą wzrost wydajności systemu. Strojenie systemu. Strojenie systemu usług katalogowych winno być prowadzone równolegle z testami wydajności. Celem jest uzyskanie pewności, że osiągnięta została maksymalna możliwa do uzyskania efektywność działania systemu. Strojenie obejmuje: obserwacje stanów systemu, poszukiwanie wąskich gardeł lub niepoprawnego zachowania. Jeśli oprogramowanie usług katalogowych pochodzi od renomowanego dostawcy, łatwo dostępne są dokumentacje opisujące jak uzyskać optymalną wydajność poprzez ustawienie odpowiednich parametrów konfiguracyjnych. Równie ważne jest rozpatrzenie wszelkich aspektów wydajnościowych nie dotyczących bezpośrednio oprogramowania serwera katalogowego - wydajności sprzętu, systemu operacyjnego i innych zainstalowanych aplikacji. Znalezienie ograniczeń i usunięcie ich często bywa dużo tańsze i efektywniejsze niż inwestycje w wydajniejszy sprzęt. Nie należy jednak zapominać o tym, że ciągłe strojenie systemu kosztuje dużo pieniędzy, a kolejne zmiany wprowadzają coraz mniejsze zyski w wydajności, dlatego nie należy przeprowadzać strojenia systemu w nieskończoność. Informacje zwrotne od użytkowników. Podczas dowolnego typu wdrożeń usług informatycznych, niezmiernie istotną sprawą jest udostępnienie instalacji pilotowej dla wybranej grupy użytkowników. To dla nich jest tworzony system i to oni najlepiej potrafią zauważyć wszelkie niedociągnięcia oraz usterki oprogramowa- nia. Dobry projekt z informatycznego punktu widzenia może okazać się nie ergonomiczny, czy też nie spełniający wymagań użytkowników. Informacje uzyskane od pierwszych osób używających wdrażany system pozwalają szybko wykryć miejsca, w jakich należy wnieść poprawki. Pozwalają również przekonać się, że zaprojektowane rozwiązanie jest w pełni użyteczne. Praca systemu. Końcowym etapem, po projektowaniu, instalacji pilotowej i uwzględnieniu uwag testerów, jest uruchomienie w pełni pracującego systemu. Uruchomienie powinno zostać przeprowadzone w płynny sposób tak, by przejście ze starych systemów na nowy nie wiązało się z przestojami. Faza utrzymania Utrzymywanie usług katalogowych jest ostatnim i najdłuższym etapem w procesie tworzenia katalogu. Nakłady wymagane na tym etapie w dużej mierze zależą od tego jak został przygotowany projekt systemu. W dużych instalacjach administrator musi zarządzać dużą ilością danych. Jeśli nie zostaną zaprojektowane narzędzia pomagające administratorowi w tym zadaniu, system będzie słabo utrzymany, dane mogą zaś być nie aktualizowane. Podobnie dzieje się, jeśli dane nie są aktualizowane - sensowność użycia serwera katalogowego staje pod znakiem zapytania. By zaprojektować system łatwy - a co za tym idzie tani - w utrzymaniu należy pamiętać o codziennych zadaniach przeprowadzanych na katalogu. Jak będą przeprowadzane takie zadania jak dodawanie użytkowników, modyfikacja wpisów, utrzymywanie aktualnych danych - odpowiedzi na te pytania pozwalają na stworzenie narzędzi wspomagających te operacje. Wziąć pod uwagę trzeba też to, że inne narzędzia wspomagające pracę administratorów są potrzebne do obsługi katalogu o np. 1000 wpisach, a inne dla katalogu o 500000 wpisów. Na etapie utrzymania serwisu należy rozpatrywać następujące aspekty: © SOLIDEX, 2010 35 Utrzymanie danych. Ten aspekt jest przeważnie najważniejszy oraz zajmujący najwięcej czasu i jest najbardziej kosztowny w realizacji. Należy opracować odpowiednie procedury aktualizacji danych oraz politykę usuwania danych już nieaktualnych. Zabezpieczenie danych. Kolejnym istotnym aspektem zarządzania danymi i bezpiecznego utrzymania danych jest polityka wykonywania kopii bezpieczeństwa. Wiele zależy tu od zastosowanego oprogramowania - należy sprawdzić, czy umożliwia ono wykonywanie kopii on-line, czy też wymaga zatrzymania serwera usług, jak skuteczne jest odzyskiwanie danych itp. Jedną z form zabezpieczenia danych jest ich replikacja - zwiększająca (oprócz bezpieczeństwa) wydajność systemu. Rozszerzenie schematów. Wraz z projektowaniem i wdrażaniem kolejnych aplikacji korzystających z zasobów katalogowych może zajść potrzeba rozszerzenia schematu katalogu. Już na etapie wyboru oprogramowania dla serwera należy pamiętać o takiej możliwości - również procedury administracyjne (dodawanie użytkowników, modyfikacja) powinny być na tyle elastyczne, by rozszerzenia nie wiązały się z paraliżem systemu. Na uwadze trzeba mieć również to, że nowe aplikacje mogą stawiać nowe wymagania dotyczące wydajności sprzętu oraz konfiguracji indeksów w bazie. Monitorowanie. Jednym z najważniejszych narzędzi umożliwiających ocenę poprawności działania systemu oraz służących do wczesnego wykrywania nieprawidłowości w pracy jest monitorowanie systemu. Należy tu rozważyć wykorzystanie narzędzi dostarczonych przez producenta lub firmy trzecie. Często istnieje potrzeba włączenia systemu katalogowego do istniejącej infrastruktury monitorującej - można to zrobić wykorzystując plug-iny lub bezpośrednio, jeśli oprogramowanie obsługuje np. protokół SNMP (ponownie powraca temat wyboru odpowiedniego oprogramowania). Wielkość systemu. Naturalną częścią procesu życia systemu jest jego ciągły wzrost. W większości przypadków zastosowania katalogu, stopień wykorzystania katalogu wzrasta wraz z rosnącą liczbą wpisów. Zwykle dodawanie nowych wpisów jest procesem ciągłym, jednak zdarzyć się może gwałtowne ich zwiększenie (np. przy połączeniu firm, czy też po objęciu systemem większej ilości pracowników). Należy opracować reguły pozwalające zareagować na zwiększające się obciążenie serwera zanim zostanie utracona płynność pracy. Reguły te mogą być wcześniej określone np. system powinien zostać rozbudowany, jeśli zostanie przekroczone zużycie procesora ponad 75%, czy też obciążenie sieci przekroczy 50% i tym podobne reguły dotyczące potencjalnych wąskich gardeł: dysków, pamięci. Wiedza na ten temat połączona z ciągłym monitoringiem serwera pozwala być przygotowanym na proces rozbudowy. Zmiana wymagań. Ostatnią częścią zadań utrzymaniowych powinno być ciągłe analizowanie założeń systemowych i zmienianie ich w zależności od potrzeb - na etapie projektu nie można w pełni określić, w jaką stronę pójdzie nasz system. Przykład wdrożenia usług katalogowych W następnej części artykułu zostanie przedstawiony przykład projektu wdrożenia usług katalogowych w pewnej fikcyjnej firmie. Zagadnienia związane z projektem informatycznym nie będą szczegółowe - zostaną jedynie zasygnalizowane elementy uwzględnione na poszczególnych etapach tworzenia projektu. Informacje, które są tu zebrane są wynikiem studiów literatury źródłowej oraz praktycznych doświadczeń wdrożeniowych systemów usług katalogowych. Opis organizacji Jako przykład projektu wdrożenia usług katalogowych użyję wdrożenia w fikcyjnej firmie. Jest to firma o profilu informatycznym i zasięgu ogólno- polskim z siedzibą główną w Warszawie oraz z oddziałami rozmieszczonymi w siedmiu miastach: Kraków, Wrocław, Poznań, Olsztyn, Gdynia, Szczecin, Rzeszów. Zajmuje się handlem i usługami, jest również odbiorcą towarów. Zatrudnia 1200 ludzi. Jest dość dobrze zinformatyzowana: połączenia między oddziałami są zrealizowane z wykorzystaniem łączy stałych. Styk z Internetem jest chroniony ścianą ogniową firmy Check Point. Przewidywane jest podłączenie agentów rozproszonych po kraju do zasobów firmy za pomocą technologii sieci wirtualnych - VPN z wykorzystaniem certyfikatów w ramach tworzonego wewnątrz firmy systemu PKI (Public Key Infrastructure) w oparciu o rozwiązania RSA. Firma korzysta z dwóch różnych systemów poczty elektronicznej - część użytkowników przyjmuje pocztę łącząc się z lokalizacją warszawską, zaś pracownicy Rzeszowa, Wrocławia i Krakowa odbierają pocztę z lokalizacji krakowskiej. Firma chce zamienić system pocztowy na inny - wspólny dla całej firmy. Zaproponowano oprogramowanie iPlanet Messaging Server. Informacje o pracownikach są składowane w bazie działu HR - baza danych na systemie Oracle. Podobnie z danymi o partnerach handlowych i kontrahentach - są umieszczone w bazie danych Oracle i są wykorzystywane za pośrednictwem aplikacji zaprojektowanej specjalnie dla tej firmy. Organizacja posiada również rozbudowany i spersonalizowany serwis intranetowy WWW. Każdy z pracowników może po zalogowaniu uzyskać dostęp do odpowiednich informacji, jak również zarządzać własnymi urlopami oraz wyjazdami służbowymi (wnioski oraz zatwierdzanie odbywa się drogą elektroniczną). Na wewnętrznych stronach WWW znajduje się również wyszukiwarka pracowników. Informacje na potrzeby serwisu WWW są pobierane z bazy danych. Firma posiada również rozbudowany serwis internetowy WWW przeznaczony dla partnerów INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 36 20 lat SOLIDEX handlowych i klientów. Informacje tam znajdujące zależą od uprawnień logujących się osób. Ponadto, każdy oddział posiada pewną ilość serwerów pracujących pod kontrolą systemów operacyjnych SunOS oraz Solaris (wersje 7, 8). Maszyny z SunOS-em pracują pod kontrolą NIS-a. Każdy pracownik posiada hasła dostępu do tych maszyn. Projekt wdrożenia Projekt został oparty na liście kontrolnej projektowania systemu katalogowego opisanej w rozdziale poświęconym metodologii wdrożenia. Stosowanie się podczas projektu do tej listy kontrolnej nie gwarantuje udanego projektu - pomaga jednak skupić się na właściwych aspektach w odpowiednich punktach projektu oraz uniknąć wielu błędów. Serwery LDAP często są wdrażane jako alternatywa dla innych systemów w działających instalacjach, a z danych w nich umieszczonych korzysta wiele aplikacji, z tego względu dużo czasu należy poświęcić analizom, ryzyko związanie z błędną pracą systemu mogą powodować paraliż systemów firmy. Określenie potrzeb katalogu, oraz korzystających z niego aplikacji W pierwszym rzędzie należy zdefiniować, jakie aplikacje i systemy z istniejących w firmie będą korzystały z danych w katalogu. Powinny to być: system poczty elektronicznej, systemy operacyjne SunOS, Solaris i inne pracujące pod kontrolą NIS-a, serwis intranetowy oraz internetowy, „książka adresowa” pracowników wraz z systemem informacyjnym dotyczącym pracowników oraz wewnętrzne aplikacje do obsługi firmy. Część z tych aplikacji może być używana przez osoby z zewnątrz firmy, co narzuca zachowanie odpowiednich zasad dostępu do katalogu. W związku z tym, że część danych znajduje się w istniejących systemach i bazach danych, dla potrzeb integracji danych zastosowany zostanie mechanizm metakatalogu. Określenie potrzeb odnośnie danych Kluczową sprawą w procesie projektowania systemu jest zidentyfikowanie wszystkich danych, jakie będą zawierać informacje w katalogu. Równie ważne jest określenie miejsca przechowywania tych danych, możliwości zastosowania metakatalogu pozwalają na to, że serwer katalogowy przechowuje tylko część informacji integrując je z innymi źródłami danych. W omawianym przykładzie należy rozpatrzyć, jakie dane są wymagane przez konkretne aplikacje, czy też systemy. System pocztowy: powinien składować dane dotyczące adresu email użytkownika poczty, nazwy serwera obsługującego pocztę, ewentualnych aliasów, quoty dyskowej, nazwy użytkownika, hasła dostępu do poczty, ewentualnie inne informacje dotyczące ustawień poczty, zależą one od zastosowanego oprogramowania pocztowego. Na przykład iPlanet Messaging Server przechowuje w LDAP informacje na temat książki adresowej użytkownika, schematów kolorów użytych w interfejsie webowym do czytania poczty, treść wiadomości „wakacyjnej” oraz inne preferencje użytkownika. Co ważne, grupy w LDAP mogą zostać grupami pocztowymi, jeśli tylko dodane zostaną informacje na temat adresu e-mail grupy oraz jakie osoby do niej należą. Systemy operacyjne SunOS i Solaris oraz NIS w LDAP mogą składować informacje dotyczące nazwy użytkownika oraz jego hasła, ścieżki katalogu domowego, nazwy stosowanej powłoki, UID (User ID), GID (Group ID), quota dyskowa itp. System PKI przechowuje dane o certyfikatach zapisanych w standardzie ISO X.509. Ściana ogniowa Check Point: dane umożliwiające przydzielenie danej osoby do odpowiedniej grupy uprawnień (rozszerzenie schematu o dwie klasy obiektów) System informacji o pracownikach: informacje, jakie powinny być dostępne przez LDAP to imię, nazwisko, ID pracownika, numer pracownika, stanowisko, przynależność do danej filii, numer telefonu stacjonarnego oraz ewentualnie komórkowego, informacje opisowe, adres e-mail, adres pocztowy oraz inne dodatkowe informacje takie jak np. zdjęcie pracownika w postaci bitmapy, czy też w formacie jpg, adres strony internetowej pracownika itp. Dzięki temu, że każdy komputer wyposażony w system operacyjny Windows 9x, 2000 ma wbudowaną przeglądarkę LDAP, informacje te stają się łatwo dostępne poprawiając komunikację między pracownikami. Równie łatwo konfiguruje się aplikacje do przeglądania poczty MS Outlook, czy też Netscape Communicator - pozwalają na znalezienie informacji o pracowniku na podstawie fragmentu nazwiska. Wewnętrzne aplikacje obsługujące firmę: aplikacje te korzystają z danych znajdujących się w bazie danych Oracle, z tego powodu współpraca z LDAP ograniczy się do przechowywania informacji służących autoryzacji użytkowników tych aplikacji. Nie trudno zauważyć, że dane potrzebne dla każdej następnej aplikacji/systemu zawierają nazwę użytkownika i hasło wymagane do autoryzacji. Jeśli dla wszystkich systemów zostanie użyta ta sama para parametrów, można znacznie obniżyć koszty administracji przez stosowanie jednej metody autoryzacji dla wszystkich systemów w firmie. Zmiana hasła powoduje automatyczną zmianę dostępu. Większość informacji na ten temat znajduje się w istniejących bazach danych i będą pobierane z tych źródeł z wykorzystaniem mechanizmów metakatalogu. Informacje o partnerach firmy: wszystkie niezbędne informacje będą pobierane z bazy danych Oracle. W LDAP będą przechowywane informacje dotyczące logowania, zaś pozostałe będą pobierane w miarę potrzeb z baz danych za pomocą metakatalogu. © SOLIDEX, 2010 37 Projekt przestrzeni nazw Hierarchiczna struktura katalogu w LDAP pozwala na zaprojektowanie dowolnie skomplikowanej przestrzeni nazw, która na przykład będzie odwzorowywać hierarchię zawodową pracowników w firmie. Jednak zaleca się stosowanie maksymalnie płaskiej struktury katalogu, ze względu na szybsze przeglądanie i wyszukiwanie bez stosowania indeksów. Bardziej płaska struktura pozwala również na łatwiejsze zaprojektowanie schematów replikacji. Korzeń drzewa katalogowego będzie nazwany zgodnie z domeną internetową firmy: „dc=firma, dc=com, dc=pl”. W opisywanym projekcie przestrzeń nazw zostanie oparta na podziale geograficznym firmy. Informacje firmowe będą przechowywane pod bazowym DN „o=nazwa_firmy”, z dziewięcioma gałęziami potomnymi: Warszawa, Kraków, Wrocław, Poznań, Olsztyn, Gdynia, Szczecin, Rzeszów. Każda z tych gałęzi będzie posiadać po dwie gałęzie potomne: People (tu będą przechowywane informacje o ludziach) oraz Groups (informacje o grupach). Informacje na temat partnerów będą umieszczone w drugiej gałęzi głównej „o=partnerzy”. Hierarchię w postaci graficznej przedstawia rysunek 1 Rys. 1 Przykład hierarchicznej struktury katalogu Projekt schematu katalogu Aby odpowiednie informacje można było przechowywać w LDAP należy dodać odpowiednie schematy dla wpisów. Dla każdego wpisu odpowiadającego użytkownikowi powinny zostać dodane poniższe schematy: top people mailRecipient nsMessagingServerUser organizationalPerson inetOrgPerson posixAccount shadowAccount ... fw1person fw1template Oczywiście podane klasy obiektów są jedynie przykładowe. Chcę zaznaczyć jednak, że w miarę możliwości najlepiej jest wykorzystać klasy obiektów i atrybuty standardowych klas a dopiero w sytuacji, kiedy żadna klasa standardowa nie zapewnia wymaganej funkcjonalności - dodawać własne klasy i atrybuty. Dla ułatwienia wiele dostępnych aplikacji, które mogą współpracować z serwerem LDAP zawiera potrzebne schematy w łatwej do wykorzystania postaci - bądź natywnego dla LDAP formatu LDIFF, bądź też ładowane z wykorzystaniem protokołu LDAP podczas instalacji. Pozostałe informacje, jakie są wymagane, a nie znajdują się w powyższych schematach mogą być dodane do plików konfiguracyjnych (rozszerzanie schematów) i wykorzystywane, jeśli tylko aplikacje potrafią skorzystać z tych danych. Z tego względu dobrze jest mapować wymagane informacje na atrybuty w istniejących standardowych schematach. Projekt topologii systemu katalogowego Topologia systemu katalogowego będzie podporządkowana geograficznemu rozkładowi oddziałów firmy. Takie rozwiązanie jest swego rodzaju kompromisem pomiędzy prostą strukturą drzewa katalogowego - łatwa administracja; a możliwościami podziału na wiele „gałęzi” - lepszy podział na grupy. W każdym oddziale będzie znajdował się serwer katalogowy logicznie obsługujący cały katalog, fizycznie zaś tylko właściwą dla siebie gałąź (o=nazwa_firmy, o=nazwa_miasta). Dostęp do danych znajdujących się w innych gałęziach będzie rozwiązany z wykorzystaniem referencji. Serwer znajdujący się w centrali firmy, jako jedyny będzie posiadał komplet informacji replikowanej z wszystkich serwerów. Takie rozwiązanie poprawia bezpieczeństwo pracy wszystkich aplikacji korzystających z zasobów katalogowych - w wypadku awarii serwera lokalnego, właściwe informacje mogą być uzyskane z serwera centralnego. Ponadto zostaje obniżony koszt administracji systemem, ponieważ drogie systemy do tworzenia kopii bezpieczeństwa mogą być zainstalowane tylko w centrali - tam również można zaprojektować system redundantny dla zapewnienia niezawodności. Projekt zasad replikacji katalogu Zastosowanie rozproszonego systemu katalogowego z jednym, centralnym miejscem składowania całej jego zawartości, upraszcza schemat replikacji. Replikowana będzie cała zawartość katalogów z siedmiu lokalizacji do katalogu centralnego. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 38 20 lat SOLIDEX Replikacja w drugą stronę będzie następowała jedynie w następstwie awarii któregoś z serwerów w celu odtworzenia danych. Ponadto w centrali będzie wykorzystana replikacja między dwoma serwerami typu „master” dla zapewnienia większej wydajności i większego bezpieczeństwa danych. Gałąź partnerzy będzie przechowywana jedynie na serwerze w centrali - w późniejszym czasie, jeśli rozwiązanie to nie będzie wystarczające można zaplanować replikację tej gałęzi do każdego z serwerów znajdujących się w oddziałach firmy. Projekt zasad ochrony danych oraz ich prywatności Dane znajdujące się w katalogu mają różną wagę z punktu widzenia bezpieczeństwa. Różne również będą kategorie użytkowników: pracownicy, administratorzy, partnerzy. Bezpieczeństwo danych należy zapewnić korzystając z mechanizmów replikacji, bezpieczeństwo przesyłu danych - poprzez wykorzystanie odpowiednich list dostępu (ACL), bezpiecznej transmisji SSL podczas korzystania z katalogu z sieci zewnętrznych oraz przez kodowanie transmisji między poszczególnymi oddziałami firmy. Podsumowanie Powtórzę słowa autorów biblii LDAP „Understanding and Deploying LDAP Directory Services” - z naszego doświadczenia wynika, że ludzie po zapoznaniu się z możliwościami usług katalogowych LDAP reagują na dwa skrajne sposoby. Pierwsza reakcja jest negatywna: „Co tak naprawdę dobrego jest w tym katalogu. Przecież rozwiązanie firmy X zapewnia mi te same możliwości. Nie wierzę, że to rozwiązanie jest tak wydajne, bezpieczne i tanie w eks- ploatacji. Mam spore obawy co do integracji aplikacji działających w firmie z serwerem LDAP.” Ten typ reakcji jest prosty do przekonania, trochę dodatkowej edukacji, pokaz katalogu w akcji i lepsze wytłumaczenie zasad działania pozwala przełamać wszelkie opory. Dużo większe problemy stwarza drugi typ reakcji: „Katalog jest cudowny. Wystarczy go wdrożyć i już nic więcej nie muszę robić. Zastąpi mi wszystkie bazy danych, serwer WWW i FTP, itp.” Ten entuzjazm jest bardzo niebezpieczny. Jak w powiedzeniu: „Gdy jedynym narzędziem jakie znamy jest młotek - każdy problem wygląda jak gwóźdź” jednak część problemów można rozwiązać młotkiem, do innych młotek się przydaje, zaś do jeszcze innych młotek zupełnie się nie nadaje. Potrzeba dużo pokazów i szkoleń by wyprowadzić taki tok myślenia na właściwe drogi. © SOLIDEX, 2010 39 Bezpieczeństwo pamięci masowych - storage security Artykuł z Nr 7-8/2003 (60) Usieciowienie pamięci masowych (SAN, NAS) okazało się trwałym trendem na rynku pamięci masowych. Ich wprowadzenie rozwiązało szereg problemów związanych z urządzeniami podłączanymi bezpośrednio do serwerów (DAS), wprowadziło jednak nowe. Jednym z takich nieznanych wcześniej problemów jest storage security. Początkowo dyski podłączone były wyłącznie do indywidualnych serwerów. Temat storage security nie istniał więc z definicji, ponieważ nie było innej metody nieautoryzowanego dostępu do tych urządzeń niż poprzez serwer, którego własność stanowiły. Pojawienie się sieciowej pamięci masowej (SAN, NAS) wyeliminowało wady rozwiązań DAS związane z kosztownym i bardzo nieefektywnym zarządzaniem pamięcią masową w większej skali. Nowe rozwiązania nie były jednak zaprojektowane do jednoczesnego usunięcia nowych typów zagrożeń - nieautoryzowanego dostępu do danych, których wartość zwłaszcza po przeprowadzeniu procesu konsolidacji, jest zwykle olbrzymia (potencjalny złodziej musi się włamać tylko raz!). Należy pamiętać, że storage security stanowi tylko jeden z elementów ogólnej polityki bezpieczeństwa i zgodnie z regułą najsłabszego ogniwa może stanowić o jej ogólnej sile - lub słabości. Stan aktualny Pamięć masowa wykorzystująca IP (NAS, IP SAN) jest narażona na znane ze świata IP niebezpieczeństwa. Ponieważ zagrożenia związane z protokołami IP są znane od dawna, sieci pamięci masowych zbudowane w oparciu o nie stosunkowo łatwo zabezpieczyć, gdyż: ze znanymi niebezpieczeństwami łatwiej walczyć iSCSI ma wbudowane mechanizmy bezpieczeństwa W odróżnieniu od sieci IP, sieci SAN oparte na Fibre Channel są postrzegane jako całkowicie bezpieczne. Typo- we rozumowanie opiera się na przyjęciu fizycznego odseparowania tej sieci od zagrożeń i adekwatności takich mechanizmów jak zoning. Jednak bezpieczeństwo sieci SAN to tylko mit. niu z niewielką możliwością podstępnego dołączenia się do sieci stanowi w wielu przypadkach wystarczające zabezpieczenia na dzień dzisiejszy. Najczęściej stosuje się następujące, słabe metody kontroli dostępu: Pamiętajmy: Technologie SAN nie były projektowane z myślą o bezpieczeństwie! Bezpieczeństwo w sieciach SAN Sieć W przypadku klasycznych przełączanych (fabric) sieci Fibre Channel podsłuchanie transmisji jest znacznie trudniejsze niż w przypadku LAN, ale jednak możliwe. Trudności przede wszystkim wynikają z mniej popularnego standardu (każdy PC jest wyposażony w kartę Ethernet ale rzadko który ma HBA). Niemniej jednak zwiększenie zagrożenia z tej strony to tylko kwestia czasu. O tym, że nie jest to czysta teoria, najlepiej może świadczyć przykład WLAN. Ataki typu denial-of-service nie stanowią w sieci Fibre Channel powszechnego zagrożenia, są jednak możliwe. Dodatkowo urządzenia FC oraz stacje zarządzające są zagrożone na wiele klasycznych ataków od strony sieci IP. Uwierzytelnianie i autoryzacja Standardowe metody stosowane w świecie SAN nie przewidują żadnych sposobów uwierzytelniania i autoryzacji dostępu do zasobów pamięci masowej. Metody kontroli dostępu specyficzne dla SAN Sieci SAN wykorzystują specyficzne metody kontroli dostępu do zasobów, co w połącze- LUN masking (na hoście, na urządze- niu) - ograniczenie widoczności zasobów na poziomie podsystemów logicznych (identyfikowanych przez LUN) dla poszczególnych serwerów lub grup. Jako zabezpieczenie przed nieautoryzowanym dostępem może być skuteczne jedynie w przypadku implementacji tej metody na urządzeniu pamięci masowej. Zoning (podział na strefy): soft zoning - segmentacja sieci SAN bazująca na portach. Rozwiązanie trudne w administracji w większej skali i mało elastyczne ale stosunkowo bezpieczne (dostęp do strefy może nastąpić dopiero po fizycznym podłączeniu się do portu należącego do niej) i nie wpływające na wydajność. hard zoning - separacja ruchu oparta na adresach WWN. Bardzo elastyczna i wygodna w administracji ale o znacznie niższym stopniu bezpieczeństwa (podatna na ataki typu spoofing, nie uniemożliwia dostępu do urządzeń). Dodatkowym minusem tej metody jest możliwość negatywnego wpływu na wydajność. Virtual SAN - wprowadzone przez Cisco rozwiązanie przenoszące na INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 40 20 lat SOLIDEX grunt sieci SAN rozwiązania z sieci LAN (analog VLAN). Ułatwia administrację sieci SAN ale nie wprowadza nowej jakości w kwestii ochrony danych. Każde z wymienionych zabezpieczeń można skutecznie zaatakować, np.: WWN spoofing (atak na LUN masking) PLOGI fabric port address scanning (atak na soft zoning) fabric port address spoofing (atak na hard zoning) Zagrożenia Niebezpieczeństwo może także przyjść z innej strony: Zarządzanie in-bound i out-of-band Fizyczny dostęp do urządzeń i sieci SAN możliwość przełączania portów możliwość dostępu do nośników Błędy wynikające z rekonfiguracji sieci możliwość nieautoryzowanego udostępnienia danych Zdalny backup i mirroring dane są przesyłane w postaci jawnej Te zagrożenia nie są czysto teoretyczne i mogą wystąpić w każdej chwili, np. podczas rutynowych czynności serwisowych: Łatwiej jest przekupić technika wymieniającego dyski niż zdalnie atakować! Nie można przecenić zagrożenia ze strony hosta przyłączonego do sieci SAN, który dostał się pod kontrolę wroga. Typowa sieć SAN nie ma mechanizmów obrony przed takim hostem. Klasyfikacja zagrożeń Wg SNIA istnieją trzy klasy ryzyka: kradzież, modyfikacja, zniszczenie danych przepływających przez sieć lub przechowywanych w pamięciach masowych nieautoryzowane wykorzystywanie i monopolizacja zasobów - Denial Of Service, wirusy, itp. zaburzenia w sieci spowodowane przez zmiany konfiguracji, skutecznie zaatakowane serwery/switche, błędy ludzkie, spoofing, itp. Miejsce wystąpienia potencjalnych zagrożeń można sobie łatwiej wyobrazić dzięki strefom: 1.systemy i połączenia (serwery) 2. sieć (dane w tranzycie) 3.podsystemy i media (dane w spoczynku). Zabezpieczenia można stosować wyłącznie w jednej strefie albo obejmować nimi kilka stref. Jak się bronić? Zagrożenia są już dostrzegane ale standardy dla storage security są jeszcze w powijakach: ANSIs T11 Fibre Channel Security Protocols (FC-SP) Working Group IEEEs Security in Storage Working Group (SISWG) Storage Networking Industry Association (SNIA, http://www.snia.org/) - Storage Security Industry Forum (SSIF) Mimo braku standardów użytkownicy sieci SAN nie są bezbronni. Na rynku istnieją firmy specjalizujące się w zagadnieniach storage security. Większość z tych firm aktywnie uczestniczy w pracach organizacji standaryzujących. Daje to gwarancje, że dostosują swoje produkty, obecnie oparte o własne rozwiązania, do nowych standardów, kiedy zostaną zdefiniowane. Żadna z istniejących obecnie firm nie posiada kompletnej oferty. Wiele z nich swoje produkty dopiero w tych dniach wprowadza na rynek, często z niepełną funkcjonalnością. Trzeba więc wybrać rozwiązanie rozwiązujące najbardziej palące problemy... Przegląd zabezpieczeń dla sieci SAN Szyfrowanie danych do backupu W wielu przypadkach przed kompleksowym rozwiązaniem systemu zabezpieczenia sieci SAN, wskazane może być szybkie i nieinwazyjne rozwiązanie bardzo palącego problemu: ochrony kopii bezpieczeństwa przechowywanych na nośnikach taśmowych. Taśmy są często przemieszczane poza miejsce, w którym wykonywano kopie (np. kopie bezpieczeństwa często przechowywane są poza siedzibą firmy), a ich postać fizyczna ułatwia wykradzenie tych nośników. Rozwiązania programowe są zwykle nieefektywne a siła stosowanych w nich zabezpieczeń niewielka (np. szyfrowanie przy pomocy algorytmu symetrycznego z wykorzystaniem klucza o długości 40 bitów). Dobrym rozwiązaniem jest wykorzystanie specjalizowanego urządzenia, umieszczonego między źródłem danych (np. serwery backupu) a bibliotekami taśmowymi. Sprzętowe wspomaganie szyfrowania gwarantuje wydajność adekwatną do technologii Fibre Channel a forma dedykowanego urządzenia - prostą implementację i obsługę. Szyfrowanie danych między serwerami a macierzami W podobny sposób jak backupy można zabezpieczyć dane przechowywane na macierzach dyskowych. Zastosowanie dedykowanego urządzenia (appliance) szyfrującego nie daje co prawda pełnego zabezpieczenia, gdyż dane między serwerami a urządzeniem kryptograficznym przesyłane są w postaci jawnej, ale ma szereg zalet: implementacja wymaga stosunkowo niewielkich zmian w istniejącej sieci SAN dane zabezpieczane są już podczas transportu (appliance musi być umiejscowiony tuż przy serwerach) dane zabezpieczane są w miejscu składowania, co zabezpiecza nie tylko przed nieuprawnionym dostępem ale i przed kradzieżą dysków (np. podczas czynności serwisowych) i automatycznie rozwiązuje problem danych przechowywanych na taśmach Urządzenie przeznaczone do zabezpieczania danych musi się charakteryzować nie tylko odpowiednią wydajnością ale i wysoką dostępnością (spotykane są zestawy klastrowe). Niektórzy producenci mają w ofercie także analogiczne urządzenia dedykowane do urządzeń NAS. © SOLIDEX, 2010 41 Uwierzytelnianie i szyfrowanie w sieciach SAN Znacznie doskonalsze od opisanych wyżej jest rozwiązanie adresujące niemal wszystkie problemy związane z zabezpieczaniem danych w sieciach SAN. Obejmują one: szyfrowanie danych już na serwerach, z wykorzystaniem sprzętowego akceleratora uwierzytelnianie urządzeń komunikujących się w sieci SAN (wymagane są specjalizowane agenty instalowane na tych urządzeniach); uwierzytelnianie odbywa się z wykorzystaniem sieci LAN (out-of-band), aby nie zakłócać pracy SAN zarządzanie procesem zarządzania i kluczami przez dedykowane urządzenie (appliance) Główną wadą tego rozwiązania jest bardzo silna zależność od wykorzystywanych środowiska, ponieważ akceleratory sprzętowe wraz z niezbędnym oprogramowaniem muszą być wspierane na jak największej liczbie platform (sprzęt, system operacyjny), a agenty muszą być zainstalowane na: serwerach przełącznikach i innych elementach sieci SAN macierzach dyskowych Rozwiązania dostępne obecnie na rynku nie wspierają jeszcze odpowiednio dużej liczby systemów. czeństwa sieciowego wchodzi do systemów klasy SAN i nie ma w tym niczego dziwnego. Wszędzie gdzie jest cenna informacja istnieje realne zagrożenie, że ktoś w sposób nieautoryzowany będzie chciał do niej dotrzeć. Zagadnienia bezpieczeństwa w rozwiązaniach pamięci masowych stają się faktem i nie należy traktować ich z przymrużeniem oka. SOLIDEX, jako doświadczony integrator systemów bezpieczeństwa sieciowego także specjalizuje się w bezpieczeństwie systemów pamięci masowej. Podsumowanie Nie ulega kwestii, że systemy pamięci masowej winny być chronione. Problematyka klasycznych rozwiązań bezpie- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 42 20 lat SOLIDEX Odpowiedzialność zawodowa informatyków i w informatyce Artykuł z Nr 5-6/2004 (65) Odpowiedzialność zawodowa była jednym z tematów dodatkowego spotkania przedstawicieli branży IT zorganizowanego jako Postscriptum 3. Kongresu Informatyki Polskiej. W czasie spotkania, które odbyło się w Warszawie w dniu 6 kwietnia 2004r. jeden z paneli dyskusyjnych poświecony był odpowiedzialności w informatyce. Jednym z gości zaproszonych do zabrania głosu był Zbigniew Skotniczny, Prezes Zarządu SOLIDEX S.A. Poniżej zamieszczamy tezy wypowiedzi Prezesa Skotnicznego będące rozwinięciem wypowiedzi w czasie sesji otwierającej 3. Kongres, która sprowokowała branże do otwartej dyskusji o jej problemach. Informatyka jest dziedziną wiedzy służebną wobec innych dziedzin i rozwija się tam i wtedy, gdzie i gdy jest na nią zapotrzebowanie (nadążnie za zapotrzebowaniem). Trudno zatem zaliczać ją do dziedzin nauki jak np. matematykę, z której się wywodzi. Informatyka jest jednocześnie lub na przemian i sztuką i rzemiosłem. Z drugiej strony z informatykami w Polsce jest jak z medycyną - każdy się zna, a jeśli ma komputer to już leczyć potrafi. Wychodzi z tego rodzaj znachorstwa najczęściej. Skoro informatyka jest sztuką i rzemiosłem jednocześnie to podlega ustawicznej ocenie odbiorców, czyli: Zależnie od oceny/odbioru artyści i rzemieślnicy dostosowują swoje dzieła do odbiorców zastępując je po prostu kiczem Jeśli kicz staje się tworem akceptowanym z wielu powodów, to kicz będzie się rozwijał nie pozostawiając miejsca dobrej sztuce, czy dobrym wytworom rzemiosła Jeśli dobry artysta lub dobry rzemieślnik nie jest odróżniany od kiczmakera to artyzm i rzemiosło wymiera z oczywistych powodów Jak usiłowałem wywieść w moim referacie w czasie sesji plenarnej Kongresu (treść wystąpienia dostępna jest m.in. na www.SOLIDEX.com.pl/etyka.htm) obecny stan naszej informatyki wynika z historii gwałtownego rozwoju i wszelkich wypaczeń spowodowanych tak szybkością zmian, jak i intratnością ekonomiczną przyciągającą ludzi przypadkowych, często hochsztaplerów, czy też kicz-makerów zainteresowanych bardziej szybkim dorobieniem się, a nie średnio i długoterminowym rozwojem zawodowym czy biznesowym. Nie ma więc informatyka za sobą wielopokoleniowej historii rozwoju, wykształconych metod selekcji, swoich prawdziwych autorytetów. Nie powstały zatem silne środowiska zawodowe jak hutników czy prawników i pewnie długo nie powstaną. Sprzeczność interesów w powstałych organizacjach branżowych i zawodowych nie wpływa praktycznie na poprawę sytuacji (warto zastanowić się przykładowo jak silna sprzeczność występuje np. w PIIiT pomiędzy reprezentantami biznesu informatycznego i telekomunikacyjnego). Cokolwiek byśmy nie chcieli zrobić (uregulować) w kwestii odpowiedzialności zawodowej zapamiętajmy zatem trzy zasadnicze i raczej dość oczywiste sentencje: każde przyzwolenie na wszelką improwizację i dziadostwo spotyka się z natychmiastowym wykorzystaniem przez niewiele mających z zawodem wspólnego; żadne regulacje i certyfikacje nie pomogą, jeśli nie przywróci się zasad etyki jako podstawy odpowiedzialności każdej z grup zawodowych; zgodnie z prawem Kopernika gorsza moneta będzie zawsze wypierać lepszą. Oczywiście tak bardzo i tak szybko jak na to pozwolimy! By nie prowadzić rozważań zbyt ogólnych wyróżnijmy kategorie odpowiedzialności różnych grup zawodowych i to w kolejności wpływu na stan dziedziny, to jest rozdzielmy odpowiedzialność na: zawodową nauczycieli akademickich i naukowców zawodową informatyków biznesową firm informatycznych prawno-gospodarczą państwa generalną odbiorców produktów i użytkowników Skupię się na próbie wskazania, gdzie należy zacząć działać by w pierwszej kolejności zmienić lub raczej zbudować świadomość znaczenia jakości, rzetelności i uczciwości dla odbudowania elementarnych zasad etyki zatraconych niestety przez ostatnie piętnaście lat (a bardziej pięćdziesiąt lat!) nie tylko w społeczności informatycznej. Etyka zawodowa nauczycieli akademickich i naukowców Zacząć trzeba od podstaw, czyli kto, gdzie i jak uczy i wychowuje nowe pokolenie. Niestety w większości są to osoby przypadkowe i jako osoby nie mające najczęściej gruntownych podstaw zawodowych ani dydaktycznych po prostu improwizują ucząc. Nawet w najlepszej wierze nauczyć mogą tylko tego, co umieją. Gorzej, gdy próbuje się nadać tej improwizacji formę instytucji tworząc na dowolnym wydziale dowolnej uczelni kierunki quasi-informatyczne (ostatnio © SOLIDEX, 2010 43 modne są rozmnażające się informatyki stosowane). Uważam, iż jest to oszustwo względem garnącej się do wiedzy młodzieży (często za modną nazwą informatyka) - 18-letni człowiek przyjmuje bezkrytycznie, że na kierunku informatyka stosowana czy informatyka i zarządzanie posiądzie wiedzę pozwalającą mu na zdobycie wiedzy informatyka w zakresie wystarczającym do uniwersalnego wykonywania zawodu. Podobne efekty osiągane przez liczne formy dokształtu tak w formie płatnych studiów zaocznych jak i skomercjonalizowanych kursów pod szumnymi nazwami akademii. Przysposobiony do korzystania z określonych narzędzi młody człowiek ma wrażenie, że posiadł szeroką wiedzę zawodową i z takim przeświadczeniem podejmuje się zadań zbliżonych ze zwykle mizernym efektem niestety. Czas zatem głośno i wyraźnie określić co jest, a co nie jest wykształceniem uprawniającym do posługiwania się nazwą informatyka, a co jest tylko przyuczeniem do korzystania z młotka i śrubokręta! Czas zaprzestać oszukańczych wobec młodzieży praktyk nazywania studiami informatycznymi każdych studiów wykorzystania komputera jak młotka! Może wystarczy wrócić do podziału na trzy grupy: informatyka teoretyczna (uniwersytecka), inżynierska (politechniki) i ekonomiczna jak było jeszcze kilkanaście lat temu i nie rozpowszechniać dalej znachorstwa? A zamiast informatyki stosowanej nazwijmy studia zastosowaniami informatyki w ... Etyka zawodowa informatyka Jeśli chodzi o informatyków z prawdziwego zdarzenia, to należy w pierwszej kolejności mówić o inżynierskiej czy rzemieślniczej rzetelności. I można by nawet stwierdzić, że nie jest z tym dziś źle, gdyby nie psucie opinii i obrazu przez zastępy domorosłych fachowców pozujących na zawodow- ców albo promowanych tak przez nieuczciwe firmy. Trudniej niestety takie osoby lub firmy odróżnić niż znachora od lekarza. W zasadzie można tylko, a raczej trzeba starać się uświadamiać szeroko odbiorcom prac i utworów informatycznych czym różni się znachor od lekarza. Niestety nie sprzyja wykryciu znachorstwa łatwość użycia różnych cudownych narzędzi do szybkiego i bezmyślnego tworzenia oprogramowania - skutki znachorstwa widać dość późno, gdy już nawet profesjonalny lekarz poradzić wiele nie może. Dopóki znachorzy będą akceptowani przez często nieświadomych odbiorców ich dzieł odium nieudanych projektów spadać będzie na profesjonalistów nie mających z tymi porażkami nic wspólnego. Etyka biznesowa firm informatycznych O totalnym braku elementarnej uczciwości kupieckiej i praktykach nieuczciwej konkurencji można by mówić godzinami - kilka ciągle niestety dziejących się zjawisk pozwoliłem sobie wskazać w cytowanej wcześniej kongresowej wypowiedzi. Zwróćmy uwagę jednak na kilka ciągle tolerowanych zjawisk sprzecznych z etyką i uczciwością kupiecką: zatrudnianie studentów pierwszych lat i powierzanie im budowy komercyjnych rozwiązań oczywiście bez wiedzy i zgody odbiorców tych rozwiązań oferowanie nieistniejących produktów jako istniejących i sprawdzonych brak nadzoru i odpowiedzialności za dostarczane dzieła wykonywane najczęściej przez piramidę tanich i przypadkowych podwykonawców. Rynek musi nauczyć się pilnie odróżniać profesjonalistów od improwizatorów, a rolą środowiska jest go tego uczyć. Odpowiedzialność prawnogospodarcza państwa System prawny i praktyka stosowania prawa pozwala ciągle bezkarnie oszukiwać, a dziadostwo jest tolerowane i wręcz popierane. W normalnym świecie nierzetelny dostawca jest wykluczany z łańcucha dostawców, a w Polsce może liczyć na kolejne kontrakty. Zasada wykluczania winnych nienależytego wykonania nigdy nie była respektowana. Rynek zdominowany został zatem przez gorszą monetę, która nie dość, że nie ma wartości, to jeszcze uzależnia korzystającego od tej monety. Brak możliwości wyegzekwowania odpowiedzialności za jakość przez ciągle wadliwy system zamówień publicznych oraz niesprawne sądownictwo to bariera, która musi być usunięta, by mówić o jakiejkolwiek odpowiedzialności informatyka czy firmy informatycznej. Dziś po prostu większości nie opłaca się uczciwie tworzyć i inwestować. Spróbujmy zmienić choćby kilka nagannych przepisów i praktyk idąc śladem praktyk Unii Europejskiej. Podobnie jak w przedsięwzięciach architektonicznych wprowadźmy zasadę dwuetapowości rozbijając proces tworzenia systemów informatycznych na proces projektowania i na proces wdrożenia projektu (zapisy prawa unijnego mówią o takim rozbiciu projektów architektonicznych i przetwarzania danych!). Jasna będzie wtedy odrębna odpowiedzialność projektującego i wykonującego prace wg projektu. Nie może być tak, iż jeden z najważniejszych systemów informatycznych państwa projektowany jest w 1200 pytaniach i odpowiedziach w czasie pomiędzy ogłoszeniem niejasnej specyfikacji warunków zamówienia pisanej prozą, a złożeniem ofert kilka tygodni później! Taki system w pytaniach i odpowiedziach nie ma przecież szans działać, nie mówiąc o korupcjogenności takiej metody działania i łatwości zrzucenia odpowiedzialności na zamawiającego. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 44 20 lat SOLIDEX Drugim czynnikiem decydującym o niskiej odpowiedzialności dostawców jest kryterium wyboru oparte w zasadzie zawsze w 100% o cenę niezależnie od jakości proponowanego rozwiązania. Oczywistym jest, że oferowane i wybierane będzie najgorsze, czyli najtańsze! I jeszcze jedno warte pilnego wdrożenia - sposób prowadzenia i realizacji zamówień. Wzorem przepisów unijnych należy rozdzielić personalnie proces wyboru dostawcy od procesu odbioru wykonanych prac czy dostaw. Komisje wybierające dostawcę i odbierające wynikowe prace powinny składać się całkowicie i bezwzględnie z różnych osób! Nawet jeśli nie ma żadnych działań korupcyjnych, to odbiorca prac staje się zakładnikiem dostawcy, którego chcąc czy nie sobie wybrał - czyż nie jest wtedy przymuszony do akceptacji różnych wad, zwłoki czy niezgodności w obawie przed utratą swojej posady i przyznaniem się do błędu? Jest to jeden z najpilniejszych mechanizmów, jakie trzeba wprowadzić do prawa i praktycznie w życie! Etyka odbiorcy produktów i użytkowników Wobec nadwyżki podaży nad popytem powszechną staje się praktyka nadużywania pozycji odbiorcy produktów informatycznych względem dostawców oraz coraz częściej nieuczciwe praktyki wobec dostawców. Odbiorca wiedząc o swej przewadze wykorzystuje potencjalnych dostawców do bezpłatnego przekazywania wiedzy i doświadczeń, a wręcz przymusza do wykonania projektów technicznych za darmo. Wykorzystując nieuczciwie pozyskaną wiedzę kieruje się potem tylko ceną rozgrywając dostawców skomplikowanych technologii na zasadach analogicznych jak supermarkety dostawców przysłowiowej pietruszki. Na krótką metę dokonuje zakupu taniej, ale już średniookresowo może spodziewać się niskiej jakości wynikającej z niskiej ceny, jaką przymuszony dostawca mu zaoferował. W takim wyścigu o cenę oraz braku poszanowania wiedzy i pracy starających się o zamówienie burzy się etyczne podstawy współdziałania jednostek gospodarczych podważając elementarne zaufanie pomiędzy podmiotami. Innym problemem są kwalifikacje osób występujących po stronie odbiorców informatyki przypominające często niestety kwalifikacje znachora. Normy etyczne i świadomość otoczenia decydują o odpowiedzialności zawodowej. Odpowiedzialność informatyków zależy głównie od norm etycznych wpajanych w domu, w szkole i na studiach, a potem w pracy zawodowej. Nie ma takich regulacji czy certyfikacji, które by zastąpiły etykę zawodową czy biznesową. Certyfikacje zawodowe mogą być przydatne jako dodatek do etyki, ale nie mogą jej zastąpić. Niezależnie od systemu prawnego oraz regulacji branżowych niezwykle ważną jest świadomość społeczna odbiorców, która decyduje, czy akceptowane będą nieetyczne zachowania graczy rynkowych i quasiinformatycznych hochsztaplerów. Środowisko winno położyć więc nacisk na promocję tak norm etycznych oraz otwartą ocenę i piętnowanie działań przyjmujących ujmę zawodowi informatyka. Polityka ala Guliani czyli nietolerancja dla drobnych zagrożeń i zachowań nieetycznych jest jedyną metodą podnoszenia poziomu odpowiedzialności i jakości, czyli zapewnienia elementarnej rzetelności zawodowej. Znakomita większość ludzi chciałaby normalnie żyć, pracować, tworzyć i bawić się mając komfort życia i tworzenia w uczciwym i etycznym otoczeniu, w oparciu o zaufanie do innych. Jeżeli nie będziemy się starać by ludzie dawali innym jakość, rzetelność i uczciwość to nic nie powstanie, a my zginiemy nie tylko jako branża i zawód, ale jako społeczeństwo. © SOLIDEX, 2010 45 Rozliczanie usług typu prepaid w oparciu o SOLIDEX.callnet Artykuł z Nr 5-6/2004 (65) Operatorzy telekomunikacyjni oferują coraz więcej usług opartych o formułę przedpłaty. W artykule zostanie zaprezentowane rozwiązanie usług typu prepaid w sieci Wireless LAN. Bezpośrednią kontrolę nad sesjami użytkownika (dostępem do usług) sprawuje Cisco SSG (Service Selection Gateway). Rozwiązanie zbudowane jest w oparciu o platformę SOLIDEX.callnet oraz serwer RADIUS Cisco Access Registrar. Architektura rozwiązania Rysunek 1 przedstawia szczegółową architekturę dla billingu typu prepaid zrealizowaną w oparciu o platformę SOLIDEX.callnet. serwer relacycjnej bazy danych z ta- blicami stanu konta (Persistent Storage) serwer usług katalogowych z bazą zdrapek (Scratch Card Database) Realizacja usług typu prepaidowego oparta jest o specjalny tryb pracy pary: CAR, SSG. Polega on na tym, że serwer RADIUS dzieli dostępny na koncie użytkownika czas na mniejsze części. Pierwsze zapytanie SSG o autoryzację użytkownika powoduje przekazanie przez CAR ułamkowej części czasu dostępnego na koncie klienta. SSG kontroluje zużycie czasu i tuż przed skończeniem się zwróconego w pierwszej autoryzacji czasu wysyła zapytanie do CAR o ponowną autoryzację. Jeśli w odpowiedzi otrzyma kolejną porcję czasu do wykorzystania kontynuje obsługę sesji użytkownika. Jeśli odpowiedź będzie negatywna, SSG powoduje przerwanie dostępu do usługi. Rys. 1 Architektura rozwiązania Elementy składowe rozwiązania Billing prepaid opiera się o kilka kluczowych elementów (pokazanych na rysunku): serwer RADIUS z modułem Prepaid Plugin serwer aplikacji zgodny ze standardem J2EE z aplikacją billingową (Prepaid Application) Serwer RADIUS Serwer RADIUS współpracuje bezpośrednio z SSG. Dostarcza usługi AAA (Authentication Authorization Accounting). W przypadku omawianego rozwiązania serwerem RADIUS jest produkt firmy Cisco: Access Registrar (w dalszej części dokumentu skrótowo nazywany CAR). Wielkość kwantu czasu przekazywana do zużycia jest parametrem. Wyraża się w sekundach. Podanie bardzo małego kwantu czasowego może powodować przeciążenie systemu ze względu na ilość koniecznych do obsługi zapytań. Taki mechanizm pracy pary: CAR, SSG umożliwia realizację usług, gdzie dostępny do wykorzystania czas może być dla każdej sesji liczony oddzielnie, co w przypadku sesji równoległych prowadzi do skrócenia dostępnego czasu proporcjonalnie do ilości otwartych jednocześnie sesji. Prepaid Plugin CAR samodzielnie nie kontroluje zużycia czasu w sesjach użytkownika. Nie posiada takiej funkcjonalności. Potrafi natomiast współpracować z zewnętrznym systemem billingowym (w dal- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 46 20 lat SOLIDEX szej części dokumentu będzie nazywany EBS od External Billing System). W tym celu został wyposażony w możliwość dopinania się do EBS poprzez udostępnioną przez producenta EBS bibliotekę dynamiczną (Prepaid Plugin na rysunku). Biblioteka powinna posiadać ściśle określoną funkcjonalność, która realizuje pracę w trybie prepaid serwera CAR. Zadaniem CAR jest tłumaczenie odwołania RADIUS pochodzących z SSG na odpowiednie wywołania funkcji biblioteki EBS rezydującej w nim. Prepaid Plugin zawiera klienta architektury CORBA, który każde odwołanie CAR przekłada na odpowiadające odwołanie do komponetów EJB realizujących mechanizmy uwierzytelniania. Protokołem komunikacyjnym wykorzystywanym do połączenia się z serwerem aplikacji jest protokół IIOP (jest element specyfikacji architektury CORBA). Prepaid Plugin zrealizowany jest w oparciu o implementację architektury CORBA: MiCO z wykorzystaniem języka C++ oraz zdefiniowanego przez OMG mapowania Java do C++. Prepaid Plugin jest elementem platformy SOLIDEX.callnet realizującym wymagania serwera CAR co do komunikacji z zewnętrznym systemem billingowym. Serwer aplikacji z aplikacją billingową W rozwiązaniu SOLIDEX.callnet, system billingowy realizujący usługi prepaid jest obsługiwany przez serwer aplikacji zgodny ze standardadem J2EE. System billingowy jest zrealizowany w postaci komponentów EJB (Enterprise Java Bean). Specjalnie do zastosowania SOLIDEX. callnet do współpracy z CAR przygotowane są moduły EJB, które bezpośrednio realizują opisany wcześniej mechanizm uwierzytelniania. Komunikacja pomiędzy CAR a komponentami EJB odbywa się za pośrednictwem biblioteki dynamicznej (Prepaid Plugin na rysunku). Jak wspomniano wcześniej, realizacja billingu w SOLIDEX.callnet oparta jest o komponenty EJB serwera aplikacji zgodnego ze standardem J2EE. Takie rozwiązanie umożliwia proste zwiększanie niezawodności czy też wydajności poprzez odpowiednie konfigurowanie serwera aplikacji. Praktycznie każdy z dostępnych serwerów aplikacji posiada mechanizmy automatycznego przenoszenia aktywnej aplikacji na inny serwer aplikacji w przypadku awarii czy też dużego obciążenia. Baza zdrapek Kody zdrapek, oraz informacje o skojarzonych z nimi usługach, przechowywane są w bazie zdrapek (scratch card database). Baza danych zdrapek dostępna jest dla aplikacji billingowej za pomocą protokołu LDAP. Dostęp do danych zapewnia JNDI (Java Naming and Directory Interface) API. Kody zdrapek są zapisane w postaci zaszyfrowanej. Każdy kod zdrapki posiada unikalny numer seryjny. Numer seryjny jest wykorzystywany przez bazę stanu kont do gromadzenia informacji o zużyciu konta oraz pobierania informacji o stanie zdrapki przez administratorów. Operatorzy telekomunikacyjni oferują coraz więcej usług opartych o formułę przedpłaty. W artykule zostanie zaprezentowane rozwiązanie usług typu prepaid w sieci Wireless LAN. Bezpośrednią kontrolę nad sesjami użytkownika (dostępem do usług) sprawuje Cisco SSG (Service Selection Gateway). Rozwiązanie zbudowane jest w oparciu o platformę SOLIDEX. callnet oraz serwer RADIUS Cisco Access Registrar. Relacyjna baza danych ze stanami kont Aplikacja billingowa wykorzystuje relacyjną bazę danych od przechowywania stanu konta użytkownika. Dostęp do bazy danych realizowany jest przez JDBC (Java Database Connectivity) API. Relacyjna baza danych zawiera zestaw tabel gdzie są przechowywane aktualne stany kont użytkowników. Konto użytkownika (a właściwie jego stan) w tej bazie powstaje w chwili pierwszego skorzystania z usługi przez użytkownika. Sukcesywne komunikaty reautentykacji powodują obciążanie konta użytkownika. W bazie nie znajdują się żadne informacje pozwalające na jawne odczytanie kodu zdrapki. Kod zdrapki jest kodowany. Typowy scenariusz pracy W kolejnych podpunktach zostanie przedstawiona praca całego systemu realizującego billing prepaid od momentu autentykacji do zakończenia sesji. Zakładamy, że sesja jest przerywana przez użytkownika. Autentykacja Serwer CAR żądanie autentykacji od SSG przetwarza na odwołanie do biblioteki Prepaid Plugin. Woła funkcję ebs_init_authenticate. Prepaid Plugin znajduje na serwerze aplikacji komponent odpowiedzialny za realizację tej funkcji i poprzez IIOP wywołuje odpowiednią na nim metodę. SOLIDEX.callnet na podstawie otrzymanych parametrów wyszukuje w bazie zdrapek odpowiednią zdrapkę. Jeśli nie znajdzie zwraca kod błędu, który przez Prepaid Plugin i CAR zostanie przekazany w formie negatywnej odpowiedzi RADIUS. Autentykacja możliwa jest na podstawie samego kodu zdrapki lub poprzez parę: numer seryjny, kod zdrapki. Autoryzacja Zaraz po prawidłowej autentykacji następuje autoryzacja. Serwer CAR woła w bibliotece Prepaid Plugin metodę ebs_init_authorize. Odwołanie jest przenoszone do SOLIDEX.callnet, który na podstawie otrzymanego kodu usługi sprawdza jej parametry i porównuje z dotychczasowym © SOLIDEX, 2010 47 użyciem przez użytkownika, które jest zapamiętane w relacyjnej bazie danych. Jeśli dotychczasowe wykorzystanie uniemożliwia dalsze kontynuowanie usługi konto (a właściwie numer zdrapki) jest blokowany oraz zwracana jest odmowa dostępu. W przeciwnym przypadku zwracana jest część czasu dostępnego dla użytkownika. Reautoryzacja Reautoryzacja następuje po wyczerpaniu limitu czasowego z autoryzacji lub poprzedniej reautoryzacji. Serwer CAR wywołuje w tym wypadku metodę ebs_reauthorize. W odpowiedzi SOLIDEX.callnet dokonuje odjęcia od stanu konta użytkownika wykorzystanego kawałka czasu (stosownie do określonej metody odliczania czasu). Następnie wykonuje porównania analogicznego jak w przypadku autoryzacji i zwraca kolejny kwant czasu lub odmowę dostępu. Wylogowanie - return quota Jeśli użytkownik zakończy sesję przed upływem ostatnio otrzymanego kwanta czasu, SSG wysyła do CAR żądanie zwrócenia pozostałego czasu do puli. Serwer CAR woła w wypadku metodę ebs_return_quota biblioteki Prepaid Plugin. Odwołanie, jak we wszystkich pozostałych przypadkach, jest dostarczane do SOLIDEX.callnet do komponentu odpowiedzialne za tę funkcjonalność. Właściwy komponent na serwerze aplikacji sprawdza sposób liczenia czasu dla usługi (zegarowo lub ze skrócenie), ilość innych sesji użytkownika i na tej podstawie odpowiednio modyfikuje stan konta użytkownika w relacyjnej bazie danych. Parametry usług prepaid Platforma SOLIDEX.callnet pozwala zdefiniować usługi, które mogą posiadać następujące parametry (zmienne): czas trwania połączeń czas ważności usługi od pierwszego wykorzystania maksymalną ilość równoczesnych sesji maksymalną ilość logowań w ramach usługi sposób konsumpcji czasu przez rów- noczesnych użytkowników: zegarowo bez względu na ilość sesji lub ze skróceniem czasu wiele okresów ważności usługi co umożliwia definiowanie usług ważnych w określonych porach dnia, dnia tygodnia, miesiąca, itp. lokalizacja podana w postaci: zakresu adresów IP lub definicji podsieci - umożliwia tworzenie usług ważnych tylko wtedy gdy adres IP uzyskany przez klienta jest zgodny z podaną podsiecią lub zakresem (funkcjonalność możliwa do wykorzystania tylko w wypadku gdy w zapytaniu o autentykację będzie podany adres IP klienta - w przypadku sieci WLAN jest spełniony). Definicja usługi może korzystać z każdego z parametrów dzięki czemu istnieje możliwość kreowania zaawansowanych usług. Niezawodność rozwiązania Niezawodność rozwiązania osiąga się przez zdublowania każdego z opisanych wyżej serwerów: serwera RADIUS - CAR serwera aplikacji serwera usług katalogowych dla bazy zdrapek serwera relacyjnej bazy danych dla stanu kont. Serwery baz danych: zdrapek i stanu kont muszą być w takim wypadku zsynchronizowane ze sobą z wykorzystaniem mechanizmów replikacji. Charakterystyka bazy zdrapek oferowanej przez SOLIDEX.callnet Baza zdrapek platformy SOLIDEX.callnet składa się z dwóch funkcjonalnych elementów: generatora kodów zdrapek operacyjnej bazy zdrapek. Za pomocą generatora kodów zdrapek trworzone są zbiory kodów zdrapek skojarzone z usługami. Przydzielanie usługi do zbioru może się odbyć w trakcie generacji zbioru lub później, pod warunkiem, że ze zbiorem nie jest skojarzona już usługa. Każdy zbiór zdrapek charakteryzuję się okresem ważności, który dziedziczą należące do niego kody zdrapek. Wygenerowane zbiory zdrapek muszą zostać załadowane do operacyjnej bazy zdrapek aby mogły służyć do autentykacji. Operacyjna baza zdrapek jest obsługiwana przez SunONE Directory Server. Współpracuje bezpośrednio z systemem realizującym billing prepaid na platformie SOLIDEX.callnet. Operacyjna baza zdrapek zawiera dedykowany interfejs administracyjny dostępny za pomocą przeglądarki stron WWW. Pozwala administratorowi operacyjnej bazy zdrapek na: stwierdzenie stanu podanej zdrapki, typu: aktywna, wykorzystana, przedawniona zablokowanie i odblokowanie zdrapki pokaznie historii użycia zdrapki. Dostęp do każdej z operacji podlega ochronie na zasadzie ról. Profil administratora jest przechowywany na serwerze usług katalogowych. Może to być ten sam serwer, który obsługuje bazę zdrapek jak również inny, wskazany w konfiguracji interfejsu administracyjnego. Wykonanie operacji jest rejestrowane za pomocą mechanizmów daemona syslog. Wykorzystane zbiory zdrapek podlegają przesunięciu z operacyjnej bazy zdrapek na archiwalną bazę zdrapek. Archiwalna baza zdrapek może mieć postać: wydzielonego serwera usług katalogowych plików pozwalających odtworzyć zawartość zdrapek w serwerze usług katalogowych. Archiwizacja wykorzystanych kodów zdrapek może być przeprowadzana automatycznie oraz w dowolnym momencie na żądanie administratora systemu. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 48 20 lat SOLIDEX System zarządzania treścią SmartContent Artykuł z Nr 1/2005 (70) Firmy i instytucje potrzebują systemów wspomagających zarządzanie portalami korporacyjnymi, które odpowiadają ich potrzebom w zakresie prezentacji oferty, komunikacji z klientami i otoczeniem biznesowym. Jednym z podstawowych elementów portali korporacyjnych są systemy klasy CMS (Content Management System). Utrzymanie aktualności informacji i zmienności publikowanych treści jest dla portali korporacyjnych kluczową kwestią związaną z ich efektywnością. Wybór narzędzi i metody aktualizacji informacji w przypadku dużej ich dynamiki stanowi kluczowe ogniowo odpowiedzialne za powodzenie lub fiasko całego procesu. W przypadku, gdy ilość, dynamika i poufny charakter informacji wykluczają możliwość udziały w tym procesie firmy odpowiedzialnej za przygotowanie i utrzymanie serwisu, niezastąpionym narzędziem okazuje się system CMS. Również od strony efektywności biznesowej (ROI) systemy klasy CMS istotnie obniżają koszt aktualizacji i utrzymanie serwisów WWW czy portali korporacyjnych. System zarządzania treścią to aplikacja internetowa pozwalająca na łatwą aktualizację i rozbudowę serwisu WWW przez pracowników bez specjalistycznej wiedzy i doświadczenia. Modyfikacja i dodawanie nowych treści odbywa się za pomocą prostych w obsłudze interfejsów użytkownika, zazwyczaj w postaci stron WWW i edytora WYSYWIG (What You See Is What You Get). Do podstawowych korzyści wynikających z wdrożenia systemu CMS należą: obniżenie kosztów aktualizacji serwisu WWW skrócenie czasu potrzebnego na dokonanie zmian ograniczenie liczby osób zaangażowanych w proces aktualizacji możliwość natychmiastowej reakcji na zmiany w procesach biznesowych, otoczeniu rynkowym czy też wewnątrz organizacji możliwość szybkiej zmiany interfejsu graficznego (wymiany szablonów podstron) łatwość rozbudowy serwisu o nowe działy tematyczne dzięki modułowej strukturze możliwość integracji serwisu WWW z innymi aplikacjami ograniczenie ryzyka popełnienia błędu podczas przekazu treści podlegających aktualizacji Głównym zadaniem aplikacji CMS jest różnicowanie zawartości informacyjnej serwisu od sposobu jej prezentacji. Po wprowadzeniu nowych informacji przez uprawniony zespół redakcyjny, system zapisuje je w bazie danych, jednocześnie wypełniając nimi odpowiednie miejsca na stronach WWW. Wykorzystanie szablonów stron sprawia, że zmiana koncepcji graficznej całego serwisu sprowadza się do przygotowania i zamiany szablonu bez ograniczeń kompozycyjnych. System zarządzania treścią umożliwia osobom mającym znajomość korzystania z podstawowych aplikacji (np. edytory tekstu, przeglądarka internetowa) intuicyjne zarządzanie portalami. Rola tych osób nie ogranicza się tylko do aktualizacji treści, ale polega na wspomaganiu procesów publikacji, selekcji dokumentów oraz komunikacji z innymi systemami informatycznymi firmy. Zespół redakcyjny portalu uczestniczy więc w rzeczywistych procesach biznesowych firmy. Jednym z software’owych rozwiązań, rozwijanych przez WebService, jest profesjonalny system do zarządzania treścią - SmartContent - łączący funkcje systemu CMS, platformy integracji aplikacji oraz cechy środowiska do budowy aplikacji internetowych i rozwiązań portalowych. System ten charakteryzuje się m.in. następującą funkcjonalnością: wizualne narzędzie do zarządzania treścią w trybie WYSYWIG (What You See Is What You Get) mechanizmy obsługujące przepływ treści pomiędzy osobami odpowiadającymi za ich redagowanie, autoryzację i publikację w serwisie (tzw. workflow engine) mechanizmy zabezpieczeń i uprawnień do systemu predefiniowane typy treści z możliwością tworzenia nowych wsparcie dla wersji wielojęzycznych serwisu Aplikacja SmartContent budowana jest w oparciu o standardowe elementy serwisów WWW oraz rozwiązania indywidualnie dopasowywane do specyficznych potrzeb danego projektu, a otwarta struktura i technologia umożliwia sukcesywne rozbudowywanie serwisu o kolejne moduły w miarę pojawiających się potrzeb. System współpracuje z bazami danych zawierającymi informacje, zdjęcia i grafiki przeznaczone do dynamicznej publikacji. Zmianom nie podlega całość publikacji, lecz jedynie pojedyncze rekordy dodawane do baz danych. Rekordy z baz danych przenoszone są do szablonów na podstronach. Dzięki temu, mimo częstych zmian, zachowany zostaje spójny układ całości prezentacji. Dodatkowo funkcjonalność platformy poszerzona jest o możliwość samodzielnego zamieszczania w serwisie nowych podstron, dzięki wykorzystaniu uprzednio przygoto- © SOLIDEX, 2010 49 wanych szablonów podstron oraz możliwość usuwania nieaktualnych podstron. SmartContent charakteryzuje się niezwykłą prostotą obsługi. Dzięki odpowiednio przygotowanej nawigacji i przyjaznemu interfejsowi umożliwia osobie zaznajomionej z obsługą przeglądarki internetowej samodzielne dokonywanie zmian w zawartości serwisu WWW. Technologia SmartContent System SmartContent zbudowany został w oparciu o technologię budowy aplikacji Zope oraz system do zarządzania treścią Plone. Oprogramowanie to stanowi trzon systemu. Zope jest jednym z najpopularniejszych serwerów aplikacji, a także obiektowym i wielowarstwowym środowiskiem dla publikacji internetowych, rozwijanym na zasadzie „open source”. Jest on opracowany specjalnie z myślą o zarządzaniu treścią, obsłudze systemów portalowych, a także dedykowanych aplikacji. Poza serwowaniem treści publikacji, pozwala przede wszystkim na zarządzanie tą treścią, wyszukiwanie, budowanie indeksów itp. Technologia Zope stanowi doskonałą platformę dla aplikacji webowych, jest także wydajnym środowiskiem do tworzenia aplikacji internetowych. Najważniejsze cechy środowiska Zope: obsługa zabezpieczeń na dowolnym poziomie zasobów wbudowana wewnętrzna, obiektowa baza danych ZODB sprawny system indeksowania obiektów - rozwiązuje problem przeszukiwania treści portalu obsługa standardu kodowania znaków UNICODE - kluczowy element dla wielojęzyczności witryny dostępność na wszystkich popularnych platformach sprzętowych - ze względu na zastosowany język skryptowy Python wydajne programowanie dynamicznych stron Środowisko Zope składa się z kilku współpracujących ze sobą komponentów ułatwiających tworzenie aplikacji webowej. Podstawowe komponenty oraz architektura środowiska Zope zostały przedstawione na poniższym diagramie: tworzone w Zope nie muszą być przechowywane w jej integralnej bazie danych ZODB. Zope w tym zakresie współpracuje z takimi relacyjnymi bazami da- Wyjaśnienia do diagramu: nych jak Oracle, PostgreSQL, Sybase, MySQL oraz innym bazami opartymi na języku SQL. File System - system plików Zope pracuje z dokumentami oraz innymi plikami zgromadzonymi na serwerze. ZClasses - Zope pozwala użytkownikom tworzącym aplikację na dodawanie nowych typów obiektów przy użyciu tzw. Zope Management Interface. ZClasses są właśnie tymi nowymi typami obiektów. Products - Zope pozwala użytkownikom tworzącym aplikację na dodawanie nowych typów obiektów poprzez instalowanie całych plików z nowymi typami (zwanych „Product files”) na serwerze Zope’a. ZServer - wbudowany serwer WWW publikujący treści. Treści mogą być publikowane poprzez FTP, WebDAV oraz XML-RPC. Web Server - Zope współpracuje także z zewnętrznymi i popularnymi serwerami aplikacji i WWW takimi jak Apache lub Microsoft IIS. Zope Core - rdzeń technologii Zope koordynujący pracę pozostałych komponentów Object Database (ZODB) - obiektowa baza danych, w której mogą być przechowywane obiekty tworzone w tym środowisku. Relational database - dane i obiekty INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 50 20 lat SOLIDEX Kolejną technologią wykorzystaną do budowy SmartContent jest Plone. Jest to system oferujący funkcjonalność zarządzania treścią. Jego zaletą jest łatwość integracji z oprogramowaniem i technologią Zope - połączenie obu tych technologii stanowi fundament do tworzenia systemów webowych. Oprogramowanie Plone uzupełnia technologię Zope dodając w zakresie funkcjonalności CMS wygodny interfejs do zarządzania treścią. Interfejs ten wizualnie oparty jest na folderach z możliwością przeglądania ich zawartości. Podstawowe funkcjonalności systemu Plone na podstawie http://www.cmsmatrix.org/: Security: Audit Trail Content Approval Granular Privileges Kerberos Authentication LDAP Authentication NIS Authentication Pluggable Authentication Sandbox SMB Authentication Versioning Ease of Use: Email To Discussion Friendly URLs Macro Language Server Page Language Spell Checker Template Language Undo WYSIWYG Editor Performance: Advanced Caching Load Balancing Page Caching Static Content Export Management: Asset Management Clipboard Content Scheduling Inline Administration Online Administration Package Deployment Sub-sites / Roots Themes / Skins Trash Web-based Style/Template Management Web-based Translation Management Workflow Engine Interoperability: Content Syndication (RSS) FTP Support UTF-8 Support WAI Compliant WebDAV Support XHTML Compliant Flexibility: CGI-mode Support Content Reuse Extensible User Profiles Interface Localization Metadata Multi-lingual Content Multi-lingual Content Integration Multi-Site Deployment URL Rewriting Wiki Aware Built-in Applications: Blog Document Management Events Calendar File Distribution Search Engine User Contributions Architektura logiczna Architekturę logiczną SmartContent można przedstawić ze względu na kilka różnych podziałów. Pierwszy z nich to podział ze względu na wirtualne serwery/usługi, z których każdy realizuje pewną grupę funkcji. Na poziomie wirtualnych serwerów istnieje możliwość zapewnienia skalowalności i niezawodności całego systemu, poprzez rozbudowę o kolejne serwery i delegację obciążenia na nie. Ze względu na funkcjonalność, możemy wyróżnić następujące główne składniki systemu: 1. Warstwę prezentacyjną, realizowaną dwuczęściowo: a. w zakresie produkcji przez warstwę logiczną b. w zakresie sieciowym przez odpowiednie serwery (np. WWW), które dodatkowo mogą działać wspól- nie z urządzeniami typu ContentCache. Warstwa prezentacyjna realizowana przez system jest w pełni oparta na mechanizmie szablonów i całkowicie rozdziela aspekty prezentacji od logiki, dając tym samym bardzo duże możliwości, jeśli idzie o realizację innych kanałów dostępu (MDA/PDA/WAP) 2. Warstwę logiczną, gdzie zlokalizowana jest całość logiki biznesowej systemu. 3. Warstwę interfejsów, która odpowiada za współpracę z systemami zewnętrznymi, zarówno w zakresie komunikatów wychodzących, jak i przychodzących. 4. Warstwę SQL, gdzie dostępna jest relacyjna baza danych, odpowiedzialna za przechowywanie dużej ilości danych (między innymi wszelkie dane do generowania raportów), pasujących do relacyjnego modelu dostępu. 5. Warstwę ZODB, gdzie dostępna jest obiektowa baza danych, odpowiedzialna za przechowywanie dużej ilości danych, nie pasujących do relacyjnego modelu dostępu. 6. Warstwę FS, czyli podsystem plików, wydzielony osobno ze względu na fakt, iż architektura systemu przewiduje przechowywanie dużej ilości danych w postaci załączników plikowych. Platforma oprogramowania System SmartContent rozwijany jest w oparciu o sprawdzone komponenty Open Source, każdorazowo dodając do tego całą logikę zrealizowaną konkretnie pod potrzeby danego projektu. Komponenty wykorzystane w systemie SmartContent: Technologia/Wymaganie Serwer Prezentacyjny (WWW) Serwer aplikacyjny System CMS Język Baza danych SQL (opcjonalnie) Serwer SMTP Protokoły Formaty danych © SOLIDEX, 2010 51 Obszar dla Partnerów - dla firm z branży IT/telecom współpracujących z PTC Obszar dla pracowników PTC - dla osób odpowiedzialnych za obsługę Programu Partnerskiego, opiekunów Partnerów, administratorów i redaktorów treści Oprogramowanie Apache, w wersji 2.x Zope, w wersji 2.7 Plone, w wersji 2.x Python, w wersji 2.3.x MySQL, w wersji 4.x Dowolny zgodny z RFC HTTP, HTTPS, XML-RPC, SMTP XML, HTML, MIME Case study - „Era IT Portal” Na zlecenie Polskiej Telefonii Cyfrowej, operatora telefonii komórkowej Era, WebService wykonał portal „Era IT Part- ner” - system intranetowy i ekstranetowy. Celem projektu było stworzenie zaawansowanej platformy wspomagającej zarządzanie współpracą z firmami w ramach Programu Partnerskiego prowadzonego przez PTC Era. By sprostać wymaganiom klienta, wdrożony został system SmartContent. Prace nad projektem rozpoczęto od analizy wymagań PTC. Portal został podzielony na trzy główne obszary: Obszar podstawowy - dla nieautoryzowanych użytkowników serwisu Ważnym elementem projektu była integracja portalu z wewnętrznym systemem zarządzania procesami biznesowymi PTC. Wybrane funkcjonalności SmartContent wdrożone w portalu PTC: Wizualne narzędzie do zarządzania treścią w trybie WYSYWIG Mechanizm Workflow Engine - obsługujący przepływ treści pomiędzy osobami odpowiadającymi za ich redagowanie, autoryzację i publikację w serwisie System nadawania uprawnień dostępu do wybranych części Portalu (np. wybrane informacje o produktach i usługach PTC, formularze kontaktowe) System zarządzania użytkownikami Portalu (tworzenie nowych użytkowników, grupowanie) System generowania raportów (miedzy innymi: aktywność Partnera, raporty stanu prowadzenia wspólnie realizowanych projektów) Zaawansowana wyszukiwarka treści Portalu Projekt zrealizowano w 5 miesięcy. Docelowo z Portalu Partnerskiego ma korzystać ponad kilkuset Partnerów oraz kilkudziesięciu specjalistów odpowiedzialnych za realizacje Programu Partnerskiego po stronie PTC. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 52 20 lat SOLIDEX Produkty WebService: more:multinetR.CBSG Artykuł z Nr 2/2006 (83) Życie wypełnione jest treścią. Wszystko wokół nas jest swego rodzaju treścią. Operatorzy telekomunikacyjni zauważyli tę prostą prawdę życiową i próbują budować usługi bazujące na treści. Zwrot „bazujące na treści” oznacza w tym wypadku usługi gdzie podstawowym wymiarem, za który nam abonentom przychodzi płacić jest treść. Nie czas, jak w usługach głosowych, czy też przepływ jak w usługach dostępu do sieci, tylko nowa jakość: treść. more:multinetR.CBSG - przeznaczenie Budowanie nowych usług zawsze jest wyzwaniem. W przypadku treści pierwsze lody zostały już przełamane: chętnie kupujemy muzykę i słuchamy jej na przenośnych odtwarzaczach. Towarzyszyła temu konieczność przełamania kilku barier ze strony nas odbiorców: pewne treści w tzw. Internecie nie są bezpłatne - ciężko było przełamać tę barierę postrzegania sieci jako źródła wszelkiego rodzaju cyfrowego dobra „za darmo” - technologia nam w tym nie pomoże, musimy przewartościować nasze postrzeganie Internetu i uszanować prawa autorów, twórców, wykonawców do pobierania opłat za swoją pracę niepewność co w zamian dostaniemy - czy treść z Internetu jest taka sama jak dystrybuowana innymi kanałami, czy jest bezpieczna, pozbawiona wirusów oraz dostępna w wielu formatach przyzwyczajenie się do skomplikowanych systemów zakupu cyfrowego „dobra” - tworzenie kont, przesyłanie przelewów, wysyłanie SMS o podwyższonej opłacie Połączenie zaufania jakim darzymy naszego operatora komórkowego z rozwiązaniem oferowanym przez WebService pozwala na proste i pewne dostarczenie treści do abonentów. Unikalne na skalę światową rozwiązanie more:multinetR.CBSG (skrót od: Content Billing Support Gateway) usuwa wszystkie niedogodności związane z najpopularniejszymi dziś sposobami płacenia za treść za pomocą dedy- kowanych kont czy też SMS o podwyższonej opłacie. Nie trzeba już tworzyć kont w serwisach internetowych sprzedających treść ani wypisywać SMS o magicznej treści ani pamiętać dziesiątek nazw kont i haseł dostępowych. Jedyne co wystarczy nauczyć abonenta to to, że korzystając ze Swojej komórki zawsze znajdzie coś miłego dla Swojego ucha, szybko i pewnie, bez żadnych haseł, kodów i SMSów. Tylko dlatego, że jest Twoim abonentem. Rozwiązanie more:multinetR.CBSG zagwarantuje, że dostawcy treści będą dokładnie wiedzieli, który abonent jaką treść pobrał, dzięki czemu nie ma problemów z wystawieniem tylko jednej faktury czy też obciążeniem konta abonenta przedpłatowego. Rozliczenie pomiędzy właścicielem treści a dostawcą Internetu może nastąpić w dowolnym momencie i bez angażowania abonenta - podobnie jak dla innych usług telekomunikacyjnych, np. roamingu krajowego czy też zagranicznego. Abonenci również będą zadowoleni - nie muszą nic konfigurować aby zacząć korzystać z ułatwionego dostępu do treści. Swoją ulubioną muzykę będą mogli ściągnąć nie tylko na komórkę. W taki sam sposób będą mogli pobrać ją na komputer podłączony do komórki dostarczającej Internet. Bez żadnej dodatkowej konfiguracji. Opcjonalnie rozwiązanie more:multinetR. CBSG można wyposażyć we wszelkie znane rozwiązania podnoszące bezpieczeństwo przekazywanej treści jak na przykład skanery antywirusowe. Każdy ze współpracujących dostawców treści podłączany jest do systemu more:multinetR.CBSG z wykorzystaniem firewalli dzięki czemu następuje separacja sieci usługowej oraz poszczególnych dostawców. Dzięki możliwości wielokrotnego podłączenia tego samego dostawcy zwiększa się dostępność usług (treści) oferowanych przez poszczególnych podwykonawców. more:multinetR.CBSG - funkcjonalność Rozwiązanie more:multinetR.CBSG instaluje się w rdzeniu sieci IP służącej do obsługi abonentów. Posiada połączenie z systemem uwierzytelniania abonentów (protokół RADIUS) oraz pozwala na: dowolne modelowanie i sterowanie uwierzytelnianiem abonentów w tym: zwielokrotnianie sygnałów komunikacji terminowanie sygnałów przesyłanie do innych systemów terminujących sygnalizację rozpoznawanie pochodzenia abonenta (HPLMN/VPLMN) proste rozszerzanie o kolejne zasady filtrowania, rozpoznawania i redystrybucji sygnałów komunikacyjnych uzupełnianie zapytań o treść o identyfikację abonenta dla wybranych zakresów URL funkcję potwierdzenia pobrania treści (ang. Advice on Charge) zero konfiguracji po stronie abonenckiej blokowanie wybranych zakresów URL realizację funkcji w pełni przeźroczystego proxy dla typowych protokołów dostępu do treści, łącznie z przeźroczystością adresacji IP © SOLIDEX, 2010 53 możliwość sprawdzania treści prze- syłanych do abonentów pod kątem wystąpienia niebezpiecznych kodów komputerowych - np. wirusów fizyczną i logiczną separację podłączenia dostawców treści do sieci usługowej centralne zarządzanie i nadzorowanie z wykorzystaniem protokołu SNMP. more:multinetR.CBSG - skalowalność i dostępność Wysoka skalowalność prezentowane rozwiązanie uzyskuje dzięki zastosowaniu najlepszych na rynku podzespołów od uznanych producentów oraz bezkompromisowości w trakcie projektowania. Zastosowane komponenty firm: Cisco System - sprzęt sieciowy, w tym przełączniki, firewalle, routery Sun Microsystems - serwery oraz elementy oprogramowania Java Enterprise System pozwalają wyskalować system zarówno dla sieci charakteryzującej się przepływem na poziomie kilku megabitów na sekundę jak również dla sieci o rzeczywistej przepływności znacznie powyżej stu megabitów na sekundę. Przeznaczenie rozwiązania do pracy w sieciach operatorów sieci komórkowych niesie za sobą konieczność sprostania wymaganiom rynku telekomunikacyjnego, nie tylko pod kątem wydajności. Również wysoka dostępność rozwiązania jest bardzo istotną cechą. Realizo- wana jest przez co najmniej zdwojenie każdej z funkcjonalności wchodzącej w skład systemu, począwszy od zasilaczy, bez żadnych kompromisów. more:multinetR.CBSG - podsumowanie Autorskie rozwiązanie more:multinetR. CBSG odpowiada na zapotrzebowanie rynku dostawców Internetu o system ułatwiający, wspierający dostarczanie treści do abonentów. Z pominięciem zbędnych i uciążliwych kroków, z zachowaniem maksimum komfortu dla wszystkich stron. Przeznaczone jest dla operatorów usług telekomunikacyjnych chcących zaoferować swoim abonentom ułatwiony dostęp do płatnych treści. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 54 20 lat SOLIDEX Kompendium wiedzy o load balancingu oraz omówienie load balancerów firmy Cisco, Juniper i F5 Artykuł z Nr 9-10/2007 (94) Optymalizacja działania i dostępności usług oraz serwerów jest kluczowym, obok bezpieczeństwa, zagadnieniem przy projektowaniu data center. Głównymi argumentami, które przemawiały za pojawieniem się pierwszych load balancerów (content switch’y) były: podniesienie wydajności data center i zasobów w nim znajdujących się, postępująca migracja aplikacji typu klient-serwer do architektury, w której klientem jest przeglądarka internetowa (architektury opartej o protokoły HTTP, HTTPS). Typologia wdrożenia i umiejscowienia Load balancera, który ewoluował na przestrzeni lat, została przedstawiona na Rys.1. W telegraficznym skrócie, działanie load balancera opiera się na inteligentnym pośredniczeniu w transakcjach pomiędzy klientami a serwerami. Inteligencja ta polega na optymalnym wyborze serwera, który będzie obsługiwał zapytania klientów tak, aby zminimalizować możliwość wystąpienia przeciążeń serwerów i niedostępności usług w chwili, gdy pozostałe serwery w danej farmie nie są zajęte. Optymalny wybór serwera jest możliwy dzięki próbkowaniu, realizowanym przez load balancer, czyli badaniu dostępności i zajętości konkretnych serwerów, będących częścią farmy widzianej przez klienta pod jednym adresem VIP. Wybór konkretnego serwera dokonywany jest przez algorytm load balancingu oraz na podstawie polityki (reguł) zdefiniowanych na load balncerze. Należy zwrócić szczególną uwagę na fakt, iż balansować można nie tylko usługi serwerowe (HTTP, FTP), ale również pozostały ruch pojawiający się w data center, tj. ruch podlegający inspekcji firewall, bądź IPS. Dzięki temu możliwe jest balansowanie nie tylko usług, ale i urządzeń. Rys. 1 Typowa topologia i terminologia stosowana w load balancingu W ofercie SOLIDEX znaleźć można następujące urządzenia umożliwiające balansowanie ruchu: Cisco: urządzenia z serii ACE, CSM, CSS; Juniper: urządzenia z serii DX; F5: urządzenia z serii BIG-IP. W niniejszym artykule skoncentrujemy się na tym, w jaki sposób działają współczesne load balancery, z jakich mechanizmów i technologii korzystają oraz omówimy wybrane z oferty Solidex urządzenia balansujące Cisco ACE i Juniper DX oraz F5 BIG-IP. Szczegółowo zostaną omówione rodzaje i technologie balansowania ruchu, akceleracji, dostępności, zarządzania, które umożliwią czytelnikowi sprecyzowanie oczekiwań wobec współczesnych urządzeń balansujących. Wspomniane zostaną również funkcje bezpieczeństwa realizowane przez load balancery. Ewolucja urządzeń balansujących Patrząc z dzisiejszego punktu widzenia, pierwsze load balancery realizowały jedynie typowe balansowanie L4, w których decyzja dotycząca przekierowania ruchu na konkretny serwer mogła być i zazwyczaj była podejmowana na podstawie pierwszego pakietu. Load balancer L4 wykrywa nadchodzące flowy do serwerów znajdujących się w grupie VIP na podstawie flagi SYN bit set. Balansowanie flowów realizuje poprzez wybranie najlepszego kandydata do dostarczenia pakietu TCP SYN, jednak bez terminacji sesji TCP. Istotą balansowania L4 jest fakt, iż load balancer nie uczestniczy w terminowaniu sesji TCP. Decyzja o przekierowaniu ruchu podejmowana jest w oparciu o informacje z warstw L2-L4 i z tego powodu load balancer L4 jest kompletnie przezroczysty dla protokołów warstw wyższych. © SOLIDEX, 2010 55 Dość szybko okazało się, iż balansowanie ruchu, jedynie na podstawie informacji zawartych w warstwie czwartej, nie jest optymalne. Niebagatelne znaczenie miała w tym wypadku rozbudowa infrastruktury serwerów oraz ich podział warstwowy na serwery typu front-end (WWW), serwery aplikacyjne oraz serwery back-end (bazy danych). Naturalnym więc rozwinięciem balancerów L4 stały się load balancery L4-L7 (application switche). Zasadnicza różnica w stosunku do ich poprzedników polega na tym, iż load balancery L4-L7 ‚przerywają’ oryginalny flow i terminują sesję TCP na obu końcach - po stronie klienta (przeglądarki) i serwera. Load balancer L4-L7 posiada świadomość aplikacji, dlatego może dokonać balansowania L5-L7, jednak dzieje się to dopiero po ustaleniu i zbuforowaniu sesji L4 (TCP). Balancery L4-L7 inspekcjonują aplikacje (np. HTTP) na poziomie obiektowym w sposób ciągły, a inspekcja ta jest niezależna od kierunku sesji (flowa). Kolejnym krokiem na drodze ewolucji load balancerów stała się optymalizacja urządzeń w data center, a konkretnie ich integracja. Postępująca ewolucja w zakresie technologii wykorzystywanych w data center spowodowała wzrost liczby urządzeń dedykowanych do realizacji konkretnych zadań, tj. akceleracji, inspekcjonowania ruchu HTTP, terminacji sesji SSL, itp. Współczesne load balancery integrują te funkcje, są zatem nie tylko urządzeniami realizującymi balansowanie, ale również urządzeniami podnoszącymi poziom bezpieczeństwa w data center. Prowadzone przez instytut Gartnera badania jednoznacznie wskazują, że wielousługowe load balancery mają przed soba przyszłość. Niekwestionowanym argumentem przemawiającym za ich rozwojem jest fakt zarządzania. Patrząc z tej perspektywy, utrzymywanie w data center wielu urządzeń, takich jak klasyczne load balancery, terminatory sesji SSL, itp., często pochodzących od różnych producentów, jest kosztowne i rodzi wiele problemów na- tury administracyjnej. Dodatkowo instalacja wielousługowych (zintegrowanych) load balancerów minimalizuje niedogodności związane z opóźnieniami i niestabilnością wprowadzaną przez wiele urządzeń. Patrząc na ewolucję urządzeń balansujących, kwestią czasu wydaje się być zaimplementowanie w nich aplikacyjnych mechanizmów balansujących. Umożliwią one balansowanie ruchu kierowanego, np. do baz danych (Oracle, DB2, Postgress), nie tylko na podstawie zapytań SQL, ale również w oparciu o zaimplementowane wewnętrzne protokoły komunikacyjne dla konkretnych baz danych. Load balancing - omówienie metod rozkładania i próbkowania ruchu Mimo, iż współczesne load balancery integrują wiele funkcji, jednak ich zasadniczą rolą jest balansowanie i akceleracja ruchu. Load balancery umożliwiają balansowanie protokołów HTTP, HTTPS, FTP oraz pozostałego ruchu TCP, UDP. Mogą pracować też w różnych trybach, w zależności od realizowanego typu balansowania. Gdy urządzenie realizuje balansowanie L4, pracuje jako switch L4, natomiast gdy balansuje ruch do warstwy siódmej włącznie, pracuje w trybie reverse-proxy. W obu przypadkach load balanacery realizują translację adresów (NAT). Destination NAT realizowany jest domyślnie i polega na tym, iż klienci odwołują się do adresu VIP farmy serwerów, który zostaje zmieniony na adres konkretnego serwera z grupy VIP. Invers NAT z kolei powoduje, iż klienci nie widzą rzeczywistych adresów IP serwerów i widzą jedynie wirtualny adres VIP. Balansowanie polega na optymalnym (równomiernym) rozłożeniu ruchu i możliwe jest dzięki algorytmom lb i definiowanym regułom. Oczywiście różni producenci implementują odmienne algorytmy, zależy to również od konkretnego modelu, nie mniej jednak do najbardziej popularnych spośród nich, implementowanych w load balancerach należą: Round Robin: klasyczne balansowa- nie - kolejna sesja przekierowywana jest sekwencyjnie na kolejny serwer, Weighted Round Robin: Round Robin wzbogacony o możliwość przypisania wag serwerom, Least Conncetions: ruch jest przekierowywany do serwera z najmniejszą liczbą aktywnych połączeń, Weighted Least Connections: Least Connections wzbogacone o możliwość przypisania wag serwerom, Maximum Connections: ruch jest przekierowywany na inny serwer wówczas, gdy na obecnym liczba aktywnych połączeń osiągnie zdefiniowaną, maksymalną wartość, Backup Chaining: ruch jest przekierowywany na inny serwer, gdy obecny ulegnie awarii - wykorzystywany zazwyczaj, gdy serwery posiadają redundancję typu fail-over, Hashing (IP, URL, Cookie, HTTP Header): algorytm ten hashuje (podpisuje funkcją skrótu) np. URL, Fewest Outstanding Request: algorytm balansowania ruchu HTTP, HTTPS. Algorytm ten bierze pod uwagę kontekst transakcji HTTP, a nie tylko kryteria warstw niższych. Dostępny na platformie Juniper DX po wykupieniu dodatkowej licencji. W kontekście balancingu bardzo ważne jest próbkowanie (health checking, keepalive). Ono bowiem dostarcza informacji do algorytmów balansujących na temat dostępności, a więc możliwości wyboru serwerów do obsłużenia połączeń. Serwery są odpytywane cyklicznie, co pewien czas, a w przypadku braku odpowiedzi na kilka kolejnych próbek uznawane są za nieaktywne i niebierze się ich pod uwagę w trakcie balansowania ruchu. Obecnie próbkowanie wykonywane przez load balancery, nie jest trywialne. Load balancery potrafią sprawdzić dostępność serwera, nie tylko standardowo na poziomie warstwy trzeciej (za pomocą pakietów ICMP), ale również w oparciu o warstwy wyższe: L4-L7. Ponadto load balancery umożliwiają również definiowanie własnych próbek (skryptów), INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 56 20 lat SOLIDEX które mogą badać odpowiedzi na określony ciąg znaków wysłany do serwera, a także ich czas. W przypadku Junipera, aby skorzystać ze skryptów, konieczne jest wykupienie dodatkowej licencji OverDrive. W Cisco, podobnie jak w F5, mechanizm próbkowania jest znacznie bardziej rozbudowany i nie wiąże się z zakupem licencji. Istnieje wiele metod badania dostępności serwerów, a wśród najpopularniejszych możemy wyróżnić: Layer 3: ICMP (ping), Layer 4: TCP/UDP (Ustanawianie połączeń TCP/UDP, TCP SYN), Echo/Finger, Layer 5-7: HTTP (Weryfikacja kodu odpowiedzi serwera WWW na żądania HTTP GET, HTTPS (Ustanawianie prawdziwych sesji SSL) o FTP (Weryfikacja kodu odpowiedzi serwera FTP na żądania GET, LS), Telnet (Wykonywanie połączeń na port 22, wysyłanie komend QUIT i badanie kodu odpowiedzi), SMTP (Wykonywanie połączeń na port 25, wysyłanie wiadomości HELO/QUIT i badanie kodu odpowiedzi), POP3/IMAP - (Weryfikacja kodu odpowiedzi po odebraniu maila), RADIUS (Możliwość skonfigurowania NAS-IP) LDAP (Wykonywanie zapytań LDAP), DNS (Wykonywanie zapytań DNS). Akceleracja - zwiększenie poziomu wydajności data center Load balancery są urządzeniami, które poprzez balansowanie mogą podnosić dostępność zasobów data center, a także wydajność, zmniejszając konieczność inwestowania w nowe serwery. Omówiona poniżej akceleracja odnosi się do load balancerów L4-L7,pracujących w trybie reverse-proxy. Do podstawowych mechanizmów akcelerujących możemy zaliczyć: TCP Reuse (TCP Offload, Server Offload): Ideą tej metody jest przyspie- szenie działania aplikacji web-based przez odciążenie serwerów. TCP Offload umożliwia multipleksowanie wielu tysięcy, milionów zapytań kierowanych od klientów do serwerów. Umożliwia to redukcję wielu zapytań do kilku stałych (persistant) sesji TCP, utrzymywanych między load balancerem a farmą serwerów, w ramach których przekazywane są dane dotyczące warstw wyższych (HTTP). W ten sposób odciążane są serwery, które nie muszą zajmować się zarządzaniem tysiącami TCP nawiązywanymi przez poszczególnych klientów. Należy zwrócić jednak uwagę na fakt, że TCP Offload, w związku z wykorzystaniem sesji persistant, wymaga metod zapobiegających problemowi ‚shopping cart’. Problem ten jest szczególnie dokuczliwy w przypadku zakupów online przez Internet. Polega na tym, iż kilka serwerów uczestniczy w transakcji kupna, np. sesja przeglądania produktów obsługiwana jest przez jeden serwer, wybór produktów i umieszczenie ich w koszyku przez drugi serwer, a samo potwierdzenie i zapłata przez trzeci. Może zdarzyć się, że w ramach sesji persistant nie zostaną odpowiednio przekazane informacje na temat klienta, przedmiotu transakcji kupna pomiędzy serwerami i transakcja nie dojdzie do skutku. Aby temu zapobiec, load balancery wykorzystują poniższe metody: stickiness - Load balancer wysyła połączenia z tego samego serwera do tego samego klienta, identyfikacji klienta - Source IP, Cookie, SSL ID, HTTP Redirect. Firma Juniper podaje, iż współczynnik multipleksowania może kształtować się na poziomie 2000:1. Testy praktyczne pokazują, iż odpowiednią skuteczność można osiągnąć przy współczynniku 100:1. Cachowanie: Jest funkcją realizowaną przez load balancer on-the-fly (w locie), w całości wykonywaną w pamięci RAM. Umieszczane są w niej elementy stron WWW (np. obrazki, vi- deo), do których najczęściej sięgają klienci. W przypadku, w którym przychodzi zapytanie klienta, w pierwszej kolejności następuje sprawdzenie, czy obiekt jest przechowywany w cache’u oraz czy jest aktualny. Po pomyślnej weryfikacji obiekt przesyłany jest do klienta z pominięciem serwerów. Cała komunikacja jest przezroczysta dla użytkownika, a serwery w wyniku cachowania są znacznie mniej obciążone. Kompresja danych: Jest funkcją realizowaną przez load balancer (podobnie jak cachowanie) on-the-fly (w locie), w całości wykonywaną w pamięci RAM lub jak w F5 - w przeznaczonych do tego specjalnych kartach sprzętowych. Kompresji poddawane są obiekty ‚łatwokompresowalne’ takie jak tekst, a algorytm kompresji można określić jako przeglądarka klienta. Wykorzystywany jest tutaj fakt, że nagłówek HTTP zawiera parametr ‚Content-Encoding’, oznaczający, że przeglądarka jest w stanie zaakceptować zawartość skompresowaną. Standardowo obsługiwane są dwie metody kompresji: deflate i gzip. Przeglądarka klienta, po odebraniu treści skompresowanych, dokonuje ich dekompresji. Z praktycznych badań wynika, że Mozilla Firefox lepiej obsługuje kompresję gzip a Internet Exporer deflate. Kompresja wpływa istotnie na oszczędność pasma, ponieważ przesyłane są obiekty skompresowanea nie oryginalnej wielkości. SSL Offloading: Niewątpliwie SSL Offloading można zaliczyć do mechanizmów akcelerujących, ponieważ load balancery terminując sesje SSL, odciążając serwery od zasobożernych operacji kryptograficznych. SSL Offloading zostanie omówiony dalej w kontekście bezpieczeństwa. Bezpieczeństwo Zintegrowane urządzenia balansujące, oprócz balansowania i akceleracji, mogą być aktywnymi elementami w infrastrukturze IT, podnoszącymi bezpieczeństwo. Przy czym bezpieczeństwo należy rozumieć tu dwojako, ponieważ współcze- © SOLIDEX, 2010 57 sne load balancery pozwalają nie tylko zabezpieczyć ruch klientów, ale również samą infrastrukturę IT. SSL Offloading: W architekturze protokołów internetowych, SSL znajduje się pomiędzy warstwą czwartą (TCP) a warstwą aplikacji (np. HTTP). Skoro więc load balancery realizują L4 balancing oraz application switching, mogą bez większego problemu zająć się obsługą warstw pośrednich. Funkcje deszyfracji SSL można znaleźć w urządzeniach security, np. sondy IPS McAfee z serii Intrushield. Nie jest to jednak SSL Offloading, a jedynie deszyfracja SSL wykonywana na potrzeby przeinspekcjonowania ruchu pierwotnie zaszyfrowanego i skierowanego do serwerów web. Load balancery posiadają pełną funkcjonalność SSL Offloadingu. Mogą koncentrować sesje szyfrowane od klientów i przesyłać do serwerów czysty ruch HTTP, odciążając je w ten sposób od realizacji zadań nie związanych z udostępnianiem zawartości. Poniższy rysunek obrazuje przepływ ruchu, jaki występuje w trakcie terminiowania sesji SSL przez dedykowane urządzenia. Zobrazowane jest balansowanie ruchu SSL, którego terminacją zajmują się dedykowane urządzania - SSL Offloadery. Należy jednak pamiętać, iż zintegrowane load balancery, same potrafią terminować sesje SSL. Ochrona przed atakami DoS (Denial of Service): Load balancery L4-L7 są urządzeniami działającymi w architekturze reverse-proxy i z zasady posiadają mechanizmy ochrony przed atakami DoS i DDoS - połączenia użytkowników do serwerów są terminowane i w sposób ciągły monitorowane, czy ilość połączeń do danego hosta nie przekracza zdefiniowanych wartości progowych. Ochrona zawartości: Większość load balancerów, mimo że jest to domeną firewalli, IPS i firewalli aplikacyjnych, posiada mechanizmy chroniące kontent i serwery przed typowymi atakami aplikacyjnymi HTTP, tj. SQL Injection, XSS i zmianą zawartości treści. Dostępność Load balancery, podobnie jak pozostałe urządzenia aktywne znajdujące się w data center, muszą umożliwiać i posiadać mechanizmy wysokiej dostępności, takie jak: Klastrowanie: Zasadniczo wyróżnia się dwa rodzaje klastrów: o act/stdby (typowy tryb fail-over), o act/act (w trybie tym w dwa urządzenia pracują jednocześnie). Juniper wspiera dodatkowo tryb ActiveN, który zostanie omówiony dalej. GSLB (Global Server Load Balancing): W przypadku load balancerów posiadają one mechanizm geograficznej redundancji i kierowania ruchem w zależności od odległości. GSLB umożliwia dynamiczne rozkładanie ruchu pomiędzy lokalizacjami rozproszonymi geograficznie, poprzez przekierowywanie zapytań do najszybszych lokalizacji z punktu widzenia poszczególnych klientów. W chwili awarii jednego z oddziałów, jest on automatycznie usuwany z grupy do momentu, kiedy znów stanie się dostępny. GSLB polega na manipulowaniu rekordami DNS. Kiedy klient pyta o nazwę hosta, otrzymuje od serwera DNS odpowiedź zawierającą adresy IP, z którymi może się skontaktować. Następnie próbuje połączyć się z pierwszym adresem z listy, a gdy kontakt z nim nie jest możliwy, wybiera kolejny. Zarządzanie i monitoring Zarządzanie jest istotnym elementem każdego systemu znajdującego się w data cetner. W przypadku load balancerów absolutną podstawą, jaką powinien dostarczać system monitoringu, są szczegółowe statystyki dotyczące każdej transakcji TCP (ze względu na wykonywaną obowiązkowo translację adresów NAT) oraz statystyki dotyczące transakcji w warstwach wyższych (HTTP/HTTPS). Ze względu na spore różnice odnośnie aplikacji zarządzających, kwestia ta zostanie omówione poniżej w trakcie prezentacji load balancerów Cisco i Juniper. Cisco ACE - prezentacja i omówienie load balancerów Cisco ACE Cisco w swojej ofercie posiada kilka load balancerów: urządzenia wolnostojące: CSS11501, 11503, 11506; moduł CSM (Cisco Switching Module); moduł ACE (Application Control Engine); urządzenie wolnostojące: ACE4710 (nowość!). Rys. 2 Akceleracja SSL (terminowanie i balansowanie) Moduł ACE, podobnie jak CSM, jest modułem usługowym do cat6500 i jest zintegrowanym load balancerem L4L7. Obecnie dostępna jest wersja 1.0 oprogramowania dla modułu ACE. Pojawienie się wersji 2.0, planowane jest INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 58 20 lat SOLIDEX na pierwszy kwartał 2007. Wówczas moduł ACE będzie posiadał wszystkie funkcje znane z load balancerów CSS/ CSM. Moduł ACE nie posiada dodatkowych licencji włączających poszczególne funkcje programowe. Licencjonowane są jedynie SSL Offloading i wydajność. Moduł ACE dostępny jest w trzech wersjach wydajnościowych: 4Gb/s, 8Gb/s, 16Gb/s. Zmiana wersji modułu ACE na bardziej wydajną nie wiąże się ze zmianami hardwarowymi, a polega wyłącznie na wgraniu odpowiedniej licencji. Ciekawostką jest fakt, że niezależnie od prędkości jaką daje nam moduł ACE, jest on w stanie obsłużyć zawsze tą samą maksymalną ilość połączeń, tj. 350.000 na sec. Oprócz tego domyślnie, w każdej wersji, moduł ACE udostępnia możliwość SSL Offloadingu na poziomie 1.000 sesji na sec. Aby uzyskać większą wydajność SSL potrzebne są dodatkowe licencje. Moduł ACE może terminować do 15.000 sesji SSL na sec. Cat6500 umożliwia instalację do 4 modułów ACE, z których każdy ma podłączenie do backplane na poziomie 16Gb/s. Moduł ACE nie jest, jak większość load balancerów, oparty o architekturę x86 (PC), ale ma złożoną architekturę wewnętrzną i większość funkcji realizuje sprzętowo, co niewątpliwie jest jego cechą wyróżniającą na tle innych load balancerów. Posiada bardzo wydajną matrycę przełączającą - 60Gb/s, dwa procesory sieciowe NP. (Network Processor), oddzielny moduł zajmujący się akceleracją funkcji kryptograficznych (SSL Offloading) oraz - co najważniejsze - dwa sloty na karty rozszerzeń (Daughter Card). W obecnej wersji IOS - 1.0, moduł ACE nie udostępnia funkcji akcelerujących, takich jak kompresja i cachowanie. Wraz z nową wersją oprogramowania planuje się również premierę karty rozszerzeń (Daughet Card), któ- rej zadaniem będzie kompresja HTTP. Wydajność tej karty ma być na poziomie 3Gb/s. Z funkcji typowo akcelerujących balansowanie, moduł ACE udostępnia TCP Offload. W wersji IOS 2.0 pojawi się również próbkowanie za pomocą SNMP. Mimo, iż cachowanie będzie dostępne w wersji 2.0, Cisco umożliwia uruchomienie cachowania na module ACE. Cachowanie można uzyskać poprzez instalację modułu ACE wraz z urządzeniem wolnostojącym AVS (Application Velocity System). AVS jest typowym firewallem aplikacyjnym, który prócz cachowania daje możliwość inspekcji FW/ IPS przesyłanej zawartości. Podstawowym zadaniem wykonywanym przez każdy load balancer, niezależnie od wykonywanego balancingu (L4 albo L4/L7) jest translacja adresów (NAT). Moduł ACE to bardzo wydajna architektura, która jest w stanie (niezależnie od wersji wydajnościowej) realizować NAT z prędkością 1.000.000 sesji na sec. Istotną rzeczą jest fakt, że moduł ACE działa na zasadzie firewalla z whitelistami, tzn. ruch nie wskazany jawnie w konfiguracji jako permit, zostanie zablokowany. Do kontroli przepływu ruchu używane są access-listy (ACL). Rzeczą wyróżniającą Cisco na tle innych konkurentów jest wirtualizacja. Wirtualizacja polega na możliwości stworzenia w pełni funkcjonalnych i odseparowanych, wirtualnych modułów ACE. Jest to możliwe poprzez konfigurację kontekstów, których moduł ACE może obsłużyć aż 250. Z punktu widzenia zarządzania ważne jest, że istnieje podstawowy kontekst administracyjny, z poziomu którego tworzone są inne konteksty i przypisywane są im zasoby, tj. pamięć, interfejsy, itd. Każdy kontekst posiada własną konfigurację i jako taki jest niezależnym urządzeniem, którego problemy konfiguracyjne czy restart, nie wpływa na urządzenie fizyczne, czyli również na pozostałe konteksty. Wirtualizacja jest szczególnie przydatna w dużych centrach ho- stingowych o złożonej topologii, gdzie na jednym urządzeniu fizycznym można uruchomić wiele load balancerów. Moduł ACE - dzięki wirtualizacji - posiada jeszcze inną, ciekawą funkcję. Umożliwia bowiem uruchomienie na jednym urządzeniu fizycznym kilku load balancerów, pracujących w różnych trybach konfiguracyjnych, tj.: w trybie bridge’owanym (bridged mode); w trybie routowalnym (routed mode); w trybie one-arm. Dzięki takiemu podejściu można tworzyć naprawdę skomplikowane i niebanalne konfiguracje, dostosowane do topologii i potrzeb data center, bez konieczności inwestowania w dodatkowe urządzenia. W ramach kontekstu wirtualnego można również tworzyć domeny. Cisco ACE umożliwia konfigurację trybów redundancji: act/act i act/stbdby. Słowo komentarza należy się jednak w przypadku trybu act/act, ponieważ Cisco realizuje ten tryb dostępności nieco inaczej niż konkurencja. Tryb act/ act można skonfigurować tylko w trybie wielokontekstowym i polega on na tym, że część kontekstów uruchamiana jest na jednym urządzeniu ACE a pozostała część na drugim. W zakresie bezpieczeństwa moduł ACE, prócz wspomnianego SSL Offloadingu, oferuje śledzenie zawartości treści i normalizacji zapytań. Do mechanizmów normalizujących (wygładzających, poprawiających) zaliczyć można: TCP/IP Normalization, które jest oczywiście realizowane sprzętowo, HTTP Inspection (URL Normalization). Inspekcji poddawane są dodatkowo FTP, Strict FTP, RSTP, ICMP, DNS, HTTPS. Inspekcja wykonywana jest przez procesory sieciowe (NP.). Moduł ACE, jeżeli chodzi o funkcje bezpieczeństwa, jest bardzo podobny do innego modułu usługowego cat6500, będącego typowym firewallem - modułu FWSM. Cisco ACE, w zakresie funk- © SOLIDEX, 2010 59 cjonalności firewall, umożliwia konfigurację acces-list, statefull firewall, deep packet inspection, (HTTP), a także posiada szereg rozszerzeń dotyczących inspekcji, np. FTP, TCP. Zarządzenie jest bardzo mocną stroną load balancera ACE. Niewątpliwie wpływ na to ma zaimplementowany mechanizm RBAC (Role Based Access Control), za pomocą którego można tworzyć, modyfikować, monitorować i debugować rolami administracyjnymi. RBAC umożliwia tworzenie różnych ról (administratorów) poprzez uprawnienie konkretnej roli do określonych komend administracyjnych. W ten sposób możemy tworzyć administratorów odpowiedzialnych za load balansowanie serwerów lub tylko ich monitorowanie. Dodatkowo role administracyjne można dowolnie przypisywać do kontekstów, dzięki czemu konkretny administrator, z pełnymi prawami do jednego kontekstu, nie będzie miał dostępu do pozostałych kontekstów. Listy RBAC można przypisywać również do domen tworząc w ten sposób wirtualnych administratorów, którzy mogą zarządzać wieloma kontekstami w ograniczonym obszarze. Cisco proponuje nam dwa zasadnicze interfejsy, z poziomu których możemy zarządzać modułem ACE: MPC (Modular Policy CLI): MPC to interfejs konfiguracyjny bazujący na C3PL (Cisco Common Class-based Policy Language). Jest niezwykle przejrzysty, klarowny oraz bardzo intuicyjny. Jest on ukierunkowany i posiada szereg udogodnień, jeżeli chodzi o konfigurację class-map, policy-map, za pomocą których tworzymy reguły i polityki balansowania. Osoby zaprzyjaźnione z CLI Cisco, nie będą miały z jego obsługą większych problemów. NM (Application Network Manager): Jest graficzną aplikacją, służącą do zarządzania modułem ACE. Standardowo jest ona płatna, natomiast przy zamówieniu dwóch modułów ACE jest ona dołączana gratisowo. W chwili obecnej dostępna jest wer- sja 1.1 tego oprogramowania i wspiera ona tylko Linux RedHat Enterprise. W wersji 1.2, której premiera planowana jest na przyszły rok, ANM1.2 będzie obsługiwał wszystkie load balancery Cisco, tj. CSS, CSM, ACE1.0, ACE4710. Obsługiwany również będzie ACE z IOS w wersji 2.0. Rzeczą wyróżniającą Cisco pod względem zarządzania jest możliwość konfigurowania tzw. checkpoint’ów. Checkpointy konfiguruje się w trakcie typowej pracy administracyjnej, podczas konfiguracji pozostałych funkcjonalności modułu ACE. Umożliwiają one bezpieczne cofnięcie się (rollback) do ostatnio działającej konfiguracji. Można skonfigurować do 10 checkpointów na kontekst i -co najważniejsze- rollback do ostatnio działającej konfiguracji, nie wymaga restartu urządzenia. Na przełomie listopada/grudnia 2007 Cisco wprowadza do swojej oferty nowy load balancer - ACE4710. W odróżnieniu od modułu usługowego ACE, ACE4710 jest to urządzeniem wolnostojącym, nie mniej architekturalnie wywodzącym się z modułu ACE. Cisco ACE4710 dostępny będzie w dwóch wersjach wydajnościowych: 1Gb/s, 2Gb/s. derów na rynku „Application Delivery”, która w wyniku akwizycji w kwietniu 2005 została przejęta przez Juniper Networks. Oba typy load balancerów z serii DX posiadają te same oprogramowanie DX OS, obecnie dostępne w wersji 5.1. Nie różnią się one funkcjonalnie, a jedynie wydajnościowo. Oba posiadają tę samą architekturę wewnętrzną, opartą są o x86 (PC) z dedykowanymi procesorami sieciowymi. Load balancery firmy Juniper są bogate w funkcje, jednak w przeciwieństwie do urządzeń Cisco dodatkowe funkcjonalności są licencjonowane. Pomijając jednak na chwilę kwestię licencjonowania, urządzenia z serii DX wykonują pełen load balancing L4 i L4/L7. W zakresie balansowania Juniper umożliwia wykorzystanie swojego własnego algorytmu balansowania Fewest Outstanding Request, który został omówiony na początku artykułu. Posiadają dodatkowo mechanizmy akceleracji, takie jak TCP Offload, Cache i Kompresja. Urządzenie to jest w pełni zintegrowanym load balncerem udostępniającym: load balancing L4 i L4/L7, funkcje akcelerujące takie jak: cachowanie i kompresja, funkcje bezpieczeństwa (SSL Offloading, DoS protection, TCP/IP/HTTP Normalization, etc.). Load balancery firmy Juniper realizują caching trzeciej generacji (3GCaching). Przy pomocy reguł AppRules w dowolny sposób można określać, które obiekty mają znaleźć się w cachu oraz na jak długo. W przypadku kompresji istnieje możliwość modyfikacji skompresowanych, również z wykorzystaniem reguł AppRules Page Translator Content (PTC), na poziomie nagłówków lub treści. Za ich pomocą można określić, które obiekty mają zostać poddane kompresji, w zależności np. od typu MIME. Należy jednak pamiętać, iż wykorzystanie reguły AppRules obwarowane jest koniecznością wykupienia licencji OverDrive. Juniper DX - prezentacja i omówienie load balancerów Juniper z serii DX Firma Juniper posiada w swojej ofercie zasadniczo dwa zintegrowane load balancery. Są to urządzenia wolnostojące z serii DX, opatrzone numerami DX3200 i DX3600. Produkty te były znane wcześniej jako linia E/X oraz T/X firmy Redline Networks, jednego z li- W ramach bezpieczeństwa load balancery z serii DX oferuje pełen SSL Offloading, w którym również istnieje możliwość zastosowania reguł AppRules do analizy lub modyfikacji przetwarzanych danych. Urządzenie DX może pracować również jako SSL forwarder, pełniąc rolę koncentratora dla sesji SSL, po czym może ponownie zaszyfrować ruch i przesłać do serwerów - jest INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 60 20 lat SOLIDEX to tzw. SSL end-to-end. W celu uwierzytelnienia klientów i serwerów urządzenia te mogą wykorzystać certyfikaty wystawione przez Trusted Root CA lub certyfikaty wystawione przez samego właściciela serwerów (tzw. self-signed). Należy zaznaczyć, iż SSL Offloading i inne funkcje kryptograficzne realizowane są na urządzeniach 3200 i 3600 softwarowo, natomiast urządzenia 3280 i 3680 posiadają hardwarowe wsparcie SSL. Możliwe jest również uwierzytelnianie zgodnie z modelem AAA (Authorization, Authentication, Accouting) z wykorzystaniem serwerów RADIUS, LDAP oraz RSA SecurID. Urządzenia z serii DX wspierają wszystkie najpopularniejsze algorytmy szyfrowania i uwierzytelniania DES, 3DES, AES, RC2, RC4, IDEA, MD5, SHA1. Jeśli chodzi o dostępność to Juniper oferuje nam na swoich load balancerach szeroką gamę funkcjonalności. Dostępne jest pełne klastrowanie act/stdby oraz act/act. Dodatkowo, aby zwiększyć wydajność klastra urządzenia DX, Juniper oferuję możliwość klastra ActiveN. Funkcjonalność ta daje możliwość jednoczesnej pracy do 64 urządzeń DX, które mogą być widziane nawet jako jeden adres VIP, bez konieczności użycia zewnętrznego load balancera do podejmowania decyzji, o tym jakie urządzenie powinno zająć się konkretną transakcją. W trybie tym jeden load balancer pracuje jako tzw. master, dystrybuując ruch do pozostałych członków klastra oraz sprawdzając ich dostępność. Elekcja kolejnego mastera w momencie awarii poprzedniego następuje bez przerw w ruchu. Dodawanie kolejnych urządzeń do klastra nie wymaga zmian ani w strukturze datacenter, ani w konfiguracji pozostałych urządzeń sieciowych, co jest konieczne w przypadku tradycyjnych konfiguracji active-standby i active-active. Load balancery firmy Juniper wspierają również mechanizm dostępności i kierowania ruchem GSLB, omówiony wcześniej. Poniżej zostały przedstawione parametry wydajnościowe platformy DX: Chassis DX 3200 DX 3280 1U, Single power supply 2 NIC Gig 1U, Single power supply 2 NIC Gig DX 3600 DX 3680 2U, reudant power supplies 4 NIC Gig 2U, reudant power supplies 4 NIC Gig SLB SLB (non-web)-VIPs / Server-per-VIP 512/32 512/32 1024/64 1024/64 Max L4 Connections/second 20,000 20,000 40,000 40,000 Max Concurrent Connections 500.000 500,000 1.1 M 1.1 M Max throughput 500 Mbps 500 Mbps 1.3 Gbps 1.3 Gbps 90,000 90,000 120,000 120,000 GSLB DNS requests/sec Tab. 1 Wydajność SLB i GSLB DX 3200* DX 3280* DX 3600* DX 3680* Cluster - HTTP With L7 services (compression/ TCP-multiplexing) Cluster (web)-VIPs/Servers-per-VIP 128/32 128/32 256/64 256/64 L7 tarnsactions/second 12,000 12,000 26,000 26,000 TCP multiplexing radio 1:1000 1:1000 1:1000 1:1000 Concurrent Connections 100,000 100,000 1 Million 1 Million Max compression 1 Gbps 1 Gbps 2 Gbps 2 Gbps Max throughput 1 Gbps 1 Gbps 2 Gbps 2 Gbps DX 3200* DX 3280* DX 3600* DX 3680* SSL SSL concurrent connections 20,000 20,000 120,000 160,000 New SSL sessions/sec 500 5,000 900 7,300 Max SSL Bulk 600 Mbps 900 Mbps 700 Mbps 1.1 Gbps Tab. 2 Wydajność balansowania L4-L7 i SSL Offloadingu Biorąc pod uwagę zarządzanie i system monitoringu, na load balancerach z serii DX zbierane są najistotniejsze statystyki dotyczące ich pracy i serwerów: obciążenie pamięci i procesora, zajętość łączy, status VIP-a i poszczególnych serwerów - członków farm serwerów, ilość bajtów danych przesłanych do klientów, liczba zaakceptowanych i odrzuconych połączeń, obsłużone zapytania, a także liczbę zaoszczędzonych danych. Dostępne jest również dedykowane środowisko programistyczne OverDrive, którego interfejs API- przy pomocy intuicyjnego zestawu reguł „if-then”- umożliwia zmianę kodu HTML. Zbiór tych reguł nosi nazwę Application Rules, a ich wykorzystanie zostało pokrótce omówione powyżej. Licencjonowanie, wspominane wcześniej, jest dość rozbudowane w Juniperze. Dostępne są następujące licencje: DX Base (Layer4 SLB), w ramach któ- rego uzyskujemy dostęp do funkcjonalności: terminowanie SSL, ochrona przed DoS, NAT, Failover, Radius, LDAP, próbkowanie podstawowe; AFE (Layer7 SLB), w ramach którego uzyskujemy dostęp do funkcjonalności: akceleracja, kompresja, scrubbing, HTML rewriting, monitorowanie SLA, ActiveN, próbkowanie zaawansowane (FOR); AFE Advanced: 3G, w ramach którego uzyskujemy dostęp do funkcjonalności: caching, OverDrive, AutoSSL, Transaction, Assurance. Dodatkowo w przypadku licencji AFE i AFE Advanced 3G istnieje możliwość wykupienia licencji uruchamiających funkcjonalność GSLB. © SOLIDEX, 2010 61 F5 BIG-IP - prezentacja i omówienie load balancerów F5 Networks Pisząc o load balancerach, nie sposób pominąć rozwiązań oferowanych przez firmę F5 Networks z rodziny BIG-IP, które cechują się nie tylko bogatą funkcjonalnością, ale również wysoką wydajnością. zaawansowany routing, moduł zaawansowanego uwierzytel- W ofercie F5 dostępnych jest sześć modeli urządzeń BIG-IP, od BIG-IP 1500 do BIG-IP 8400, różniących się między sobą przede wszystkim wydajnością, ale również ilością interfejsów sieciowych, możliwością instalacji dodatkowych kart funkcjonalnych czy ilością możliwych do uruchomienia programowych modułów funkcjonalnych. Poniżej przedstawione jest zróżnicowanie- z uwagi na wydajność modeli BIG-IP. Wartym uwagi, z punktu funkcjonalności, elementem architektury BIG-IP jest interfejs programowy iRules. Pozwala on na tworzenie własnych skryptów pisanych w języku TCL, które mogą wykonywać przeróżne działania na danych, analizowanych przez load-balancer. Sztandarowym przykładem takiego działania jest balansowanie połączeń HTTP, przychodzących od klientów do serwerów końcowych na podstawie określonego URL-a. Możliwe są nienia klientów, moduł obsługujący IPv6, moduł kształtujący ruch (L7 Rate Shaping Module), firewall aplikacyjny. BIG-IP 1500 BIG-IP 3400 BIG-IP 6400 BIG-IP 6800 BIG-IP 8400 Layer 4 Connections/sec 30,000 110,000 220,000 220,000 270,000 Layer 7 Requests/sec 40,000 100,000 130,000 190,000 210,000 Layer 7 Connections/sec 22,000 55,000 70,000 100,000 110,000 Max. throughput 500 Mbps 1 Gbps 2 Gbps 4 Gbps 10 Gbps Max. conc. conn. 4 Million 4 Million 8 Million 8 Million 8 Million Max SSL TPS 2,000 5,000 15,000 20,000 22,000 Max SSL Bulk 500 Mbps 1 Gbps 2 Gbps 2 Gbps 2.2 Gbps Max SSL conc. conn 100,000 200,000 500,000 500,000 500,000 Max compression 100 Mbps 500 Mbps 2 Gbps 2 Gbps 2 Gbps Switch backplane 14 Gbps 22 Gbps 44 Gbps 48 Gbps 80 Gbps Tab. 3 Porownywanie wydajności urządzeń F5 BIG-IP Pod względem funkcjonalności rozwiązania F5 również należą do światowej czołówki. Wszystkie opisywane w pierwszej części artykułu funkcjonalności są dostępne na platformie BIG -IP. Podstawą rozwiązania jest specjalnie opracowana architektura sprzętowa oraz dedykowany system operacyjny TMOS z zaimplementowanym, własnym, optymalizowanym stosem TCP -IP, pełnym proxy aplikacyjnym czy wirtualną segmentacją sieciową. Otwarta architektura TMOS pozwala na implementację na jednej platformie wielu ciekawych funkcjonalności, takich jak: load balancing, connection pooling inteligentna kompresja (realizowana sprzętowo), caching (Fast Cache Module), akceleracja SSL (realizowana sprzętowo), również inne operacje ograniczone w zasadzie jedynie wyobraźnią i wydajnością poszczególnych platform. Bezpieczeństwo Ciekawą funkcjonalnością oferowaną przez F5 jest możliwość instalacji kart terminujących SSL, posiadających certyfikację FIPS 140-2 (Federal Information Processing Standard) - standardu publicznego stworzonego przez rząd federalny Stanów Zjednoczonych. Karty FIPS mogą być montowane w urządzeniach BIG-IP, od modelu BIG-IP 6400 i wyższych. Realizują one funkcję sprzętowego modułu kryptograficznego HSM (Hardware Security Module), wspomagając proces szyfrowania ruchu SSL oraz zapewniając odpowiedni, zdefiniowany w standardzie FIPS 140-2 poziom bezpieczeństwa przechowywania kluczy oraz certyfikatów. Karta FIPS SSL, jako bezpieczne repozytorium kluczy prywatnych, bierze udział na przykład w negocjacji kluczy symetrycznych, przekazując funkcje szyfrowania sprzętowym kartom SSL, dostępnym w każdym z modeli BIG-IP w standardzie. Inną funkcją, istotną punktu bezpieczeństwa, jaką może posiadać również load balancer BIG-IP to firewall aplikacyjny. Firma F5 oferuje moduł programowy Application Security Manager, który może zostać zainstalowany jako dodatkowy element systemu równoważenia ruchu, dostępny także jako osobne rozwiązanie wolnostojące. W przeciwieństwie do tradycyjnych systemów ochrony aplikacji, takich jak systemy wykrywania i blokowania włamań, moduł ASM wykorzystuje tzw. pozytywny model bezpieczeństwa, aby osłaniać chronione aplikacje. Pozytywny model oznacza sytuację, w której definiowane jest poprawne zachowanie chronionej aplikacji, a wszelkie próby wyjścia poza to poprawne zachowanie jest blokowane. Aby zdefiniować poprawne zachowanie, trzeba mieć świadomość całej aplikacji - firewall aplikacyjny musi się jej nauczyć. Istnieje wiele sposobów na poznanie aplikacji,od wykorzystania automatycznych silników analizowania aplikacji wekowych np. crowler, po ręczne definicje. Wygodnym jest również tryb nauki, podczas którego firewall aplikacyjny przygląda się zachowaniu aplikacji w trakcie użytkowania jej przez końcowych użytkowników. Następnie koniecznym jest zdefiniowanie poprawnych zachowań - na przykład określenie jakie znaki mogą być używane w konkretnych polach lub też zdefiniowanie kolejności przepływu informacji przez poszczególne formatki. Przełączenie firewalla w tryb blokowania spowoduje, że tylko poprawne zapytania pochodzące od klientów aplikacji będą akceptowane a wszystkie inne będą blokowane. Co ważne, kontrola następuje dwukierunkowo, dlatego można również zdefiniować poprawne odpowiedzi, jakie mogą być przesyłane z serwera aplikacyjnego do klientów. Dzięki temu ASM ma możliwość zablokowania przesyłania na przykład poufnych informacji, takich jak numery kont, numery kart płatniczych itd. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 62 20 lat SOLIDEX Cisco NAC Appliance i jego możliwości Artykuł z Nr 9-10/2008 (100) NAC Appliance - czyli pełna kontrola dostępu do zasobów sieciowych oraz ochrona przed zagrożeniami pochodzącymi z wnętrza infrastruktury. Według wszelkich prawideł projektowych Kompletny System Bezpieczeństwa dotyczy nie tylko aspektów zabezpieczeń przed atakami z zewnątrz ale i z wewnątrz sieci. Wielowarstwowe modele projektowania infrastruktury bezpieczeństwa sieciowego nakazują aby polityki bezpieczeństwa były egzekwowane już na stacjach końcowych (PC, PDA, GSM). W takim przypadku skutecznym uzupełnieniem standardowych mechanizmów zabezpieczeń - jest system pełnej kontroli dostępu do infrastruktury sieciowej, w zależności od poziomu bezpieczeństwa stacji końcowych. Wstęp do technologii Network Admission Control Technologia NAC polega na wykorzystaniu zasobów sieciowych do inteligentnego narzucenia praw dostępu w zależności od poziomu bezpieczeństwa urządzenia końcowego. Technologia NAC klasyfikowana jest przez Cisco Systems jako integralna część system SDN (Self - Defending - Network). Z biegiem czasu SDN ewaluował do systemu który charakteryzował się: Integracją mechanizmów bezpieczeństwa: routery, przełączniki, aplikacje oraz stacje końcowe, bezpieczna łączność, ochrona przed zagrożeniami, aspekty zaufania oraz identyfikacji sieciowej, Pełną współpracą zintegrowanych mechanizmów bezpieczeństwa: stacje końcowe + infrastruktura sieciowa + aplikacje, NAC, usługi bazujące na indetyfikacji sieciowej, Adaptacja bezpieczeństwa przed zagrożeniami: konsolidacja usług powodujący wzrost efektywności wykonywanych operacji, wzrost efektywności mechanizmów bezpieczeństwa. Firma Cisco Systems klasyfikuje technologie NAC jako część rozwiązania SDN która odpowiada za mechanizm zarządzania identyfikacją oraz zaufania w infrastrukturze sieciowej. System odpowiadający za mechanizmy zarządzania identyfikacją oraz zaufaniem składa się z 3 technologii: Zarządzanie tożsamością (rozwiązanie bazujące na wykorzystaniu CSACS): gwarantowany mechanizm identyfikacji i pełna integracja urządzeń w sieci, udostępnione usługi AAA, możliwość bezpiecznego zarządzania zdalnymi urządzeniami, Usługi oparte o tożsamość sieciową ( rozwiązanie bazujące na wykorzystaniu CSACS oraz 802.1x ): kreowanie „zaufanych” domen sieciowych, wymuszanie polityk bezpieczeństwa przy pomocy Cisco Trust Agenta, kontrolowanie ruchu w sieci (nakładanie restrykcji, kwarantanny, przekierowywanie) rozszerzona funkcjonalność dzięki Agentowi Cisco Security, mechanizmom Anti-X oraz rozwiązań firm trzecich. NAC w wykonaniu CISCO SYSTEM Cisco grupuje produkty, wykorzystujące technologie NAC względem rodzaju zagrożeń bezpieczeństwa (tabela nr 1). Nieznane zagrożenia Znane zagrożenia Cisco NAC – Architektura działania Cisco Trust Agent Cisco Trust Posture Agent Cisco Security Agent Cisco NAC Appliance - Agent Aplikacyjny - Agent Aplikacyjny - Zaimplementowana ocena - Agencja listy podatności uwzględniając uwierzytelniającej z Cisco sprawdzone pliki, rejestry, Security Agent (plug In) usługi, aplikacje oraz z aplikacji AV (różnych - Komunikacja z Cisco CAM producentów) (Clean Access Manager) oraz - Komunikacja z urządzeniami CAS (Clean Access) sieciowymi (routery przełączniki posiadające funkcjonalność NAC) Tab. 1 Różnice pomiędzy produktami NAC Cisco rozszerzony dostęp do zasobów sieciowych LAN, kreowanie i przypisywanie automatyczne VLANów w zależności od polityk bezpieczeństwa, wsparcie dla przewodowych oraz bezprzewodowych sieci, NAC ( rozwiązanie bazujące na wykorzystaniu technologii NAC Framework, NAC Appliance): Cisco Security Agent jest dedykowanym systemem zabezpieczeń dla serwerów, stacji roboczych czy systemów operacyjnych. System oparty jest na działaniu algorytmów, analizujących anomalie w sieci (skuteczniejszy niż system porównywania sygnatur). Rozwiązanie to konsoliduje w sobie jednego agenta do zabezpieczenia stacji końcowej wraz z funkcjonalnościa- © SOLIDEX, 2010 63 mi (Host Intrusion Prevention, Spyware, Adware Protection, Distributed Firewall Capabilities, Audit Log Consolidation). Rozwiązania działające w oparciu o architekturę NAC dotyczą dwóch produktów/technik. Pierwsze rozwiązanie bazuje na wykorzystaniu funkcjonalności Cisco Trust Agenta (Endpoint Security), urządzeń typu NAD (Network Access Devices) oraz serwerów AAA. Cisco Trust Agent jest aplikacją instalowaną na stacjach końcowych. Do najważniejszych zadań agenta należy umożliwianie dostępu do zasobów w sieci w zależności od spełnienia pewnego poziomu bezpieczeństwa samej stacji roboczej (stanu stacji roboczej - posture). W tym celu Cisco Trust Agent, za pomocą odpowiednich pluginów (może być aplikacja innego vendora), sprawdza odpowiednie biblioteki dll. Komunikacja (dostarczenie „dokumentacji” oraz odbiór wyników ich sprawdzenia) pomiędzy „urządzeniami dostępowymi” a agentem odbywa się przy pomocy specjalnie „wystawionego” interfejsu (API). Uzupełnieniem tego rozwiązania są urządzenia NAD czyli urządzenia takie, jak: przełączniki, routery, punkty dostępowe (system autonomiczny), koncentratory VPN, aparaty IP. Powyższy produkt/ technika NAC nosi nazwę Framework. Podsumowując rozwiązanie typu Framework skoncentrowane jest na urządzeniu końcowym, a do uwierzytelniania potrzebny jest suplikant 802.1x lub EAPoverUDP. Urządzenia NAD służą do wykonywania decyzji serwera AAA. Wyróżniamy trzy modele wdrożenia tego rozwiązania: L2 802.1x (autoryzacja na przełączniku lub punkcie dostępowym), L3 IP (autoryzacja na routerze lub innym urządzeniu L3), L2 IP (autoryzacja na przełączniku). Drugie rozwiązanie bazuje na technologii typu NAC Appliance. Technologia NAC Appliance opiera się na działaniu mechanizmów automatycznej detekcji, izolowania oraz „czyszczenia” zainfeko- wanych urządzeń końcowych próbujących uzyskać dostęp do zasobów sieciowych. Dodatkowo system ten uzupełnia Cisco Security Agent - zainstalowany na stacji roboczej. System NAC Appliance, bazujący na agencie, umożliwia skanowanie i sprawdzanie systemów plików, rejestrów oraz aplikacji. Do mocnych atutów tego rozwiązania można zaliczyć: minimalizację przerw pracy systemów sieciowych, wymuszanie odpowiednich polityk bezpieczeństwa, zautomatyzowane mechanizmy „naprawy” oraz aktualizacji stacji roboczych. Cisco NAC Appliance Cisco NAC Appliance, będące częścią koncepcji Cisco Self-Defending Network, ma za zadanie wykorzystać infrastrukturę sieciową (znacznie mniej zaangażowanych urządzeń niż w przypadku NAC Framework) do celów identyfikacji, zapobiegania zagrożeń oraz przystosowywania infrastruktury IT na zwalczanie ich nowych odmiany. Działanie rozwiązania typu NAC Appliance można sprowadzić do 4 procesów: rozpoznania - rozpoznanie użytkowników, ich stacji roboczych oraz ich profili w sieci, oceny - oceny w jakim stopniu polityka bezpieczeństwa na stacji końcowej odpowiada ogólnym politykom bezpieczeństwa, egzekwowanie - egzekwowanie polityk bezpieczeństwa poprzez blokowanie, izolowanie oraz „naprawy niekompatybilnych” maszyn, aktualizowanie - mechanizmy umożliwiające przeprowadzanie procesu aktualizacji maszyn „niekompatybilnych”. System NAC Appliance składa się z następujących elementów: 1. Cisco NAC Appliance (dawniej Clean Access Server) Urządzenie („serwer”) wymuszające proces oceniania stanu stacji oraz egzekwowania poziomu dostępu, w zależności od wyniku jej weryfikacji pod względem podatności. CAS jest oprogramowaniem opartym o system Linux (zoptymalizowany Fedora Core w NAC Appliance wersji 4.1) i instalowanym na platformach sprzętowych (Cisco, HP, Dell). Na dzień dzisiejszy Cisco udostępnia ten system na urządzeniach dedykowanych „appliance” (wersja 4.5). CAS stanowi swoistą bramę pomiędzy siecią untrusted (zarządzana) a siecią trusted. Użytkownik próbujący dostać się do infrastruktury sieciowej, jest blokowany na poziomie portu (brak możliwości komunikacji z siecią trusted, możliwość tylko ruchu DHCP i DNS) do momentu pozytywnego przejścia, np.: procesu walidacji stacji roboczej użytkownika. Urządzenie skalowane jest do pięciu rozmiarów (ilość jednoczesnych prób „wejścia” do sieci) - 100, 250, 500, 1500, 2500 oraz 3500. CAS może pracować w jednym z trzech trybów: Virtual Gateway (bridge), Real-IP Gateway (router), Real-IP z funkcją NAT (router + translacja). Virtual Gateway (bridge) CAS operuje na ramkach jako bridge. Na interfejsach mogą być te same VLANy lub różne (mapowanie VLANów). Interfejsy CASa mogą być trunkami. Interfejsy sieci zaufanej oraz nie zaufanej posiadają ten sam adres IP (do zarządzania i kontaktu z CAM). Brama domyślna ustawiona jest na interfejsie urządzenia L3 w sieci zaufanej. Stacje końcowe identyfikowane są po MAC adresie. Real - IP/NAT (router) CAS jako router (default gateway dla sprawdzanej sieci). CAS operuje na statycznym routingu (nie rozgłasza tras). Tryb NAT realizowany jest dla połączeń wychodzących (zalecane do testów). Interfejs „sieci nie zaufanej” może obsługiwać wiele VLANów (trunk). CAS może pracować jako DHCP Relay lub DHCP Server. Kluczowe właściwości systemu NAC Appliance (wersja 4.1): INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 64 20 lat SOLIDEX Integracja procesu autentykacji z usługą „single sign-on” NAC Appliance świadczy usługi proxy większości metod uwierzytelniania (RADIUS, LDAP, Kerberos, Active Directory, S/Ident). Dla zoptymalizowania procesu autoryzacji NAC Appliance wspiera również usługę „single sign-on” dla klientów VPN oraz klientów „bezprzewodowych”. Ocena podatności Cisco NAC Appliance wspiera proces skanowania systemów Microsoft Windows, Mac OS oraz wielu dystrybucji Linuxowych na stacjach roboczych. Dodatkowo procesem skanowania poddawane są również urządzenia takie, jak: PDA, drukarki oraz telefony IP. Ocenie podatności poddawane są również aplikacje, klucze rejestrów systemowych oraz system plików. Kwarantanna urządzeń niekompatybilnych Urządzenia „niekompatybilne” z ogólną polityką bezpieczeństwa w firmie mogą być umieszczane w strefie kwarantanny (zazwyczaj wydzielona podsieć z maską 30 bitową) lub specjalnie wydzielony VLAN. Automatyczny proces aktualizacji polityk bezpieczeństwa Możliwość automatycznego pobierania aktualizacji predefiniowanych polityk bezpieczeństwa dla najczęściej używanych kryteriów dostępu do zasobów sieciowych takich jak: poprawki do systemów operacyjnych, aktualizowane bazy wirusów dla aplikacji AV, aktualizowanie systemów antyspyware. Centralne zarządzanie Rozbudowana webowa konsola zarządzająca dla jednego lub wielu serwerów CAS. Elastyczne modele wdrożeń Szeroki wachlarz modeli wdrożeń. Nie trzeba dostosowywać sieci do NAC Appliance - to NAC Appliance dostosuje się do istniejącej sieci. 2. Cisco Clean Access Manager (CAM) Clean Access Manager jest centralnym systemem zarządzania technologii NAC Appliance. CAM potrafi zarządzać pojedynczym lub wieloma urządzeniami CAS (tabela nr 2). CAM ma za zadanie centralnie zarządzać politykami bezpieczeństwa oraz ich wymogami. Z poziomu konsoli zarządzania CAM użytkownik jest w stanie skonfigurować następujące parametry: Cheks: pojedyncze sprawdzenie (wyrażenie logiczne) elementu systemu operacyjnego klienta. Sprawdzenie klucza rejestru, plików, usług, aplikacji. Rule: reguły (RULES) to wyrażenie logiczne złożone ze sprawdzeń (Checks) i operatorów logicznych [ (,),I,&,! ], służą do określenia luki. Requirements: wymagania (requirements) to powiązanie reguł z metodami naprawy wykrytych słabości. Metody te obejmują np.: dostarczenie pliku, dostarczenie odnośnika do strony WWW. Role: role są zbiorami wymagań, przypisuje się do grup użytkowników. Powyższe parametry, a także zainstalowany agent Cisco CCA na stacji roboczej, umożliwiają systemowi NAC Appliance przeprowadzić i zweryfikować jej stan (posture). Cisco NAC Appliance 3310 Cisco Clean Access Manager dostępny jest w trzech opcjach (w zależności od ilości obsługiwanych CASów): Cisco Clean Access Lite Manager zarządza do 3 CASów, Cisco Clean Access Standard Manager zarządza do 20 CASów, Cisco Clean Access Super Manager zarządza do 40 CASów. 3. Cisco Clean Access Agent (CCA) Cisco Clean Access Agent jest to darmowa aplikacja typu agent. Instalowana jest na stacjach roboczych i umożliwia pobranie danych uwierzytelniających od użytkownika. Dodatkowo przeprowadza proces skanowania rejestrów stacji roboczych i wspomaga CAS przy procesie identyfikowania stacji (sprawdza IP oraz MAC adresy). Istotną informacją jest fakt, iż aplikacja ta stanowi opcjonalne uzupełnienie systemu NAC Appliance. Ostatnim i opcjonalnym elementem systemu są reguły i aktualizacje, umożliwiające automatyczne wymuszanie aktualizacji dla aplikacji AV, poprawek systemowych oraz innych programów. Uaktualnienia są dystrybuowane w formacie XML z zaznaczeniem wersji pliku. Cisco NAC Appliance 3350 Cisco NAC Appliance 3390 NAC Network Module Integrated Services Routers Produkt - Clean Access Server (licencje - Clean Access na 1500, Server (licencje 2500, 3500 na 100, 250, 500 użytkowników) użytkowników) - Clean Access Lite - Clean Access Standard Manager Manager - Clean Access Super Manager - NAC Network Moduł (licencje na 50, 100 użytkowników) Procesor Dual-core Intel Xeon 2.33 GHz Dual-core Intel Xeon 3.0 GHz 2 x Dual-core Intel Xeon 3.0 GHz 1 GHz Celeron M Pamięć RAM 1 GB PC2 4200 (2 x 512 MB) 2 GB PC2 5300 (2 x 1 GB) 4 GB PC2 5300 (4 x 1 GB) 512 GB PC2 5300 (2 x 1 GB) HDD 80 GB NPH SATA drive 2 x 72 GB SFF SAS RAID drives 4 x 72 GB SFF SAS RAID drives 80 GB Serial ATA (SATA) drive NICs - 2 x Integrated Broadcom 10/100/1000 5703 NICs - 2 x Intel e 1000 Gigabit NICs (PCI X) - 2 x Integrated Broadcom 10/100/1000 5721 NICs - 2 x Intel e 1000 Gigabit NICs (PCI X) - 2 x Integrated Broadcom 10/100/1000 5721 NICs - 2 x Intel e 1000 Gigabit NICs (PCI X) Tab. 2 Wymagania sprzętowe produktów NAC Appliance © SOLIDEX, 2010 65 Modele wdrożeń NAC Appliance Dzięki „elastyczności” systemu NAC Appliance klient ma możliwość dostosowania odpowiedniego modelu wdrożenia w zależności od swoich potrzeb. System NAC Appliance można wdrożyć na kilka sposobów: Centralnie i Brzegowo: podział ze względu na miejsce podłączenia CASa, In-Band i Out-Of-Band: podział ze względu na logiczne podłączenie CASa i obsługę procesu autoryzacji, L2 i L3: podział ze względu na uwzględnienie unikalnego identyfikatora (IP lub MAC). W modelu IB wdrożenia - CAS kontroluje cały ruch pakietów klienta ( ruch pakietów „przechodzi” przez CAS nawet po procesie zbadania stanu stacji i jej uwierzytelnienia). Układ wdrożenia Out-Of-Band: Układ wdrożenia Centralnego: Układ wdrożenia In-Band: W modelu OOB wdrożenia - CAS kontroluje ruch pakietów klienta tylko do momentu zbadania stanu stacji oraz jej uwierzytelnienia. Układ wdrożenia L2: W modelu Centralnego wdrożenia - CAS umieszczony jest w „centralnym” miejscu w sieci, zazwyczaj przy głównym przełączniku( ruch agregowany z przełączników dostępowych). Zazwyczaj przy tego typu wdrożeniu CAS wykonuje mapowanie VLANów. Układ wdrożenia Brzegowego: W modelu Brzegowego wdrożenia CAS umieszczony jest na „brzegu” sieci korporacyjnej (CAS pracuje w obrębie tylko jednego VLANu, brak mapowania VLANów). INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 66 20 lat SOLIDEX W modelu L2 wdrożenia - CAS identyfikuje stacje klienta w drugiej warstwie (MAC adres). Układ wdrożenia L3: W modelu L3 wdrożenia - CAS identyfikuje stacje klienta w trzeciej warstwie ( IP adres). Najczęściej model ten stosowany jest dla połączeń WAN i VPN. Dodatkowo uwzględniając tryby pracy NAC Appliance, modele wdrożeń przedstawiają się następująco: In-band Virtual Gateway, In-band Real-IP Gateway, In-band Real-IP Gateway/NAT,Out-ofband Real-IP Gateway, Out-of-band Real-IP Gateway/NAT, Centralnie wdrożony Virtual Gateway, Centralnie wdrożony Virtual Gateway, Centralnie wdrożony Virtual Gateway, Brzegowo wdrożony Real-IP Gateway, Real-IP Gateway pracujący w trybie L3, Real-IP Gateway pracujący w trybie L2 wdrożony centralnie. Podsumowanie Reasumując technologia NAC stanowi nieodzowną część kompletnego systemu zabezpieczeń. Technologia NAC jest stosunkowo młoda ale perspektywiczna. Cisco jest już na etapie dopracowywania najnowszej wersji NAC Appliance (wersja 4.5). Najnowsza wersja umożliwia przede wszystkim pełną integrację systemu NAC z rozwiązaniem RADIUS. Dodatkowo będzie możliwe importowanie i eksportowanie polityk pomiędzy serwerami NAC Manager. Uzupełniając informacje na temat produktów Cisco NAC, warto wspomnieć jeszcze o module NME-NAC -K9 (kompatybilny z ISR 2800, 3800 oprócz 2801, IOS 12.4(11)T). Moduł NACa jest odpowiednikiem „większego” brata NAC Appliance - stosowanym w mniejszych firmach lub zdalnych oddziałach. Routery z tym modułem są zarządzane również przez CAMa. Skalowalność tego rozwiązania mieści się w granicach od 50 do 100 użytkowników (licencje na 50 oraz 100 użytkowników). © SOLIDEX, 2010 67 Innowacja w zabezpieczeniu danych - Cisco GET VPN Artykuł z Nr 7-8/2008 (99) Dzisiejsze aplikacje sieciowe bazujące na transmisji głosu oraz obrazu, przyspieszają potrzebę projektowania rozległych sieci WAN, umożliwiających bezpośrednią komunikację pomiędzy oddziałami danego przedsiębiorstwa oraz zapewnieniem odpowiedniego poziomu jakości przesyłanego ruchu (QoS - Quality of Service). Rozproszona natura w/w aplikacji wpływa na zwiększoną potrzebę skalowalności projektowanych rozwiązań.Współczesne przedsiębiorstwa oczekują od technologii sieci rozległych WAN kompromisu pomiędzy zapewnieniem odpowiedniej jakości transmisji danych a zagwarantowaniem bezpieczeństwa przesyłanych informacji. W miarę, gdy wzrasta potrzeba zabezpieczenia przekazywanych danych, niekiedy wręcz narzucana odgórnymi przepisami (banki, instytucje rządowe), CiscoR GET (Group Encrypted Transport) VPN eliminuje konieczność określania kompromisu pomiędzy inteligentną siecią oraz bezpieczeństwem transportu danych. Wraz z wprowadzeniem technologii GET, CiscoR oferuje nową kategorię sieci VPN tunnel-less VPN, która eliminuje konieczność zestawiania tuneli punkt-punkt pomiędzy poszczególnymi oddziałami danego przedsiębiorstwa. GET VPN oferuje nowy standard modelu bezpieczeństwa, bazujący na koncepcji „zaufanych” członków zdefiniowanej grupy. Poprzez zastosowanie metody zaufanych grup, uzyskujemy możliwość projektowania skalowalnych i bezpiecznych sieci przy jednoczesnym zachowaniu jej inteligentnych właściwości (tj. QoS, routing oraz multicast), krytycznych dla jakości połączeń głosowych oraz wizyjnych. GET VPN umożliwia bezpieczne przesyłanie danych w różnorodnych środowiskach WAN (IP, MPLS) bez potrzeby tworzenia kanałów point-to-point (P2P), minimalizując tym samym opóźnienia transmisji głosu oraz wideo. GET ułatwia zabezpieczanie dużych sieci L2 oraz MPLS, które wymagają częściowej (partial) lub całkowitej (full-mesh) siatki połączeń pomiędzy urzą- dzeniami brzegowymi poszczególnych oddziałów danego przedsiębiorstwa. Sieci MPLS VPN, wykorzystujące ten rodzaj ekrypcji, są sieciami wysoko skalowalnymi, łatwo zarządzanymi oraz spełniającymi narzucone przez rząd wymagania, dotyczące szyfrowania. Elastyczna natura technologii GET umożliwia świadomym bezpieczeństwa przedsiębiorstwom, zarówno zarządzanie politykami bezpieczeństwa swojej sieci WAN, jak również przekazanie usługi szyfrowania do ich własnych operatorów telekomunikacyjnych SP (Service Provider). Kluczowe właściwości technologii GET VPN Poniżej zaprezentowano kilka kluczowych właściwości technologii GET VPN: GDOI (Group Domain Of Interpretation) - protokół zarządzania kluczami, odpowiedzialny za ustanawianie wspólnej polityki bezpieczeństwa (IPSec SA) pomiędzy routerami będącymi członkami tej samej „zaufanej” grupy. Centralny serwer kluczy (Key Server) router odpowiedzialny za: rozsyłanie kluczy bezpieczeństwa oraz cykliczne ich odnawianie (wysyłanie nowych przed wygaśnięciem starych), dystrybucję polityk bezpieczeństwa do grona routerów będących członkami tej samej zaufanej grupy. IP Header Preservation - zachowanie oryginalnego nagłówka IP na zewnątrz pakietu IPSec. Redundancja Centralnego Serwera kluczy (Cooperative Key Server) - możliwość implementacji do 8 serwerów kluczy w ramach jednej domeny. Baza danych głównego routera, zawierająca klucze oraz polityki bezpieczeństwa, synchronizowana z pozostałymi, zapasowymi serwerami kluczy. Wsparcie dla właściwości typu „anti-replay” - funkcjonalność zabezpieczająca sieć przed atakami typu „man-in-themiddle”. Wsparcie dla szyfrowania - możliwość stosowania algorytmów szyfrowania, takich jak: DES (Data Encryption Standard), 3DES (Triple DES) oraz AES (Advanced Encryption Standard). Architektura GET VPN GET VPN składa się z trzech komponentów: protokołu zarządzania oraz dystrybucji kluczy (GDOI), serwera kluczy (key server), członków zdefiniowanych w ramach GDOI grup (group members). GET VPN jest zaawansowanym rozwiązaniem, umożliwiającym grupową (multicast rekeying) oraz pojedynczą (unicast rekeying) dystrybucję kluczy poprzez prywatną sieć WAN. Multicast rekeying oraz GET VPN bazują na proto- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 68 20 lat SOLIDEX kole GDOI zdefiniowanym przez grupę IETF zgodnym ze specyfikacją RFC 3547. GET VPN łączy w sobie zalety protokołów GDOI oraz IPSec w celu zapewnienia efektywnego sposobu szyfrowania ruchu IP typu multicast oraz unicast. GDOI (Group Domain Of Interpretation) GDOI zasadniczo pełni rolę protokołu zarządzania oraz dystrybucji kluczy. Operuje on pomiędzy członkami grupy a serwerem kluczy (GCKS - Group Controller or Key Server), odpowiedzialnym za tworzenie logicznych połączeń (IPSec SA) między uwierzytelnioną grupą urządzeń, należących do jednej zaufanej strefy. Security Association (SA) jest relacją pomiędzy dwoma lub więcej jednostkami, która wyjaśnia, w jaki sposób jednostki używać będą systemów zabezpieczeń do bezpiecznej komunikacji. Group Member Członkowie danej grupy rejestrują się do centralnego serwera (key server) w celu otrzymania odpowiednich polityk bezpieczeństwa zawartych w IPSec S.A., koniecznych do określenia sposobu komunikacji z pozostałymi członkami określonej grupy. Router wysyła do centralnego serwera identyfikator group ID - numer grupy, do której chciałby przystąpić. Serwer, w ramach odpowiedzi, wysyła do danego routera zdefiniowane dla żądanej grupy polityki bezpieczeństwa oraz klucze, umożliwiające poprawną i bezpieczną komunikację z pozostałymi członkami danej domeny. GET VPN jest wyposażony w mechanizm okresowej zmiany kluczy (rekey messages), centralny serwer zaś jest odpowiedzialny za dostarczanie nowych kluczy (przed wygaśnięciem starych) do wszystkim członków grupy. Członkowie danej grupy zapewniają usługi szyfrowania jedynie dla interesującego ich ruchu (ruch, który jest przeznaczony do zaszyfrowania/zabezpieczenia przez protokół IPSec). Key Server Centralny serwer odpowiedzialny jest za utrzymywanie polityk bezpieczeństwa, tworzenie oraz zarządzanie kluczami danej grupy. Komunikacja pomiędzy serwerem a członkami zaufanego grona jest komunikacją zaszyfrowaną. Występują dwa rodzaje kluczy bezpieczeństwa, jakimi posługuje się centralny router: Key Encryption Key (KEK), Traffic Encryption Key (TEK). KEK jest odpowiedzialny za szyfrowanie wiadomości mechanizmów okresowej zmiany kluczy (rekey messages). Klucz TEK jest dystrybuowany do wszystkich członków danej strefy. TEK (IPSec SA) jest wykorzystywany w celu umożliwienia bezpiecznej komunikacji pomiędzy wszystkimi członkami danej grupy. Domyślnie żywotność (lifetime) kluczy KEK oraz TEK wynosi 86400 sekund (24h). Wartości te są konfigurowane jedynie na centralnym serwerze. Zalecane jest, aby wartość parametru lifetime klucza KEK była trzykrotnie większa niż wartość tego samego parametru klucza TEK. Klucze KEK oraz TEK mogą być dystrybuowane przy wykorzystaniu technologii multicastowych, jak i unicastowych. 1. Członkowie grupy rejestrują się do centralnego serwera. Serwer kluczy dokonuje autentykacji oraz autory- zacji członków, a następnie rozsyła polityki IPSec oraz odpowiednie klucze konieczne do szyfrowania/deszyfrowania multicastowych pakietów IP. 2. Członkowie grupy wymieniają między sobą ruch multicastowy, zaszyfrowany uprzednio przy użyciu protokołu IPSec. 3. W razie potrzeby serwer kluczy „wypycha” wiadomość „rekey message” do wszystkich członków grupy. Wiadomość ta zawiera nowe polityki protokołu IPSec oraz klucze, jakie zostaną użyte w przypadku, gdy „stare” IPSec SA ulegną przedawnieniu. Stosowanie mechanizmu okresowej zmiany kluczy ma gwarantować, iż członkowie określonej grupy są w ciągłym posiadaniu ważnych kluczy. Centralny serwer przechowuje tablice, zawierającą adresy IP wszystkich członków utworzonych na serwerze grup. W momencie rejestracji nowego członka danej strefy, key server dodaje jego adres IP do tablicy, zawierającej adresy pozostałych członków zaufanej domeny, z którymi ten router zamierza nawiązać bezpieczną komunikację. Dzięki temu serwer kluczy posiada możliwość monitorowania stanu wszystkich aktywnych członków zdefiniowanych grup. Jeden router może być członkiem wielu grup. Rys. 1 Przepływ komunikacji wymagany w celu możliwości rejestracji nowego członka do zdefiniowanej uprzednio grupy © SOLIDEX, 2010 69 dzy dwoma końcówkami tunelu IPSec będzie niedostępne, technika header preservation pomaga również zapobiegać sytuacji powstawania tzw. czarnych dziur („black hole”). Ponad to wykorzystanie techniki zachowania oryginalnego nagłówka IP pozwala również dziedziczyć właściwości QoS oraz multicast autentycznego pakietu IP. Rys. 2 Przepływ komunikacji pomiędzy serwerem kluczy a członkami jednej domeny GET VPN Header preservation W przypadku sieci WAN, zbudowanych w oparciu o sieć Internet, wymagane jest użycie GET VPN wraz z technologią DMVPN (Dynamic Multipoint VPN) ze względu na stosowanie publicznej adresacji IP. Rys. 3 Porównanie szyfrowania Tunnel-mode IPSec oraz GET VPN Powyższy rysunek przedstawia porównanie sposobu działania szyfrowania danych za pośrednictwem standardowej metody trybu tunelowego IPSec oraz metody header preservation stosowanej przez GET VPN. W trybie tunelowym oryginalny datagram wejściowy IP jest w całości kodowany do nowego pakietu IP. Źródłowy router szyfruje pakiety i wysyła je wzdłuż tunelu IPSec. Router docelowy deszyfruje oryginalny datagram IP i przesyła go do docelowego miejsca w systemie. Tym sposobem także oryginalny nagłówek IP - a nie tylko segment danych - podlega ochronie IPSec. Tryb tunelowy stanowi podstawę dedykowanych VPN-ów pomiędzy urządzeniami typu security gateways. GET VPN wykorzystuje natomiast technikę zwaną IP header preservation - zachowanie oryginalnego nagłówka IP. Technika header preservation zachowuje ciągłość routingu w całej przestrzeni adresacji IP sieci WAN danego przedsiębiorstwa. Innymi słowy adres IP użytkownika końcowego jest widoczny w całej sieci WAN (w przypadku sieci MPLS kwestia odnosi się do urządzeń brzegowych CE). W związku z powyższym stosowanie technologii GET VPN jest właściwe jedynie, gdy sieci rozległe pełnią rolę sieci „prywatnych” (np. w sieciach MPLS). Oznacza to, iż pakiety chronione protokołem IPSec zawierają w zewnętrznym nagłówku IP oryginalny adres nadawcy oraz adresata zamiast adresów urządzeń brzegowych, na których terminowany byłby tunel IPSec (jak to ma miejsce w standardowym trybie IPSec Tunnel Mode). Zachowanie oryginalnych adresów IP w pełni umożliwia technologii GET VPN wykorzystanie funkcjonalności protokołów routingu, występujących w sieciach rdzeniowych zarówno operatorów telekomunikacyjnych, jak i wielu współczesnych przedsiębiorstw. Technika ta daje możliwość dostarczenia pakietów do dowolnego urządzenia brzegowego w sieci, które rozgłasza daną trasę do adresu docelowego. Każdy nadawca oraz adresat odpowiadający zdefiniowanym dla danej grupy politykom bezpieczeństwa, będzie traktowany w identyczny sposób. W przypadku, gdy połączenie pomię- Niezawodność oraz redundancja GET VPN umożliwia budowę sieci, w której występować może więcej niż jeden key server. Zastosowanie wielu serwerów kluczy w ramach jednej domeny zapewnia wysoki poziom dostępności oraz szybki czas odtworzenia topologii sieci w przypadku, gdy główny serwer zostanie uszkodzony. Każdy serwer w ramach jednej grupy dystrybuuje spójną politykę bezpieczeństwa do każdego zarejestrowanego członka. Dzięki temu uzyskujemy możliwość rozłożenia zapytań GDOI (load balancing) do wszystkich key serwerów, ponieważ każdy serwer świadczy usługi zarejestrowanym w swojej bazie członkom grupy. Główny serwer kluczy jest odpowiedzialny za tworzenie oraz dystrybucję polityk bezpieczeństwa do wszystkich grup. Serwer ten, w celu INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 70 20 lat SOLIDEX podtrzymania synchronizacji, cyklicznie wysyła informacje o grupach do każdego z pozostałych zapasowych key serwerów. Jeżeli redundantne serwery nie otrzymają cykliczne wysyłanej aktualizacji, wówczas kontaktują się one z serwerem głównym, z prośbą o ponowne rozesłanie brakujących danych o topologii sieci GET VPN. Zapasowe serwery traktują serwer główny za nieosiągalny („dead”), jeżeli nie otrzymają w/w aktualizacji w określonym przedziale czasu. 2. Następnie ustawiamy typ wykorzystywanej autentykacji. W poniższym przypadku autentykację ustawiono w trybie pre-share. W momencie, gdy na serwerze głównym zostaną utworzone nowe polityki bezpieczeństwa, bez względu na to, do którego serwera kluczy dany członek grupy został zarejestrowany, serwer główny jest odpowiedzialny za rozesłanie nowych kluczy (rekey messages) do wszystkich członków grupy GDOI. 3. Wydając w globalnym trybie konfiguracji komendę crypto isakmp key, określamy wartość współdzielonego klucza (w tym przypadku słowo „key”) oraz adresu IP odległego routera (przyszłego członka naszej grupy). Adres 10.0.3.2 zostanie wykorzystany w dalszej kolejności jako przykład konfiguracji członka grupy GDOI. Każdy serwer posiada swój własny priorytet. Wartość ta jest konfigurowana przy użyciu interfejsu CLI (Command Line Interface) routera. Serwer kluczy z najwyższym priorytetem staje się serwerem głównym. W przypadku, gdy wartość priorytetów wszystkich key serwerów jest taka sama, wówczas router z najwyższym adresem IP zostaje wybrany nadrzędną jednostką w strukturze. Konfiguracja GET VPN Konfiguracja key serwera 1. Konfigurację GET VPN’a należy rozpocząć od utworzenia polityki ISAKMP. Do jej zdefiniowania używamy komendy crypto isakmp policy w globalnym trybie konfiguracji routera. 4. Nadszedł czas na stworzenie konfiguracji samego serwera kluczy. W tym przypadku należy rozpocząć od zdefiniowania parametru transform-set, który jest akceptowalną kombinacją protokołów oraz algorytmów bezpieczeństwa wykorzystywanych przez key serwer. W poniższym przykładzie został utworzony transform-set o nazwie gdoi. 5. Następnie poprzez wydanie komendy crypto ipsec profile definiujemy parametry IPSec’a, które będą wykorzystywane do szyfrowania ruchu pomiędzy dwoma routerami Cisco. 6. Określamy zbiór protokołów, algorytmów oraz funkcji kryptograficznych jaki może zostać wykorzystany w ramach tworzonej krypto mapy. Jest to wykonywane z poziomu konfiguracji ktypto mapy poprzez wydanie komendy set transform-set. W tym przypadku używamy ustawień gdoi, jakie zostały przed chwilą stworzone. 7. W celu identyfikacji grupy GDOI, należy wejść do trybu ustawień grupy GDOI, używając komendy crypto gdoi group w globalnym trybie konfiguracji. W tym przypadku nazwa grupy brzmi „gdoigroup”. © SOLIDEX, 2010 71 8. Następnie definiujemy nr grupy GDOI. W naszym przypadku została utworzona grupa o numerze 1111. 9. Określamy rolę naszego routera w sieci jako key server poprzez komendę server local. er’a. (IP 10.0.5.2 jest adresem naszego centralnego routera). Proszę zauważyć, iż w konfiguracji polityki ISAKMP używamy tego samego współdzielonego klucza, jaki został utworzony na urządzeniu centralnym (słowo „key”). 4. Przypisanie stworzonej krypto mapy do interfejsu Ethernet 0/0 routera jest ostatnim elementem konfiguracji group member’a. Interfejs ten jest podłączony do sieci LAN danej lokalizacji. 2. Następnie: a. identyfikujemy grupę GDOI, nadając jej nazwę spójną z nazwą określoną na serwerze kluczy („gdoigroup”). Komendę crypto gdoi group wydajemy w globalnym trybie konfiguracji, Następnie w trybie konfiguracji serwera: a. określamy nadawcę lub adresata wiadomości typu „rekey message” - rekey address ipv4 101, gdzie 101 jest numerem ACL, ograniczającej odpowiednio pulę adresów IP source/destination, b. ograniczamy żywotność klucza KEK do 10 godzin poprzez wydanie komendy rekey lifetime seconds 3600, c. określamy nazwę klucza, jaki zostanie wykorzystany dla danej grupy GDOI w momencie cyklicznego odświeżania kluczy (rekey authentication mypubkey). Konfiguracja Group Member’a 1. W pierwszej kolejności musimy utworzyć politykę ISAKMP, której konfiguracja wygląda analogicznie do konfiguracji serwera kluczy. Wyjątkiem jest adres IP odległego pe- b. określamy numer grupy GDOI. Numer ten (1111) musi odpowiadać numerowi użytemu uprzednio na key serwerze, c. wskazujemy adres IP naszego głównego serwera (10.0.5.2). 3. Kolejnym elementem konfiguracji jest utworzenie krypto mapy, określając jej przynależność do wcześniej zdefiniowanej grupy GDOI (gdoigroup). Proszę zwrócić uwagę, iż adres 10.0.3.2 został wskazany w konfiguracji polityki ISAKMP centralnego serwera kluczy. Różnice pomiędzy DMVPN oraz GET VPN Wielu Klientów wierzy, iż DMVPN oraz GET VPN są rywalizującymi ze sobą technologiami. Oczywiście nie jest to prawdą. Dynamic Multipoint VPN oraz Group Encrypted Transport są uzupełniającymi się technologiami Cisco. GET VPN może być lekarstwem na występowanie dużych opóźnień w przypadku implementacji usług głosowych oraz wizyjnych w sieciach VPN zbudowanych w oparciu o tunele IPSec P2P. DMVPN umożliwia budowę topologii typu spoke-to-hub oraz spoke-to-spoke przy zastosowaniu protokołu multipoint GRE (mGRE) oraz funkcji NHRP (Next Hop Resolution Protocol). Dla połączeń typu spoketo-spoke, chcący nawiązać połącze- INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 72 20 lat SOLIDEX nie router musi wysłać do jednostki centralnej (hub) zapytanie rozwiązania NHRP w celu zestawienia tunelu z żądanym routerem typu spoke. Zanim zostanie zbudowany dynamiczny tunel, cały ruch jest przesyłany poprzez lokalizację typu hub. Zestawianie tuneli DMVPN typu spoke-to-spoke może być powolne, ze względu na zapytania NHRP do routera lokalizacji centralnej. W celu otrzymania odpowiedzi ze strony adresata, ta sama procedura jest inicjowana przez destination spoke, zwiększając tym samym sumaryczne opóźnienie. Poprzez zastosowanie rozwiązania Cisco GET VPN, opóźnienie spowodowane negocjacją tuneli IPSec jest eliminowane ze względu na to, iż połączenia pomiędzy lokalizacjami można uważać za statyczne. Dostępność platform Poniżej tabela uwzględniająca urządzenia Cisco, na których istnieje możliwość uruchomienia funkcjonalności GET VPN. IOS Advanced Security 12.4(15)T jest najniższą rekomendowaną przez producenta wersją oprogramowania na wskazane platformy warstwy trzeciej. Kto i kiedy powinien być zainteresowany technologią GET VPN? Klienci zainteresowani wdrożeniem rozwiązań VPN dla topologii hub-andspoke mogą wdrożyć rozwiązania połączeń tunelowych: typu punkt-punkt IPSec, Cisco Enhanced Easy VPN z virtual tunnel interfaces (VTIs), Cisco Dynamic Multipoint VPN (DMVPN). Klienci potrzebujący połączeń typu partial-mesh, spoke-to-spoke VPN, powinny wdrożyć rozwiązanie DMVPN wraz z GET VPN. Identyczna rekomendacja wiązana jest z budową sieci, umożliwiających realizację ruchu typu multicast oraz możliwość realizacji dynamicznych protokołów routingu poprzez sieć publiczną Internet. Implementacją technologii Cisco GET VPN powinni być zainteresowani Klienci, oczekujący szyfrowania przesyłanych danych: poprzez tradycyjne sieci WAN, ale nie budowane w oparciu o publiczną sieć Internet, przy konieczności zachowania wykorzystywanych w firmie aplikacji, pracujących w oparciu o technologię mulicastową oraz dynamiczny routing, poprzez sieci IP MPLS. © SOLIDEX, 2010 73 Guest networking - realizacja dostępu gościnnego w sieciach Artykuł Nr 5-6/2009 (104) Dla nowoczesnych przedsiębiorstw, pragnących nadążyć za rozwojem biznesu, konieczne w obecnych czasach stało się świadczenie dostępu gościnnego do sieci dla swoich klientów, partnerów, dostawców i innych osób w celu osiągnięcia większej wydajności własnego biznesu, bliższej współpracy oraz lepszego poziomu serwowanych usługi. Poprzez wdrożenie kompletnego rozwiązania, realizującego dostęp gościnny do sieci dla osób odwiedzających oraz firm partnerskich, przedsiębiorstwa mogą w pełni kontrolować poziom dostępu do sieci, zmniejszać lub nawet eliminować konieczność wsparcia działów IT dla personelu oraz utrzymywać ruch gościnny - bezpiecznie odseparowany od zasobów wewnętrznych. Wprowadzenie Potrzeba świadczenia dostępu gościnnego ewoluowała na przestrzeni ostatnich lat. Dzisiaj, biorąc pod uwagę szeroką dostępność oraz wykorzystywanie takich narzędzi, jak: komputery przenośne, aplikacje sieciowe czy telefonia IP, osoby odwiedzające przedsiębiorstwa, wymagają jako minimum dostępu do sieci Internet oraz możliwości zestawiania połączeń z macierzystymi zasobami poprzez sieci VPN. Dodatkowo, firmy partnerskie/suportowe, mogą również oczekiwać dostępu do pewnych zasobów wewnętrznych sieci korporacyjnych, takich jak: drukarki, Web serwery czy współdzielone zasoby. Należy pamiętać, że wszystkie te funkcje dostępu gościnnego powinny zostać osiągnięte bez jakiegokolwiek negatywnego wpływu na bezpieczeństwo zasobów sieci korporacyjnej. Kluczowym aspektem, pozwalającym na wdrożenie komplementarnego systemu dostępu gościnnego, jest spełnienie wielu warunków, m.in.: zapewnienie pełnej integracji z siecią korporacyjną, wykorzystując jej zasoby do świadczenia dostępu dla użytkowników spoza organizacji, dostępnienie zasobów zarówno dla użytkowników, korzystających z urządzeń bezprzewodowych, jak i tych wymagających połączenia z wykorzystaniem okablowania strukturalnego, pełne odseparowanie logiczne ruchu „gości” od sieci korporacyjnej, autoryzowanie dostępu do zasobów udostępnianych firmom partnerskim, raportowanie aktywności użytkowników, kontrola treści, udostępnienie możliwości zestawiania połączeń VPN z macierzystymi sieciami użytkowników, uwierzytelnianie oraz logowanie „gości”. Kategoryzacja użytkowników Dla większości firm, można przyjąć pewien standard podziału użytkowników sieci korporacyjnej (rys.1), według którego budowana jest polityka udostępniania określonych zasobów sieci.: Pracownicy korporacyjni – użytkow- nicy sieci zatrudnieni przez przedsiębiorstwo, posiadający pełen dostęp do zasobów wewnętrznych, realizowany często w oparciu o prawa przydzielane na podstawie przynależności do odpowiednich grup (np. w oparciu o Active Directory). Partnerzy – użytkownicy współpracujący z organizacją, wymagający przydzielenia ograniczonego dostępu do ściśle określonych zasobów wewnętrznych, tj. drukarki, serwery plików, aplikacje. Goście – użytkownicy zewnętrzni wykorzystujący jedynie połączenie do sieci Internet. Zagadnienia projektowe Aby umożliwić zewnętrznym użytkownikom dostęp np. do sieci Internet, konieczne jest zwirtualizowanie zasobów sieci korporacyjnej, w celu wykreowania segmentu sieci, przeznaczonego do transportowania ruchu, generowanego tylko przez użytkowników gości, przy jednoczesnym zachowaniu pełnej separacji od sieci korporacyjnej. Dostęp do sieci Internet przydzielany jest w oparciu o urządzenia dostępowe tzw. „control points”, służące do uwierzytelnienia użytkowników, wymuszenia akceptacji polityki bezpieczeństwa oraz dostępu do sieci, a także do określenia zasobów dostępnych dla konkretnego „gościa”. Dodatkowo, bazując na wielu SSID oraz VLAN’ach, możliwe jest przydzielenie konkretnego pasma dla odpowiednich grup zewnętrznych użytkowników mobilnych. Istnieją podstawowe cele jakie musi spełniać system korporacyjnego dostępu do sieci dla użytkowników spoza organizacji: Poprawna identyfikacja użytkowni- ków typu „Gość” lub „Partner” oraz przypisanie ich do odpowiedniego segmentu sieci. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 74 20 lat SOLIDEX Izolacja ruchu użytkowników zewnętrz- nych od sieci korporacyjnej, zapewniając jednocześnie dostęp do sieci Internet. Wyodrębnienie ruchu użytkowników typu „partner”, przydzielając jednocześnie dostęp do określonych zasobów wewnętrznych (serwery plików, aplikacje) oraz do sieci Internet. Dostarczanie usług sieciowych dla gości/partnerów, takich jak: usługi sieciowe - DHCP, DNS, dostęp do Internetu, dostęp do określonych zasobów w zależności od kategorii użytkownika, usługi bezpieczeństwa – Firewall, Load Balancer, IDS, przydział odpowiednich SSID, bezprzewodowe mechanizmy uwierzytelniania 802.11i/EAP, uwierzytelnianie poprzez portal Web (dla użytkowników bezprzewodowych oraz przewodowych), etc. System korporacyjnego dostępu do sieci dla użytkowników gość/partner można podzielić na trzy obszary funkcjonalne: Kontrola dostępu uwierzytelnienie klienta (użytkownika, urządzenia, aplikacji), próbującego uzyskać dostęp do sieci, autoryzacja klienta do odpowiedniej partycji(VLAN, ACL), odmowa dostępu dla nie uwierzytelnionych klientów, identyfikacja użytkowników przewodowych i bezprzewodowych, autoryzacja gości w odpowiednim gościnnym VLAN-ie lub SSID. Izolacja ruchu zachowanie rozdziału ruchu w infrastrukturze warstwy 3, transport ruchu w odizolowanych partycjach L3, mapowanie izolowanych ścieżek warstwy 3 do VLAN-ów na brzegu sieci, odizolowanie ruchu gości od wewnętrznych celów, przekierowanie ruchu gości do urządzeń uwierzytelniających. Usługi na brzegu sieci zapewnienie dostępu do usług: - współdzielonych, - dedykowanych, narzucenie polityk per partycja, izolacja środowisk aplikacyjnych (jeżeli konieczna), dostęp do Internetu i polityki specyficzne dla gości i pracowników, uwierzytelnienie przez WWW, dedykowane dla gości DHCP i DNS. Strefa kontroli dostępu ma za zadanie określić, w jaki sposób różni użytkownicy mogą łączyć się z siecią korporacyjną. Celem tej strefy jest stworzenie wirtualnego środowiska dostępu do sieci dla każdej z wykreowanych grup użytkowników, np. użytkownicy typu gość otrzymają dostęp jedynie do sieci Internet, podczas gdy „partnerzy” będą mogli korzystać również z aplikacji, działających w sieci. Ponieważ wirtualne sieci wykreowane na potrzeby zewnętrznych użytkowników będą wykorzystywały zasoby sieci korporacyjnej, urządzenia dostępowe będą świadczyły usługi dla wielu grup użytkowników. Oznacza to, iż porty przełączników oraz bezprzewodowe punkty dostępowe będą stanowiły wspólne medium podłączenia do sieci, zarówno dla pracowników organizacji, jak i użytkowników spoza firmy. Konieczne jest więc zapewnienie dynamicznych mechanizmów, pozwalających na rozróżnienie użytkowników końcowych oraz przypisanie im odpowiedniej polityki dostępu, gwarantując tym samym jednoznaczne przypisanie dostępnych zasobów do danego konta użytkownika, np. poprzez odpowiednie przypisanie portu przełącznika lub SSID do odpowiedniego vlan’u. W zależności od medium, za pomocą którego użytkownicy łączą sie z siecią korporacyjna, istnieje wiele metod kontroli dostępu: Dostęp z wykorzystaniem okablowania strukturalnego: statyczne przypisanie portu przełącznika do odpowiedniego VLAN’u, 802.1x Guest VLAN - uwierzytelnienie oparte o protokół 802.1x, w przypadku braku suplikanta 802.1x na stacji roboczej port zostaje automatycznie przypisany do VLAN’u „gość”. W przypadku pozytywnie zakończonego procesu uwierzytelniania port zostanie przypisany do odpowiedniego VLAN’u korporacyjnego, 802.1x Authentication Failed VLAN – proces podobny do poprzedniego przypadku, z tą różnicą, że stacja końcowa wyposażona jest w suplikanta 802.1x, jednak proces uwierzytelniania nie kończy się przydzieleniem do odpowiedniego VLAN’u. Auth_Failed VLAN często jest tożsamy z Guest VLAN’em. Dostęp bezprzewodowy: udzielenie dostępu do sieci w medium bezprzewodowym odbywa sie najczęściej za pomocą otwartej autentykacji z wykorzystaniem dedykowanych SSID, przypisanych po stronie sieci przewodowej do odpowiednich sieci wirtualnych. Kolejnym istotnym zagadnieniem przy budowie systemu dostępu gościnnego w korporacyjnych sieciach jest określenie metody separacji ruchu użytkowników zewnętrznych od zasobów wewnętrznych sieci. Najprostszą metodą do zrealizowania powyższych wymagań jest stworzenie wydzielonych domen L2, dla poszczególnych grup użytkowników. O ile taka sytuacja może mieć miejsce w niewielkich sieciach LAN, o tyle w sieciach korporacyjnych wielkiej skali może prowadzić do wielu komplikacji. Konieczność rozciągnięcia domen L2 w trybie „end-to-end” od warstwy dostępowej, poprzez rdzeń sieci, aż do styku siecią Internet wpływa niekorzystnie na wszystkie zalety hierarchicznego systemu sieci, opartego o protokoły routingu warstwy L3, takie jak: skalowalność, modularność czy łatwość implementacji zmian. Wymagane jest wiec zastosowanie mechanizmów wirtualizacji sieci, pozwalających na zachowanie hierarchicznego systemu sieci. Wśród nich można wyróżnić następujące, najpopularniejsze metody: © SOLIDEX, 2010 75 Distributed ACLs – listy kontrolne (ACL) zdefiniowane są na urządzeniach L3 i odnoszą sie do ruchu gościnnego LAN/WLAN. Należy zauważyć, że takie rozwiązanie nie jest skalowalne, choć niewątpliwie trudne w zarządzaniu oraz podatne na skompromitowanie. Tunele GRE – jeżeli infrastruktura sprzętowa pozwala na takie rozwiązanie możliwe jest stworzenie połączeń z wykorzystaniem tuneli GRE np. w trybie „hub-andspoke”, pomiędzy urządzeniami kontrolującymi dostęp a przełącznikami/routerami na styku z siecią Internet. VRF – uruchomienie wielu instancji Virtual Routing/Forwarding na wszystkich urządzeniach terminujących połączenia trunk 802.1Q, tworząc tym samym wiele wirtualnych sieci routowanych, w oparciu o tę samą infrastrukturę fizyczną. Ethernet over IP – najnowsza technologia pozwalająca na świadczenie dostępu gościnnego z wykorzystaniem kontrolerów bezprzewodowych Cisco Wireless LAN Controllers. Aby wydzielić ruch użytkowników „gości” w sieci produkcyjnej w strefie DMZ, zainstalowany jest dodatkowy kontroler tzw. „anchor”. Pomiędzy kontrolerami obsługującymi użytkowników korporacyjnych oraz tym zainstalowanym w strefie DMZ komunikacja odbywa się poprzez tunel EoIP, gwarantując separację ruchu produkcyjnego od użytkowników „gości”. Co warte podkreślenia - kontrolery WLC pozwalają również na terminowanie połączeń od użytkowników stacjonarnych. W takim przypadku porty należące do VLAN’u „gość”, wykreowane zostają na przełączniku dostępowym, następnie ruch jest przesyłany przez połączenie typu trunk do kontrolera WLC, który posiada specjalnie wykreowany interfejs „wired guest”. Dalsza komunikacja odbywa się już przez tunel EoIP do strefy DMZ. System dostępu do sieci korporacyjnej - komponenty System dostępu gościnnego powinien zostać oparty o następujące komponenty: Infrastrukturę fizyczną z odseparo- waną komunikacją typu „gość”: infrastrukturę fizyczną, stanowiącą punkt kontroli dostępu, mogą stanowić urządzenia, takie jak: Cisco NAC Appliance (w przypadku stacjonarnych klientów) lub Cisco Wireless Controller (zarówno dla użytkowników mobilnych jak i stacjonarnych). Portal przydzielania dostępu: to strona Web udostępniona pracownikom organizacji, dzięki której możliwe jest zakładanie kont użytkownikom zewnętrznym, świadczona przez Cisco Wireless Controller, Cisco Wireless Control System lub Cisco NAC Guest Server. Portal logowania do systemu: to strona Web generowana przez WLC Controller/NAC Appliance, poprzez którą użytkownik „gość” podaje dane, konieczne do uzyskania dostępu do sieci korporacyjnej. Biorąc pod uwagę fakt, iż większość odwiedzających oczekuje mobilnego dostępu do sieci, z wykorzystaniem komputerów przenośnych, palmtopów, etc., w dalszej części opracowania opisany zostanie system dostępu do sieci korporacyjnej w oparciu o platformę Cisco Unified Wireless Network. Do skomponowania kompletnego systemu dostępu gościnnego, opartego o platformę CUWN, konieczne są następujące elementy: punkty dostępowe świadczące fizyczny dostęp do sieci, kontrolery bezprzewodowe WLC – punkt kontroli dostępu oraz portal logowania, NAC Guest Server – portal przydzielania dostępu. Co ważne podkreślenia, kontrolery WLC mogą również pełnić funkcję urządzeń, wymuszających kontrole dostępu dla użytkowników stacjonarnych, pozwalając tym samym na uruchomienie dostępu gościnnego, niezależnie od medium z jakiego korzystają osoby, odwiedzające organizację. Budując system sieci bezprzewodowej w przedsiębiorstwie, można więc uruchomić system, realizujący dostęp gościnny dla użytkowników „Wireless/Wired”, bez ponoszenia jakichkolwiek dodatkowych kosztów. Kluczową funkcję w całym systemie pełni NAC Guest Server. NGS to platforma umożliwiająca pracownikom organizacji tzw. „sponsorom” tworzenie tymczasowych kont gości. Sponsorzy łączą się z platformą NGS poprzez interfejs Web, podlegają uwierzytelnieniu (na podstawie lokalnej bazy lub zewnętrznej, np. Active Directory) oraz otrzymują prawa przyznane na podstawie roli, jaka została przypisana do ich konta użytkownika. Sponsorzy mogą posiadać uprawnienia do tworzenia, edytowania lub zawieszenia kont „gości” oraz do generowania raportów z ich aktywności. Do kluczowych cech NAC Guest Server należą: Tworzenie kont „gości” Cisco NAC Guest Server tworzy konta w oparciu o zasady ustanowione dla określania nazw użytkowników i haseł. Nazwy użytkownika mogą być oparte o e-mail, imię, nazwisko lub całkowicie losowy ciąg znaków określony przez administratora. Długość i złożoność haseł mogą być tworzone dowolnie, tak aby spełnić korporacyjne polityki bezpieczeństwa. Przekazywanie informacji dotyczących kont „gości” Przekazywanie informacji o utworzonym koncie użytkownika do „gościa” może być wykonywane na wiele różnych sposobów, które są w pełni konfigurowalne przez INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 76 20 lat SOLIDEX administratora. Dane mogą być drukowane w formie papierowej, wysyłane jako wiadomość e-mail przed ich przybyciem lub przekazywane przez SMS na telefony komórkowe. Niezależnie od sposobu przekazywania informacji, ich treści oraz zakres jest w pełni konfigurowalny. Administratorzy mogą dodać szczegóły, takie jak: dodatkowe instrukcje lub konieczność zapoznania się z polityką dostępu gościnnego. Ścisła integracja z Cisco NAC Appliance Cisco NAC Guest Server integruje się z Cisco NAC Appliance poprzez swoje API. W ten sposób konta „gości” mogą być kontrolowane bezpośrednio na serwerze NCS, w zakresie tworzenia, edycji, zawieszania i usuwania kont. Cisco NAC Guest Server następnie zarządza tymi kontami na platformie Cisco NAC Appliance Manager. Dodatkowo NCS umożliwia centralne raportowanie aktywności użytkowników. Ścisła integracja z Cisco Wireless LAN Controller Cisco NAC Guest Server integruje się z Cisco WLAN kontrolerów poprzez protokół RADIUS. Dzięki temu konta użytkowników mogą być tworzone, edytowane, czy też usuwane bezpośrednio na NGS, natomiast kontrolery bezprzewodowe wykorzystują Cisco NAC Guest Server jedynie do uwierzytelniania użytkowników. Oprócz tego NGS zbiera informacje, dotyczące aktywności użytkowników z kontrolerów bezprzewodowych, pracujących w sieci LAN w celu umożliwienia pełnego, centralnego raportowania zdarzeń. Cisco NAC Guest Server to samodzielny element, który może być dodawany zarówno do systemu Cisco NAC lub architektury Cisco Unified Wireless Network w celu zintegrowania portalu udostępniania bezpiecznego dostępu gościnnego. NAC Gu- est Server zawiera bazę kont „gości” oraz zintegrowany serwer sieci Web, aby umożliwić dostęp dla „sponsorów” oraz administratorów. Możliwość integracji z Cisco NAC Appliance lub kontrolerami bezprzewodowymi sprawia, iż może świadczyć usługi - zarówno dla klientów mobilnych, jak i stacjonarnych. Sam proces podłączenia użytkowników przedstawia się następująco: 1. Pracownik organizacji, wykorzystując konto „Lobby Ambassador’a”, tworzy przy użyciu interfejsu Web konto typu „gość”. 2. Dane konieczne do logowania zostają przekazane użytkownikowi zewnętrznemu w postaci drukowanej, e-mail’a lub SMS’a. 3. Użytkownik „gość” podłącza swoją stację roboczą do sieci, uzyskuje adres IP z puli przeznaczonej dla tej grupy użytkowników. 4. Pierwsze uruchomienie przeglądarki internetowej i wygenerowanie dowolnego zapytania przekierowu- je użytkownika do strony logowania wygenerowanej przez platformę kontrolera bezprzewodowego. 5. „Gość” loguje się za pomocą wcześniej otrzymanych danych od pracownika organizacji i po poprawnie przeprowadzonym procesie uzyskuje dostęp do zasobów przypisanych jego profilowi. Schemat podłączenia użytkownika typu „gość” został przedstawiony na schemacie poniżej: Podsumowanie Dostęp gościnny to jedna z tych usług, których świadczenie stanie się w niedługim czasie koniecznością, aby infrastruktura IT nie wpływała niekorzystnie na rozwój organizacji. Wychodząc naprzeciw tym potrzebom, firma Cisco Systems oferuje komplementarne rozwiązanie, gwarantujące szybką implementację, pełną skalowalność oraz bezpieczeństwo usług zwanych potocznie „Guest Networking”, przy zachowaniu całkowitej kontroli nad użytkownikami zewnętrznymi. Schemat podłączenia użytkownika „gość” do sieci korporacyjnej © SOLIDEX, 2010 77 Przegląd rozwiązań mobilnych w świecie UC Artykuł z Nr 1-2/2009 (102) Świat mobilnych usług IT stale ewoluuje. Pracownicy korporacyjni mają dostęp do dużej liczby narzędzi, pozwalających na lepszą organizację pracy oraz wykorzystanie zasobów. Wraz z rosnącą ilością aplikacji oraz dostępnych systemów, wzrasta również złożoność „naszego” osobistego centrum informacyjnego. Nietrudno zauważyć pracowników, korzystających na co dzień z kilku urządzeń mobilnych, komunikatorów oraz z aplikacji typu chat/IM itp. Klienci oczekują dzisiaj większej swobody i uproszczenia systemu, w którym coraz trudniej się poruszać. Artykuł ten jest próbą przybliżenia rozwiązań, które są obecnie popularne oraz wytaczają kierunek przyszłym, nowoczesnym oraz zintegrowanym systemom komunikacyjnym. Mobilność w świecie UC Rozwiązania mobilne w systemach Cisco Unified Communications można podzielić na kilka grup, w zależności od charakteru rozwiązania. 1. Mobilność urządzeń / aplikacji dostępowych użytkowników 2. Mechanizmy dostepne w systemie CUCM (Cisco Unified Communications Manager) (wbudowane) 3. Mobilność oraz integracja klientów GSM/WLAN (Nokia) 4. CUMA (Cisco Unified Mobility Advantage Server) - nowe podejście do mobilnej komunikacji korporacyjnej Każda z tych metod pozwala zrealizować poszczególne aspekty szeroko rozumianej mobilności użytkownika. Odpowiednie połączenie wszystkich tych metod pozwala nam dzisiaj skonstruować, sprawnie działające mobilne środowisko komunikacyjne. Dwie ostatnie metody kładą nacisk na możliwość rozszerzenia korporacyjnego systemu komunikacyjnego poza obszar organizacji. W poniższych punktach niniejszego artykułu przybliżone zostaną wymienione powyżej metody. Mobilność urządzeń oraz aplikacji dostępowych W tradycyjnym systemie komunikacyjnym opartym o klaster CUCM, użytkownicy mogą korzystać z następujących aplikacji/urządzeń dostępowych: stacjonarne telefony IP z serii CP79XX, telefony Cisco IP działające w obrębie sieci WLAN (CP-7925/CP-7921), aplikacja Cisco Unified IP Communicator, aplikacja Cisco Unified Personal Communicator (wymagany Presence Sever), telefony SIP (innych producentów), systemy wideokonferencyjne (SIP/H.323). Wszystkie wymienione powyżej aplikacje zapewniają mobilność użytkownikom. Telefony IP jako urządzenia, traktowane są jak zwykły komputer PC, co pozwala podłączyć taki aparat w dowolnym punkcie sieci korporacyjnej. Przenoszenie aparatu pomiędzy lokalizacjami może jednak sprawiać pewne problemy. Telefon IP korzysta z pewnych parametrów zdefiniowanych w systemie CUCM w sposób statyczny (np. zasoby konferencyjne, zasoby SRST, bramy domyślne, lokacje, regiony). Przeniesienie aparatu do innej podsieci IP skutkowało wykorzystaniem „starych” zasobów, co było nieefektywne, a w niektórych przypadkach niemożliwe. Rozwiązanie zastosowane w systemie CUMC to tzw. „Device Locations”. Telefon podczas rejestracji zostaje przypisany do określonych zasobów na podstawie adresu IP, z jakiego podjęto próbę rejestracji. Na podstawie specjalnego algorytmu badana jest fizyczna lokalizacja telefonu i przydzielane są odpowiednie zasoby. W przypadku drugiej grupy produktów, mamy do czynienia z aplikacja- mi, które instalowane na stacjach roboczych pełnia funkcje mobilnych komunikatorów (soft-phone). W przypadku aplikacji mobilnych mamy do czynienia z dwoma produktami: Cisco Unified IP Communicator Z punktu widzenia systemu mamy do czynienia klasycznym telefonem IP, wiec dotycza go wszystkie reguły opisane powyżej. Cisco Unified Personal Communicator Aplikacja Cisco Unified Personal Communicator jest próba stworzenia jednego narzędzia, z poziomu którego można obsługiwać prawie wszystkie aplikacje z gamy Cisco UC. Klient zainstalowany na komputerze PC użytkownika może pracować w dwóch trybach: soft-phone oraz desk-phone. W przypadku soft-phone klient jest samodzielnym telefonem SIP’owym, natomiast w przypadku trybu desk-phone mamy możliwość kontrolowania telefonu „biurkowego”. Podstawowe funkcje klienta CUPC, to: obsługę/wywołanie konferencji w systemie MeetingPlace/MeetingPlace Express, odsłuchanie wiadomości głosowej, przeszukanie struktury AD w celu lokalizacji abonenta, zestawienie sesji chat/IM pomiędzy abonentami, modyfikacje statusu dostępności użytkownika, INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 78 20 lat SOLIDEX możliwość integracji z systemem Microsoft OCS, wybór preferowanej metody kontaktu. Aplikacja pozwala użytkownikowi na dostęp do korporacyjnych zasobów telekomunikacyjnych praktycznie z dowolnego miejsca, w którym jest dostęp do sieci. W punkcie tym wspomnieć należy również o całej gamie urządzeń dodatkowych, mogących współpracować z systemem UC. W przypadku szeroko rozumianej mobilności i dostępności użytkownika wspomnieć należy o możliwości współpracy z dowolnymi telefonami innych producentów (opartymi o protokół SIP) oraz o możliwości integracji z systemami wideokonferencyjnymi (opartymi o protokół SIP/H.323) [TANDBERG, Polycom, Sony]. Mechanizmy mobilności dostępne w systemie CUCM Najnowsze odsłony systemu Cisco Unified Communications (6.x i 7.0) wprowadziły dużą liczbę mechanizmów wspierających rozwiązania mobilne, które zostały wymienione poniżej. Single Number Reach (Mobile Voice Connect) Funkcjonalność ta pozwala na zdefiniowanie do 10 lokalizacji „zdalnych”, na które kierowane będzie połączenie, podczas kontaktowania się z numerem telefonu przypisanym do odbiorcy mobilnego. Zazwyczaj mechanizm ten stosuje się do obsługi telefonu komórkowego użytkownika. Jest to oczywiście jedno z możliwych zastosowań tej funkcjonalności. Scenariusz połączenia mógłby wyglądać następująco: 1. Połączenie z PSTN przychodzi na numer telefonu IP (numer biurkowy - korporacyjny - 2222). 2. Połączenie jest sygnalizowane na telefonie biurkowym i po chwili również na telefonie komórkowym użytkownika (3333). 3. Użytkownik może odebrać połączenie na obydwu urządzeniach. Po odebraniu połączenia na jednym z urządzeń, drugie automatycznie przestaje dzwonić. 4. Połączenie może być przekazywane pomiędzy urządzeniami bez rozłączenia go (z poziomu telefonu IP za pomocą przycisku soft-key, a z poziomu telefonu zdalnego poprzez rozłączenie i następnie podjecie rozmowy z telefonu biurkowego w skończonym ustalonym okresie czasu). 5. Numer prezentowany użytkownikowi na jego telefonie mobilnym to 2222, numer dzwoniącego abonenta z sieci PSTN nie jest przekazywany. Rys.1 Działanie funkcjonalności Single Number Reach (Mobile Voice Connect) Urządzeniem mobilnym może być jakikolwiek telefon osiągalny poprzez PSTN lub telefon IP w innym kastrze (osiągalny za pomocą trunku ICT) jednak nie może być to inny telefon IP zarejestrowany w tym samym klastrze. Mobile Voice Access / Enterprise Feature Access MVA oraz EFA są funkcjami bazującymi na działaniu mechanizmu Mobile Voice Connect. W obu przypadkach funkcjonalność pozwala na zestawienie połączenia z sieci PSTN do wnętrza naszej organizacji. Po pomyślnym uwierzytelnieniu, użytkownik może zestawić połączenie na zewnątrz (PSTN), korzystając z korporacyjnego systemu telefonicznego. Funkcjonalność MVA bazuje na systemie IVR, realizowanym za pomocą gateway’a VXML H.323. Zaznaczyć należy, ze jest to wymagane rozwiązanie. Jeżeli system korporacyjny nie używa gateway H.323 do połączenia z siecią telefoniczna, należy rozważyć wdrożenie dedykowanego gateway’a VXML dla potrzeb tej funkcjonalności. Scenariusz połączenia może wyglądać następująco: 1. Użytkownik wykonuje połączenie z sieci PSTN na skonfigurowany wcześniej numer dostępowy organizacji (Enterprise Mobile Voice Access). 2. Użytkownik wprowadza ID oraz PIN (skrypt VXML). 3. Użytkownik wprowadza numer abonenta (PSTN), z którym chce się skontaktować. 4. Rozmowa jest inicjowana z wnętrza systemu do sieci PSTN. Funkcjonalność EFA, czyli Enterprise Feature Access, działa bardzo podobnie. W tym przypadku nie jest używany system IVR. Zaznaczyć należy, ze w działaniu tych funkcji istnieją zasadnicze różnice, które pokazuje poniższa tabelka: © SOLIDEX, 2010 79 MVA EFA Wymagania konfiguracyjne H.323 VXML Gateway Enterprise Feature Access DID IVR Tak Nie Calling Phone Rozmowa może być wykonana z dowolnego telefonu PSTN Rozmowa może być wykonana tylko z telefonu określonego jako Remote Destination Identyfikacja/ Autentykacja Na podstawie Caller ID lub User ID + PIN Tylko na podstawie Caller ID Mobile Voice Connet (wl./wyl.) Tak Tak Redundancja Funkcja zależna od aktywności publishera Pełna Redundancja W przypadku obydwu tych funkcji system CUCM jest w stanie sprawdzić, z jakiego numeru PSTN inicjowane jest połączenie. Jeżeli numer ten pasuje do numeru ustalonego w „Remote Destination”, CUCM rozpoznaje to i wymaga tylko wprowadzenia PIN’u. Warto zaznaczyć, ze w przypadku funkcji EFA, możliwość jej użycia wymaga wykonania połączenia z telefonu o numerze skonfigurowanym w Remote Destination, natomiast w przypadku MVA może być to jakikolwiek numer telefonu z sieci PSTN. Warto zwrócić uwagę, ze zarówno w przypadku funkcji mobile voice connect jak i MVA/EFA istniej możliwość realizacji tzw. „mid-call features”. Użytkownik inicjujący połączenie z poziomu telefonu PSTN, może wywołać pewne funkcje CUCM (transfer/ hold/itp.) za pomocą kodów DTMF. Funkcjonalność ta jest możliwa do zrealizowania, ponieważ konfiguracja tych usług zakłada, ze rozmowa jest „zakotwiczona” na korporacyjnym gateway’u PSTN. Przykładowe funkcje oraz sposób ich wywołania przedstawia poniższa tabelka: Domyslny Enterprise Feature Access Codes Funkcja Single Enterprise VoiceMail Box System CUCM umożliwia realizacje funkcjonalności jednej skrzynki głosowej dla abonenta. W przypadku, gdy zdalna lokalizacja jest np. telefon GSM, użytkownik chciałby aby wszystkie wiadomości głosowe zapisywane były w korporacyjnym systemie telefonicznym, zamiast w skrzynce dostępnej z poziomu telefonu GSM. Funkcja ta jest możliwa do zrealizowania poprzez odpowiednia modyfikacje parametrów (timer’ów) dostępnych z poziomu CUCM. Answer To Soon Answer To Late Forward-No-Answer ToD Acess List W najnowszej wersji systemu CUCM, istnieje możliwość użycia mechanizmu ToD (Time of Day Routing) do kontroli na Access Listami, kontrolującymi dostęp do poszczególnych profili użytkownika mobilnego. Firma Cisco dostarcza klienta Nokia Call Connect w ramach programu SolutionPlus. Telefon rejestruje się w systemie CUCM, jako urządzenie SCCP (typ Nokia S60), pobierając przy tym 6 punktów DLU. Telefon może używać prawie całej gamy funkcji dostępnej dla tradycyjnych telefonów IP SCCP, w tym: Basic Call Features In-Call Features Automatic Registration Hold&Resume *81 *81 Exclusive Hold *82 *82 Resume *83 *83 Transfer *84 1. *82 (Exclusive Hold) 2. Wykonaj nowe połączenie na numer Enterprise Access”DID 3. Po połączeniu podaj: <PIN_number> # *84 #<Transfer_Target/DN> # 4. Po odpowiedzi wprowadź: *84 *85 Mobilność oraz integracja klientów GSM (Nokia) Firma Cisco Systems proponuje również rozwiązanie, Klientom korzystającym na co dzień z telefonów biznesowych Nokia z serii „E”. Telefony te wyposażone są w dwa radia - jedno GSM drugie działające w korporacyjnej sieci bezprzewodowej WLAN. Sekwencja klawiszy Hold Conference Opisane wyżej funkcjonalności maja również pewne ograniczenia: Numerem „Remote Destination” moze byc: Telefonem GSM/PSTN, Innym telefonem IP, osiągalnym za pomocą trunku ICT), Mobility (MVA/EFA/Mobile Voice Connect) wspierane jest tylko na traktach PRI. DTMF musi być przesyłany w trybie out-of-band. Prezentacja numeru - blokowanie połączeń z numerem innym niż przyznany przez operatora dla danego łącza. Większa utylizacja gateway PSTNdla każdego połączenia korzystającego z Mobility, musimy użyć minimum dwie szczeliny DS0. 1. Wprowadz: *82 (Exclusive Hold) 2. Wykonaj nowe polaczenie na numer Enterprise Access”DID 3. Po polaczeniu wprowadz: <PIN_number> # *85 #<Conference_Target/DN> # 4. Po odpowiedzi wprowadz:*85 Make & Receive Calls Consultastion Call Calling Line Presentation & Restriction Swap Call Reject & Waiting Attended & Unattended Transfer INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 80 20 lat SOLIDEX wych SCCP. CUMA - nowe podejście do korporacyjnej komunikacji mobilnej Ciekawa propozycja w gamie produktowej wersji 7.0 systemu UC wydaje się być produkt Cisco Unified Mobility Advantage Server oraz klient Cisco Unified Mobile Communicator. Oprogramowanie jest rozwinięciem wersji 3.x, wprowadza jednak dużą ilość usprawnień, które czynią ten produkt interesującą propozycją dla klientów korporacyjnych, korzystających na co dzień z systemów telefonii IP Cisco. Klient uruchamiając aplikację na swoim telefonie lub komunikatorze musi podać swoje hasło (LDAP). Następnie zestawiane jest połączenie SSL do urządzenia ASA (TLS Proxy). Sesja nawiązywana jest poprzez siec MDN (Mobile Data Network). Podczas połączenia używany jest specjalny protokół MMP (Mobile Multiplexing Protocol), który jest enkapsulowany w standardowe pakiety protokołu SSL. Po pomyślnym nawiązaniu połączenia użytkownik jest autentykowany podanym wcześniej hasłem, wykorzystywanym również w celu dostępu do innych systemów komunikacyjnych, zintegrowanych z CUMA (np. MS Exchange). Rys.2 Schemat działania funkcji MVA Rys. 3 Schemat działania funkcji EFA Call Voice Mail Multi-Party Conference Short Number Dialing Call Park End Active Call Group Call Pickup Message Waiting Indicator DTMF Tone Rozwiązanie to jest ciekawa propozycja dla Klientów, często zmieniających swoje położenie wewnątrz organizacji. Na szczególna uwagę zasługuje szcze- gólna łatwość nawiązania połączenia za pomocą tego klienta. Sama aplikacja nie jest „nakładka” lub tez emulacja telefonu IP na telefonie Nokia. Klient ten instaluje się wewnętrznie w telefonie. Połączenia wykonywane są w ten sam sposób jak klasyczne połączenia GSM (zmienia się tylko typ połączenia, na połączenie internetowe). Kluczowa zaleta rozwiązania jest możliwość wykonywania połączeń zarówno poprzez siec WLAN jak i GSM z jednego urządzenia w tym samym czasie. Jednocześnie telefon rejestruje się jako urządzenie SCCP, co pozwala użytkownikowi na wykorzystanie standardo- Zaznaczyć należy, ze komunikator nie używa kanału danych do przekazywania ruchu głosowego (wyjątkiem jest tylko pobranie z serwera Unity wiadomości głosowej, zakodowanie jej i odsłuchanie na telefonie lub komunikatorze) tylko do sygnalizacji i przekazywania danych o połączeniach/presence/ konferencjach. Wersja 7.0 komunikatora CUMC, jak i systemu CUMA, wprowadza również kilka usprawnień, takich jak: globalne wsparcie dla operatorów komórkowych (brak potrzeby certyfikacji dla operatorów - wersja 3.x), wsparcie dla systemu Microsoft Windows Mobile v6.1, funkcjonalność Dial via Office, wsparcie dla Presence, wsparcie dla edycji stanu funkcji Mobile Voice Connect, © SOLIDEX, 2010 81 rencjach programu MeetingPlace (wsparcie dla opcji click-to-call), wykonanie połączenia do abonenta zewnętrznego za pomocą funkcji Dial via Office, wysyłanie wiadomości tekstowych pomiędzy użytkownikami mobilnymi (za pośrednictwem połączenia poprzez GPRS/UMTS nawiązanego poprzez ASA. Rys. 4 Architektura rozwiązania Rys. 5 Architektura systemu instalacja typu Appliance, wsparcie dla serwera MCS-7825 od wersji 7.0(2). Klient Cisco Unified Mobile Communicator dostępny jest na komunikatory oraz telefony pracujące pod kontrola następujących systemów operacyjnych: Microsoft Windows Mobile 6.0, Symbian, Blackberry RIM. Dokładna lista wspieranych urządzeń podlega ciągłemu poszerzaniu, dlatego w celu sprawdzenia należy zawsze zwe- ryfikować możliwość współpracy klienta z określonym modelem telefonu. Użytkownik z poziomu telefonu komórkowego obsługuje aplikację, która pozwala na realizacje następujących funkcji: sprawdzenie statusu Presence innych użytkowników systemu, w tym klasycznych użytkowników biurkowych, sprawdzenie statusu połączeń odebranych/wybieranych numerów itp., sprawdzenie i odtworzenie wybranej wiadomości zapisanej w systemie Cisco Unity, dostęp do powiadomień o konfe- Bardzo ciekawa funkcja dostępna w wersji 7.0 systemu jest Dial via Office. Funkcja ta pozwala użytkownikowi mobilnemu korzystającemu z klienta CUMC na wykonanie połączenia z abonentem zewnętrznym za pomocą mechanizmy tzw. „reverse call-back”. Scenariusz użycia funkcji Dial via Office przedstawia sie nastepujaco: 1. Użytkownik mobilny ma zamiar wykonać połączenie pod numer zewnętrzny dostępny poprzez PSTN. 2. Informacja o tym fakcie przekazywana jest poprzez polaczenie GPRS/UMTS do serwera CUMA (MMP over SSL). 3. CUMA Server przekazuje wywołanie SIP Invite do serwera CUCM poprzez SIP Trunk. 4. CUCM inicjuje połączenie Call-Back do użytkownika komunikatora CUMC poprzez GSM/PSTN. 5. Klient CUMC automatycznie odpowiada na połączenie. 6. CUCM automatycznie wykonuje połączenie do abonenta zewnętrznego. 7. Połączenia łączone są ze sobą za pomocą gateway’a korporacyjnego. 8. Klient CUMC nawiązuje połączenie z abonentem zewnętrznym. Ciekawa możliwością funkcji Dial via Office jest możliwość zdefiniowania innego numeru, na który ma zostać wykonane połączenie. Możemy wiec zainicjować połączenie z komórki a nasz korporacyjny serwer CUCM zadzwoni np. na nasz telefon domowy i zestawi połączenie z innym abonentem Zachowanie funkcji Dial via Office jest w pełni konfigurowalne. Można ustawić domyślna politykę wykonywania połączeń zewnętrznych (GSM/Dial via Office), możemy również zdefiniować numer na który zostanie wykonane oddzwonienie. INTEGRATOR - WYDANIE JUBILEUSZOWE (KWIECIEŃ 2010) 82 Program SOLIDEX Autoryzowane szkolenia Cisco Systems ICND1 ICND2 IINS BCMSN SWITCH ISCW TSHOOT ONT BSCI ROUTE BGP MPLS SNRS SNAF SNAA QoS CWLMS CIPT P1 CIPT P2 UCM Interconnecting Cisco Network Devices Part 1 Interconnecting Cisco Network Devices Part 2 Implementing Cisco IOS Network Security Building Cisco Multilayer Switched Networks Implementing Cisco IP Switched Networks Implementing Secure Converged Wide Area Networks Troubleshooting and Maintaining Cisco IP Networks Optimizing Converged Cisco Networks Building Scalable Cisco Internetworks Implementing Cisco IP Routing Configuring BGP on Cisco Routers Implementing Cisco MPLS Securing Networks with Cisco Routers and Switches v3.0 Securing Networks with Cisco ASA Fundamentals Securing Networks with Cisco ASA Advanced Implementing Cisco Quality of Service Implementing CiscoWorks LMS Implementing Cisco Unified Communications Manager Part 1 v6.0 Implementing Cisco Unified Communications Manager Part 2 v6.0 Implementing Cisco Unified Communications Manager v 7.0 Features Infolinia: 0800 49 55 82 Więcej informacji można uzyskać w serwisie www.SOLIDEX.com.pl, www.cks.SOLIDEX.com.pl oraz via e-mail: [email protected] Szkolenia prowadzone są w centrali oraz warszawskim oddziale SOLIDEX: Kraków Centrala SOLIDEX, ul. Lea 124; Warszawa Centrum Kompetencyjno-Szkoleniowe SOLIDEX, Złote Tarasy - Lumen, ul. Złota 59
Podobne dokumenty
Integrator Review 3/2008
SMB/SOHO, przez rozwiązania dla rynku Enterprise, po urządzenia dedykowane dla rynku operatorskiego.
Jak już wspomniano, systemy bezpieczeństwa Fortinet wyróżnia budowa
w oparciu o dedykowane ukł...
W numerze między innymi: - Integrator
zarządzania w obszarze ICT w kilku
obiektach stadionowych w ramach
Euro 2012 . To również czas utrzymania i podnoszenia swych kompetencji potwierdzonych lic znymi