KONCEPCJA DOCELOWEJ INFRASTRUKTURY TECHNICZNEJ
Transkrypt
KONCEPCJA DOCELOWEJ INFRASTRUKTURY TECHNICZNEJ
Załącznik nr 1 do OPZ KONCEPCJA DOCELOWEJ INFRASTRUKTURY TECHNICZNEJ (WERSJA UJEDNOLICONA) Koncepcja docelowej infrastruktury technicznej Spis treści 1. Wprowadzenie .............................................................................................. 3 1.1. Cel dokumentu ............................................................................................ 3 1.2. Zastosowane skróty i pojęcia ........................................................................ 3 2. Opis .............................................................................................................. 7 2.1. Stan bieżący infrastruktury ePUAP ................................................................. 7 2.2. Cele rozbudowy infrastruktury ePUAP ............................................................. 8 3. Rozbudowa infrastruktury ............................................................................ 9 3.1. Równoważenie ruchu .................................................................................... 9 3.2. Bazy danych ............................................................................................... 9 3.3. Serwery drugiego ośrodka ........................................................................... 11 3.4. Środowisko testowe .................................................................................... 11 4. Zestawienie sprzętu ................................................................................... 14 4.1. Zestawienie sprzętu aktualnie działającego środowiska ePUAP .......................... 14 4.2. Różnice w sprzęcie pomiędzy ośrodkami ........................................................ 16 5. Zestawienie licencji .................................................................................... 20 5.1. Aktualne zestawienie licencji ........................................................................ 20 Strona 2 z 22 Koncepcja docelowej infrastruktury technicznej 1. WPROWADZENIE 1.1. CEL DOKUMENTU Dokument ma na celu przedstawienie aktualnej infrastruktury sprzętowej oraz przedstawienie zakresu rozbudowy sprzętu i licencji infrastruktury ePUAP2 w celu zapewnienia pracy ośrodków ePUAP w trybie Active-Active z równoważeniem obciążenia obu ośrodków 1.2. ZASTOSOWANE SKRÓTY I POJĘCIA Nazwa AS Objaśnienie Autonomous System (system autonomiczny) - sieć lub grupa sieci pod wspólną administracją i ze wspólną polityką trasowania. Border Gateway Protocol (zewnętrzny protokół trasowania). Jest protokołem wektora ścieżki umożliwiającym tworzenie niezapętlonych ścieżek pomiędzy różnymi systemami autonomicznymi. BGP pozwala na pełną redundancję w połączeniu z Internetem, jest również używany do połączenia dwóch systemów autonomicznych, do wymiany BGP ruchu między tymi systemami. Rutery zestawiają pomiędzy sobą sesje BGP, dzięki którym mogą wymieniać się informacjami o dostępnych trasach (prefiksach) i wyznaczać najlepszą niezapętloną ścieżkę do sieci docelowych. BGP używa się typowo jako protokołu routingu w sieci posiadającej styki internetowe z 2 (lub więcej) dostawcami Internetu. Elektroniczna Platforma Usług Administracji Publicznej - zbiór ePUAP produktów projektu ePUAP-WKP i nowych rozwijanych w ramach projektu ePUAP2. Projekt, którego realizacja planowana jest na lata 2009-2013, ePUAP2 stanowiący kolejny etap realizacji docelowej architektury platformy ePUAP. Fibre Channel - standard magistrali szeregowej definiujący wielowarstwową architekturę, która służy do przesyłania danych przez FC sieć. Jest stosowany w sieciach SAN. Niezależnie od nazwy, Fibre Channel pracuje zarówno na połączeniach galwanicznych (prawie zawsze miedzianych) jak i światłowodach. Znany również jako tunelowanie FC – technika transmisji danych FC FCIP, Fibre Channel over IP, poprzez sieć internetową (bazującą na IP). Mechanizmy FCIP Fibre Channel over Ethernet pozwalają na łączenie urządzeń sieci SAN znajdujących się w oddalonych od siebie lokalizacjach. Strona 3 z 22 Koncepcja docelowej infrastruktury technicznej Nazwa Objaśnienie Zapora ogniowa - jeden ze sposobów zabezpieczania sieci i systemów przed intruzami. Może to być zarówno dedykowany sprzęt komputerowy wraz ze specjalnym oprogramowaniem, jak i samo oprogramowanie blokujące niepowołany dostęp do komputera. Pełni Firewall rolę połączenia ochrony sprzętowej i programowej sieci wewnętrznej LAN przed dostępem z zewnątrz tzn. sieci publicznych, Internetu, chroni też przed nieuprawnionym wypływem danych z sieci lokalnej na zewnątrz. Do jego podstawowych zadań należy filtrowanie połączeń wchodzących i wychodzących oraz tym samym odmawianie żądań dostępu uznanych za niebezpieczne. HA High Availability (wysoka dostępność) – użyte w kontekście klastrów HA High availability disaster recovery (Usuwanie skutków awarii w środowisku o wysokiej dostępności, dotyczy baz DB2) - rozwiązanie z zakresu replikacji danych zapewniające wysoką dostępność zarówno w wypadku częściowej, jak i całkowitej awarii lokacji. Funkcja HADR zabezpiecza przed utratą danych, umożliwiając wykonanie replikacji zmian ze źródłowej (podstawowej) bazy danych do docelowej (rezerwowej) bazy danych. Całkowita awaria serwisu może wystąpić wówczas, gdy w wyniku katastrofy, takiej jak pożar, nastąpi zniszczenie całego ośrodka. Ponieważ w funkcji HADR do komunikacji HADR między podstawową a rezerwową bazą danych używany jest protokół TCP/IP, te bazy danych mogą znajdować się w różnych miejscach. Jeśli w wyniku katastrofy zniszczona zostanie podstawowa baza danych, jej funkcje zostaną przejęte przez zdalną rezerwową bazę danych i zapewniony będzie dostęp do danych oraz wszystkich funkcji programu DB2. Po zakończeniu operacji przejęcia funkcji przez rezerwową bazę danych możliwe będzie ponowne uruchomienie oryginalnej podstawowej bazy danych i przywrócenie jej statusu podstawowej bazy danych; operacja ta jest określana jako przełączenie poawaryjne. Interior BGP – odmiana protokołu BGP, występuje gdy sesja iBGP nawiązywana jest między dwoma routerami brzegowymi w obrębie jednego AS. Internet Protocol - protokół komunikacyjny warstwy sieciowej modelu IP OSI (warstwy internet w modelu TCP/IP). Używany powszechnie w Internecie i sieciach lokalnych. Klaster Jest to grupa serwerów widocznych dla użytkowników jako jeden system (jako jeden serwer lub jako jedna aplikacja). Strona 4 z 22 Koncepcja docelowej infrastruktury technicznej Nazwa Objaśnienie Jest to odmiana klastra wysokiej dostępności, w której serwer Klaster bezpieczeństwa zapasowy odbiera dane dotyczące zmian od serwera podstawowego i w każdej chwili jest w stanie przejąć jego zadanie. Serwer zapasowy normalnie nie uczestniczy we wprowadzaniu nowych danych do bazy. Klaster wysokiej dostępności – jest to grupa serwerów widocznych dla Klaster HA użytkowników jako jeden system (jako jeden serwer lub jako jedna aplikacja) zapewniający wysoką dostępność do krytycznych aplikacji i danych. LoadBalance, load balancing Technika rozpraszania obciążenia pomiędzy wiele procesorów, komputerów, dysków, połączeń sieciowych lub innych zasobów. Ośrodek A Jest to obecny ośrodek podstawowy Ośrodek B Jest to obecny ośrodek zapasowy Processor Value Unit – jednostka miary używana w licencjonowaniu PVU firmy IBM, służąca do zróżnicowania licencji na oprogramowanie w zależności od klasy sprzętu na jakim ma pracować. Typową ilością PVU na rdzeń procesora jest 100. Urządzenie sieciowe pracujące w trzeciej warstwie modelu OSI. Służy do łączenia różnych sieci komputerowych (różnych w sensie informatycznym, czyli np. o różnych klasach, maskach itd.), pełni więc Router rolę węzła komunikacyjnego. Na podstawie informacji zawartych w pakietach TCP/IP jest w stanie przekazać pakiety z dołączonej do siebie sieci źródłowej do docelowej, rozróżniając ją spośród wielu dołączonych do siebie sieci. Proces kierowania ruchem nosi nazwę trasowania, routingu lub rutowania. SAN Storage area network (sieć pamięci masowej) - rodzaj sieci służący do dostępu do zasobów pamięci masowej przez systemy komputerowe. Juniper Networks SSG550M – wysokiej wydajności specjalizowana SSG 550M brama z wbudowanymi mechanizmami ochrony sieci takimi jak: firewall, system antywirusowym, system antyspamowym. Może pracować jako router BGP. Inaczej Load Balancer. Serwery LoadBalance mają za zadanie Serwer LoadBalance rozłożyć równomiernie obciążenie np. do kilku identycznych serwerów aplikacji. Serwery LoadBalance zapewniają, że awaria jednego z serwerów nie jest odczuwalna przez użytkowników aplikacji. Silnik formularzy Składnik ePUAP, który udostępnia środowisko uruchomieniowe dla aplikacji interaktywnych (formularzy elektronicznych). Strona 5 z 22 Koncepcja docelowej infrastruktury technicznej Nazwa Objaśnienie Przełącznik - urządzenie łączące segmenty sieci komputerowej Switch pracujące głównie w drugiej warstwie modelu ISO/OSI (łącza danych), jego zadaniem jest przekazywanie ramki między segmentami sieci z doborem portu przełącznika, na który jest przekazywana. Switch FC Odmiana przełącznika wykorzystywana w technologii Fibre Channel. Strona 6 z 22 Koncepcja docelowej infrastruktury technicznej 2. OPIS 2.1. STAN BIEŻĄCY INFRASTRUKTURY EPUAP Rysunek: Schemat bieżącej infrastruktury ePUAP Dotychczasowa infrastruktura opiera się na dwóch ośrodkach obliczeniowych, przy czym jeden ośrodek jest ośrodkiem aktywnym (podstawowym), drugi jest pasywnym (zapasowym), co niesie za sobą następujące problemy: Wymiana danych między tymi ośrodkami jest wymianą jednokierunkową i polega jedynie na powielaniu zawartości macierzy dyskowej z ośrodka podstawowego do ośrodka zapasowego. Mirroring macierzy odbywa się z wykorzystaniem tunelu VPN pomiędzy ośrodkami i technologii Fibre Channel over Ethernet. Cała komunikacja z Internetu jest kierowana poprzez łącze jednego dostawcy do ośrodka podstawowego. W przypadku awarii ośrodka podstawowego administratorzy muszą ręcznie rozłączyć mirroring danych między ośrodkami i włączyć serwery ośrodka zapasowego. W przypadku awarii ośrodka podstawowego administratorzy muszą przełączyć cały ruch do ośrodka zapasowego poprzez łącza drugiego dostawcy. Posiadane licencje pozwalają na pracę jednego ośrodka i powielanie danych na poziomie macierzy do ośrodka zapasowego. W każdym ośrodku znajduje się środowisko testowe, przy czym pod względem funkcjonalnym i mocy obliczeniowej ich parametry są zmniejszone względem środowiska produkcyjnego. Ośrodek zapasowy ma mniejszą moc obliczeniową względem ośrodka podstawowego. Strona 7 z 22 Koncepcja docelowej infrastruktury technicznej 2.2. CELE ROZBUDOWY INFRASTRUKTURY EPUAP Rozbudowa infrastruktury ma zrealizować następujące cele: 1. zapewnienie pracy ośrodków ePUAP (podstawowego i zapasowego w trybie Active-Active) z równoważeniem obciążenia obu ośrodków, z uprzednim wyspecyfikowaniem koniecznego do zakupu oprogramowania, licencji, sprzętu teleinformatycznego niezbędnego do działania ośrodków w trybie Active-Active, 2. zwiększenie mocy obliczeniowej i zdolności gromadzenia danych Systemu ePUAP, 3. budowa środowiska pre-produkcyjnego odpowiadającego środowisku produkcyjnemu po rozbudowie, znajdującego się w jednym z ośrodków przetwarzania danych. Rysunek: Schemat ośrodków po rozbudowie Zapewnienie powyższych celów odnośnie środowiska produkcyjnego możliwe jest po spełnieniu następujących warunków: równoważenie ruchu wymaga użycia dodatkowych serwerów LoadBalance na wejściu ośrodków, oba ośrodki muszą pracować na tych samych danych (replikacja danych i aplikacji) – odpowiadające sobie aplikacje z obydwu ośrodków muszą pracować na jednej bazie danych, oba ośrodki muszą mieć porównywalną moc i funkcjonalność – przy równoważeniu ruchu przy pomocy serwerów LoadBalance ośrodki obciążane są z reguły równomiernie. Strona 8 z 22 Koncepcja docelowej infrastruktury technicznej 3. ROZBUDOWA INFRASTRUKTURY 3.1. RÓWNOWAŻENIE RUCHU W przypadku ośrodków pracujących w trybie Active-Active proponowany jest podziału ruchu z wykorzystaniem obecnej infrastruktury. W przypadku obu ośrodków przetwarzania danych Systemu ePUAP, dwa serwery LoadBalance tworzą klaster HA poprzez wykorzystanie dodatkowych switch-y, umożliwiając redundancję tras połączeń. Rozwiązanie to umożliwia: 1. Szybkie równoważenie ruchu na dwa ośrodki. 2. Nie wymaga dużego nakładu pracy przy dostosowaniu obu ośrodków do pracy w trybie Active-Active. 3.2. BAZY DANYCH Przy pracy ośrodków w trybie Active-Active wymagane jest, by serwery aplikacyjne obydwu ośrodków pracowały na spójnej bazie danych. W związku z tym możliwy jest warianty zmiany pracy z bazą danych poprzez zmianę mirroringu na klaster baz. Dane wszystkich serwerów aplikacyjnych zlokalizowane są na mirrorowanej macierzy. Analogiczne serwery z obu ośrodków posiadają identyczną konfigurację. Koncepcja zakłada całkowitą lub częściową rezygnację z mirroringu. Ponieważ nie jest możliwa praca dwóch serwerów na tym samym adresie IP zmianie muszą ulec przynajmniej adresy IP serwerów ośrodka zapasowego. Dodatkowo należy tak skonfigurować routery ośrodków, by serwery aplikacyjne jednego ośrodka mogły uzyskać połączenie z serwerem bazy danych drugiego ośrodka. 3.2.1. Zmiana mirroringu na klaster baz Klastry baz danych realizuje się w oparciu o przynajmniej dwa serwery baz danych. Serwery te pracują na wspólnych danych. W przypadku dużych odległości między serwerami stosuje się klaster bezpieczeństwa, w którym jeden serwer pełni rolę serwera podstawowego a drugi jest serwerem zapasowym. Serwer podstawowy wysyła do serwera zapasowego wszelkie informacje o zmianach w bazie danych. Każdy z serwerów musi pracować na swoich niezależnych zasobach, stąd konieczne jest zrezygnowanie z mirroringu danych serwera bazy. W przypadku rozbudowy systemu, konieczne jest: 1. Wyłączenie mirroringu macierzy pomiędzy ośrodkami przetwarzania danych. 2. Zmiana konfiguracji serwerów aplikacyjnych, w celu zapewnienia ich połączenia z klastrem serwerów baz danych. Z powyższego rozwiązania wynikają następujące zalety: Strona 9 z 22 Koncepcja docelowej infrastruktury technicznej 1. Po wyłączeniu mirroringu możliwe jest przekonfigurowanie serwerów ośrodka zapasowego korzystających z macierzy bez konieczności przenoszenia ich danych w inne miejsce. 2. W przypadku uszkodzenia jednego z serwerów baz, nie jest konieczne ręczne przełączenie na drugi serwer, przełączenie następuje automatycznie, bez utraty danych. (Klaster zapewnia spójność danych na serwerach.) Wszystkie serwery aplikacyjne automatycznie zaczynają korzystać z drugiego serwera. Po przywróceniu do pracy uszkodzonego serwera, klaster automatycznie wyrównuje stan baz i wraca do pierwotnej konfiguracji (serwer podstawowy i zapasowy). 3. Zamiana mirroringu macierzy na klaster baz danych, nie wymaga zmian sprzętu. Rysunek: Baza danych - klaster 3.2.2. Preferowana koncepcja rozbudowy Rekomenduje się rozwiązanie zawierające klaster baz danych, z czego płyną następujące korzyści: 1. Zabezpieczenie danych serwerów baz jest równie dobre jak mirroring (dodatkowo w razie awarii jednego serwera klaster pracuje dalej). 2. Ponowne aktywowanie uszkodzonego serwera nie spowoduje przerwania pracy klastra. Rekomendowana koncepcja niesie za sobą następujące działania: Strona 10 z 22 Koncepcja docelowej infrastruktury technicznej 1. Obecna infrastruktura ogranicza możliwość budowania klastra baz danych do klastra bezpieczeństwa HADR, w którym to podstawowy serwer bazy jest umieszczony w ośrodku A, a zapasowy serwer w ośrodku B. 2. Zmiana na klaster baz wymusza zmianę licencji na oprogramowanie baz danych. 3. Aktualnie zainstalowana baza DB2 w wersji 9.1 nie ma możliwości stworzenia klastra baz danych. Konieczne jest wykupienie aktualizacji do bazy w najnowszej wersji i zakup odpowiedniej ilości licencji na serwery zapasowe lub zastąpienie proponowanego rozwiązania rozwiązaniem równoważnym. 4. W przypadku zastosowania mechanizmu HADR, który na bieżąco replikuje bazę danych na dodatkowym serwerze, dla każdego serwera zapasowego należy zwiększyć ilość licencji o co najmniej 100 jednostek PVU. 3.3. SERWERY DRUGIEGO OŚRODKA Aktualny ośrodek zapasowy posiada mniejszą ilość serwerów biorących udział w bezpośrednim przetwarzaniu danych oraz mniejszą ilość serwerów rezerwowych niż ośrodek podstawowy. Oznacza to, że: 1. Oba ośrodki nie mają porównywalnej mocy obliczeniowej 2. Drugi ośrodek przetwarzania jest bardziej podatny na awarię. Wskazane jest doposażenie drugiego ośrodka w brakujące serwery zarówno aktywne jak i redundantne. Rekomenduje się, że dla wszystkich serwerów, które należy aktywować w drugim ośrodku (z wykluczeniem serwerów bazy danych) niezbędne jest dostarczenie odpowiedniej liczby licencji na zainstalowane oprogramowanie. Zakup taki nie jest potrzebny w przypadku serwerów redundantnych. 3.4. ŚRODOWISKO TESTOWE Środowisko testowe pre-produkcyjne odpowiadające strukturą środowisku produkcyjnemu można stworzyć przenosząc serwery testowe z jednego ośrodka do drugiego. Wymagane jest dostarczenie co najmniej trzech obudów typu blade. Do uzyskania właściwej infrastruktury testowej wymagane jest doposażenie w kilka dodatkowych elementów. W ośrodku podstawowym rolę testowych serwerów baz danych pełnią wydzielone serwery blade. Stąd konieczne jest: 1. Dostarczenie serwerów baz danych w analogicznej konfiguracji jak w ośrodku podstawowym. 2. Do uzupełnienia infrastruktury pre-produkcyjnej wymagany jest zakup dodatkowych obudów serwerów blade i kart blade'owych. Strona 11 z 22 Koncepcja docelowej infrastruktury technicznej 3. Ponieważ środowisko pre-produkcyjne ma odpowiadać infrastrukturze jednego ośrodka nie jest konieczne dodawanie żadnych routerów, ani serwerów LoadBalance, wystarczy podłączenie do firewalla poprzez osobny switch. 4. Dodatkowo należy przewidzieć całkowite odseparowanie danych serwerów testowych od danych produkcyjnych, czyli należy rozważyć zakup macierzy dyskowej dla środowiska testowego. Zapobiegnie to zmniejszeniu wydajności środowiska produkcyjnego podczas np. testów wydajnościowych, gdy serwery baz danych są mocno obciążone. Rysunek: Środowisko testowe pre-produkcyjne Środowiska pre-produkcyjnego nie można uznać za deweloperskie środowisko testowe, stąd wymagane będą standardowe licencje na oprogramowanie, dla każdego zainstalowanego serwera. 3.4.1. Środowisko testowe deweloperskie Osobno należy zorganizować środowisko testowe dla deweloperów. Ponieważ środowisko to jest maksymalnie uproszczone można wykorzystać wirtualizację środowisk. Do tego celu należy zakupić zestaw np. czterech wydajnych komputerów (hostów, z kilkoma procesorami wielordzeniowymi i dużą ilością pamięci RAM) oraz licencję na serwer maszyn wirtualnych, który spełni następujące wymagania: 1. możliwość tworzenia kopii maszyn wirtualnych, Strona 12 z 22 Koncepcja docelowej infrastruktury technicznej 2. możliwość przenoszenia w trakcie działania maszyn wirtualnych z jednego hosta na inny, 3. możliwość automatycznego przeniesienia maszyn z uszkodzonego hosta na pozostałe hosty, 4. możliwość skalowania maszyn wirtualnych, tj. zwiększenia przydzielonej ilości procesorów i pamięci 5. możliwość skalowania hostów, tj. dodawania nowych hostów i zmianę ich parametrów. Serwer maszyn wirtualnych może wykorzystywać do pracy macierz dyskową środowiska preprodukcyjnego. W większości przypadków przy budowie deweloperskiego środowiska testowego nie są wymagane licencje środowiska produkcyjnego. Należy zamówić dedykowane licencje deweloperskie. Niektóre edycje deweloperskie zawierają wszystkie funkcjonalności dostępne w edycjach Enterprise i są licencjonowane na dewelopera. Dodatkowo do stworzenia testowego środowiska deweloperskiego wymagane będzie dokupienie licencji na serwer maszyn wirtualnych na odpowiednią ilość procesorów i pamięci. Strona 13 z 22 Koncepcja docelowej infrastruktury technicznej 4. ZESTAWIENIE SPRZĘTU 4.1. ZESTAWIENIE SPRZĘTU AKTUALNIE DZIAŁAJĄCEGO ŚRODOWISKA EPUAP Lp. 1. Sprzęt Opis Ilość Ośrodek A Ośrodek B 3 3 4 4 Macierz dyskowa 1 1 IBM System Storage DS4000 Rozszerzenie dla macierzy 2 2 EXP810 dyskowej Biblioteka taśmowa 1 1 Zewnętrzny switch FC do 2 2 NetBAY S2 42U Standard Szafa Rack Cabinet 2. IBM BladeCenter H Chassis Obudowa serwerów na max typu 14 blade (HS21 XM) 3. IBM DS4700 Express Model 72 4. Storage Expansion Unit umożliwiające podłączenie kolejnych dysków 5. IBM System Storage TS3200 Tape Library 6. IBM TotalStorage SAN16B-2 budowy sieci SAN 7. Juniper ISG1000 Advanced Firewall z modułem IPS 2 2 8. Juniper SSG 550M Firewall z modułem AV 2 2 9. Juniper DX-3280-SLB-SSL-S- Terminator SSL 2 2 5 5 2C 10. CISCO WS-C3750G-24T-S Zewnętrzny switch do budowy sieci LAN 11. nCipher TMC 200 Serwer dokładnego czasu 1 1 12. nCipher DSE 200 Serwer 2 2 2 2 znakowania czasem 13. IBM POWER6, 4x2-core Serwer bazy danych 4,7GHz 4.1.1. IBM BladeCenter HS21 XM Strona 14 z 22 Koncepcja docelowej infrastruktury technicznej Lp. 1. Sprzęt Ilość Ośrodek A Ośrodek B 37 21 37 21 20 19 80w 1 1 80W 1 1 80w 16 23 80W 16 23 2GB (2 x 1GB) PC2-5300 CL5 ECC DDR2 Chipkill FBDIMM 12 16 13 19 52 30 HS21 Xeon Dual Core 5160 3.0 GHz/1333 MHz, 4MB L2, 2x512MB MB, O/Bay SAS 2. QLogic 4Gb SFF Fibre Channel Expansion Card for IBM eServer BladeCenter 3. Intel Dual Core Processor Model 5160 3.0GHz 1333MHz 4MB L2 Cache 4. HS21, Xeon Quad Core E5450 3.00GHz/1333MHz/12MB L2, 2x1GB Chk, O/Bay SAS 5. Intel Xeon QC Processor Model E5450 3.0GHz/1333MHz/12MB L2 6. HS21, Xeon Dual Core X5260 3.33GHz/1333MHz/6MB L2, 2x1GB Chk, O/Bay SAS 7. Intel Xeon DC Processor Model X5260 3.33GHz/1333MHz/6MB L2 8. 667MHz 9. 4GB (2 x 2GB) PC2-5300 CL5 ECC DDR2 Chipkill FBDIMM 667MHz 10. 8 GB (2x4GB kit) Quad Rank PC2-5300 CL5 ECC Low Power 4.1.2. IBM x3550 Zewnętrzne serwery – obsługa HSM i urządzeń sieciowych Lp. 1. Sprzęt x3550, Xeon Quad Core Ilość E5405 80W Ośrodek A Ośrodek B 5 5 2.0GHz/1333MHz/12MB L2, 2x1GB ChK, O/Bay 2.5in HS SAS, SR 8k-I, PCI2. x3550 redundant power supply 670W 4 4 3. ServeRAID-8k Adapter 4 4 Strona 15 z 22 Koncepcja docelowej infrastruktury technicznej 4. IBM 146GB 2.5in 10K HS SAS HDD 8 8 5. x3550, L2, 3 3 2GB (2x1GB) PC2-5300 CL5 ECC DDR2 Chipkill FBDIMM 2 2 Xeon 5160 3.0GHz/1333MHz/2x2MB 2x512MB, O/Bay SAS, SR 8k-l, 670W p/s, Rack 6. Memory Kit 7. IBM 73.4GB 2.5in 10K HS SAS HDD 6 6 8. Intel PRO/1000 PT Dual Port Server Adapter 3 3 9. x3550 redundant power supply 670W 3 3 10. ServeRAID-8k Adapter 3 3 11. IBM PCI-X Riser Card for 1U Systems 3 3 12. nShield F3, 500 TPS - SEE Ready 3 3 4.1.3. LoadBalance Lp. Sprzęt 1. FortiNet FortiGate Opis Ilość Serwer LoadBalance Ośrodek A Ośrodek B 2 2 4 4 621B 2. CISCO WS-C3750G- 24T-S lub podobny Switche rozdzielające serwery LoadBalance od reszty urządzeń sieci Urządzenia zastosowane obecnie w infrastrukturze mogą zostać wykorzystane do równoważenia ruchu dla obydwu ośrodków Zarówno switche jak i load balancery powinny być skonfigurowane do pracy w klastrach HA (w parach). 4.2. RÓŻNICE W SPRZĘCIE POMIĘDZY OŚRODKAMI 4.2.1. Zestawienie serwerów w ośrodku podstawowym, nie mający odpowiedników w ośrodku zapasowym Poniższa tabela zawiera listę serwerów z ośrodka podstawowego, które nie mają swoich odpowiedników w ośrodku zapasowym. Lp. Sprzęt Opis Ilość Strona 16 z 22 Koncepcja docelowej infrastruktury technicznej 1. HS21 serwer 2 CPU + 16GB RAM Serwer LoadBalance draco_lb2 1 2. HS21 serwer 2 CPU + 16GB RAM Serwer LoadBalance draco2_lb2 1 3. HS21 serwer 1 CPU + 3GB RAM Serwer Loadbalance lb2wew 1 4. HS21 serwer 2 CPU + 16GB RAM Serwery dla silnika formularzy 2 5. HS21 serwer 1 CPU + 3GB RAM Serwer LoadBalance wew2 1 6. HS21 serwer 2 CPU + 5GB RAM Serwer DB2 testowy zapasowy 1 testowy zapasowy 1 db1/epuapdb 7. HS21 serwer 2 CPU + 5GB RAM Serwer DB2 db2/portaldb 4.2.2. Środowisko testowe pre-produkcyjne Poniżej lista dodatkowego sprzętu niezbędna do uzyskania funkcjonalności odpowiadającej ośrodkowi podstawowemu. Lp. Sprzęt Opis Ilość Ośrodek A 1. Szafa rack o wysokości 42U z Szafa rack o wysokości 42U z konsolą 2 Obudowa na max 14 serwerów typu 1 konsolą 2. Obudowa typu blade blade 3. Macierz dyskowa 4. Moduły rozszerzające istniejących dla macierzy dyskowych w celu zgodności z macierzą dostarczoną Macierz dyskowa 1 Rozszerzenie dla macierzy dyskowej 2 umożliwiające podłączenie kolejnych dysków w ramach pkt. 3 powyżej 5. Przełącznik sieciowy Zewnętrzny switch do budowy sieci 1 LAN 6. Serwer typu A Serwer bazy danych 2 7. Serwer blade typu A - serwer Serwer redundantny z app1 i app2 1 dwuprocesorowy, 16GB 8. Serwer blade typu A - serwer Serwer redundantny dwuprocesorowy, 16GB app2wew z app1wew i 1 Strona 17 z 22 Koncepcja docelowej infrastruktury technicznej 9. Serwer blade typu C - serwer Baza danych db2 dla ITM 1 dwuprocesorowy, 3GB 10. 11. 12. 13. Serwer blade typu C - serwer Serwer wspierający grupy 1 dwuprocesorowy, 3GB blade'ów Serwer blade typu A - serwer LoadBalancer dla usług bezpieczeństwa 1 dwuprocesorowy, 16GB – ws, zts Serwer blade typu A - serwer LoadBalancer dla usług bezpieczeństwa dwuprocesorowy, 16GB – ws, zts Serwer blade typu D - serwer LoadBalancery jednoprocesorowy, 3GB wewnętrzny ruch sieciowy na potrzeby serwerów działanie rozdzielające aplikacji 1 1 (app1wew app2wew) 14. Serwer blade typu D - serwer Serwer redundantny z lb1wew 1 Serwer monitoringu zdarzeń sieciowych 1 Serwer redundantny z portal1 i portal2 1 Serwer blade typu A - serwer Serwer obsługi zgłoszeń, elearningu, 1 dwuprocesorowy, 16GB mediawiki Serwer blade typu A - serwer Silnik formularzy 2 1 Silnik silnika formularzy 3 1 Silnik silnika formularzy 4 1 Silnik silnika formularzy 5 1 jednoprocesorowy, 3GB 15. Serwer blade typu C - serwer dwuprocesorowy, 3GB 16. Serwer blade typu A - serwer dwuprocesorowy, 16GB 17. 18. dwuprocesorowy, 16GB 19. Serwer blade typu A - serwer dwuprocesorowy, 16GB 20. Serwer blade typu A - serwer dwuprocesorowy, 16GB 21. Serwer blade typu A - serwer dwuprocesorowy, 16GB 22. 23. Serwer blade typu A - serwer Load balancer dwuprocesorowy, 16GB formularzy Serwer blade typu B - serwer Serwer dwuprocesorowy, 5GB sprzętowej, dla: monitoringu baz Silnik silnika 1 infrastruktury 1 danych i serwera aplikacji 24. Serwer blade typu A - serwer Serwer wsparcia monitoringu 1 Strona 18 z 22 Koncepcja docelowej infrastruktury technicznej dwuprocesorowy, 16GB 25. Serwer blade typu C - serwer Serwer backupu serwerów 1 Serwer blade typu C - serwer Serwer przeznaczony do kooperacji z 1 dwuprocesorowy, 3GB serwerem dwuprocesorowy, 3GB 26. zarządzania środowiskiem (director) Macierz dyskowa musi mieć pojemność analogiczną jak w środowisku produkcyjnym. Poniżej proponowana lista sprzętu do budowy testowego środowiska developerskiego. Lp. Sprzęt Opis Ilość Ośrodek A 1. Szafa rack o wysokości 42U z konsolą Szafa rack o wysokości 2 42U z konsolą 2. Przełącznik sieciowy Zewnętrzny switch do 1 Serwer do klastra maszyn 4 budowy sieci LAN 3. Serwer typu B wirtualnych 4. Macierz dyskowa Macierz dyskowa 1 5. Rozszerzenie dla macierzy dyskowej Rozszerzenie dla macierzy 2 dyskowej podłączenie umożliwiające kolejnych dysków Macierz dyskowa wymieniona w powyższej liście jest opcjonalna. W momencie wymiany macierzy użytkowanych w ośrodkach można stare macierze wykorzystać jako dodatkową przestrzeń dyskową dla maszyn wirtualnych i środowiska pre-produkcyjnego. Strona 19 z 22 Koncepcja docelowej infrastruktury technicznej 5. ZESTAWIENIE LICENCJI Licencje na narzędzia deweloperskie Rational pozostają bez zmian, gdyż są licencjonowane na dewelopera a nie na PVU. W związku z tym nie są one wyszczególnione w poniższych zestawieniach. 5.1. Lp. AKTUALNE ZESTAWIENIE LICENCJI Licencja Ilość 1. D55TWLL Licencja ibm db2 workgroup server ed value unit lic+sw maint 12 mo 1100 2. D593TLL Licencja db2 purexml ftr workgroup svr ed value unit lic+sw maint 12 mo 700 3. D562DLL Licencja ibm tivoli monitoring for databases 10 value units lic+sw maint 12 mo 80 4. D57UMLL Licencja tivoli comp app mgr basic websphere 10 value units lic+sw maint 12 mo 70 5. D572ZLL Licencja websphere process server multiplatform value unit lic+sw maint 12 mo 800 6. D570BLL Licencja tivoli composite app manager f/soa value unit lic+sw maint 12 mo 1200 7. D56PNLL Licencja ibm tivoli omegamon xe for messaging value unit lic+sw maint 12 mo 100 8. D56P3LL Licencja websphere message broker value unit lic+sw maint 12 mo 300 9. D56KQLL Licencja ibm websphere business monitor value unit lic+sw maint 12 mo 300 10. D56FULL Licencja ibm tivoli storage manager 10 value units lic+sw maint 12 mo 854 11. D56FPLL Licencja ibm tivoli stor mgr for stor area nw 10 value units lic+sw maint 12 mo 662 12. D55W8LL Licencja websphere app svr value unit lic+sw maint 12 mo 2000 13. D55UCLL Licencja websphere portal enable value unit lic+sw maint 12 mo 1000 14. D5571LL Licencja websphere integration developer authorized user lic+sw maint 12 mo 1 15. D044QLL - IBM Tivoli Composite Application Manager For Applications 3 Agent Pack Processor Value Unit (PVU) License + SW Subscription & Support 12 Months 1920 Strona 20 z 22 Koncepcja docelowej infrastruktury technicznej 16. D5826LL IBM Tivoli Monitoring Universal Agent 10 VU License + SW Maintenance 12 Month 180 17. D561YLL - IBM Tivoli Monitoring 10 Processor Value Units (PVUs) License + SW Subscription & Support 12 Months 674 18. D570XLL IBM ITCAM for Websphere License + SW Subscription & Support 800 12 Months 19. Red Hat Enterprise Linux5 Basic, licencja na wsparcie w okresie 3 lat 106 20. COMARCH Security Access Manager (DRACO) 8 21. COMARCH Sopel 8 22. ibm tivoli netview 10 value units lic + sw s&s 12 mo, licencja 160 23. tiv nc/omnibus tier 3 3rd pty a resource val unit lic + sw s&s 12 mo, licencja 1 24. tivoli nc/omnibus gateway tier 1 3rdpty connection lic + sw s&s 12 mo, licencja 1 25. tivoli nc/omnibus gateway tier 1 per connection lic + sw s&s 12 mo, licencja 1 26. tivoli netcool/omnibus base per install lic + sw s&s 12 mo, licencja 1 27. tivoli netcool/omnibus tier 1 resource value unit lic + sw s&s 12 mo, licencja 1 28. tivoli netcool/webtop concurrent user lic + sw s&s 12 mo, licencja 3 29. tivoli netcool/webtop per install lic + sw s&s 12 mo, licencja 1 30. Reader Extension Svr 8.0 ALP Aoo License IE TIER 1 400 31. CISCO netManager IP1.1. for 50 devices and 50 aps 4 32. Juniper NetScreen Security Manager 11 4 33. Apache License - 34. Juniper SSG550 Kaspersky-AV 4 35. Forms 1 Strona 21 z 22 Koncepcja docelowej infrastruktury technicznej 36. Adobe Designer 8.1. WIN AOO 40 37. Juniper ISG1000 IDP 3 lata 4 38. Microsoft OEM Windows Server 2003 4 39. Forms 10.0 ALP AOO 6 40. Oracle Directory Server Enterprise 1 41. J-Care Core Plus Support 4 42. Zapory Juniper SSG550m 4 Strona 22 z 22