Infrastruktura chmury prywatnej — czy masz, co trzeba?

Transkrypt

Infrastruktura chmury prywatnej — czy masz, co trzeba?
Biuletyn techniczny / Przerwa na kawę
Infrastruktura chmury prywatnej — czy masz, co trzeba?
Na wprowadzenie wewnętrznych usług chmurowych decyduje się coraz więcej organizacji, w związku z czym na
działy IT spada praktyczna odpowiedzialność za przygotowanie i przeprowadzenie przedsięwzięcia migracyjnego.
Środowisko pracy i cele każdej organizacji są niepowtarzalne. Dlatego trudno jest, o ile to w ogóle możliwe,
zaproponować jakąś ogólną architekturę do obsługi infrastruktury chmury prywatnej. Jednak odpowiednia
infrastruktura umożliwia wdrożenie podstawowych funkcji chmurowych, które ułatwią migrację do systemu IT
wykorzystującego potencjał chmurowy.
Zwirtualizowana pamięć masowa. Współużytkowana pamięć masowa to najważniejszy czynnik umożliwiający
przenoszenie obciążeń roboczych. Rozwiązanie takie pozwala wielu serwerom korzystać ze wspólnego obiektu
pamięci masowej, dzięki czemu funkcje przetwarzające można swobodnie przemieszczać, na przykład gdy
trzeba zrównoważyć obciążenia, przeprowadzić skalowanie czy konserwację bądź zoptymalizować wydajność.
Należy jednak pamiętać, że nie wszystkie systemy współużytkowanej pamięci masowej są faktycznie w pełni
zwirtualizowane. Mnóstwo dostępnych na rynku rozwiązań SAN i NAS jest opartych na starszych architekturach,
które mimo częściowej wirtualizacji nie umożliwiają pełnego oddzielenia logicznych obiektów pamięci masowej od
fizycznych dysków twardych i napędów SSD. Całkowicie zwirtualizowane platformy pamięci masowej odwzorowują
logiczne bloki pamięci masowej na urządzeniach fizycznych w sposób, który pozwala na płynną zmianę fizycznej
lokalizacji danych w czasie rzeczywistym, bez wpływu na funkcje przetwarzające dane.
Automatyczne dostrajanie przyspiesza i upraszcza optymalizację wydajności bez konieczności przeprowadzania
żmudnych analiz czy zatrudniania dodatkowych fachowców. Mobilne obciążenia robocze stymulują większą
ruchliwość zasobów informacyjnych. W przeszłości przenoszeniem danych zarządzał system operacyjny lub
monitor maszyn wirtualnych. Pojedyncze bity były kopiowane z pamięci masowej przez sieć SAN, przesyłane
na inny serwer za pośrednictwem sieci LAN, a następnie ponownie zapisywane
w środowisku SAN. Przenosząc zadania intensywnie korzystające z pamięci masowej
Za sprawą architektur
do środowiska SAN, eliminujemy ten mrówczy proces i zwalniamy cenne zasoby,
chmurowych zmieniają
w efekcie przyczyniając się do poprawy wydajności i wyeliminowania rozrzutnego
przydzielania zasobów.
się dominujące tendencje
ruchu sieciowego: coraz
Jednopoziomowe, zwirtualizowane sieci. W zwirtualizowanym centrum danych
częściej skupia się on nie na
można błyskawicznie przydzielać maszyny wirtualne do obsługi dodatkowych
trasie od klienta do serwera,
obciążeń roboczych. Natomiast tradycyjną sieć do komunikacji nowych maszyn
w centrum danych konfiguruje się często od dwóch do trzech tygodni. Jednym
lecz między serwerami.
z powodów tego stanu rzeczy jest fakt, że tradycyjne sieci są wstępnie skonfigurowane,
wskutek czego nie da się łatwo, bezpośrednio i na bieżąco wprowadzać zmian
w środowisku. Sieci o strukturze jednopoziomowej, takie jak architektury leaf/spine ze sterowaniem programowym,
umożliwiają automatyzację zadań związanych z projektowaniem, budowaniem i monitorowaniem sieci
szkieletowych w centrum danych, skracając czas wdrożenia o 86% w porównaniu z konfiguracją ręczną.
Wirtualizacja sieci umożliwia przydzielanie wymaganych usług sieciowych równie łatwo i szybko, jak w przypadku
maszyn wirtualnych.
Mobilność obciążeń roboczych ma głęboki wpływ na oblicze sieci. Analitycy branżowi wskazują, że 80% ruchu
w centrum danych odbywa się między serwerami w ramach architektury chmurowej (jest to tzw. ruch „poziomy”).
Zmienia to diametralnie dotychczasowy krajobraz sieciowy w centrum danych. W starszych środowiskach IT około
80% danych było przesyłanych między klientami i serwerami (w kierunku „pionowym”). Przeważająca większość
sieci korporacyjnych nadal jest oparta na składnikach sprzętowych, które zostały zaprojektowane z myślą o
takiej anachronicznej już dzisiaj strukturze ruchu sieciowego, chociaż jest to całkowicie sprzeczne z potrzebami
dotyczącymi nowoczesnych zastosowań. Optymalizacja pod kątem ruchu „poziomego” wymaga projektowania
sieci w układzie jednopoziomowym oraz odizolowania podsystemu we/wy w celu ograniczenia liczby etapów,
jakie muszą przemierzać pakiety danych. Przeniesienie działającej maszyny wirtualnej między serwerami generuje
ruch „poziomy”, ponieważ zawartość pamięci maszyny wirtualnej jest kopiowana przez sieć na serwer docelowy.
Taka operacja wykonana na maszynie wirtualnej z dużym obciążeniem może zająć nawet całą przepustowość
oddzielnego łącza 10 Gb/s. W porównaniu z tradycyjnymi rozwiązaniami do przełączania na poziomie rdzenia sieci
odizolowanie zasobów we/wy w klastrach serwerów i wprowadzenie jednopoziomowych sieci w centrum danych
często skraca czas migracji maszyn wirtualnych o 30% i zmniejsza opóźnienia nawet o 60%.
Automatyczne, aktywne monitorowanie. Utworzenie chmury opartej na podzespołach o długim średnim czasie między
awariami (MTBF) jest właściwym początkiem, ale nawet części wysokiej jakości nie będą działać wiecznie. Ważnym aspektem
utrzymania dostępności usług jest zastosowanie odpowiedniego rozwiązania do monitorowania ogólnej kondycji systemu
IT, które wysyła alerty dotyczące najważniejszych zdarzeń i automatyzuje aktywne rozwiązywanie problemów, w tym
przełączanie awaryjne. Dlatego warto wybrać infrastrukturę z funkcjami analizy na poziomie
podzespołów, które monitorują kluczowe parametry działania środowiska i wysyłają
Zintegrowane zarządzanie
odpowiednie powiadomienia.
Zarządzanie ciągłością działalności. Codzienny harmonogram tworzenia punktów
odzyskiwania w sieci SAN pozwala skuteczniej realizować cele dotyczące czasów (RTO)
i punktów (RPO) odzyskiwania danych. Należy zwrócić uwagę na tworzenie kopii
zapasowych danych. Przy użyciu migawek SAN i archiwów można spełnić krótkoi długoterminowe wymagania dotyczące celów RPO i RTO. Natomiast kopie zapasowe na
oddzielnych nośnikach wypełniają luki w ochronie, pozwalając spełnić średnioterminowe
wymagania w zakresie celów RPO i RTO. Ponadto wykorzystanie replikacji w pamięci
masowej (synchronicznej lub asynchronicznej) umożliwia zminimalizowanie przerw
w świadczeniu usług podczas awarii lokalizacji.
powala wprowadzić
powtarzalne procesy
w skali całej infrastruktury,
upraszczając świadczenie usług
IT i gwarantując spójność
implementacji.
Zintegrowane zarządzanie infrastrukturą. Integracja zarządzania pozwala wprowadzić powtarzalne procesy w skali całej
infrastruktury, upraszczając świadczenie usług IT i gwarantując spójność implementacji na danym poziomie usług. Połączenie
funkcji zarządzania monitorami maszyn wirtualnych, systemami operacyjnymi i infrastrukturą ogranicza liczbę interfejsów
używanych przez administratorów, ilość szkoleń, nakłady pracy i błędy związane z obsługą środowiska chmury. Możliwe
jest rozpoczęcie wdrożenia od infrastruktury sprzętowej, a następnie na jej podstawie opracowanie systemów gotowych do
obsługi konkretnych zadań. Systemy te będzie można następnie przydzielać w ramach puli zasobów za pomocą pojedynczej
konsoli.
Kompleksowe przydzielanie zasobów do obsługi zadań. W ramach tych działań wykrywa się, inwentaryzuje oraz konfiguruje
zasoby — obejmujące zarówno infrastrukturę, jak i aplikacje — oraz definiuje się ich pakiety na poszczególnych poziomach
usług. Dzięki temu można zarządzać cyklami eksploatacji na poziomie klastrów i maszyn wirtualnych korzystających ze
współużytkowanych pul zasobów wspierających różne poziomy usług. Dodatkową zaletą scentralizowanej konfiguracji
zasobów do obsługi konkretnych obciążeń roboczych jest to, że na każdym etapie realizacji zadań personel dysponuje
stosownymi wskazówkami, jak wykonać poszczególne czynności. Uprawnieni użytkownicy mogą tworzyć lub wycofywać
indywidualne obciążenia robocze z katalogu dostępnych usług.
Podsumowanie
Organizacje, które planują przejście na następny etap strategii IT, zwykle rozważają wdrożenie chmury prywatnej, a nawet
rozwiązania hybrydowego, które zapewnia optymalną elastyczność. Wiele firm i instytucji rozpoczyna ten proces od
samodzielnego opracowania funkcji chmurowych, zdobywając doświadczenie i wiedzę niezbędne do dalszego ulepszania
architektury środowiska informatycznego.
Dzięki współpracy z Partnerami i Klientami w różnych branżach i regionach geograficznych firma Dell zyskała szerokie
bezpośrednie umiejętności w zakresie projektowania, rozwijania i wdrażania rozwiązań chmurowych. Zdobyte doświadczenie
pozwoliło nam przygotować niniejszy dokument, w którym opisano elementy niezbędne do pomyślnego wdrożenia
środowiska chmury.
Firma Dell oferuje pełne, kompleksowe rozwiązanie, obejmujące sprzęt, oprogramowanie i usługi, które znacznie ułatwia
czerpanie z dobrodziejstw chmury. Nasze praktyczne podejście pozwala Klientom owocnie wykorzystać dotychczasowe
inwestycje, stopniowo wprowadzać funkcje chmurowe oraz uprościć zarządzanie środowiskiem na własnych warunkach.
Serwery
Pamięć
masowa
Serwery
Pamięć
masowa
Pula na poziomie
usług
Sieć
Sieć
Aby dowiedzieć się, jak stworzyć własną chmurę, odwiedź witrynę dell.com/cloud
©2014 Dell Inc. Wszelkie prawa zastrzeżone.