Infrastruktura chmury prywatnej — czy masz, co trzeba?
Transkrypt
Infrastruktura chmury prywatnej — czy masz, co trzeba?
Biuletyn techniczny / Przerwa na kawę Infrastruktura chmury prywatnej — czy masz, co trzeba? Na wprowadzenie wewnętrznych usług chmurowych decyduje się coraz więcej organizacji, w związku z czym na działy IT spada praktyczna odpowiedzialność za przygotowanie i przeprowadzenie przedsięwzięcia migracyjnego. Środowisko pracy i cele każdej organizacji są niepowtarzalne. Dlatego trudno jest, o ile to w ogóle możliwe, zaproponować jakąś ogólną architekturę do obsługi infrastruktury chmury prywatnej. Jednak odpowiednia infrastruktura umożliwia wdrożenie podstawowych funkcji chmurowych, które ułatwią migrację do systemu IT wykorzystującego potencjał chmurowy. Zwirtualizowana pamięć masowa. Współużytkowana pamięć masowa to najważniejszy czynnik umożliwiający przenoszenie obciążeń roboczych. Rozwiązanie takie pozwala wielu serwerom korzystać ze wspólnego obiektu pamięci masowej, dzięki czemu funkcje przetwarzające można swobodnie przemieszczać, na przykład gdy trzeba zrównoważyć obciążenia, przeprowadzić skalowanie czy konserwację bądź zoptymalizować wydajność. Należy jednak pamiętać, że nie wszystkie systemy współużytkowanej pamięci masowej są faktycznie w pełni zwirtualizowane. Mnóstwo dostępnych na rynku rozwiązań SAN i NAS jest opartych na starszych architekturach, które mimo częściowej wirtualizacji nie umożliwiają pełnego oddzielenia logicznych obiektów pamięci masowej od fizycznych dysków twardych i napędów SSD. Całkowicie zwirtualizowane platformy pamięci masowej odwzorowują logiczne bloki pamięci masowej na urządzeniach fizycznych w sposób, który pozwala na płynną zmianę fizycznej lokalizacji danych w czasie rzeczywistym, bez wpływu na funkcje przetwarzające dane. Automatyczne dostrajanie przyspiesza i upraszcza optymalizację wydajności bez konieczności przeprowadzania żmudnych analiz czy zatrudniania dodatkowych fachowców. Mobilne obciążenia robocze stymulują większą ruchliwość zasobów informacyjnych. W przeszłości przenoszeniem danych zarządzał system operacyjny lub monitor maszyn wirtualnych. Pojedyncze bity były kopiowane z pamięci masowej przez sieć SAN, przesyłane na inny serwer za pośrednictwem sieci LAN, a następnie ponownie zapisywane w środowisku SAN. Przenosząc zadania intensywnie korzystające z pamięci masowej Za sprawą architektur do środowiska SAN, eliminujemy ten mrówczy proces i zwalniamy cenne zasoby, chmurowych zmieniają w efekcie przyczyniając się do poprawy wydajności i wyeliminowania rozrzutnego przydzielania zasobów. się dominujące tendencje ruchu sieciowego: coraz Jednopoziomowe, zwirtualizowane sieci. W zwirtualizowanym centrum danych częściej skupia się on nie na można błyskawicznie przydzielać maszyny wirtualne do obsługi dodatkowych trasie od klienta do serwera, obciążeń roboczych. Natomiast tradycyjną sieć do komunikacji nowych maszyn w centrum danych konfiguruje się często od dwóch do trzech tygodni. Jednym lecz między serwerami. z powodów tego stanu rzeczy jest fakt, że tradycyjne sieci są wstępnie skonfigurowane, wskutek czego nie da się łatwo, bezpośrednio i na bieżąco wprowadzać zmian w środowisku. Sieci o strukturze jednopoziomowej, takie jak architektury leaf/spine ze sterowaniem programowym, umożliwiają automatyzację zadań związanych z projektowaniem, budowaniem i monitorowaniem sieci szkieletowych w centrum danych, skracając czas wdrożenia o 86% w porównaniu z konfiguracją ręczną. Wirtualizacja sieci umożliwia przydzielanie wymaganych usług sieciowych równie łatwo i szybko, jak w przypadku maszyn wirtualnych. Mobilność obciążeń roboczych ma głęboki wpływ na oblicze sieci. Analitycy branżowi wskazują, że 80% ruchu w centrum danych odbywa się między serwerami w ramach architektury chmurowej (jest to tzw. ruch „poziomy”). Zmienia to diametralnie dotychczasowy krajobraz sieciowy w centrum danych. W starszych środowiskach IT około 80% danych było przesyłanych między klientami i serwerami (w kierunku „pionowym”). Przeważająca większość sieci korporacyjnych nadal jest oparta na składnikach sprzętowych, które zostały zaprojektowane z myślą o takiej anachronicznej już dzisiaj strukturze ruchu sieciowego, chociaż jest to całkowicie sprzeczne z potrzebami dotyczącymi nowoczesnych zastosowań. Optymalizacja pod kątem ruchu „poziomego” wymaga projektowania sieci w układzie jednopoziomowym oraz odizolowania podsystemu we/wy w celu ograniczenia liczby etapów, jakie muszą przemierzać pakiety danych. Przeniesienie działającej maszyny wirtualnej między serwerami generuje ruch „poziomy”, ponieważ zawartość pamięci maszyny wirtualnej jest kopiowana przez sieć na serwer docelowy. Taka operacja wykonana na maszynie wirtualnej z dużym obciążeniem może zająć nawet całą przepustowość oddzielnego łącza 10 Gb/s. W porównaniu z tradycyjnymi rozwiązaniami do przełączania na poziomie rdzenia sieci odizolowanie zasobów we/wy w klastrach serwerów i wprowadzenie jednopoziomowych sieci w centrum danych często skraca czas migracji maszyn wirtualnych o 30% i zmniejsza opóźnienia nawet o 60%. Automatyczne, aktywne monitorowanie. Utworzenie chmury opartej na podzespołach o długim średnim czasie między awariami (MTBF) jest właściwym początkiem, ale nawet części wysokiej jakości nie będą działać wiecznie. Ważnym aspektem utrzymania dostępności usług jest zastosowanie odpowiedniego rozwiązania do monitorowania ogólnej kondycji systemu IT, które wysyła alerty dotyczące najważniejszych zdarzeń i automatyzuje aktywne rozwiązywanie problemów, w tym przełączanie awaryjne. Dlatego warto wybrać infrastrukturę z funkcjami analizy na poziomie podzespołów, które monitorują kluczowe parametry działania środowiska i wysyłają Zintegrowane zarządzanie odpowiednie powiadomienia. Zarządzanie ciągłością działalności. Codzienny harmonogram tworzenia punktów odzyskiwania w sieci SAN pozwala skuteczniej realizować cele dotyczące czasów (RTO) i punktów (RPO) odzyskiwania danych. Należy zwrócić uwagę na tworzenie kopii zapasowych danych. Przy użyciu migawek SAN i archiwów można spełnić krótkoi długoterminowe wymagania dotyczące celów RPO i RTO. Natomiast kopie zapasowe na oddzielnych nośnikach wypełniają luki w ochronie, pozwalając spełnić średnioterminowe wymagania w zakresie celów RPO i RTO. Ponadto wykorzystanie replikacji w pamięci masowej (synchronicznej lub asynchronicznej) umożliwia zminimalizowanie przerw w świadczeniu usług podczas awarii lokalizacji. powala wprowadzić powtarzalne procesy w skali całej infrastruktury, upraszczając świadczenie usług IT i gwarantując spójność implementacji. Zintegrowane zarządzanie infrastrukturą. Integracja zarządzania pozwala wprowadzić powtarzalne procesy w skali całej infrastruktury, upraszczając świadczenie usług IT i gwarantując spójność implementacji na danym poziomie usług. Połączenie funkcji zarządzania monitorami maszyn wirtualnych, systemami operacyjnymi i infrastrukturą ogranicza liczbę interfejsów używanych przez administratorów, ilość szkoleń, nakłady pracy i błędy związane z obsługą środowiska chmury. Możliwe jest rozpoczęcie wdrożenia od infrastruktury sprzętowej, a następnie na jej podstawie opracowanie systemów gotowych do obsługi konkretnych zadań. Systemy te będzie można następnie przydzielać w ramach puli zasobów za pomocą pojedynczej konsoli. Kompleksowe przydzielanie zasobów do obsługi zadań. W ramach tych działań wykrywa się, inwentaryzuje oraz konfiguruje zasoby — obejmujące zarówno infrastrukturę, jak i aplikacje — oraz definiuje się ich pakiety na poszczególnych poziomach usług. Dzięki temu można zarządzać cyklami eksploatacji na poziomie klastrów i maszyn wirtualnych korzystających ze współużytkowanych pul zasobów wspierających różne poziomy usług. Dodatkową zaletą scentralizowanej konfiguracji zasobów do obsługi konkretnych obciążeń roboczych jest to, że na każdym etapie realizacji zadań personel dysponuje stosownymi wskazówkami, jak wykonać poszczególne czynności. Uprawnieni użytkownicy mogą tworzyć lub wycofywać indywidualne obciążenia robocze z katalogu dostępnych usług. Podsumowanie Organizacje, które planują przejście na następny etap strategii IT, zwykle rozważają wdrożenie chmury prywatnej, a nawet rozwiązania hybrydowego, które zapewnia optymalną elastyczność. Wiele firm i instytucji rozpoczyna ten proces od samodzielnego opracowania funkcji chmurowych, zdobywając doświadczenie i wiedzę niezbędne do dalszego ulepszania architektury środowiska informatycznego. Dzięki współpracy z Partnerami i Klientami w różnych branżach i regionach geograficznych firma Dell zyskała szerokie bezpośrednie umiejętności w zakresie projektowania, rozwijania i wdrażania rozwiązań chmurowych. Zdobyte doświadczenie pozwoliło nam przygotować niniejszy dokument, w którym opisano elementy niezbędne do pomyślnego wdrożenia środowiska chmury. Firma Dell oferuje pełne, kompleksowe rozwiązanie, obejmujące sprzęt, oprogramowanie i usługi, które znacznie ułatwia czerpanie z dobrodziejstw chmury. Nasze praktyczne podejście pozwala Klientom owocnie wykorzystać dotychczasowe inwestycje, stopniowo wprowadzać funkcje chmurowe oraz uprościć zarządzanie środowiskiem na własnych warunkach. Serwery Pamięć masowa Serwery Pamięć masowa Pula na poziomie usług Sieć Sieć Aby dowiedzieć się, jak stworzyć własną chmurę, odwiedź witrynę dell.com/cloud ©2014 Dell Inc. Wszelkie prawa zastrzeżone.