nie tylko backup, ale także odtworzenie
Transkrypt
nie tylko backup, ale także odtworzenie
USŁUGI OCHRONA DANYCH NIE TYLKO BACKUP, ALE TAKŻE ODTWORZENIE Przy planowaniu ochrony przed awarią wiele firm rozważa i testuje tylko proces kopiowania danych do innych nośników lub lokalizacji. Pomijanie procesów odtwarzania kopii to poważny błąd. MARCIN MARCINIAK Podstawowym zadaniem, które musi zrealizować system backupowy, jest skopiowanie danych z systemu produkcyjnego do innego zasobu, nośnika lub nawet lokalizacji. Sama technologia ewoluowała – od przenoszenia informacji na taśmę za pomocą prostych narzędzi, przez systemy realizujące backup przyrostowy i różnicowy, do radykalnie redukujących objętość składowanych danych za pomocą deduplikacji i kompresji. Zmieniało się także źródło backupu – od dużych maszyn klasy mainframe i potężnych serwerów typu UNIX, przez rozległe środowiska rozproszonego przetwarzania danych w systemach serwerowych Linux i Windows, aż do środowisk wirtualizowanych. Mimo dużych zmian modelu przetwarzania danych przy backupie nadal koncentrowano się na kopiowaniu i przywracaniu funkcjonalności systemu do tej samej struktury przetwarzania danych. Wirtualizacja zmieniła obraz pracy IT, gdyż radykalnie przyspiesza wdrażanie systemów. Za procesem nie nadąża stary model backupowy. Najważniejszy nie jest „backup”, ale „restore” Sprawność systemu backupowego można sprawdzić tylko w jeden sposób: przywracając dane w taki sposób, do jakiego system był zaprojektowany. W wielu wdrożeniach przy pierwszych testach okazuje się, że proces przywracania danych trwa Sprawność systemu backupowego można sprawdzić tylko w jeden sposób: przywracając dane i uruchamiając systemy w testowym środowisku. o wiele dłużej, niż zaplanowano. Pojawiają się problemy wydajnościowe i związane ze zgodnością ze stosowanym oprogramowaniem lub nośnikami. Zdarzają się krytyczne błędy: sporządzona kopia nie była kompletna lub była uszkodzona i nie można było tego sprawdzić inaczej niż przy odtworzeniu jej do testowego środowiska. Problemy mogą być związane z wydajnością łączy między serwerami backupowymi, a także z procesem odzyskiwania informacji z napędów taśmowych. Te nie umożliwiają szybkiego odtworzenia informacji, która jest rozproszona wzdłuż nośnika, a najlepiej pracują z maksymalną prędkością, zapisując i odtwarzając komplet danych. Kopia realizowana na dyski nie ma tych wad, ale wymaga oprogramowania, które potrafi radykalnie zredukować ilość danych i współpracuje ze środowiskiem wirtualizowanym, „rozumiejąc” sposób odtwarzania i przywracania danych w takich instalacjach. Backup, który zrozumie wirtualizację Wirtualizacja, a zatem także praca w wysoko konsolidowanym środowisku, różni się znacząco od instalacji działającej bezpośrednio na sprzęcie. Wszystkie operacje wejścia/wyjścia z maszyn wirtualnych na jednym serwerze są obsługiwane przez jedną magistralę, a całe obciążenie obsługuje jeden zestaw procesorów, wykonując wielokrotnie to samo zadanie. Przy tak zmasowanym obciążeniu należy wziąć pod uwagę wpływ zadań backupowych na wydajność produkcyjnego środowiska. Jeśli obciążenie będzie bardzo wysokie, można oczekiwać zakłóceń w pracy zadań produkcyjnych. Przypisywanie maszyn wirtualnych oraz ograniczanie jednoczesnych kopii jest sprzeczne z automatyzacją i elastycznością środowiska wirtualizowanego. Agenci nie mają przyszłości W modelu pracującym na sprzęcie w każdej instancji systemu operacyjnego na każdym z komputerów niezbędne jest oprogramowanie agenta. Przeniesienie modelu backupu do środowiska wirtualizowanego jest możliwe i backup nadal da się wykonać, ale nie będzie to rozwiązanie optymalne. Partnerem tematu jest grudzień 2012 11 Gorzej wygląda odtwarzanie takiego środowiska, gdyż polega na uruchomieniu wzorca maszyny z zainstalowanym agentem, a następnie przywrócenie wszystkich danych do środka instalacji, korzystając z agenta. Proces wymaga dwukrotnego przetwarzania tej samej informacji. Wykorzystanie narzędzia bezagentowego, które skomunikuje się z hypervisorem przez API, sprawia, że dane można odtworzyć wprost do bloków dyskowych na macierzy, co jest o wiele szybsze i mniej obciąża CPU i storage. Wadą rozwiązania agentowego jest to, że backupu nie można sprawdzić, dopóki nie zostanie odtworzony do docelowego środowiska przy działającym systemie operacyjnym. Rozwiązanie korzystające z API hypervisora umożliwia kontrolę spójności. Deduplikacja i kompresja Gdyby porównać pracę backupu na sprzęcie, korzystającego z agentów i wirtualizowanego, niektóre zagadnienia są podobne w obu środowiskach. Oba modele zakładają pomijanie zawartości niektórych obiektów, takich jak pliki lub partycje wymiany, gdyż obiekty będą odtworzone przy każdym starcie systemu. Deduplikacja i kompresja są podstawą sprawnego backupu w obu modelach. To oznacza, że wiele bloków danych będzie się powtarzać między obrazami systemów operacyjnych i aplikacji, a także w obrębie jednego obrazu. Oba zagadnienia trzeba w obu modelach wykonać inaczej, uwzględniając specyfikę środowiska – zamiast odpytać system Windows o położenie plików wymiany, co może zrobić agent backupowy, należy te informacje pozyskać na podstawie detali obrazów dysków wirtualnych. Mozolne odtwarzanie czy uruchomienie prawie od razu? Jeśli odtworzenie kopii wiąże się z koniecznością zaimportowania wielu terabajtów danych, czas odtwarzania zasobów liczy się w godzinach. Niekiedy takie operacje i tak trzeba wykonać, co występuje przy poważnych zdarzeniach. Mimo wszystko większość zadań odtwarzania danych z kopii bezpieczeństwa dotyczy pojedynczych maszyn wirtualnych lub pojedynczych obiektów. Działania można przyspieszyć, jeśli oprogramowanie umożliwi szybkie zamontowanie maszyny wprost z plików kopii bezpieczeństwa lub odtworzenie z deduplikowanych zasobów. Występuje tu istotna zależność związana ze Komentarz eKspercKi sposobem, w jaki przeprowadzana jest deduplikacja. Jeśli deduplikowana jest cała przestrzeń kopii, to proces wyciągnięcia danych do pierwotnej postaci, zwany nawodnieniem, bazuje na kompletnym archiwum, zawierającym wszystkie maszyny wirtualne. Przeprowadzona w ten sposób kopia pojedynczej maszyny nie może być przenoszona między instalacjami bez nawodnienia. Deduplikacja przeprowadzana na poziomie zadania sprawia, że kopia nie należy do globalnego zasobu storage, a zatem jest przenośna. Ceną za to jest większe zapotrzebowanie na pamięć dyskową, gdyż globalna deduplikacja działa skuteczniej. Kopia wykonywana z deduplikacją realizowaną per zadanie umożliwia nie tylko szybkie odtworzenie pojedynczej maszyny, ale nawet możliwość zamontowania maszyny wirtualnej wprost z plików kopii bezpieczeństwa. Oprogramowanie backupowe może w locie dostarczyć odtworzoną zawartość maszyny jako obraz do hypervisora, uruchamiając maszynę bezpośrednio z danych zapisanych w kopii bezpieczeństwa. W ten sposób można testować funkcjonalność produkcyjnego oprogramowania w rezerwowym ośrodku. VEEAM Kompetencje kluczowe dla strategii firmy TOMASZ TUREK architekt rozwiązań Veeam Software Wirtualizacja idealnie wpasowuje się w wymagania biznesowe, gdzie dynamika, elastyczność oraz możliwość centralnego zarządzania są wyznacznikami sprawnego funkcjonowania firmy. Biorąc powyższe pod uwagę, Veeam Software stworzył oprogramowanie Backup&Replication dedykowane środowiskom zwirtualizowanym. B&R jest rozwiązaniem w pełni bezagentowym, co powinno być już standardem, pozwalającym na pełne wykorzystanie dynamiki wirtualizacji. Już nie interesuje nas, czy agent jest zainstalowany, czy firewall go nie blokuje… teraz definiujemy zadania na bazie kontenera, w którym znajdują się maszyny i nie martwimy się dalszymi zmianami w topologii maszyn. Ale backup to pierwszy z elementów ochrony danych. Tym ważniejszym jest odzyskiwanie. Na tej płaszczyźnie Veeam B&R daje dużo więcej możliwości. Pełne odzyskiwanie maszyny powinno być cechą każdego tego typu rozwiązania. Natomiast możliwość działania na maszynie wirtualnej bezpośrednio ze skompresowanej i zdeduplikowanej kopii zapasowej jest unikalną funkcją, ponieważ niezależnie od wielkości dysków będziemy w stanie odzyskać ją w czasie krótszym niż 5 minut. Proponowane rozwiązanie pozwala wykorzystać te same pliki kopii zapasowych do stworzenia wyizolowanego środowiska testowego, będącego wierną kopią produkcji. Nie wymagamy żadnego dodatkowego sprzętu, a posiadając kopie zapasowe w trybie read-only, nie ma przeciwwskazań, aby testować maszyny czy aplikacje. Tego typu funkcjonalność daje administratorom możliwość testowania nowości bezpośrednio na danych firmowych bez ich utraty, co pozwala na optymalizowanie decyzji rozwoju. Veeam wprowadził również nowatorską funkcjonalność weryfikacji przywracalności kopii zapasowych. Nie jest to sprawdzenie integralności backupu, lecz zautomatyzowane symulowane przywrócenie maszyny. Docenią to administratorzy, którym przytrafiła się awaria systemu, a posiadana kopia okazała się nieprzydatna. Gdy nie interesuje nas przywracanie maszyn, mamy możliwość odzyskania plików dla dowolnego wspieranego przez wirtualizator filesystemu. A aplikacje? Istnieje funkcjonalność przywracania elementów z m.in. Active Directory, gdzie przykładowo odzyskujemy użytkownika lub atrybut, MS SQL dla całych baz czy pojedynczych tabel, jak również MS Exchange pozwalające nam przywrócić skrzynki, pojedyncze e-maile, a nawet załączniki. Możemy następnie wstrzykiwać takie elementy bezpośrednio do systemów produkcyjnych bez potrzeby ich wyłączania. Co jeszcze? Zaawansowane możliwości replikacji maszyn wirtualnych można wykorzystać jako mechanizm HA lub DR poprzez przełączanie między lokalizacjami. A wszystko to w pojedynczym produkcie rozumiejącym wirtualizację – Veeam Backup&Replication. VEEAM Bezpieczna wirtualizacja Wirtualizacja staje się powszechna i wkracza do coraz mniejszych organizacji. Zabezpieczenie jej poprzez archiwizację i replikację staje się coraz ważniejszym składnikiem w polityce bezpieczeństwa działów IT. Wirtualizacja w centrach danych przyzwyczaja odbiorców usług do całkowicie nowej dynamiki w IT. Maszyny wirtualne, a co za tym idzie – usługi mogą być tworzone w przeciągu minut, po wykorzystaniu mogą być natychmiast usunięte, a zasoby przez nie używane – odzyskane. Zabezpieczanie aplikacji działających w zwirtualizowanym centrum danych też staje się prostsze, dzięki mechanizmom wbudowanym w hypervisory i oderwaniu instalacji systemu operacyjnego od sprzętu, na którym uruchomiona jest wirtualna maszyna. Bardzo często jednak wygoda po wdrożeniu środowisk wirtualnych „usypia” czujność administratorów, którzy zapominają o tak podstawowych zadaniach, jak archiwizowanie wirtualnych maszyn i ich danych. W światowych badaniach przeprowadzanych przez firmy analityczne ponad 19% firm korzystających z wirtualizacji przyznaje się do braku jakiejkolwiek polityki zabezpieczania środowisk wirtualnych. W Polsce odsetek takich firm wydaje się jeszcze większy. Jednocześnie wirtualizacja staje się standardem w coraz mniejszych organizacjach, które doceniają wygodę tworzenia wirtualnej infrastruktury. Narzędzi do tworzenia kopii bezpieczeństwa jest bardzo dużo. Wiele z nich powstało jeszcze przed narodzinami wirtualizacji i tworzą kopie zapasowe w tradycyjny sposób – za pomocą agenta instalowanego w każdej instancji systemu operacyjnego uruchomionego w wirtualnej maszynie. To podejście jest dobre z punktu widzenia dostawcy oprogramowania, bo nie wymaga od niego zmiany filozofii pracy produktu, zmiany przyzwyczajeń dotychczasowych klientów, zmiany kodu w produkcie itp. Z punktu widzenia administratora zarządzającego wirtualizacją rozwiązanie takie ma mnóstwo wad. Mechanizmy i filozofia wirtualizacji nie są w ogóle przez takie rozwiązanie wykorzystywane. Można powiedzieć, że te rozwiązania nie rozumieją wirtualizacji. Narzędzia do wykonywania kopii zapasowych w świecie wirtualnym muszą wykorzystywać mechanizmy dostarczone na poziomie hypervisora. Ale zrobienie kopii zapasowej to dopiero połowa sukcesu. Odbiorcy usług opartych na wirtualizacji oczekują równie szybkich czasów odtworzenia. Nie przyjmują do wiadomości, że po stworzeniu maszyny wirtualnej w kilka minut, na odtworzenie tej samej maszyny wirtualnej po katastrofie muszą czekać godzinami czy nawet dniami. W przypadku tradycyjnych rozwiązań zastosowane technologie po prostu nie pozwalają na osiągnięcie lepszych wyników, bo rozwiązania te traktują wirtualne maszyny jak normalne maszyny fizyczne i oferują odtworzenie w trybach dostępnych dla świata fizycznego. Rozwiązania dedykowane wirtualizacji i tworzone z myślą o niej potrafią drastycznie zmniejszyć czasy odtworzenia. Mogą zapewnić możliwość natychmiastowego uruchomienia wirtualnej maszyny bezpośrednio ze zdeduplikowanego i skompresowanego pliku archiwum, bez potrzeby pełnego odtwarzania i zajmowania produkcyjnej przestrzeni dyskowej. Zabezpieczenie środowisk wirtualnych to jednak nie tylko archiwizacja. Wirtualizacja obniżyła koszty jeszcze jednego elementu bezpiecznej infrastruktury IT – tworzenia centrów zapasowych. Stworzenie centrum zapasowego dla fizycznego środowiska produkcyjnego wymaga budowy takiej samej infrastruktury w centrum zapasowym, z taką samą platformą sprzętową, z taką samą wydajnością i pojemnością. Centrum zapasowe dla środowiska wirtualnego to po prostu kilka hostów fizycznych z uruchomionym hypervisorem i zreplikowanymi z centrum produkcyjnego maszynami wirtualnymi, które nie muszą być uruchomione i czekają na awarię centrum podstawowego. Z racji filozofii wirtualizacji platforma sprzętowa dla hostów może być zupełnie inna, można wykorzystać sprzęt trochę starszej generacji, i przeznaczyć do replikacji tylko systemy krytyczne z punktu widzenia przedsiębiorstwa. Replikacja maszyn wirtualnych jest prosta, nie wymaga zestawiania specjalnych łączy pomiędzy lokalizacjami i może wykorzystywać nawet najprostsze podłączenie do internetu (z wykorzystaniem technologii VPN). Należy pamiętać, że w narzędziach do wirtualizacji są wbudowane mechanizmy do zabezpieczania przed awarią pojedynczych hostów, ale nic nie zabezpieczy przed utratą całej serwerowni lepiej niż utworzenie serwerowni zapasowej. Z punktu widzenia bezpieczeństwa IT środowiska zwirtualizowane powinny być traktowane z co najmniej taką samą – jak nie większą – uwagą, co środowiska fizyczne. Używane do zabezpieczania narzędzia powinny wykorzystywać pełną gamę dostarczanych na poziomie hypervisora funkcji, by cały proces był szybki oraz prosty we drożeniu i utrzymaniu. Veeam Software ul. Postępu 15C 02-676 Warszawa tel.: +48 22 381 69 85 e-mail: [email protected]