nie tylko backup, ale także odtworzenie

Komentarze

Transkrypt

nie tylko backup, ale także odtworzenie
USŁUGI
OCHRONA DANYCH
NIE TYLKO BACKUP,
ALE TAKŻE ODTWORZENIE
Przy planowaniu ochrony przed awarią wiele firm
rozważa i testuje tylko proces kopiowania danych do
innych nośników lub lokalizacji. Pomijanie procesów
odtwarzania kopii to poważny błąd.
MARCIN MARCINIAK
Podstawowym zadaniem, które musi zrealizować
system backupowy, jest skopiowanie danych z systemu produkcyjnego do innego zasobu, nośnika lub
nawet lokalizacji. Sama technologia ewoluowała
– od przenoszenia informacji na taśmę za pomocą
prostych narzędzi, przez systemy realizujące backup
przyrostowy i różnicowy, do radykalnie redukujących
objętość składowanych danych za pomocą deduplikacji i kompresji. Zmieniało się także źródło backupu
– od dużych maszyn klasy mainframe i potężnych
serwerów typu UNIX, przez rozległe środowiska
rozproszonego przetwarzania danych w systemach
serwerowych Linux i Windows, aż do środowisk
wirtualizowanych. Mimo dużych zmian modelu przetwarzania danych przy backupie nadal koncentrowano się na kopiowaniu i przywracaniu funkcjonalności
systemu do tej samej struktury przetwarzania
danych. Wirtualizacja zmieniła obraz pracy IT, gdyż
radykalnie przyspiesza wdrażanie systemów. Za
procesem nie nadąża stary model backupowy.
Najważniejszy nie jest „backup”,
ale „restore”
Sprawność systemu backupowego można sprawdzić tylko w jeden sposób: przywracając dane
w taki sposób, do jakiego system był zaprojektowany. W wielu wdrożeniach przy pierwszych testach
okazuje się, że proces przywracania danych trwa
Sprawność systemu
backupowego można
sprawdzić tylko w jeden
sposób: przywracając dane
i uruchamiając systemy
w testowym środowisku.
o wiele dłużej, niż zaplanowano. Pojawiają się
problemy wydajnościowe i związane ze zgodnością
ze stosowanym oprogramowaniem lub nośnikami.
Zdarzają się krytyczne błędy: sporządzona kopia
nie była kompletna lub była uszkodzona i nie można było tego sprawdzić inaczej niż przy odtworzeniu jej do testowego środowiska. Problemy mogą
być związane z wydajnością łączy między serwerami backupowymi, a także z procesem odzyskiwania
informacji z napędów taśmowych. Te nie umożliwiają szybkiego odtworzenia informacji, która jest
rozproszona wzdłuż nośnika, a najlepiej pracują
z maksymalną prędkością, zapisując i odtwarzając komplet danych. Kopia realizowana na dyski
nie ma tych wad, ale wymaga oprogramowania,
które potrafi radykalnie zredukować ilość danych i
współpracuje ze środowiskiem wirtualizowanym,
„rozumiejąc” sposób odtwarzania i przywracania
danych w takich instalacjach.
Backup, który zrozumie wirtualizację
Wirtualizacja, a zatem także praca w wysoko konsolidowanym środowisku, różni się znacząco od instalacji działającej bezpośrednio na sprzęcie. Wszystkie
operacje wejścia/wyjścia z maszyn wirtualnych na
jednym serwerze są obsługiwane przez jedną magistralę, a całe obciążenie obsługuje jeden zestaw procesorów, wykonując wielokrotnie to samo zadanie.
Przy tak zmasowanym obciążeniu należy wziąć pod
uwagę wpływ zadań backupowych na wydajność
produkcyjnego środowiska. Jeśli obciążenie będzie
bardzo wysokie, można oczekiwać zakłóceń w pracy
zadań produkcyjnych. Przypisywanie maszyn wirtualnych oraz ograniczanie jednoczesnych kopii jest
sprzeczne z automatyzacją i elastycznością środowiska wirtualizowanego.
Agenci nie mają przyszłości
W modelu pracującym na sprzęcie w każdej instancji
systemu operacyjnego na każdym z komputerów
niezbędne jest oprogramowanie agenta. Przeniesienie modelu backupu do środowiska wirtualizowanego jest możliwe i backup nadal da się wykonać, ale
nie będzie to rozwiązanie optymalne.
Partnerem tematu jest
grudzień 2012
11
Gorzej wygląda odtwarzanie takiego środowiska, gdyż polega na uruchomieniu wzorca maszyny z zainstalowanym agentem, a następnie przywrócenie wszystkich danych do środka instalacji,
korzystając z agenta. Proces wymaga dwukrotnego przetwarzania tej samej informacji. Wykorzystanie narzędzia bezagentowego, które skomunikuje
się z hypervisorem przez API, sprawia, że dane
można odtworzyć wprost do bloków dyskowych na
macierzy, co jest o wiele szybsze i mniej obciąża
CPU i storage. Wadą rozwiązania agentowego jest
to, że backupu nie można sprawdzić, dopóki nie
zostanie odtworzony do docelowego środowiska
przy działającym systemie operacyjnym. Rozwiązanie korzystające z API hypervisora umożliwia
kontrolę spójności.
Deduplikacja i kompresja
Gdyby porównać pracę backupu na sprzęcie, korzystającego z agentów i wirtualizowanego, niektóre zagadnienia są podobne w obu środowiskach.
Oba modele zakładają pomijanie zawartości
niektórych obiektów, takich jak pliki lub partycje
wymiany, gdyż obiekty będą odtworzone przy
każdym starcie systemu. Deduplikacja i kompresja
są podstawą sprawnego backupu w obu modelach.
To oznacza, że wiele bloków danych będzie się
powtarzać między obrazami systemów operacyjnych i aplikacji, a także w obrębie jednego obrazu.
Oba zagadnienia trzeba w obu modelach wykonać
inaczej, uwzględniając specyfikę środowiska – zamiast odpytać system Windows o położenie plików
wymiany, co może zrobić agent backupowy, należy
te informacje pozyskać na podstawie detali obrazów dysków wirtualnych.
Mozolne odtwarzanie
czy uruchomienie prawie od razu?
Jeśli odtworzenie kopii wiąże się z koniecznością zaimportowania wielu terabajtów
danych, czas odtwarzania zasobów liczy się
w godzinach. Niekiedy takie operacje i tak
trzeba wykonać, co występuje przy poważnych zdarzeniach. Mimo wszystko większość
zadań odtwarzania danych z kopii bezpieczeństwa dotyczy pojedynczych maszyn wirtualnych lub pojedynczych obiektów. Działania można przyspieszyć, jeśli oprogramowanie umożliwi szybkie zamontowanie maszyny
wprost z plików kopii bezpieczeństwa lub
odtworzenie z deduplikowanych zasobów.
Występuje tu istotna zależność związana ze
Komentarz eKspercKi
sposobem, w jaki przeprowadzana jest deduplikacja. Jeśli deduplikowana jest cała przestrzeń kopii, to proces wyciągnięcia danych
do pierwotnej postaci, zwany nawodnieniem,
bazuje na kompletnym archiwum, zawierającym wszystkie maszyny wirtualne. Przeprowadzona w ten sposób kopia pojedynczej
maszyny nie może być przenoszona między
instalacjami bez nawodnienia.
Deduplikacja przeprowadzana na poziomie
zadania sprawia, że kopia nie należy do globalnego zasobu storage, a zatem jest przenośna.
Ceną za to jest większe zapotrzebowanie na
pamięć dyskową, gdyż globalna deduplikacja
działa skuteczniej. Kopia wykonywana z deduplikacją realizowaną per zadanie umożliwia
nie tylko szybkie odtworzenie pojedynczej
maszyny, ale nawet możliwość zamontowania
maszyny wirtualnej wprost z plików kopii bezpieczeństwa. Oprogramowanie backupowe
może w locie dostarczyć odtworzoną zawartość
maszyny jako obraz do hypervisora, uruchamiając maszynę bezpośrednio z danych zapisanych w kopii bezpieczeństwa. W ten sposób
można testować funkcjonalność produkcyjnego
oprogramowania w rezerwowym ośrodku.

VEEAM
Kompetencje kluczowe dla strategii firmy
TOMASZ TUREK
architekt
rozwiązań
Veeam
Software
Wirtualizacja idealnie wpasowuje się w wymagania
biznesowe, gdzie dynamika, elastyczność oraz możliwość centralnego zarządzania są wyznacznikami
sprawnego funkcjonowania firmy. Biorąc powyższe
pod uwagę, Veeam Software stworzył oprogramowanie Backup&Replication dedykowane środowiskom
zwirtualizowanym. B&R jest rozwiązaniem w pełni
bezagentowym, co powinno być już standardem, pozwalającym na pełne wykorzystanie dynamiki wirtualizacji. Już nie interesuje nas, czy agent jest zainstalowany, czy firewall go nie blokuje… teraz definiujemy
zadania na bazie kontenera, w którym znajdują się
maszyny i nie martwimy się dalszymi zmianami w topologii maszyn.
Ale backup to pierwszy z elementów ochrony danych. Tym ważniejszym jest odzyskiwanie. Na tej płaszczyźnie Veeam B&R daje dużo
więcej możliwości. Pełne odzyskiwanie maszyny powinno być cechą
każdego tego typu rozwiązania. Natomiast możliwość działania na maszynie wirtualnej bezpośrednio ze skompresowanej i zdeduplikowanej
kopii zapasowej jest unikalną funkcją, ponieważ niezależnie od wielkości dysków będziemy w stanie odzyskać ją w czasie krótszym niż
5 minut. Proponowane rozwiązanie pozwala wykorzystać te same pliki
kopii zapasowych do stworzenia wyizolowanego środowiska testowego, będącego wierną kopią produkcji. Nie wymagamy żadnego dodatkowego sprzętu, a posiadając kopie zapasowe w trybie read-only, nie
ma przeciwwskazań, aby testować maszyny czy aplikacje. Tego typu
funkcjonalność daje administratorom możliwość testowania nowości
bezpośrednio na danych firmowych bez ich utraty, co pozwala na optymalizowanie decyzji rozwoju. Veeam wprowadził również nowatorską
funkcjonalność weryfikacji przywracalności kopii zapasowych. Nie
jest to sprawdzenie integralności backupu, lecz zautomatyzowane symulowane przywrócenie maszyny. Docenią to administratorzy, którym
przytrafiła się awaria systemu, a posiadana kopia okazała się nieprzydatna. Gdy nie interesuje nas przywracanie maszyn, mamy możliwość
odzyskania plików dla dowolnego wspieranego przez wirtualizator filesystemu. A aplikacje? Istnieje funkcjonalność przywracania elementów z m.in. Active Directory, gdzie przykładowo odzyskujemy użytkownika lub atrybut, MS SQL dla całych baz czy pojedynczych tabel, jak
również MS Exchange pozwalające nam przywrócić skrzynki, pojedyncze e-maile, a nawet załączniki. Możemy następnie wstrzykiwać takie
elementy bezpośrednio do systemów produkcyjnych bez potrzeby ich
wyłączania. Co jeszcze? Zaawansowane możliwości replikacji maszyn
wirtualnych można wykorzystać jako mechanizm HA lub DR poprzez
przełączanie między lokalizacjami. A wszystko to w pojedynczym produkcie rozumiejącym wirtualizację – Veeam Backup&Replication.
VEEAM
Bezpieczna wirtualizacja
Wirtualizacja staje się powszechna i wkracza do coraz mniejszych organizacji. Zabezpieczenie jej poprzez archiwizację i replikację
staje się coraz ważniejszym składnikiem w polityce bezpieczeństwa działów IT.
Wirtualizacja w centrach danych przyzwyczaja odbiorców usług do całkowicie
nowej dynamiki w IT. Maszyny wirtualne, a co za tym idzie – usługi mogą być
tworzone w przeciągu minut, po wykorzystaniu mogą być natychmiast usunięte,
a zasoby przez nie używane – odzyskane.
Zabezpieczanie aplikacji działających
w zwirtualizowanym centrum danych też
staje się prostsze, dzięki mechanizmom
wbudowanym w hypervisory i oderwaniu
instalacji systemu operacyjnego od sprzętu,
na którym uruchomiona jest wirtualna
maszyna. Bardzo często jednak wygoda po
wdrożeniu środowisk wirtualnych „usypia”
czujność administratorów, którzy zapominają o tak podstawowych zadaniach, jak
archiwizowanie wirtualnych maszyn i ich
danych. W światowych badaniach przeprowadzanych przez firmy analityczne ponad 19% firm korzystających z wirtualizacji przyznaje się do braku jakiejkolwiek polityki
zabezpieczania środowisk wirtualnych. W Polsce odsetek takich
firm wydaje się jeszcze większy. Jednocześnie wirtualizacja staje
się standardem w coraz mniejszych organizacjach, które doceniają
wygodę tworzenia wirtualnej infrastruktury.
Narzędzi do tworzenia kopii bezpieczeństwa jest bardzo dużo.
Wiele z nich powstało jeszcze przed narodzinami wirtualizacji
i tworzą kopie zapasowe w tradycyjny sposób – za pomocą agenta
instalowanego w każdej instancji systemu operacyjnego uruchomionego w wirtualnej maszynie. To podejście jest dobre z punktu
widzenia dostawcy oprogramowania, bo nie wymaga od niego
zmiany filozofii pracy produktu, zmiany przyzwyczajeń dotychczasowych klientów, zmiany kodu w produkcie itp. Z punktu widzenia
administratora zarządzającego wirtualizacją rozwiązanie takie ma
mnóstwo wad. Mechanizmy i filozofia wirtualizacji nie są w ogóle
przez takie rozwiązanie wykorzystywane. Można powiedzieć, że te
rozwiązania nie rozumieją wirtualizacji. Narzędzia do wykonywania
kopii zapasowych w świecie wirtualnym muszą wykorzystywać mechanizmy dostarczone na poziomie hypervisora. Ale zrobienie kopii
zapasowej to dopiero połowa sukcesu. Odbiorcy usług opartych
na wirtualizacji oczekują równie szybkich czasów odtworzenia. Nie
przyjmują do wiadomości, że po stworzeniu maszyny wirtualnej
w kilka minut, na odtworzenie tej samej maszyny wirtualnej po
katastrofie muszą czekać godzinami czy nawet dniami. W przypadku tradycyjnych rozwiązań zastosowane technologie po prostu
nie pozwalają na osiągnięcie lepszych wyników, bo rozwiązania
te traktują wirtualne maszyny jak normalne maszyny fizyczne
i oferują odtworzenie w trybach dostępnych dla świata fizycznego. Rozwiązania dedykowane wirtualizacji i tworzone z myślą
o niej potrafią drastycznie zmniejszyć czasy odtworzenia. Mogą
zapewnić możliwość natychmiastowego uruchomienia wirtualnej
maszyny bezpośrednio ze zdeduplikowanego i skompresowanego
pliku archiwum, bez potrzeby pełnego odtwarzania i zajmowania
produkcyjnej przestrzeni dyskowej.
Zabezpieczenie środowisk wirtualnych to jednak nie tylko
archiwizacja. Wirtualizacja obniżyła koszty jeszcze jednego
elementu bezpiecznej infrastruktury IT – tworzenia centrów
zapasowych. Stworzenie centrum zapasowego dla fizycznego
środowiska produkcyjnego wymaga budowy takiej samej infrastruktury w centrum zapasowym, z taką samą platformą sprzętową, z taką samą wydajnością i pojemnością. Centrum zapasowe
dla środowiska wirtualnego to po prostu kilka hostów fizycznych
z uruchomionym hypervisorem i zreplikowanymi z centrum produkcyjnego maszynami wirtualnymi, które nie muszą być uruchomione i czekają na awarię centrum podstawowego. Z racji filozofii
wirtualizacji platforma sprzętowa dla hostów może być zupełnie
inna, można wykorzystać sprzęt trochę starszej generacji, i przeznaczyć do replikacji tylko systemy krytyczne z punktu widzenia
przedsiębiorstwa. Replikacja maszyn wirtualnych jest prosta,
nie wymaga zestawiania specjalnych łączy pomiędzy lokalizacjami i może wykorzystywać nawet najprostsze podłączenie do
internetu (z wykorzystaniem technologii VPN). Należy pamiętać,
że w narzędziach do wirtualizacji są wbudowane mechanizmy do
zabezpieczania przed awarią pojedynczych hostów, ale nic nie
zabezpieczy przed utratą całej serwerowni lepiej niż utworzenie
serwerowni zapasowej.
Z punktu widzenia bezpieczeństwa IT środowiska zwirtualizowane powinny być traktowane z co najmniej taką samą – jak nie większą – uwagą, co środowiska fizyczne. Używane do zabezpieczania
narzędzia powinny wykorzystywać pełną gamę dostarczanych na
poziomie hypervisora funkcji, by cały proces był szybki oraz prosty
we drożeniu i utrzymaniu.
Veeam Software
ul. Postępu 15C
02-676 Warszawa
tel.: +48 22 381 69 85
e-mail: [email protected]