Konfiguracja sprzętu i oprogramowania

Opracowanie strategii tworzenia kopii zapasowych. Metody i narzędzia integralności danych Przegląd systemów kopii zapasowych

Książka przeznaczona jest dla czytelników zaznajomionych z systemami komputerowymi i branżą. Technologie informacyjne oraz tych, którzy chcą poszerzyć swoją wiedzę o systemach pamięci masowej i architekturze Windows NT, bezpośrednio związanej z takimi systemami. Książka skupia się na systemach pamięci masowej dla przedsiębiorstw, mniej uwagi poświęca się systemom na poziomie konsumenckim. Niniejsza publikacja stara się wspierać interesy specjalistów od oprogramowania, którzy mają niewielką wiedzę na temat technologii pamięci masowej, oraz specjalistów od pamięci masowych, którzy poszukują dodatkowej wiedzy na temat architektury pamięci masowej i przetwarzania systemu Windows NT. Jednocześnie książka zainteresuje wszystkich czytelników, którzy zamierzają uzyskać wyczerpujące informacje na opisywany temat.

Książka:

Sekcje na tej stronie:

Istnieją różne schematy tworzenia kopii zapasowych, które są używane na przykład w centrum danych. Warto zauważyć, że różne kategorie kopii zapasowych mogą być używane razem. Kopia zapasowa jest klasyfikowana w następujący sposób:

oparta na architekturze;

oparte na funkcjonalności;

w oparciu o infrastrukturę sieciową.

Rozważmy bardziej szczegółowo każdy rodzaj klasyfikacji.

5.3.1 Klasyfikacja kopii zapasowych oparta na architekturze

Jeden rodzaj klasyfikacji kopii zapasowych opiera się na architekturze. Kopia zapasowa zależy od obiektów, do których jest stosowana, oraz od tego, w jakim stopniu aplikacja do tworzenia kopii zapasowych obsługuje takie obiekty. Dostępne typy kopii zapasowych w architekturze zostały opisane w rozdziałach 5.3.1.1–5.3.1.3.

5.3.1.1 Backup na poziomie obrazów dysków i bloków logicznych

W takim przypadku aplikacja do tworzenia kopii zapasowych działa z blokami danych. Zazwyczaj taki schemat tworzenia kopii zapasowych wymaga zakończenia dostępu do skopiowanych danych ze wszystkich aplikacji na serwerze. Aplikacja uzyskuje dostęp do dysku twardego niezależnie od jego wewnętrznej struktury, a następnie wykonuje operacje odczytu/zapisu na poziomie bloków logicznych.>

Zaletą tego typu kopii zapasowych jest szybkość operacji tworzenia kopii zapasowych i przywracania, co jest szczególnie ważne w przypadku odzyskiwania danych po krytycznych awariach systemu. Wadą jest to, że istnieje zakaz dostępu do dysku przez aplikacje, a nawet system operacyjny. Kolejną wadą jest kopiowanie nadmiernej ilości nieużywanych bloków logicznych z kopii zapasowej podczas tworzenia kopii zapasowej dysku z dozwolonymi plikami. Niektóre aplikacje do tworzenia kopii zapasowych zapewniają odpowiednią logikę programowania niezbędną do wykrywania i pomijania nieużywanych bloków logicznych. Te kopie zapasowe nazywają się rzadkie kopie obrazu dysku.

Wreszcie, dość trudno jest odzyskać tylko określony plik lub kilka plików, w przeciwieństwie do przywracania wszystkich danych na dysku. W tym celu oprogramowanie do tworzenia kopii zapasowych musi przetworzyć metadane systemu plików zapisane na taśmie i obliczyć na taśmie lokalizację wymaganego pliku. Niektóre programy umożliwiają przywracanie określonych plików z kopii zapasowej na poziomie obrazu, ale tylko w przypadku niektórych systemów operacyjnych. Inne aplikacje próbują zoptymalizować odzyskiwanie plików z kopii zapasowej na poziomie obrazu, zapisując na taśmie metadane plików, takie jak tabela lokalizacji plików dla systemu plików FAT16.

Wersja systemu NTFS dostarczana z systemem Windows 2000 zawiera już wszystkie metadane w plikach, takie jak mapa bitowa odpowiadająca lokalizacji bloków logicznych. Program do odzyskiwania danych znajduje niezbędne metadane, z których oblicza lokalizację na taśmie każdego niezbędnego bloku logicznego wymaganego pliku. Następnie taśma jest przewijana w jednym kierunku, a wszystkie niezbędne sekcje są odczytywane podczas procesu przewijania, co pozwala uzyskać wszystkie dane do odzyskania pliku. Taśma nie przewija się w obie strony, dzięki czemu nie tylko skraca się czas odzyskiwania, ale także skraca się żywotność taśmy. Opisane aplikacje do tworzenia kopii zapasowych to na przykład Legato Celestra.

Należy pamiętać, że czasami wybór metody tworzenia kopii zapasowej jest ograniczony. Jeśli baza danych używa pusty dysk nowy wolumin bez systemu plików, wystarczy wybrać między kopią zapasową obrazu a kopią zapasową na poziomie aplikacji (ten typ kopii zapasowej omówiono w sekcji 5.3.1.3).

5.3.1.2 Kopia zapasowa na poziomie plików

W przypadku tego typu kopii zapasowej program do tworzenia kopii zapasowych korzysta z usług systemu operacyjnego i systemu plików. Jedną z zalet jest efektywność przywracania określonego pliku lub zestawu plików. Kolejną zaletą jest to, że podczas tworzenia kopii zapasowej pliki mogą być dostępne jednocześnie przez system operacyjny i aplikacje.

Jednak nie bez wad. Tworzenie kopii zapasowych trwa dłużej, zwłaszcza w porównaniu z kopiami zapasowymi na poziomie obrazu. Jeśli tworzona jest kopia duża liczba małych plików, obciążenie systemu operacyjnego i systemu plików podczas uzyskiwania dostępu do metadanych katalogu może być znaczne. Ponadto pojawia się problem otwartych plików, który został opisany wcześniej.

Kolejna wada związana jest z bezpieczeństwem. Ten problem występuje niezależnie od metody tworzenia kopii zapasowej (poziom obrazu lub plik) i wynika z faktu, że tworzenie kopii zapasowej odbywa się na prawach administratora lub konta operatora kopii zapasowej, a nie użytkownika. Jest to jedyny sposób na odzyskanie plików od różnych użytkowników w jednej operacji przywracania. Warunkiem wstępnym jest prawidłowe skonfigurowanie metadanych plików, takich jak listy kontroli dostępu i dane dotyczące własności plików. Rozwiązanie problemu wymaga wsparcia ze strony API plików i systemu operacyjnego, które jest niezbędne do skonfigurowania metadanych podczas przywracania danych z kopii zapasowej. Ponadto aplikacja do tworzenia kopii zapasowych i przywracania danych musi poprawnie wykorzystywać udostępnione możliwości.

5.3.1.3 Kopia zapasowa na poziomie aplikacji

W takim przypadku tworzenie kopii zapasowych i przywracanie danych odbywa się na poziomie aplikacji, takiej jak Microsoft Serwer SQL lub Microsoft Exchange.. Kopia zapasowa jest wykonywana za pomocą API dostarczonego przez aplikację. W takim przypadku kopia zapasowa składa się z zestawu plików i obiektów, które w określonym momencie tworzą stan systemu. Głównym problemem jest to, że operacje tworzenia kopii zapasowych i przywracania są ściśle powiązane z aplikacją. Jeśli API lub funkcjonalność istniejącego API zmieni się wraz z wydaniem nowej aplikacji, administrator będzie musiał przejść do Nowa wersja programy rezerwacji.

Aplikacje używają pustego dysku bez systemu plików lub zapisują na nim ogromny plik, który zawiera własne metadane aplikacji. Przykładem takiej aplikacji jest Microsoft Exchange. W systemie Windows XP i Serwer Windows 2003 obsługuje ważne funkcje NTFS, które umożliwiają odzyskanie takich plików. Plik jest odtwarzany w blokach logicznych i oznaczony na końcu Nowa cecha Win32 API o nazwie SetFileValidData.

5.3.2 Klasyfikacja kopii zapasowej na podstawie funkcjonalności

Inną metodą klasyfikacji aplikacji do tworzenia kopii zapasowych jest klasyfikacja ich na podstawie funkcji zapewnianych przez proces tworzenia kopii zapasowej. Należy pamiętać, że centra danych zazwyczaj korzystają z co najmniej dwóch, a najczęściej wszystkich opisanych poniżej typów redundancji, a mianowicie: pełnej, różnicowej i przyrostowej.

5.3.2.1 Pełna kopia zapasowa

Na pełna kopia zapasowa(pełna kopia zapasowa) Pełen zestaw pliki lub obiekty i skojarzone z nimi metadane są kopiowane na nośnik kopii zapasowej. Zaletą jest to, że w przypadku awarii systemu używany jest tylko jeden zestaw nośników odzyskiwania. Wadą jest czas kopiowania, ponieważ kopiowane są wszystkie dane. Pełne kopie zapasowe są często wykonywane na poziomie obrazu dysku lub na poziomie bloku.

5.3.2.2 Różnicowa kopia zapasowa

Na kopia różnicowa(kopie różnicowe) są archiwizowane wszystkie zmiany, które nastąpiły od ostatniej pełnej kopii zapasowej. Ponieważ kopie różnicowe można tworzyć na poziomie obrazu lub na poziomie pliku, ten zestaw zmian będzie zbiorem zmienionych bloków dysku (dla kopii zapasowej na poziomie obrazu) lub zestawem zmienionych plików (dla kopii zapasowej na poziomie pliku). Główną zaletą backupu różnicowego jest znaczne skrócenie czasu backupu w porównaniu do backupu pełnego. Z drugiej strony odzyskiwanie po awarii trwa dłużej. Odzyskiwanie awaryjne będzie wymagało dwóch operacji odzyskiwania danych. Pierwszy z nich odtworzy dane z pełnej kopii zapasowej, drugi z kopii różnicowej.

W przypadku tanich podsystemów pamięci masowej różnicowa kopia zapasowa na poziomie plików jest używana, gdy aplikacje tworzą wiele małych plików i modyfikują niektóre pliki po wykonaniu pełnej kopii zapasowej. Jednocześnie taka kopia zapasowa nie ma zastosowania, jeśli: dysk twardy używane przez aplikacje do zarządzania bazami danych, które stale wprowadzają niewielkie zmiany w ogromnych plikach baz danych. W ten sposób kopia zapasowa na poziomie pliku utworzy kopię całego pliku. Przykładem takiego programu jest Microsoft Exchange, który nieustannie dąży do wprowadzania drobnych zmian w ogromnych plikach baz danych.

W przypadku starszych podsystemów pamięci masowej różnicowa kopia zapasowa na poziomie obrazu może być używana w każdej sytuacji, łącznie z tworzeniem kopii zapasowych plików aplikacji bazy danych. Powodem tej wydajności jest przechowywanie dużej ilości metadanych, co pozwala szybko określić, co zmieniło się od czasu wykonania kopii zapasowej. bloki dysku. W ten sposób zostaną zarchiwizowane tylko zmienione bloki dysku, a duża liczba niezmienionych bloków dysku nie zostanie skopiowana. Mimo że wydajność tworzenia kopii zapasowych jest lepsza w przypadku starszych podsystemów pamięci masowej, nadal istnieje zapotrzebowanie na interfejs API, który umożliwia rozpoczęcie tworzenia kopii zapasowej w określonym momencie i kontynuowanie operacji we/wy po zakończeniu tworzenia kopii zapasowej. Sposób działania starszego modelu podsystemu pamięci masowej polega na zmniejszeniu liczby operacji we/wy danych, które należy zatrzymać podczas tworzenia kopii zapasowej.

5.3.2.3 Przyrostowa kopia zapasowa

Na Przyrostowa kopia zapasowa(kopie przyrostowe) są archiwizowane zmiany tylko od ostatniej pełnej lub różnicowej kopii zapasowej. Oczywiście ten typ kopii zapasowej zajmuje mniej czasu, ponieważ pliki, które nie uległy zmianie od czasu ostatniej pełnej lub przyrostowej kopii zapasowej, nie są kopiowane na nośnik kopii zapasowej. Wadą tej metody jest długość operacji przełączania awaryjnego, ponieważ jest ona wykonywana przy użyciu zestawu wielu nośników odpowiadających ostatniej pełnej kopii zapasowej i wielu kopiom przyrostowym.

W przypadku braku starszych modeli podsystemu pamięci masowej podczas zmiany lub dodawania wykonywane są przyrostowe kopie zapasowe różne zestawy akta. W przypadku starszych modeli podsystemów pamięci masowej można stosować przyrostowe kopie zapasowe oparte na blokach, ponieważ dostępna jest wystarczająca ilość metadanych, aby zidentyfikować zmienione bloki.

5.3.3 Klasyfikacja kopii zapasowych na podstawie infrastruktury sieciowej

Jednym ze sposobów klasyfikacji kopii zapasowych jest Topologia sieci oraz jego wpływ na wybór najlepszej metody dla redundantnych węzłów połączonych. Rodzaje kopii zapasowych zależne od infrastruktury sieciowej (kopia zapasowa DAS, NAS, SAN niezależna od lokalna sieć i z serwera) zostały omówione w punktach 5.3.3.1 do 5.3.3.4.

5.3.3.1 Redundancja DAS

Ten najstarszy rodzaj kopii zapasowej powstał w czasach, gdy urządzenia pamięci masowej były podłączone bezpośrednio do serwera. Pomimo rozwoju sieciowych urządzeń pamięci masowej nadmiarowość DAS pozostaje na tyle popularna, że ​​umożliwia kopiowanie danych przechowywanych na serwerach Windows. Schemat redundancji DAS pokazano na ryc. 5.3. / Zaletą redundancji DAS jest łatwość użytkowania. Aplikacja na serwerze odczytuje dane z odpowiedniego woluminu dysku i zapisuje je na taśmie. Redundancja DAS ma jednak szereg wad.

Korzystanie z wielu napędów taśmowych (po jednym dla każdego serwera, którego kopię zapasową należy wykonać), co jest kosztowne. Innymi słowy, udostępnianie jednego dysku na wielu serwerach jest prawie niemożliwe.

Wysoki całkowity koszt posiadania (TCO), ponieważ tworzenie kopii zapasowych na wielu taśmach wymaga wielu administratorów.

Przechowywanie wielu taśm może być mylące.

Ponieważ dane na wielu serwerach są często duplikowane, ale nie są zsynchronizowane, te same dane są również migrowane na taśmę, więc przechowywanie podobnych danych na wielu taśmach może być mylące.

Ryż. 5.3. Redundancja DAS

Co nie mniej ważne, serwer musi przetwarzać żądania odczytu/zapisu danych między dyskiem a napędem taśmowym.

5.3.3.2 Redundancja NAS

Jak zauważono w rozdziale 3, era pamięci masowej DAS zakończyła się wraz z pojawieniem się systemów klient/serwer, w których klienci i serwery zaczęły współdzielić zasoby LAN. Pozwoliło to na architekturę, w której do napędu taśmowego podłączonego do serwera ma dostęp wiele serwerów sieciowych.

Na ryc. Rysunek 5.4 przedstawia typowy scenariusz nadmiarowości NAS. Lewy obszar diagramu pokazuje wiele serwerów. Mogą to być serwery aplikacji lub serwery plików i drukarek. W właściwy obszar istnieje serwer kopii zapasowych i podłączony do niego napęd taśmowy. Ten dysk może służyć do tworzenia kopii zapasowych informacji z wielu serwerów aplikacji, serwerów plików i serwerów wydruku. W ten sposób redundancja NAS umożliwia współdzielenie napędu taśmowego w celu tworzenia kopii zapasowych danych na wielu serwerach, co skutkuje niższymi kosztami całkowitymi.

Nadmiarowość NAS ma pewne wady.

Operacja tworzenia kopii zapasowej znajduje odzwierciedlenie w przepustowość łącza sieć lokalna, która często wymaga segmentacji sieci LAN w celu przekierowania strumieni kopii zapasowych do oddzielnego segmentu sieci.

Wydłuża się czas działania węzłów. Innymi słowy, zwiększa to czas, w którym serwery muszą być dostępne do obsługi żądań i transakcji użytkowników. Ponadto zwiększa się ilość danych przechowywanych na serwerze, co wymaga więcej czasu na wykonanie kopii zapasowej tych danych.

Ryż. 5.4. Schemat redundancji NAS

Biorąc pod uwagę pilność opisanych problemów, zapewnienie skuteczności backupu staje się jedynym kryterium przy projektowaniu sieci i określaniu dokładnej liczby wymaganych urządzeń backupowych.

5.3.3.3 Nadmiarowość sieci SAN

Rozwój sieci pamięci masowej doprowadził do pojawienia się nowych koncepcji tworzenia kopii zapasowych. Nowe możliwości opierają się na fakcie, że sieć pamięci masowej może zapewnić wystarczającą przepustowość między dowolnymi dwoma urządzeniami i, w zależności od topologii, jest w stanie zapewnić jednoczesną komunikację o niskim opóźnieniu między kilkoma parami urządzeń. Z drugiej strony użycie topologii pierścienia Fibre Channel z więcej niż 30 urządzeniami nie zapewnia możliwości tworzenia wielu połączeń o wysokiej przepustowości i małych opóźnieniach, ponieważ całkowita przepustowość pierścienia będzie dzielona między wszystkie podłączone urządzenia.

Na ryc. Rysunek 5.5 przedstawia architekturę typowej aplikacji do tworzenia kopii zapasowych SAN. Zwróć uwagę na most Fibre Channel. Większość napędów taśmowych nie obsługuje Fibre Channel (używają równoległego interfejsu SCSI), więc do podłączenia takich urządzeń potrzebny będzie most. Na ryc. 5.5 Serwery Windows NT są jednocześnie połączone z siecią lokalną i siecią pamięci masowej.

Topologia kopii zapasowej (patrz Rysunek 5.5) ma wiele zalet.

Napęd taśmowy może znajdować się dość daleko od serwera, którego dane są archiwizowane. Takie dyski są zwykle wyposażone w interfejs SCSI, chociaż ostatnio dyski Fibre Channel stały się bardziej powszechne. Oznacza to, że można je podłączyć tylko do jednej magistrali SCSI, co utrudnia współdzielenie dysku przez wiele serwerów. Sieci SAN Fibre Channel z obsługą wielu urządzeń mogą z powodzeniem rozwiązywać problemy z udostępnianiem. Zauważ, że nadal wymaga to metody prawidłowego dostępu do napędu taśmowego przy użyciu odpowiednich uprawnień. Przykłady takich metod przedstawiono poniżej.

Ryż. 5.5. Kopia zapasowa za pośrednictwem pamięci sieciowej

Metoda podziału na strefy umożliwia pojedynczemu serwerowi dostęp do napędu taśmowego w określonym czasie. Problem polega na upewnieniu się, że serwery spełniają wymagania dotyczące stref. Ponadto należy upewnić się, że zmieniacz taśm lub napęd wielokasetowy jest używany prawidłowo.

Kolejną metodą jest użycie poleceń interfejsu SCSI, takich jak rezerwa I uwolnienie.

Sposób podłączenia napędu taśmowego do serwera pozwala na udostępnianie urządzenia za pośrednictwem specjalnego oprogramowanie serwer. Współdzielenie napędu taśmowego jest bardzo atrakcyjnym rozwiązaniem, ponieważ napędy taśmowe są dość drogie. Opisane napędy obejmują na przykład urządzenie Tivoli firmy IBM.

Technologia tworzenia kopii zapasowych bez sieci LAN ma swoją nazwę, ponieważ transfer danych odbywa się poza siecią LAN za pomocą sieci SAN. Zmniejsza to obciążenie sieci lokalnej, dzięki czemu aplikacje nie cierpią z powodu degradacji przepustowości sieci podczas tworzenia kopii zapasowych danych.

Tworzenie kopii zapasowych bez sieci umożliwia bardziej efektywne wykorzystanie zasobów dzięki współdzieleniu napędów taśmowych.

Tworzenie kopii zapasowych i przywracanie danych bez sieci lokalnej jest bardziej odporne na błędy, ponieważ kopie zapasowe mogą być wykonywane przez kilka urządzeń jednocześnie, jeśli jedno z nich ulegnie awarii. Podobnie wiele urządzeń może być używanych do odzyskiwania danych, co pozwala na bardziej efektywne planowanie zasobów.

Wreszcie operacje tworzenia kopii zapasowych i przywracania danych kończą się znacznie szybciej, ponieważ sieci SAN zapewniają szybsze przesyłanie danych.

5.3.3.4 Niezależna od serwera nadmiarowość

Ta kopia zapasowa jest czasami określana jako bezserwerowa kopia zapasowa lub nawet kopiowanie stron trzecich. Należy zauważyć, że kopia zapasowa niezależna od serwera jest zwykle kopią zapasową niezależną od sieci LAN, co eliminuje potrzebę przenoszenia danych z określonego hosta. Ideą tej metody tworzenia kopii zapasowych jest użycie polecenia SCSI Extended Copy.

Tworzenie kopii zapasowych niezależne od serwera opiera się na inicjatywie SNIA, która została zaimplementowana w poleceniach SCSI Extended Copy zatwierdzonych przez komisję INCITS, a dokładniej przez podkomitet techniczny T10 (dokument ANSI INCITS.351:2001, SCSI Primary Commands-2) . Zwróć uwagę, że standard SCSI opisał już obsługę poleceń kopiowania, ale wcześniej polecenia wymagały, aby wszystkie urządzenia SCSI były podłączone do tej samej magistrali (polecenie Kopiuj jest od tego czasu przestarzałe; patrz http://www.110.org). Polecenie Extended Copy dodaje takie dodatkowe funkcje jak używanie źródła i miejsca docelowego danych przez różne magistrale SCSI. To w pełni zachowuje adresowanie obsługiwane przez składnię polecenia.

W przypadku kopii zapasowej niezależnej od serwera serwer kopii zapasowej może przetwarzać inne żądania podczas kopiowania danych za pomocą agenta przenoszenia danych. Dane są przesyłane bezpośrednio ze źródła danych do miejsca docelowego, czyli na nośnik kopii zapasowej (zamiast kopiować ze źródła na serwer kopii zapasowej, a następnie przesyłać na nośnik kopii zapasowej).

Ryż. 5.6. Kopia zapasowa niezależna od serwera

Zdając sobie sprawę z zalet backupu niezależnego od serwera, nie powinniśmy zapominać, że odzyskiwanie danych to zupełnie inny problem. Operacje przywracania niezależne od serwera pozostają niezwykle rzadkie. Kopie zapasowe utworzone w tej technologii bardzo często są przywracane tradycyjnymi metodami, które polegają na użyciu serwera z oprogramowaniem do tworzenia kopii zapasowych i odzyskiwania danych.

Koncepcję backupu niezależnego od serwera ilustruje Rysunek 1. 5.6. Aby uprościć diagram, rysunek pokazuje minimalną liczbę komponentów wymaganych do zilustrowania kopii zapasowej. W praktyce sieci magazynowe mają bardziej złożoną strukturę. Na ryc. 5.6 pokazuje serwer pod Kontrola systemu Windows podłączony do przełącznika Fibre Channel za pomocą karty HBA Fibre Channel. Wykorzystuje również router Fibre Channel-K-SCSI, który łączy się z napędem taśmowym SCSI i urządzeniami dyskowymi. Urządzenia dyskowe i taśmowe nie muszą być podłączone do tego samego routera.

Aplikacja serwera multimediów na serwerze Windows lokalizuje agenta przenoszenia danych na routerze za pomocą technologii Plug and Play. Aplikacja do tworzenia kopii zapasowych definiuje dodatkowe informacje o kopii zapasowej (identyfikator urządzenie dyskowe, początkowy blok logiczny, ilość danych do skopiowania itp.). Oprogramowanie serwera kopii zapasowych początkowo wysyła sekwencję poleceń do napędu taśmowego w celu utworzenia kopii zapasowej urządzenia i zamontowania wymaganego nośnika. Następnie oprogramowanie serwera mediów wysyła polecenie Przedłużony Sora do agenta przenoszenia danych działającego na routerze. Agent koordynuje transfer wymaganych danych. Po zakończeniu kopiowania agent zwraca informacje o usłudze do programu do tworzenia kopii zapasowych działającego na serwerze Windows.

Kilka składników odgrywa ważną rolę w procesie tworzenia kopii zapasowej niezależnym od serwera, w tym źródło i miejsce docelowe danych, agent przenoszenia i serwer kopii zapasowej.

Źródło danych to urządzenie, które zawiera dane, których kopia zapasowa ma zostać utworzona. Zazwyczaj tworzona jest kopia zapasowa całego woluminu lub partycji dysku. Agent przenoszenia danych musi mieć bezpośredni dostęp do źródła danych (więcej na ten temat później). Oznacza to, że urządzenia pamięci masowej dołączone do serwera nie mogą być niezależnym od serwera źródłem kopii zapasowej, ponieważ bezpośrednie adresowanie poza serwer nie jest możliwe.

Miejsce docelowe danych zwykle napęd taśmowy, na którym zapisywane są dane. Urządzeniem może być dysk, jeśli tworzysz kopię zapasową na dysku zamiast na taśmie. Urządzenia taśmowe są zwykle podłączane do portu w architekturze sieci szkieletowej, aby uniknąć uszkodzenia danych przesyłanych na taśmę w przypadku awarii innych części sieci SAN. Na przykład, jeśli napęd taśmowy jest podłączony do podzielonego pierścienia Fibre Channel, błąd w działaniu innego urządzenia lub połączenia/odłączenia urządzenia od pierścienia może spowodować zatrzymanie zapisu danych i ponowną inicjalizację pierścienia, co narusza integralność danych zapisywanych na taśmie.

Agent ds. przenoszenia danych zwykle wbudowany w router za pomocą oprogramowania układowego, ponieważ musi przetwarzać polecenie SCSI Przedłużony Sora, który jest wysyłany do routera jako pakiet Fibre Channel. Przełączniki i koncentratory, które przetwarzają tylko nagłówek ramki Fibre Channel, nie są dobrze przystosowane do obsługi agenta przenoszenia danych, ale może się to zmienić w przyszłości.

Agent przenoszenia danych jest aktywowany po otrzymaniu instrukcji z serwera multimediów. Większość napędów taśmowych podłączonych do sieci SAN to urządzenia SCSI. Dlatego wymagany jest router obsługujący translację pakietów między interfejsami Fibre Channel i SCSI. Na ten moment Napędy taśmowe Fibre Channel stają się coraz bardziej popularne, a niektóre firmy, takie jak Exabyte, dostarczają oprogramowanie układowe do napędów taśmowych, które dodaje funkcję agenta przenoszenia danych. Ponadto podstawowe biblioteki napędów taśmowych Fibre Channel zazwyczaj mają wbudowane routery Fibre Channel-SCSI, dzięki czemu biblioteka może korzystać z własnego agenta przenoszenia danych. Pamiętaj, że agent może być zaimplementowany w młodszym oprogramowaniu stanowisko pracy a nawet serwery. Crossroads, Pathlight (obecnie ADIC) i Chaparral zapewniają routerom narzędzia do przenoszenia danych wbudowane w oprogramowanie układowe. Sieć SAN może mieć wielu agentów pochodzących od wielu dostawców, co nie uniemożliwia współistnienia agentów w tej samej sieci.

Oczywiście, aby można było użyć agenta przenoszenia danych, należy go znaleźć (za pomocą polecenia SCSI Zgłoś jednostki LUN) i zapewnić właściwe adresowanie (poprzez WWN) z serwera backupu. Ponadto agent może jednocześnie uruchamiać dwie kopie zapasowe. Na przykład można przeprowadzić jedną sesję kopiowania do odległego geograficznie zasobu lustrzanego, jednak w tym celu serwer kopii zapasowej musi wysłać dwa polecenia.

Za zarządzanie wszystkimi poleceniami i operacjami odpowiada serwer backupu. Wymieńmy raz jeszcze wszystkie główne obowiązki serwera redundancyjnego.

Oprogramowanie serwera udostępnia napęd taśmowy za pomocą odpowiednich poleceń SCSI rezerwa I uwolnienie.

Nośnik montażowy do tworzenia kopii zapasowych.

Ustalenie dokładnego adresu źródła danych i rozmieszczenia danych w blokach logicznych oraz ilości danych do archiwizacji.

Po otrzymaniu wszystkich niezbędnych informacji serwer wysyła polecenie Przedłużony Soru do agenta przesyłania danych. Następnie agent wysyła sekwencję poleceń czytaćźródło danych i zapisuje informacje w miejscu docelowym.

Computer Associates, CommVault, LEGATO i VERITAS dostarczają programy zapewniające redundancję niezależną od serwera. Dostawcy routerów z funkcjami tworzenia kopii zapasowych niezależnymi od serwera stale współpracują z producentami oprogramowania, aby zapewnić zgodność ich produktów. Biznes w to wspierać podstawowe polecenia SCSI Kopia rozszerzona Producenci stosują różne polecenia.

Należy pamiętać, że pomimo dość dojrzałego wieku technologii tworzenia kopii zapasowych niezależnych od serwera, wsparcie odzyskiwania niezależnego od serwera od dostawców jest bardzo ograniczone.

5.3.3.5 Rodzina systemów operacyjnych Windows Server i tworzenie kopii zapasowych niezależnych od serwera

Liczne materiały promocyjne i literatura marketingowa twierdzą, że konkretna metoda implementacji niezależnej od serwera technologii kopii zapasowej jest zgodna z systemem Windows 2000. Przyjrzyjmy się tej koncepcji bardziej szczegółowo.Poniżej opisano każdy z czterech elementów składających się na niezależną od serwera kopię zapasową: źródło dane, miejsce docelowe danych, oprogramowanie serwera nadmiarowego i agenta przenoszenia danych.

W większości przypadków agent przenoszenia danych działający poza serwerem Windows NT nie może adresować danych przechowywanych na serwerze Windows NT. Karty HBA podłączone do serwera Windows NT zazwyczaj działają jako inicjatory i nie reagują na polecenia Zgłoś jednostki LUN. Jeśli serwer Windows NT korzysta z urządzenia pamięci masowej znajdującego się poza serwerem, takiego jak macierz RAID podłączona do przełącznika Fibre Channel, to urządzenie będzie dostępne dla agenta przenoszenia. Dlatego zamiast mówić, że urządzenie pamięci masowej używane przez system Windows NT nie może być źródłem danych dla kopii zapasowej niezależnej od serwera, należy wyjaśnić, że źródło danych nie może być urządzeniem pamięci masowej, które jest wewnętrzne dla serwera Windows NT.

Użycie pamięci wewnętrznej systemu Windows NT jako miejsca docelowego danych również nie jest możliwe, ponieważ miejsce docelowe musi być również dostępne dla adresowania agenta przenoszenia danych.

Dobrym rozwiązaniem jest uruchomienie programu do tworzenia kopii zapasowych na komputerze z systemem Windows. Adapter magistrali podłączony do serwera Windows może wydawać sekwencję poleceń raport Jednostki LUN do każdego urządzenia (LUN 0), które mają zostać wykryte. Program do tworzenia kopii zapasowych sprawdza następnie wszystkie widoczne urządzenia i jednostki logiczne, a następnie dowiaduje się, które z nich mogą działać jako zewnętrzny agent kopiowania. Niektóre programy zgłaszają dodatkowe jednostki LUN, które są potrzebne podczas wydawania poleceń Przedłużony Sora. Wiele programów do tworzenia kopii zapasowych, które korzystają z dodatkowych jednostek LUN, przechodzi proces wykrywania urządzeń w celu przetestowania funkcjonalności agenta przenoszenia danych.

Interfejs SCSI Intermediate Interface (IOCTL) w Windows NT może być użyty do wysłania polecenia Przedłużony Wyślij do agenta przenoszenia danych (polecenie jest wysyłane z serwera kopii zapasowej z systemem Windows NT). System operacyjny Windows NT nie ma wbudowanej obsługi agentów przenoszenia; Technologia Plug dnd Play pozwala wykryć agenta, ale zarejestrować go w rejestr systemowy potrzebni są dodatkowi kierowcy.

Pozostaje jedno ostatnie pytanie: czy można uruchomić oprogramowanie Data Movement Agent na serwerze lub stacji roboczej z systemem Windows NT? Jedną z zalet tego rozwiązania jest to, że agent przenoszenia będzie mógł adresować i uzyskiwać dostęp do urządzeń pamięci masowej „widocznych” dla serwera Windows. Jednak serwer multimediów hostowany poza systemem Windows NT nie będzie w stanie wykryć urządzeń pamięci masowej podłączonych do komputera z uruchomionym agentem przenoszenia danych. Agent musi być w stanie działać jako urządzenie inicjujące i docelowe dla poleceń SCSI. Ponieważ karta HBA podłączona do komputera z systemem Windows NT rzadko działa jako urządzenie docelowe, polecenie Extended CoPy może nie dotrzeć do agenta przenoszenia danych.

Należy zauważyć, że w systemie Windows NT aplikacje używają interfejsu pośredniczącego do wydawania poleceń SCSI. (DeviceloControl z parametrem IoControlKod, równy IOCTOL_SCSI_PASS_THROUGH lub IOCTL_SCSI_PASS_THROUGH_DIRECT).

Aleksiej Bereżnyj, Administrator systemu. Główne zajęcia: wirtualizacja i sieci heterogeniczne. Innym hobby poza pisaniem artykułów jest popularyzacja wolnego oprogramowania.

Utworzyć kopię zapasową
Teoria i praktyka. Streszczenie

Aby najefektywniej zorganizować system tworzenia kopii zapasowych, musisz zbudować realną strategię zapisywania i przywracania informacji.

Kopia zapasowa (lub, jak to się nazywa, kopia zapasowa - od angielskiego słowa „kopia zapasowa”) to ważny proces w życiu każdej struktury IT. To spadochron na ratunek w przypadku nieprzewidzianej katastrofy. Jednocześnie kopia zapasowa służy do tworzenia swego rodzaju historycznego archiwum działalności biznesowej firmy w określonym okresie jej życia. Praca bez wsparcia jest jak życie na świeżym powietrzu – pogoda w każdej chwili może się popsuć i nie ma się gdzie schować. Ale jak właściwie to zorganizować, aby nie stracić ważnych danych i nie wydawać na to fantastycznych sum?

Zazwyczaj artykuły na temat organizacji kopii zapasowych dotyczą głównie rozwiązań technicznych, a tylko sporadycznie zwracają uwagę na teorię i sposoby organizacji przechowywania danych.

W tym artykule skupimy się na wprost przeciwnej: główny nacisk kładziony jest na ogólne koncepcje i środki techniczne zostaną poruszone tylko jako przykłady. Pozwoli nam to oderwać się od sprzętu i oprogramowania i odpowiedzieć na dwa główne pytania: „Dlaczego to robimy?”, „Czy możemy to zrobić szybciej, taniej i pewniej?”.

Cele i zadania backupu

W procesie organizacji kopii zapasowej wyznaczane są dwa główne zadania: przywracanie infrastruktury w przypadku awarii (Disaster Recovery) oraz utrzymywanie archiwum danych w celu późniejszego zapewnienia dostępu do informacji z minionych okresów.

Klasycznym przykładem kopii zapasowej do odzyskiwania po awarii jest obraz partycji systemowej serwera utworzony przez program Acronis prawda Obraz.

Przykładem archiwum może być comiesięczne przesyłanie baz danych z 1C, nagranych na kasetach z późniejszym przechowywaniem w specjalnie wyznaczonym miejscu.

Istnieje kilka czynników, które odróżniają kopię zapasową szybkiego przywracania od archiwum:

  • Okres przechowywania danych. W przypadku kopii archiwalnych jest dość długi. W niektórych przypadkach jest to regulowane nie tylko wymogami biznesowymi, ale także prawem. W przypadku kopii odzyskiwania po awarii jest stosunkowo niewielki. Zwykle tworzą jedną lub dwie (o zwiększonych wymaganiach dotyczących niezawodności) kopie zapasowe do odzyskiwania po awarii z maksymalnym odstępem dnia lub dwóch, po czym są zastępowane nowymi. W szczególnie krytycznych przypadkach możliwe jest również częstsze aktualizowanie kopii zapasowej w celu odtwarzania po awarii, np. co kilka godzin.
  • Szybkość dostępu do danych. Szybkość dostępu do archiwum długoterminowego w większości przypadków nie jest krytyczna. Zwykle potrzeba „podniesienia danych za okres” pojawia się w momencie sprawdzania dokumentów, powrotu do poprzedniej wersji itp., czyli nie w trybie awaryjnym. Inna sprawa to odzyskiwanie po awarii, kiedy niezbędne dane i wydajność usługi muszą zostać zwrócone tak szybko, jak to możliwe. W tym przypadku niezwykle ważnym wskaźnikiem jest szybkość dostępu do kopii zapasowej.
  • Skład skopiowanych informacji. Kopia zapasowa zazwyczaj zawiera tylko dane użytkownika i firmy z określonego okresu. Kopia odzyskiwania po awarii zawiera oprócz tych danych obrazy systemu lub kopie ustawień systemu operacyjnego i aplikacji oraz inne informacje dotyczące odzyskiwania.

Czasami można połączyć te zadania. Na przykład roczny zestaw miesięcznych pełnych „zdjęć” serwera plików oraz zmiany wprowadzone w ciągu tygodnia. True Image nadaje się jako narzędzie do tworzenia takiej kopii zapasowej.

Najważniejszą rzeczą jest jasne zrozumienie, do czego służy rezerwacja. Podam przykład: krytyczny serwer SQL uległ awarii z powodu awarii macierzy dyskowej. Mamy odpowiedni w magazynie Sprzęt komputerowy, więc rozwiązaniem problemu było tylko przywrócenie oprogramowania i danych. Zarząd firmy zadaje zrozumiałe pytanie: „Kiedy to zadziała?” - i jest niemile zaskoczony, gdy dowiaduje się, że powrót do zdrowia potrwa nawet cztery godziny. Faktem jest, że przez cały czas życia serwera regularnie wykonywano kopie zapasowe tylko baz danych bez uwzględniania konieczności przywracania samego serwera ze wszystkimi ustawieniami, w tym z oprogramowaniem samego DBMS. Mówiąc najprościej, nasi bohaterowie zapisywali tylko bazy danych, ao systemie zapomnieli.

Podam kolejny przykład. W swojej karierze młody profesjonalista stworzył pojedynczą kopię serwera plików z systemem Windows Server 2003 za pomocą programu ntbackup, zawierającą dane i stan systemu w udostępnionym folderze na innym komputerze. Ze względu na brak miejsca na dysku kopia ta była stale nadpisywana. Jakiś czas później został poproszony o przywrócenie poprzedniej wersji wielostronicowego raportu, który został uszkodzony podczas zapisu. Oczywiste jest, że nie mając historii archiwum z wyłączoną funkcją Shadow Copy, nie mógł spełnić tej prośby.

Na notatce

Kopia w tle, dosłownie - " kopia w tle”. Zapewnia, że ​​natychmiastowe kopie systemu plików są tworzone w taki sposób, aby dalsze zmiany w oryginale nie miały na nie żadnego wpływu. Ta funkcja umożliwia tworzenie wielu ukryte kopie plik przez określony czas, a także kopie zapasowe plików otwartych do zapisu w locie. Usługa kopiowania woluminów w tle jest odpowiedzialna za działanie kopiowania w tle.

Stan systemu, dosłownie - „stan systemu”. System State Backup tworzy kopie zapasowe krytycznych składników rodziny systemów operacyjnych Windows. Pozwala to na przywrócenie poprzednio zainstalowanego systemu po zniszczeniu. Podczas kopiowania stanu systemu zapisywane są rejestr, pliki rozruchowe i inne ważne pliki systemu, w tym pliki służące do przywracania usługi Active Directory, bazy danych usługi certyfikatów, bazy danych COM + Class Registration, katalogów SYSVOL. W systemach operacyjnych z rodziny UNIX pośrednim odpowiednikiem kopiowania stanu systemu jest zapisywanie zawartości katalogów /etc, /usr/local/etc i innych plików niezbędnych do przywrócenia stanu systemu.

Który wniosek z tego wynika: należy używać obu typów kopii zapasowych: zarówno do odzyskiwania po awarii, jak i do przechowywanie archiwalne. Jednocześnie należy określić listę zasobów do skopiowania, czas wykonywania zadań, a także gdzie, jak i jak długo kopie zapasowe będą przechowywane.

Przy niewielkich ilościach danych i niezbyt złożonej infrastrukturze IT można spróbować połączyć oba te zadania w jedno, np. codziennie wykonywać pełną kopię zapasową wszystkich partycji dyskowych i baz danych. Ale nadal lepiej jest rozróżnić dwa cele i wybrać odpowiednie środki dla każdego z nich. W związku z tym do każdego zadania używane jest inne narzędzie, chociaż istnieją rozwiązania uniwersalne, takie jak ten sam pakiet Acronis True Image lub program ntbackup

Oczywiste jest, że przy definiowaniu celów i zadań backupu, a także rozwiązań do wdrożenia, należy wyjść z wymagań biznesowych.

Wdrażając zadanie odzyskiwania po awarii, możesz użyć różnych strategii.

W niektórych przypadkach konieczne jest przywrócenie systemu bezpośrednio do „gołego metalu” (gołego metalu). Można to zrobić na przykład za pomocą programu Acronis True Image dołączonego do modułu Universal Restore. W takim przypadku konfiguracja serwera może zostać przywrócona do działania w bardzo krótkim czasie. Na przykład partycję z systemem operacyjnym 20 GB można dość realistycznie usunąć z kopii zapasowej w ciągu ośmiu minut (pod warunkiem, że kopia archiwalna jest dostępna w sieci 1 GB / s).

W innej opcji wygodniej jest po prostu „przywrócić” ustawienia do nowo zainstalowanego systemu, na przykład skopiować pliki konfiguracyjne z folderu /etc i innych w systemach typu UNIX (w systemie Windows odpowiada to z grubsza kopiowaniu i przywracaniu Stan systemu). Oczywiście przy takim podejściu serwer zostanie uruchomiony nie wcześniej niż zostanie zainstalowany i przywrócony system operacyjny. niezbędne ustawienia co zajmie znacznie więcej czasu. W każdym razie decyzja o tym, co ma być odzyskiwaniem po awarii, wynika z potrzeb biznesowych i ograniczeń zasobów.

Podstawowa różnica między systemami zapasowymi i redundantnymi

To kolejne interesujące pytanie, które chciałbym poruszyć. Redundantne systemy redundancji sprzętowej odnoszą się do wprowadzenia pewnej redundancji do sprzętu w celu utrzymania działania w przypadku nagłej awarii jednego z komponentów. Doskonałym przykładem w tym przypadku jest macierz RAID (Redundant Array of Independent Disks). W przypadku awarii pojedynczego dysku można uniknąć utraty informacji i dokonać bezpiecznej wymiany, oszczędzając dane dzięki specyficznej organizacji samej macierzy dyskowej (czytaj więcej o RAID in).

Słyszałem zdanie: „Mamy bardzo niezawodny sprzęt, wszędzie są macierze RAID, więc nie potrzebujemy kopii zapasowych”. Tak, oczywiście ta sama macierz RAID ochroni dane przed zniszczeniem w przypadku awarii. twardy dysk. Ale to z powodu uszkodzenia danych wirus komputerowy lub nie uratuje przed nieudolnymi działaniami użytkownika. Nie zapisze RAID, nawet jeśli system plików ulegnie awarii w wyniku nieautoryzowanego ponownego uruchomienia.

Przy okazji

Podczas planowania tworzenia kopii zapasowych danych, niezależnie od tego, czy dotyczy to organizacji, czy komputerów domowych, należy wziąć pod uwagę znaczenie odróżnienia kopii zapasowych od systemów nadmiarowych.

Zadaj sobie pytanie, dlaczego robisz kopie. Jeśli mówimy o kopii zapasowej, oznacza to zapisanie danych podczas przypadkowego (zamierzonego) działania. Redundancja redundancyjna umożliwia zachowanie danych, w tym kopii zapasowych, na wypadek awarii sprzętu.

Na rynku dostępnych jest obecnie wiele tanich urządzeń, które zapewniają niezawodną nadmiarowość przy użyciu macierzy RAID lub technologii chmury (na przykład Amazon S3). Zaleca się jednoczesne korzystanie z obu typów rezerwacji informacji.

Andrey Vasiliev, dyrektor generalny Qnap Rosja

Podam jeden przykład. Zdarzają się przypadki, kiedy zdarzenia rozwijają się według następującego scenariusza: w przypadku awarii dysku dane są przywracane dzięki mechanizmowi redundancji, w szczególności przy użyciu zapisanych sum kontrolnych. Jednocześnie następuje znaczny spadek wydajności, serwer zawiesza się, kontrola jest prawie tracona. Administrator systemu, nie widząc innego wyjścia, restartuje serwer zimnym restartem (innymi słowy, klika „RESET”). W wyniku takiego przeciążenia na żywo pojawiają się błędy systemu plików. Najlepsze, czego można się spodziewać w tym przypadku, to długotrwałe działanie kontrolera dysku w celu przywrócenia integralności systemu plików. W najgorszym przypadku będziesz musiał pożegnać się z systemem plików i zadać sobie pytanie, gdzie, jak iw jakim czasie możesz przywrócić dane i wydajność serwera.

Nie będziesz w stanie uniknąć tworzenia kopii zapasowych nawet w przypadku architektury klastrowej. W rzeczywistości klaster pracy awaryjnej utrzymuje powierzone mu usługi w przypadku awarii jednego z serwerów. W przypadku powyższych problemów, takich jak atak wirusa lub uszkodzenie danych z powodu notorycznego „czynnika ludzkiego”, żaden klaster nie uratuje.

Jedyną rzeczą, która może działać jako gorszy zamiennik kopii zapasowej dla Disaster Recovery, jest obecność serwera kopii lustrzanej kopii zapasowej ze stałą replikacją danych z serwera głównego na serwer zapasowy (zgodnie z zasadą Podstawowy  Gotowy). W takim przypadku, jeśli główny serwer ulegnie awarii, jego zadania zostaną przejęte przez serwer zapasowy, a Ty nie będziesz musiał nawet przesyłać danych. Ale taki system jest dość drogi i czasochłonny w zorganizowaniu. Nie zapomnij o potrzebie ciągłej replikacji.

Staje się jasne, że takie rozwiązanie jest opłacalne tylko w przypadku krytycznych usług o wysokich wymaganiach dotyczących odporności na awarie i minimalnym czasie przywracania. Z reguły takie schematy są stosowane w bardzo dużych organizacjach o wysokim obrocie towar-pieniądze. A ten schemat jest gorszym zamiennikiem kopii zapasowej, ponieważ mimo wszystko, jeśli dane zostaną uszkodzone przez wirusa komputerowego, nieudolne działania użytkownika lub nieprawidłowe działanie aplikacji, może to wpłynąć na dane i oprogramowanie na obu serwerach.

I oczywiście żaden system redundantnej redundancji nie rozwiąże problemu utrzymywania archiwum danych przez określony czas.

Pojęcie „okna zapasowego”

Wykonywanie kopii zapasowej powoduje duże obciążenie serwera nadmiarowego. Dotyczy to zwłaszcza podsystemu dysku i połączenia sieciowe. W niektórych przypadkach, gdy proces kopiowania ma odpowiednio wysoki priorytet, może to prowadzić do niedostępności niektórych usług. Ponadto kopiowanie danych w momencie zmian wiąże się ze znacznymi trudnościami. Oczywiście istnieją środki techniczne pozwalające uniknąć problemów przy zachowaniu integralności danych w tym przypadku, ale jeśli to możliwe, najlepiej unikać takiego kopiowania w locie.

Wyjście z powyższych problemów nasuwa się samo: odłożyć uruchomienie procesu tworzenia kopii na czas nieaktywny, kiedy wzajemny wpływ backupu i innych działających systemów będzie minimalny. Ten okres czasu nazywany jest „oknem zapasowym”. Na przykład dla organizacji pracującej w formule 8x5 (pięć ośmiogodzinnych dni roboczych w tygodniu) takim „oknem” są zazwyczaj weekendy i godziny nocne.

Dla systemów pracujących w formule 24x7 (24 godziny na dobę przez cały tydzień) jako taki przyjmuje się czas minimalnej aktywności, kiedy nie ma dużego obciążenia serwerów.

Rodzaje kopii zapasowych

Aby uniknąć niepotrzebnych kosztów materiałowych przy organizowaniu kopii zapasowych, a także, jeśli to możliwe, nie wychodzić poza okno tworzenia kopii zapasowych, opracowano kilka technologii tworzenia kopii zapasowych, które są stosowane w zależności od konkretnej sytuacji.

Pełna kopia zapasowa (lub Pełna kopia zapasowa)

Jest to główna i podstawowa metoda tworzenia kopii zapasowych, w której wybrana macierz danych jest kopiowana w całości. Jest to najbardziej kompletny i niezawodny rodzaj kopii zapasowej, choć najdroższy. W przypadku konieczności zapisania kilku kopii danych, łączna przechowywana objętość wzrośnie proporcjonalnie do ich liczby. Aby zapobiec takim marnotrawstwu, stosuje się algorytmy kompresji, a także połączenie tej metody z innymi rodzajami backupu: przyrostowym lub różnicowym. Oczywiście pełna kopia zapasowa jest niezbędna, gdy trzeba przygotować kopię zapasową do szybkiego przywrócenia systemu od zera.

Kopia przyrostowa

W przeciwieństwie do pełnej kopii zapasowej, w tym przypadku nie wszystkie dane (pliki, sektory itp.) są kopiowane, ale tylko te, które zostały zmienione od czasu ostatniej kopii zapasowej. Do określenia czasu kopiowania można użyć różnych metod, na przykład w systemach z systemem operacyjnym Windows używany jest odpowiedni atrybut pliku (bit archiwum), który jest ustawiany po zmianie pliku i resetowany przez program do tworzenia kopii zapasowych. Inne systemy mogą używać daty modyfikacji pliku. Oczywiste jest, że schemat wykorzystujący ten typ kopii zapasowej będzie gorszy, jeśli od czasu do czasu nie będą wykonywane pełne kopie zapasowe. W przypadku pełnego przywracania systemu należy przywrócić dane z ostatniej kopii utworzonej przez funkcję Pełna kopia zapasowa, a następnie naprzemiennie „zrolować” dane z kopii przyrostowych w kolejności ich utworzenia.

Do czego służy ten rodzaj kopii? W przypadku tworzenia kopii archiwalnych konieczne jest zmniejszenie zużytych wolumenów na nośnikach pamięci (np. zmniejszenie ilości wykorzystywanych nośników taśmowych). Pozwoli również zminimalizować czas wykonywania zadań backupu, co może być niezwykle istotne w warunkach, gdy trzeba pracować w napiętym harmonogramie 24x7 lub pobierać duże ilości informacji.

Kopiowanie przyrostowe ma jeden niuans, który musisz znać. Fragmentaryczne przywrócenie przywraca słuszność usunięte pliki na okres rekonwalescencji. Dam ci przykład. Na przykład pełna kopia zapasowa jest wykonywana w weekendy, a przyrostowe kopie zapasowe w dni powszednie. Użytkownik utworzył plik w poniedziałek, zmienił go we wtorek, zmienił nazwę w środę, usunął w czwartek. Tak więc, dzięki sekwencyjnemu stopniowemu odzyskiwaniu danych przez okres tygodniowy, otrzymamy dwa pliki: ze starą nazwą we wtorek przed zmianą nazwy oraz z nową nazwą utworzoną w środę. Stało się tak, ponieważ różne kopie przyrostowe przechowywały różne wersje tego samego pliku i ostatecznie wszystkie warianty zostaną przywrócone. Dlatego podczas przywracania danych sekwencyjnie z archiwum „tak jak jest”, sensowne jest zarezerwowanie większej ilości miejsca na dysku, aby zmieściły się również usunięte pliki.

Kopia zapasowa różnicowa

Różni się od przyrostowego tym, że dane są kopiowane z ostatniego momentu wykonania Pełnej kopii zapasowej. W takim przypadku dane umieszczane są w archiwum na zasadzie memoriałowej. W systemach z rodziny Windows efekt ten uzyskuje się dzięki temu, że bit archiwalny nie jest resetowany podczas kopiowania różnicowego, więc zmienione dane trafiają do kopii archiwalnej, dopóki pełna kopia nie ustawi bitów archiwalnych na zero.

Ze względu na to, że każdy nowa kopia, utworzony w ten sposób, zawiera dane z poprzedniego, wygodniejsze jest pełne odzyskanie danych w momencie wypadku. Wymaga to tylko dwóch kopii: pełnej i ostatniej z różnicowych, dzięki czemu można przywrócić dane do życia znacznie szybciej niż stopniowe wprowadzanie wszystkich przyrostów. Ponadto ten rodzaj kopiowania jest oszczędzony przed powyższymi cechami kopiowania przyrostowego, gdy przy pełnym odzyskiwaniu stare pliki, takie jak ptak Phoenix, odradzają się z popiołów. Jest mniej zamieszania.

Jednak kopiowanie różnicowe jest znacznie gorsze od kopiowania przyrostowego pod względem oszczędności wymaganego miejsca. Ponieważ każda nowa kopia przechowuje dane z poprzednich, łączna ilość danych kopii zapasowej może być porównywalna z pełną kopią. I oczywiście planując harmonogram (i kalkulując, czy proces backupu zmieści się w oknie czasowym) trzeba wziąć pod uwagę czas wykonania ostatniej, najgrubszej, różnicowej kopii.

Topologia zapasowa

Spójrzmy, jakie są schematy tworzenia kopii zapasowych.

schemat zdecentralizowany

Sednem tego schematu jest pewien wspólny zasób sieciowy(patrz rys. 1). Na przykład udostępniony folder lub serwer FTP. Potrzebny jest również zestaw programów do tworzenia kopii zapasowych, od czasu do czasu przesyłających informacje z serwerów i stacji roboczych, a także innych obiektów sieciowych (np. pliki konfiguracyjne z routerów) do tego zasobu. Programy te są instalowane na każdym serwerze i działają niezależnie od siebie. Niewątpliwą zaletą jest łatwość wdrożenia tego schematu i jego niski koszt. Zwykłe narzędzia wbudowane w system operacyjny lub oprogramowanie, takie jak DBMS, są odpowiednie jako programy do kopiowania. Na przykład może to być program ntbackup dla rodziny Windows, program tar dla systemów operacyjnych typu UNIX lub zestaw skryptów zawierających wbudowane polecenia serwera SQL do zrzucania baz danych do plików kopii zapasowych. Kolejną zaletą jest możliwość korzystania różne programy i systemy, o ile wszystkie mają dostęp do zasobów docelowych do przechowywania kopii zapasowych.

Minusem jest powolność tego schematu. Ponieważ programy są instalowane niezależnie od siebie, każdy z nich należy skonfigurować indywidualnie. Raczej trudno jest wziąć pod uwagę specyfikę harmonogramu i rozłożyć przedziały czasowe, aby uniknąć rywalizacji o zasób docelowy. Monitorowanie również jest trudne, proces kopiowania z każdego serwera musi być monitorowany oddzielnie od innych, co z kolei może prowadzić do wysokich kosztów pracy.

Dlatego schemat ten jest stosowany w małych sieciach, a także w sytuacji, gdy nie jest możliwe zorganizowanie scentralizowanego schematu tworzenia kopii zapasowych za pomocą dostępnych narzędzi. Bardziej szczegółowy opis tego schematu i praktycznej organizacji można znaleźć w.

Scentralizowana kopia zapasowa

W przeciwieństwie do poprzedniego schematu, w tym przypadku zastosowano przejrzysty model hierarchiczny, który działa na zasadzie „klient-serwer”. W wersji klasycznej na każdym komputerze instalowane są specjalne programy agentowe, a na serwerze centralnym zainstalowany jest moduł serwerowy pakietu oprogramowania. Systemy te posiadają również specjalizowaną konsolę zarządzania serwerem. Schemat sterowania wygląda następująco: z konsoli tworzymy zadania do kopiowania, odtwarzania, zbierania informacji o systemie, diagnostyki itd., a serwer przekazuje agentom niezbędne instrukcje do wykonania tych operacji.

W ten sposób większość popularne systemy kopie zapasowe, takie jak Symantec Backup Exec, CA Bright Store ARCServe Backup, Bacula i inne (patrz Rysunek 2).

Oprócz różnych agentów dla większości systemów operacyjnych, pojawiły się ulepszenia w zakresie tworzenia kopii zapasowych popularnych baz danych i systemów korporacyjnych, na przykład dla MS SQL Server, MS Exchange, Oracle Database i tak dalej.

W przypadku bardzo małych firm w niektórych przypadkach można wypróbować uproszczoną wersję scentralizowanego schematu tworzenia kopii zapasowych bez użycia programów agentów (patrz Rysunek 3). Z tego schematu można również skorzystać, jeśli dla używanego oprogramowania do tworzenia kopii zapasowych nie zaimplementowano specjalnego agenta. Zamiast tego moduł serwera będzie korzystał z istniejących usług i usług. Na przykład „wygarnianie” danych z ukrytych udostępnione foldery na serwerach Windows lub kopiuj pliki przez SSH z serwerów z systemami UNIX. Ten schemat ma bardzo istotne ograniczenia związane z problemami z zapisywaniem plików otwieranych do zapisu. W wyniku takich działań otwarte pliki zostaną albo pominięte i nie zostaną uwzględnione w kopii zapasowej, albo zostaną skopiowane z błędami. Istnieją różne obejścia tego problemu, takie jak ponowne uruchomienie zadania w celu skopiowania tylko wcześniej otwartych plików, ale żadne nie są niezawodne. Dlatego taki schemat nadaje się do użytku tylko w niektórych sytuacjach. Na przykład w małych organizacjach pracujących w trybie 5x8, ze zdyscyplinowanymi pracownikami, którzy zapisują zmiany i zamykają pliki przed wyjściem z domu. Do zorganizowania takiego okrojonego scentralizowanego schematu, który działa wyłącznie w środowisku Windows, dobrym rozwiązaniem jest ntbackup. Jeśli potrzebujesz użyć podobnego schematu w środowiskach heterogenicznych lub wyłącznie wśród komputerów z systemem UNIX, polecam spojrzeć na Backup PC (zobacz).

Rysunek 4. Mieszany schemat tworzenia kopii zapasowych

Co to jest poza siedzibą?

W naszym burzliwym i zmieniającym się świecie mogą wystąpić zdarzenia, które mogą mieć nieprzyjemne konsekwencje dla infrastruktury IT i całego biznesu. Na przykład pożar w budynku. Albo przerwa w baterii centralnego ogrzewania w serwerowni. Albo banalna kradzież sprzętu i komponentów. Jedną z metod uniknięcia utraty informacji w takich sytuacjach jest przechowywanie kopii zapasowych w lokalizacji z dala od głównej lokalizacji. sprzęt serwerowy. Jednocześnie konieczne jest zapewnienie szybki sposób dostęp do danych potrzebnych do odzyskania. Opisana metoda nazywa się off-site (czyli przechowywanie kopii poza przedsiębiorstwem). Zasadniczo stosowane są dwie metody organizacji tego procesu.

Zapisywanie danych na nośnikach wymiennych i ich fizyczne przemieszczanie. W takim przypadku musisz zadbać o fundusze szybka dostawa media z powrotem w przypadku awarii. Na przykład przechowuj je w pobliskim budynku. Zaletą tej metody jest możliwość bezproblemowego zorganizowania tego procesu. Minusem jest złożoność zwrotu nośnika i sama konieczność przekazania informacji do przechowywania, a także ryzyko uszkodzenia nośnika podczas transportu.

Skopiuj dane do innej lokalizacji przez łącze sieciowe. Na przykład za pomocą tunelu VPN przez Internet. Zaletą w tym przypadku jest to, że nie ma potrzeby przenoszenia gdzieś nośnika z informacją, wadą jest konieczność wykorzystania odpowiednio szerokiego kanału (z reguły jest to bardzo drogie) i zabezpieczenia przesyłanych danych (np. za pomocą tej samej sieci VPN). Wynikające z tego trudności związane z przesyłaniem dużych ilości danych można znacznie zmniejszyć za pomocą algorytmów kompresji lub technologii deduplikacji.

Osobno warto wspomnieć o środkach bezpieczeństwa w organizacji przechowywania danych. Przede wszystkim należy zadbać o to, aby nośniki danych znajdowały się w bezpiecznym pomieszczeniu oraz o środki uniemożliwiające zapoznanie się z danymi przez osoby nieuprawnione. Na przykład użyj systemu szyfrowania, zawrzyj umowy o zachowaniu poufności i tak dalej. Jeśli chodzi o nośnik wymienny, dane na nim również muszą być zaszyfrowane. Zastosowany system znakowania nie powinien pomagać atakującemu w analizie danych. Do oznaczania nośników nazw konieczne jest stosowanie bezimiennego schematu numeracji przesłane pliki. Podczas przesyłania danych przez sieć konieczne jest (jak już wspomniano powyżej) zastosowanie bezpiecznych metod przesyłania danych, np. tunelu VPN.

Przeanalizowaliśmy główne punkty podczas organizowania kopii zapasowej. W następnej części przyjrzymy się wytyczne i dostarcza praktycznych przykładów tworzenia efektywnego systemu tworzenia kopii zapasowych.

  1. Opis kopii zapasowej system Windows, w tym Stan systemu — http://www.datamills.com/Tutorials/systemstate/tutorial.htm .
  2. Opis kopii w tle — http://ru.wikipedia.org/wiki/Shadow_Copy .
  3. Oficjalna strona internetowa Acronis - http://www.acronis.ru/enterprise/products .
  4. Opis ntbackup to http://en.wikipedia.org/wiki/NTBackup.
  5. Berezhnoy A. Optymalizacja pracy MS SQL Server. // Administrator systemu, nr 1, 2008 - str. 14-22 ().
  6. Berezhnoy A. Organizujemy system backupu dla małych i średnich biur. // Administrator systemu, nr 6, 2009 - str. 14-23 ().
  7. Markelov A. Linux na straży Windowsa. Omówienie i instalacja systemu backupu BackupPC. // Administrator systemu, nr 9, 2004 - str. 2-6 ().
  8. Opis VPN - http://ru.wikipedia.org/wiki/VPN.
  9. Deduplikacja danych — http://en.wikipedia.org/wiki/Data_deduplication .

W kontakcie z

Każdy użytkownik komputera wie na pewno, że żaden system nie jest odporny na błędy, a nawet krytyczne awarie, gdy nie można go przywrócić konwencjonalnymi środkami. W tym celu zostały opracowane programy, w tym narzędzia, które umożliwiają tworzenie kopii zapasowych dyski twarde i partycje logiczne. Rozważ najpopularniejsze narzędzia o różnych poziomach złożoności.

Programy i odzyskiwanie danych: celowość użytkowania

Niektórzy użytkownicy nie rozumieją, jak potężne są tego typu narzędzia. Niestety, błędnie uważają, że najłatwiejszą opcją jest po prostu skopiowanie plików użytkownika na inne partycje logiczne niż partycja systemowa. Jest jeszcze inna kategoria użytkowników, którzy uważają, że można skopiować całą partycję systemową do innej lokalizacji, a następnie, w przypadku awarii, z tej kopii. Niestety, obaj się mylą.

Oczywiście ta technika ma zastosowanie do plików użytkownika, ale nie każdy chce zaśmiecać kolejny wolumin logiczny mnóstwem informacji lub stale przechowywać dysk zewnętrzny, taki jak dysk twardy USB, kilka dysków lub dysków flash, których pojemność jest wyraźnie ograniczone, pod ręką. A przy dużych ilościach danych należy również wziąć pod uwagę czas kopiowania z jednego woluminu na drugi. Programy do tworzenia kopii zapasowych i przywracania zarówno systemu, jak i partycji działają nieco inaczej. Oczywiście w większości przypadków potrzebne będą nośniki wymienne, ale utworzona kopia zapasowa zajmie wielokrotnie mniej miejsca.

Podstawowa zasada działania i opcje działania

Z reguły większość dzisiejszych dobrze znanych i szeroko stosowanych narzędzi wykorzystuje głównie zasady tworzenia obrazów i kompresowania skopiowanych danych. Jednocześnie obrazy są najczęściej używane specjalnie do tworzenia kopii systemu operacyjnego, co pozwala później przywrócić go po nieprzewidzianej krytycznej awarii, a narzędzia do kopiowania partycji lub plików użytkownika wymagają kompresji zgodnie z rodzajem archiwizacji.

Jeśli chodzi o opcje rezerwacji, mogą być dwa z nich. Zasadniczo prawie każdy program do tworzenia kopii zapasowych systemu oferuje użycie nośników zewnętrznych (DVD, dysk flash itp.). Wynika to tylko z faktu, że podczas przywracania systemu będziesz musiał uruchomić komputer nie z partycji systemowej, ale z nośników wymiennych. Obraz na partycji logicznej nie zostanie rozpoznany.

Inną rzeczą jest oprogramowanie do tworzenia kopii zapasowych dysków. W nich możesz zapisać niezbędne informacje na innych partycjach logicznych lub ponownie użyć nośników wymiennych. Ale co, jeśli objętość używanego dysku twardego wynosi setki gigabajtów? Nikt nie pozwoli ci zapisać tych informacji nawet w skompresowanej formie. Alternatywnie możesz użyć zewnętrznego dysku twardego, jeśli jest oczywiście dostępny.

Jeśli chodzi o wybór odpowiedniego narzędzia do zapisywania plików użytkownika, najlepszym rozwiązaniem jest program do zaplanowanej kopii zapasowej plików. Takie narzędzie jest w stanie wykonać tę operację bez interwencji użytkownika, zapisując wszystkie zmiany dokonane w określonym czasie. Do kopii zapasowej można dodawać nowe dane, a także usuwać z niej stare dane. A wszystko to w trybie automatycznym! Zaleta jest oczywista – w końcu użytkownik musi tylko ustawić odstęp czasowy między hasłami reklamowymi w ustawieniach, wtedy wszystko dzieje się bez tego.

Natywne oprogramowanie do tworzenia kopii zapasowych systemu Windows

Na początek zajmijmy się więc natywnym narzędziem systemów Windows. Wiele osób uważa, że ​​program do tworzenia kopii zapasowych wbudowany w system Kopia Windows działa, delikatnie mówiąc, niezbyt dobrze. W zasadzie nie chcą z niego korzystać tylko ze względu na to, że narzędzie spędza zbyt dużo czasu na tworzeniu kopii, a sama kopia zajmuje dużo miejsca.

Ma jednak dość zalet. W końcu kto, jeśli nie specjaliści Microsoft, powinien znać wszystkie subtelności i niuanse związane z komponentami, które są niezbędne do prawidłowego odzyskania systemu Windows? A wielu użytkowników wyraźnie nie docenia możliwości wbudowanego w system narzędzia. W końcu nie bez powodu taki program do tworzenia kopii zapasowych i odzyskiwania jest zawarty w głównym zestawie systemu?

Najłatwiejszym sposobem uzyskania dostępu do tego narzędzia jest standardowy „Panel sterowania”, w którym wybrana jest sekcja tworzenia kopii zapasowych i przywracania. Można tu zastosować trzy główne punkty: tworzenie obrazu, tworzenie dysku i kopiowanie ustawień. Pierwsza i druga trudność nie powodują. Ale trzeci jest dość interesujący. System poprosi o zapisanie kopii na nośnikach wymiennych po wcześniejszym ustaleniu samego urządzenia. Ale jeśli spojrzysz na parametry, możesz zapisać kopię w sieci, co jest idealne dla „lokalnych”. Dlatego w niektórych przypadkach taki program do backupu systemu będzie dobrym narzędziem do tworzenia kopii zapasowej z możliwością późniejszego przywrócenia systemu Windows z tej konkretnej kopii.

Najpopularniejsze narzędzia

Przyjrzyjmy się teraz narzędziom, które według wielu ekspertów są obecnie najbardziej popularne wśród użytkowników. Od razu zauważamy, że po prostu niemożliwe jest uwzględnienie wszystkich programów do tworzenia kopii zapasowych, dlatego skupimy się na niektórych z nich, biorąc pod uwagę poziom popularności i złożoność ich użycia. Przybliżona lista takich narzędzi może wyglądać tak:

  • Prawdziwy obraz firmy Acronis.
  • Duch Nortona.
  • back2zip.
  • Comodo Backup.
  • Backup4all.
  • ABC kopii zapasowej Pro.
  • Active Backup Expert Pro.
  • ApBackUP.
  • Obserwator kopii zapasowych plików za darmo.
  • Kopiarka.
  • Automatyczne tworzenie kopii zapasowych i wiele innych.

Spróbujmy teraz przyjrzeć się pierwszej piątce. Proszę zanotować! W tej chwili rozważamy programy do tworzenia kopii zapasowych, które są używane głównie na stacjach roboczych (komputery użytkowników). Rozwiązania dla systemów serwerowych i sieci zostaną omówione osobno.

Acronis True Image

Oczywiście jest to jedno z najpotężniejszych i najpopularniejszych narzędzi, cieszące się zasłużonym sukcesem i zaufaniem wielu użytkowników, chociaż należy do programów klasy podstawowej. Ma jednak wiele możliwości.

Po uruchomieniu aplikacji użytkownik wchodzi do menu głównego, w którym można wybrać kilka opcji działania. W tym przypadku interesuje nas sekcja tworzenia kopii zapasowych i przywracania (w menu znajdują się dodatkowe narzędzia, które z oczywistych względów nie będą teraz brane pod uwagę). Po wejściu aktywowany jest „Master”, który pomoże utworzyć kopię zapasową. W procesie możesz wybrać, czego dokładnie chcesz utworzyć kopię (system przywracania od podstaw, pliki, ustawienia itp.). W „Typ kopii” lepiej wybrać „Przyrostowo”, ponieważ pozwoli to zaoszczędzić miejsce. Jeśli ilość mediów jest wystarczająco duża, można użyć pełnej kopii, a do tworzenia kopii wielokrotnych - różnicowej. Podczas tworzenia kopii systemu zostaniesz poproszony o utworzenie dysku rozruchowego.

Oto, co jest interesujące: narzędzie wykazuje dość wysokie wskaźniki pod względem szybkości tworzenia kopii zapasowych, czasu i kompresji. Na przykład kompresja danych o wielkości około 20 GB zajmie średnio 8-9 minut, a rozmiar ostatecznej kopii wyniesie nieco ponad 8 GB.

Duch Nortona

Przed nami kolejne potężne narzędzie. Jak zwykle, po uruchomieniu programu uruchamiany jest „Kreator”, który pomaga przejść przez wszystkie kroki.

To narzędzie jest niezwykłe, ponieważ można go użyć do utworzenia ukrytej partycji na dysku twardym, na której będzie przechowywana kopia (i można z niej przywrócić zarówno dane, jak i system). Ponadto można w nim zmienić wiele parametrów: rodzaj kontroli odczytu, typ zapisu, kompresję, liczbę punktów dla równoczesnego dostępu itp. Jeśli chodzi o wydajność, ta sama aplikacja 20 GB kompresuje się do rozmiaru nieco ponad 7,5 GB, co czas zajmuje około 9 minut. Ogólnie wynik jest całkiem dobry.

Back2zip

A oto zaplanowany program do tworzenia kopii zapasowych. Różni się tym, że jego instalacja zajmuje tylko kilka sekund, a po uruchomieniu automatycznie tworzy nowe zadanie i rozpoczyna kopiowanie danych, zakładając, że pliki użytkownika są przechowywane w folderze Moje dokumenty. Niestety jest to również główna wada.

Na początku zadanie musi zostać usunięte, a następnie należy wybrać źródłowy folder docelowy. Nie ma „mastera” w zwykłym tego słowa znaczeniu, wszystko odbywa się z głównego okna. W harmonogramie możesz ustawić interwał kopiowania od 20 minut do 6 godzin. Podsumowując, najłatwiejsze rozwiązanie dla początkujących użytkowników.

Kopia zapasowa Comodo

Przed nami kolejne ciekawe narzędzie, które może konkurować nawet z produkty komercyjne. Jego główną cechą jest obecność aż pięciu trybów pracy i ogromna ilość ustawień.

Co ciekawe, narzędzie jest w stanie w czasie rzeczywistym reagować na zmiany w plikach zawartych w kopii zapasowej. Gdy tylko oryginalny plik zostanie zmieniony i zapisany, aplikacja natychmiast tworzy jego kopię, dodając i zastępując ostatni element w kopii zapasowej. Nie wspominając o harmonogramie, można osobno odnotować rozpoczęcie tworzenia kopii w momencie rozpoczęcia lub zakończenia.

Backup4all

Na koniec spójrzmy na inne darmowe narzędzie, które pozwala, że ​​tak powiem, za jednym zamachem tworzyć kopie zapasowe wszystkiego, czego możesz potrzebować w przyszłości w tym samym czasie.

To narzędzie jest interesujące, ponieważ pozwala zapisywać kopie nie tylko na nośnikach zewnętrznych lub wewnętrznych, ale także w sieciach, a nawet na serwerach FTP. Edytowalnych parametrów i ustawień jest całkiem sporo, wśród których są cztery metody kopiowania, a także wsparcie. Ponadto interfejs jest bardzo prosty, a wyświetlanie folderów i zadań jest przedstawione w strukturze drzewiastej podobnej do „Explorer ”. Ponadto użytkownik może podzielić skopiowane dane na kategorie takie jak dokumenty, rysunki itp., przypisać każdemu projektowi własną etykietę. Oczywiście istnieje również „Harmonogram zadań”, w którym można określić np. tworzenie kopii tylko w momencie niskiego obciążenia procesora.

Rozwiązania dla systemów serwerowych

Istnieją również specjalistyczne programy do tworzenia kopii zapasowych systemów i sieci serwerowych. Wśród całej tej różnorodności można wybielić trzy najpotężniejsze:

  • Odzyskiwanie systemu Symantec Backup Exec 11d.
  • Yosemite Backup Standardowy serwer główny.
  • Shadow Protect Small Business Server Edition.

Uważa się, że takie narzędzia są dobre narzędzie rezerwacje dla małych firm. Jednocześnie odzyskiwanie od zera można wykonać z dowolnej stacji roboczej znajdującej się w sieci. Ale najważniejsze jest to, że kopię zapasową trzeba wykonać tylko raz, wszystkie kolejne zmiany zostaną zapisane automatycznie. Wszystkie aplikacje posiadają interfejs „Explorer” i obsługują zdalne sterowanie z dowolnego terminala w sieci.

Zamiast posłowia

Pozostaje jeszcze dodać, że daleko od wszystkich programów do backupu/odzyskiwania danych, które umożliwiają tworzenie kopii zapasowych zarówno systemów, jak i plików, a następnie przywracanie ich z utworzonych kopii, uwzględniono tutaj. Wydaje się jednak, że nawet krótka informacja o powyższych programach da wielu wyobrażenie o tym, jak to działa i dlaczego to wszystko jest potrzebne. Z oczywistych względów pozostawiamy otwartą kwestię wyboru odpowiedniego oprogramowania, ponieważ to już zależy od preferencji użytkownika lub administratora systemu.

System kopii zapasowej może działać w ten sposób

Czym różni się korporacyjna kopia zapasowa od domowej kopii zapasowej?
Skala - infrastruktura do petabajta. Szybkość to tysiące transakcji na sekundę, więc na przykład musisz mieć możliwość wykonania kopii zapasowej bazy danych w locie bez zatrzymywania nagrywania. Zoo systemów: maszyny robocze, telefony komórkowe i tablety, profile osób w chmurze, kopie baz danych CRM/ERP, wszystko to na różnych systemach operacyjnych i w ciężkich systemach rozgałęzionych.

Poniżej opowiem o rozwiązaniach IBM, EMC, CommVault, Symantec oraz o tym, co dają one zarówno całemu biznesowi, jak i działowi IT. Plus kilka pułapek.

Przyjrzyjmy się tym funkcjom tworzenia kopii zapasowych w zwykłych rosyjskich firmach. W tym te, których kopie zapasowe są tworzone tylko w przypadku wycofania sprzętu.

Rozpoczynamy program edukacyjny. Czy w ogóle potrzebujesz kopii zapasowej?

Zwykle to pytanie zadają ludzie, którzy są daleko od IT. Właściwe pytanie brzmi „jakiego rodzaju kopii zapasowej potrzebujesz”? Na początku tego roku natknąłem się na raport, że utrata danych na świecie kosztuje średnio do jednej trzeciej wartości firmy, w USA i Europie - do połowy. Mówiąc najprościej, brak świeżej kopii zapasowej może w niektórych przypadkach oznaczać opuszczenie rynku.

Dlaczego w ogóle potrzebujesz kopii zapasowej?

Oczywiście, aby uchronić się przed awariami, atakami i ludzką głupotą. Ogólnie rzecz biorąc, pytanie jest trochę naiwne, ale przyjrzyjmy się mu trochę bardziej szczegółowo.
  • Po pierwsze, chroni dane przed utratą. Głównymi przyczynami utraty są awarie sprzętu, upadek odległych lokalizacji (na przykład podczas pożaru w centrum danych) oraz usuwanie sprzętu. Mniejsze przypadki to utrata laptopów i tak dalej.
  • Kopia zapasowa chroni również integralność danych: zabezpiecza na przykład przed błędami operatora. Jest to drugi najczęstszy powód: osoba może przejąć i „zepsuć” ważne dane niewłaściwą komendą.
  • Po trzecie, w środowisku korporacyjnym może być potrzebny „gorący” backup w celu szybkiego wdrożenia usług w sytuacji awaryjnej, jest to bardzo ważne dla tych, dla których ciągłość procesów IT jest szczególnie krytyczna, np. operatorzy telekomunikacyjni czy banki.

Jak zwykle dochodzisz do złożonych systemów?

Wszystko jest proste: wraz z rozwojem firmy. Pierwsze użycie proste środki: ręczne kopiowanie, następnie zaplanowane skrypty lub ustawienia narzędzi, po czym pojawia się aplikacja serwera, która to kontroluje. Na tym etapie zwykle dodawane są wymagania co do poziomu zabezpieczenia ze strony pracowników ochrony lub działu finansowego (zarządzającego ryzykiem firmy) – i wtedy zaczyna się wdrożenie. Każde zadanie jest klasyfikowane według ważności i oceniane, na przykład rozliczenia powinny być wprowadzane 5 minut po wypadku do aktywnego systemu nadmiarowego w innym centrum danych, a dane pracowników biurowych powinny być przenoszone 2 godziny później na wstępnie przygotowany, ale na mokro sprzęt . Na tym poziomie istnieje potrzeba ścisłej integracji z aplikacjami, a nieco później - z macierzami sprzętowymi do przechowywania danych.

Jak integracja wygląda w praktyce?

Z reguły, gdy nasi specjaliści przychodzą zainstalować backup totalny, duża firma ma już kilka podsystemów backupu. Najczęściej mówimy o już skonfigurowanych aplikacjach do tworzenia kopii zapasowych plików i regularnym pobieraniu odcisków palców baz danych (na przykład nocnej kopii zapasowej bazy danych 1C) i przechowywaniu ich na osobnym urządzeniu. Są oczywiście zachwycające etui. Na przykład jeden sieć detaliczna W ogóle nie robiłem backupu baz danych o dostępności towaru w magazynie - a w przypadku awarii wysyłałem ludzi na inwentaryzację.

Albo oto kolejny przykład - w oddziale znajduje się kopia bazy danych, która służy tylko do odczytu. Wszystkie dane, które powstają na jej podstawie są tymczasowe. W przypadku awarii, kopia tej bazy danych jest wymagana od organizacji macierzystej i zajmuje trzy dni. Ludzie siedzą i czekają. Oczywiste jest, że dane nie zostały utracone, ale gdyby istniała odpowiednia kopia zapasowa, byłyby w stanie kontynuować pracę w ciągu 20 minut.

Co jest najważniejsze w oprogramowaniu do tworzenia kopii zapasowych?

Spójrzmy na główne parametry.

Architektura
Niewątpliwie ważna jest architektura rozwiązania. Podział systemu na moduły funkcjonalne jest powszechną praktyką we wszystkich rozwiązaniach do backupu w przedsiębiorstwie. Ważnym punktem jest oddzielenie warstwy przechowywania od warstwy zarządzania danymi logicznymi, jak to ma miejsce np. w CommVault Simpana – jedno zadanie tworzenia kopii zapasowej może wykorzystywać zarówno dysk, jak i taśmę, a nawet pamięć w chmurze.


Przykład architektury oprogramowania do tworzenia kopii zapasowych (CommVault Simpana)

Scentralizowane funkcje sterowania.
Ważne jest, aby zarządzać wszystkimi operacjami. Tworzenie kopii zapasowych dużych systemów jest dość skomplikowane, dlatego ważne jest, aby administrator dokładnie rozumiał, co się dzieje. Przy rozgałęzionej strukturze, na przykład w dużym centrum danych z setkami systemów, nie można „podejść” do każdego z nich i sprawdzić, czy ma kopię zapasową, czy nie. Tutaj potrzebujemy systemu, który potrafi zbudować raport, zobaczyć, czy wszystkie dane i aplikacje są kopiowane lub nie kopiowane, na co trzeba zwrócić uwagę, powiadamiać administratora o wszelkich problemach.


Scentralizowane zarządzanie SRK

Liderzy rynku mają systemy, które pozwalają zobaczyć, gdzie jest przechowywane, jakie rodzaje danych, co dokładnie można zoptymalizować i tak dalej. Możesz sporządzić prognozę na nadchodzący rok.

Tablice betonowe i DB
Pierwsza to obsługa tablic, wyostrzanie pod konkretne bazy danych. Musisz pobrać dane z dołu i wykorzystać je w bardziej złożonych funkcjach, takich jak tworzenie migawek sprzętowych. Same systemy backupu wiedzą już, jak wykonywać operacje na macierzach, aby zapewnić ochronę danych, nie wpływając na systemy produkcyjne współpracujące z tymi macierzami, ani nie minimalizując ich obciążenia,

Mówiąc najprościej, system powinien być w stanie wykonać kopię bazy danych, w której transakcje są aktualnie dokonywane w locie, a nie żądać tej kopii z aplikacji serwera. Oznacza to, że musi w sposób kompetentny i niezauważalny, aby aplikacja i użytkownicy pobierali dane z macierzy dyskowej.

Na przykład systemy CommVault czy EMC obsługują prawie wszystkie systemy operacyjne i aplikacje komercyjne dostępne na rynku korporacyjnym (w szczególności bazy danych Oracle, Microsoft, CommVault posiada również wsparcie dla PostgreSQL i MySQL, Documentum, SAP).

Deduplikacja - architektura
Dobra deduplikacja to podstawa. Dobra deduplikacja znacznie zmniejsza wymagania cenowe dla macierzy dyskowych i bardzo dobrze ogranicza ruch. Z grubsza mówiąc, jeśli pierwszy backup danych użytkowników z maszyn wirtualnych miał 10 Gb, to każdy następny dziennie może mieć 50-60 Mb - ze względu na różnicę między migawkami systemu. Jednocześnie liderzy rynku kopii zapasowych (o nich poniżej) za systemy zewnętrzne kopie są widoczne jako osobne rzuty, to znaczy tak, jakby za każdym razem, gdy wykonywana była pełna kopia zapasowa. To niesamowicie przyspiesza powrót do zdrowia.

Chciałbym podkreślić, że deduplikacja w nowoczesne systemy odbywa się u źródła, czyli w systemie, z którego pobierane są dane, co znacznie zmniejsza obciążenie kanałów. Jest to bardzo ważne w przypadku rozległych sieci, które nie zawsze dysponują wystarczająco szerokim kanałem, przez który można przesłać pełną kopię zapasową. Zwykła kopia „seryjna” dla złożonych systemów na poziomie SAP stanowi zaledwie kilka procent całkowitej objętości bazy danych.

Podsystem deduplikacji, w dobry sposób, powinien być dogodnie skalowany. Idealnie, liniowo z dodaniem węzłów pamięci masowej, organizując pewną sieć lub chmurę. Jednocześnie węzły nie powinny być oddzielnymi wyspami z własnymi zestawami danych, ale powinny być połączone w jedną przestrzeń deduplikacji. I bardzo dobrze, jeśli te węzły zrównoleglą obciążenie i przetwarzają je równolegle. Zauważam, że teraz wielu klientów spieszy się z pomiarem współczynników deduplikacji podczas porównywania produktów. Ale to nie do końca prawda: nowoczesne dyski SATA mają już 4 TB każdy. Daj lub weź kilka dysków, a wszystkie systemy będą w stanie przechowywać taką samą ilość danych - i lepiej na początku dokupić jeden dodatkowy dysk, niż w razie potrzeby rozbudowywać cały system.

Równoważenie obciążenia
Takie systemy posiadają również funkcje zapewniające odporność na błędy operacyjne i równoważenie obciążenia, co jest ważne w dużych centrach danych, gdy wolumeny danych w jednym systemie mogą sięgać dziesiątek i setek Tb. Na przykład platforma wirtualizacji może zawierać bardzo dużą ilość danych i dużą liczbę maszyn wirtualnych. Sam system w tym przypadku powinien pozwalać na zbudowanie zestawu serwerów, które będą przesyłać dane, odbierać je z platformy i zapisywać do pamięci, aby mogły ze sobą współdziałać, a w przypadku wzrostu lub zmniejszyć obciążenie, automatycznie je redystrybuować. Funkcja jest prosta i oczywista, ale dość krytyczna, ponieważ wpływa na szybkość i wydajność tworzenia kopii zapasowych.

Ważny ciągłość. Jeśli jakikolwiek składnik ulegnie awarii, możesz zapewnić, że zadania przejdą poza okno tworzenia kopii zapasowej (zwykle w nocy). CommVault Simpana pozwala to zrobić automatycznie w przypadku awarii serwerów mediów, deduplikacji baz danych. Inne systemy mają ograniczenia lub wymagają kosztownych rozwiązań sprzętowych. Na rysunku widać dwa serwery z agentami, które działają w połączeniu i jeśli jeden się zepsuje, drugi zaczyna działać. Jednocześnie oba zapisują na tym samym dysku, mają wspólną bazę deduplikacji:

Przechowywanie fizyczne

Najczęściej mówimy o przechowywaniu na macierzach dyskowych, gdzie jest ono udostępniane dodatkowa ochrona dane. Pierwsza warstwa — ważne dane są koniecznie przechowywane w dwóch niezależnych zdalnych lokalizacjach (na przykład w różnych centrach danych). Druga warstwa - te dane są przechowywane na różnych dyskach. Na przykład plik zawierający 10 bloków można zapisać na 11 dyskach - a jeśli którykolwiek z nich ulegnie awarii, reszta będzie zawierać wystarczającą ilość danych, aby przywrócić brakujące łącze. Oto przykład jednego z nich.

Dyski i taśma + "chmura"

Okazuje się więc, że napędy taśmowe są nadal w użyciu. Najczęściej „gorące” dane (powiedzmy 10 procent najważniejszych) są przechowywane na dyskach, skąd można je szybko odzyskać, a już drugi poziom znajduje się na taśmie. Jest praktyczna i tania, a dodatkowo taśma pozwala na przechowywanie danych przez prawie dekady bez wymiany sprzętu, po prostu wyjmuje się je i umieszcza na półce. Częstym przypadkiem są dzienniki i inne dokumenty banków, które należy przechowywać przez określony czas. System backupu jest w stanie alokować takie dane na dysku, alienować je i archiwizować na napędzie taśmowym. Jednocześnie zawsze można znaleźć te informacje i przywrócić je w razie wypadku. Przy okazji możesz nagrywać zarówno kopie pełne, jak i zdeduplikowane - w razie potrzeby, inteligentny system może złożyć wszystko z powrotem, tak jakby ostatnia obsada była kompletna.

Ale CommVault Simpana może również bezpośrednio dodać kopię danych z pamięci korporacyjnej do „chmury” (niektórzy nasi klienci robią to za pomocą „chmury” CROC – przeprowadziliśmy nawet certyfikację). Ta dodatkowa kopia może być traktowana przez klienta jako archiwum długoterminowe. Aby go przechowywać, nie musisz myśleć o sprzęcie. Inną taką kopię można wykorzystać do systemów odzyskiwania po awarii. Na przykład jeden z klientów tak robi: kopia wszystkich maszyn wirtualnych jest wysyłana do naszej „chmury” w celu przechowywania. W przypadku upadku głównego data center klienta, wszystkie te maszyny wirtualne możemy uruchomić na naszej infrastrukturze. Jednocześnie płatność przed uruchomieniem dotyczy tylko pojemności - czyli okazuje się bardzo ekonomicznie.

Bezpośrednia praca z użytkownikami

Jeśli nie spotkałeś się z backupem firmowym, możesz odnieść wrażenie, że tylko dział IT wycofuje dane i robi to ręcznie. Ale na przykład w CommVault nie jest to do końca prawdą.

W takiej sytuacji użytkownik może sam wejść do portalu (na zdjęciu poniżej) i wgrać konkretnie własne dane, jeśli były w kopii. Zazwyczaj taki portal posiada również wyszukiwarkę kopii zapasowych i archiwów (w ramach uprawnień użytkownika). Dostęp do tego archiwum mają również pracownicy bezpieczeństwa informacji - zmniejszy to znacznie liczbę próśb do działu IT z pytaniami typu: „Kto miał taki a taki dokument”.

Tak, dobrze zrozumiałeś. Jeśli użytkownik zgubił plik, przypadkowo usunął wiadomość e-mail lub chce znaleźć starszą wersję dokumentu do porównania, po prostu idzie i robi wszystko sam w ciągu kilku sekund bez zbędnych komplikacji. I nawet nie dzwoni ani nie pisze do działu IT.

Osobno należy powiedzieć o Szukaj. Wszystkie nieustrukturyzowane dane (pliki, poczta, obiekty SharePoint itp.), które dostają się do systemu, dobrze byłoby zindeksować i uporządkować wyszukiwarkę. Simpana wie, jak to zrobić. Z jednej strony użytkownicy poprzez samoobsługową konsolę mogą sami znaleźć dowolny obiekt za pomocą słów kluczowych. Z drugiej strony służby bezpieczeństwa mogą prowadzić ukierunkowane działania w celu analizy wszystkich tych informacji, w tym wyszukiwania zagrożenia wewnętrzne. Otóż ​​system może ustawić okresy przechowywania danych w zależności od zawartości tych danych.

Jak szybko można wszystko cofnąć?

Załóżmy, że mamy złożony system z bazą danych Oracle jako magazynem. Dane są fizycznie „rozmazane” na kilku serwerach w jednym centrum danych. Używany przez CommVault.
  • Pierwszy przypadek - użytkownik wziął i usunął dane ze swojej stacji roboczej. Albo on, albo administrator przywraca: wchodzi do interfejsu, wybiera witrynę. Całą resztę robi system. Użytkownik widzi piękny interfejs sieciowy, administrator może z nim pracować lub z konsolą.
  • Teraz spadamy serwer poczty elektronicznej Giełda. Skrypt jest nadal dość prosty: ponownie użytkownik lub administrator określa, jakie dane należy przywrócić, łączy się, loguje, otwiera konsolę odzyskiwania, wybiera obszar, wciska przycisk „przywróć”.
  • Teraz tracimy dane z bazy danych naszej dużej komercyjnej aplikacji na dziś. Na przykład wszystkie transakcje kupna i sprzedaży. W takim przypadku system backupu puka w mechanizm RMAN, który posiada Oracle (jest to rodzaj API odzyskiwania danych). Ale ponieważ wszystko jest już z nami zintegrowane, administrator wybiera również tylko to, co dokładnie ma zostać przywrócone. Co więcej, sam RMAN wraz z systemem backupu decyduje, co konkretnie zrobić: przywrócić całą bazę danych lub jakiś TableSpace, czyli tzw. oddzielny stół i tak dalej.
  • A teraz nasze centrum danych eksploduje w nocy. W takim przypadku administrator wybiera inne centrum danych i przenosi najnowszą kopię na „czysty” sprzęt. Sam system zbiera najnowszą kompletną migawkę z deduplikowanych danych i przekazuje niezbędne informacje do każdego podsystemu i aplikacji. Zwykli użytkownicy Prawdopodobnie nawet nie zauważają, co się stało. Może być też tak, że w innym centrum danych jakieś dane już tam są, zreplikowane lub po prostu przywrócone zgodnie z harmonogramem, wtedy wszystko jest jeszcze prostsze, a przywracanie nawet nie odbywa się na czystym systemie.

Rozwój systemów od wersji do wersji

Wraz z rozwojem systemów kopii zapasowych przychodzi wsparcie dla nowych aplikacji komercyjnych. Mówimy o standardowych pakietach serwisowych w ramach wsparcia. CommVault, na przykład, stosuje dobrą politykę wydawania aktualizacji dotyczących kompatybilności do bieżącej wersji, zamiast zmuszać Cię do kupowania kolejnej wersji: jest to wygodne, ponieważ infrastruktura firmy stale się rozwija.

W nowych wersjach oprogramowania pojawiają się nowe funkcje, takie jak kopiowanie w jednym przebiegu, np. z jednoczesnym przeniesieniem do archiwum z serwerów plików. Lub stosunkowo niedawno operacje archiwizacji i tworzenia kopii zapasowych zostały połączone w Exchange - teraz są również wykonywane w jednym przejściu. Ostatnio pojawiła się możliwość archiwizacji maszyn wirtualnych, co jest przyjemne dla dużych systemów chmurowych: jeśli maszyna nie jest używana przez dłuższy czas lub jest wyłączona, to zgodnie z zestawem reguł można ją usunąć z platformę wirtualizacji i pozostanie tylko kopia zapasowa.

Ostatnio pojawiły się klienty na iOS i Androida, które zarządzają kopiami swoich stacji roboczych: przydatne, jeśli ktoś jest na przykład w podróży służbowej i zapomni o prezentacji. Lub gdy Twój laptop zepsuje się w drodze. Tutaj też nie trzeba budzić administratora o drugiej w nocy: użytkownik może zrobić wszystko sam.

Sprzedawcy

Według raportu Gartnera wśród liderów, z którymi aktywnie współpracujemy, znajdują się w szczególności IBM, Symantec, EMC i CommVault.


Kwadrat Gartnera: liderzy w prawym górnym rogu, gracze niszowi w lewym dolnym rogu.

IBM Tivoli Storage Manager (TSM) jest dość elastyczny pod względem konfigurowania i organizowania schematu tworzenia kopii zapasowych w przedsiębiorstwie. Łącząc różne komponenty TSM, klient otrzymuje możliwość zbudowania niezbędnej funkcjonalności dla swoich zadań. Ale często wymaga to więcej czasu na projektowanie i wdrażanie. TSM jest często używany jako część kompleksowych rozwiązań opartych na sprzęcie i oprogramowaniu IBM.

EMC. Jako firma produkująca nie tylko oprogramowanie, ale również sprzęt, stawia przede wszystkim na integrację wszystkich swoich rozwiązań. Dlatego jeśli infrastruktura jest w dużej mierze zbudowana na systemach przechowywania danych Clariion, VNX, data domain storage, warto przyjrzeć się produktom do backupu EMC, które zapewnią jednolitą strukturę systemu. Nawiasem mówiąc, produkt EMC Avamar to także rozwiązanie programowo-sprzętowe.

Symantec jest reprezentowana na rynku kopii zapasowych przez swój flagowy produkt NetBackup, skoncentrowany na segmencie korporacyjnym, oraz bardziej „lekki” BackupExec, tradycyjnie używany w środowiskach zbudowanych głównie na produktach Microsoft. NetBackup słynie z obsługi szerokiej gamy systemów operacyjnych, DBMS i aplikacji biznesowych, w tym wdrożonych w wirtualne środowisko. Wie również, jak wykorzystać zaawansowane możliwości nowoczesnych systemów pamięci masowej. NetBackup to dobry wybór dla środowiska z dużą częścią systemów UNIX. Od niedawna produkty firmy Symantec są dostarczane nie tylko jako oprogramowanie, ale również jako PAKIET, co przyspiesza ich wdrażanie i konfigurację.

CommVault. Co być może najważniejsze, jest to produkt holistyczny, który pokrywa prawie wszystkie potencjalne potrzeby klientów. To zunifikowana platforma, która łączy w sobie funkcjonalność kopiowania, archiwizacji i dostępu do danych. Do tego tradycyjnie dobra integracja z platformami wirtualizacji, deduplikacja i integracja z pamięcią masową w chmurze. Cóż, jak wspomniano powyżej, znacznie odciąża dział IT ze względu na kompetentną politykę praw dostępu użytkowników do elementów archiwum. W wielu wdrożeniach CommVault jest dobrym wyborem, gdy masz dużo heterogenicznego oprogramowania i sprzętu. W jednorodnych środowiskach opartych na *unixie może warto pomyśleć o innych produktach, ale w heterogenicznych od razu pozwala pozbyć się chaosu i zawsze mieć spokój, że backup jest świeży i szybko się cofnie. A to, jak zapewne wiesz, jest bardzo denerwujące.

Ogólnie rzecz biorąc, trzeba oczywiście patrzeć na miejsce. Jeśli masz pytania, co wybrać dla swojej infrastruktury, napisz do [e-mail chroniony], pomożemy ocenić wszystkie aspekty i ostrzeżemy o możliwych pułapkach.

Czego najbardziej boją się użytkownicy nowoczesnych systemów informatycznych? Nie przeprowadzimy ankiet i na ich podstawie stworzymy listę koszmarów, które ich dręczą. Po prostu stwierdzamy, że jednym z pierwszych miejsc na tej ponurej liście jest groźba utraty danych. A jeśli utrata danych na komputerze domowym w większości przypadków jest denerwująca, to utrata informacji w sieci firmowej może być śmiertelna zarówno dla pracownika, jak i dla całej firmy. Ale dla każdego, kto jest odpowiedzialny za tworzenie kopii zapasowych, śmiertelność tej straty jest absolutnie nieunikniona. Jednak czy to jest sprawiedliwe?

W nowoczesnych systemach informatycznych priorytetem jest problem backupu. Firmy wydają ogromne pieniądze na pozyskiwanie produktów odpornych na awarie macierze dyskowe, wyspecjalizowane urządzenia do tworzenia kopii zapasowych i pamięci masowej, zatrudniaj wysokiej klasy specjalistów, aby je konserwować — i nadal tracić dane. Naturalnie głowy toczą się. Jednak często problem polega na niewłaściwym korzystaniu z doskonale debugowanych i dostrojonych systemów. Mówiąc obrazowo, użytkownicy próbują wbijać gwoździe pod mikroskopem.

W lutym tego roku w dużym holdingu wydawniczym wydarzyła się straszna rzecz: utracono dane jednego z projektów. W tym przypadku zauważono następujące osobliwości:

1. Struktura folderów projektu pozostała niezmieniona - zniknęły tylko pliki.

2. Na taśmie kopii zapasowej nie znaleziono żadnych plików (która, nawiasem mówiąc, była wykonywana codziennie), chociaż struktura folderów była pełna.

Niezbędne środki do stworzenia systemu kopii zapasowej

System kopii zapasowych jest jednym z niezbędne warunki zapewnienie ciągłości biznesowej. Według Gartnera 43% firm dotkniętych katastrofami i doświadczających nieodwracalnych strat dane korporacyjne nie byli w stanie kontynuować swojej działalności.

Aby system backupu spełniał swoje przeznaczenie i działał optymalnie, konieczne jest wykonanie pełnego cyklu prac projektowych, co jest jednak zalecane przy każdym tworzonym systemie. Pełny cykl prac mających na celu stworzenie lub aktualizację systemu backupu, co do zasady, obejmuje następujące kroki:

Audyt techniczny systemu komputerowego w celu stworzenia lub modernizacji systemu kopii zapasowych;

Opracowanie koncepcji systemu backupu – opracowanie rekomendacji budowy, modernizacji i rozwoju systemu backupu. Ten typ praca jest opcjonalna, ale zalecana w przypadku dużych, dynamicznych systemów;

Projektowanie systemu backupu - opracowanie dokumentacji technicznej i roboczej;

Opracowanie planu-harmonogramu przejścia z stary system kopię zapasową na nowy. Tego typu prace są niezbędne przy aktualizacji systemu backupu, co doprowadziło do znacznej zmiany istniejący system;

Dostawa i konfiguracja sprzętu i oprogramowania;

Opracowanie procedur operacyjnych – organizacja procesów funkcjonowania systemu backupu, opracowanie regulaminów i harmonogramów dla systemu backupu. Ten rodzaj pracy jest bardzo ważny: bez odpowiednio zorganizowanego procesu operacyjnego żaden system nie będzie działał efektywnie, w tym system zapasowy;

Opracowanie programu szkoleniowego dla personelu klienta w zakresie tworzenia kopii zapasowych i odzyskiwania danych. W przypadku systemu zapasowego szkolenie personelu odgrywa szczególną rolę. Ponieważ celem systemu backupu jest przywracanie danych po awariach, osoby wykonujące tę procedurę będą pracować w sytuacji awaryjnej i braku czasu na przywrócenie systemu do sprawności. W związku z tym wykonywanie operacji odzyskiwania danych powinno zostać zautomatyzowane przez administratorów, co osiąga się tylko poprzez regularną praktykę.

Śledztwo, tradycyjnie dla Rosji, przebiegało w dwóch kierunkach: identyfikacji sprawców i podjęcia działań mających na celu wykluczenie możliwości powtórzenia się podobnej sytuacji w przyszłości.

Przede wszystkim skargi dotyczyły oprogramowania do tworzenia kopii zapasowych. Powód, dla którego zostało to zrobione, okazał się bardzo prozaiczny: to oprogramowanie do tworzenia kopii zapasowych musi przejść przez całą strukturę dysku, aby skopiować informacje na taśmę, a zatem w przypadku jakiejkolwiek awarii w działaniu teoretycznie jest w stanie zniszczyć pliki . Ponieważ to założenie wyszło od ofiar, samo stwierdzenie, że jest to niemożliwe, najwyraźniej nie wystarczało. Pomijając możliwość tak wyjątkowej awarii w certyfikowanym i legalnie zakupionym Produkt oprogramowania zostaliśmy zmuszeni do znalezienia prostego i obrazowego sposobu przekonania laików o absurdzie tego założenia. To zadanie niezwykle trudne (i w większości przypadków niemożliwe), ale nam się udało. Faktem jest, że oprogramowanie do tworzenia kopii zapasowych używa jednego z kont domeny podczas pracy z plikami; w związku z tym jest ograniczony w swoich destrukcyjnych możliwościach przez prawa używanego konta. Domyślnie używane jest konto administratora lokalnego, które pozwala uzyskać pełny dostęp do wszystkich informacji przechowywanych na serwerze. Z jednej strony takie podejście jest uzasadnione tym, że wyklucza sytuację, w której backup nie może być wykonany ze względu na brak praw dostępu do archiwizowanych informacji. Z drugiej strony prawa administratora oznaczają pełny dostęp, co pozwala na usuwanie informacji. W rozważanej sytuacji oprogramowanie do backupu pracowało na specjalnie utworzonym koncie, które miało dostęp do wszystkich informacji, ale bez możliwości ich zmiany (dostęp tylko do odczytu). To właśnie ten fakt pozwolił działowi IT udowodnić, że oprogramowanie do tworzenia kopii zapasowych nie było zaangażowane w incydent.

W ten sposób, po ustaniu paniki, która się pojawiła, podjęto próbę zrozumienia tego, co się stało i znalezienia najbardziej akceptowalnego wyjaśnienia. Przede wszystkim okazało się, że trzy miesiące przed omawianym momentem folder utraconego projektu był pusty. Fakt ten znalazł odzwierciedlenie w protokołach oprogramowania do tworzenia kopii zapasowych i został dołączony do sprawy. Następnie ustalono, że ukończony projekt był przechowywany na serwerze, z którego nie korzystano przez co najmniej trzy miesiące. W efekcie, po usunięciu informacji z serwera, były one przechowywane na taśmach przez miesiąc (okres rotacji) nośniki magnetyczne w stosowanym schemacie tworzenia kopii zapasowych), po czym taśmy zostały nadpisane, a informacje te zostały trwale utracone.

Wymagania dotyczące systemu tworzenia kopii zapasowych

Od każdego nowoczesnego System informacyjny zbudowany jest w oparciu o sieć, system backupu również musi być sieciowy, czyli musi zapewniać zachowanie danych pochodzących ze wszystkich węzłów sieci. Ogólnie dla sieciowego systemu backupu stawiane są następujące wymagania funkcjonalne:

Budowanie systemu na zasadzie „klient-serwer”. W odniesieniu do backupu termin „klient-serwer” oznacza: składnik systemu backupu, który zarządza wszystkimi procesami i urządzeniami, nazywany jest serwerem, a składnik odpowiedzialny za zapisywanie lub przywracanie określonych danych nazywany jest klientem. W szczególności taki system powinien zapewniać:

Zarządzanie kopiami zapasowymi z dedykowanych komputerów w całej sieci;

Zdalne tworzenie kopii zapasowych danych zawartych na serwerach i stacjach roboczych;

Scentralizowane korzystanie z urządzeń do tworzenia kopii zapasowych.

Wieloplatformowy. Nowoczesna sieć informacyjna jest niejednorodna. W związku z tym system backupu musi w takiej sieci w pełni funkcjonować, czyli zakłada się, że jego część serwerowa będzie pracować w różnych środowiska operacyjne i wspierać klientów na szerokiej gamie platform sprzętowych i programowych.

Automatyzacja typowych operacji. Proces tworzenia kopii zapasowej nieuchronnie zawiera wiele cykli różnych operacji. Na przykład kopiowanie można wykonywać codziennie o określonej godzinie.

Innym przykładem cyklu jest proces nadpisywania informacji na nośnikach kopii zapasowych. Jeśli codzienna kopia zapasowa ma być przechowywana przez tydzień, to po tym okresie odpowiednie nośniki mogą być ponownie użyte. Ten proces sukcesywnej wymiany nośników kopii zapasowych nazywa się rotacją.

Praca cykliczna obejmuje również konserwację prewencyjną urządzeń do tworzenia kopii zapasowych, na przykład czyszczenie jednostek napędów taśmowych napędu taśmowego za pomocą specjalnej kasety po określonym czasie pracy.

Dlatego system backupu powinien wykonywać cykliczną pracę w trybie automatycznym i minimalizować liczbę operacji ręcznych. W szczególności musi wspierać:

Zaplanowane kopie zapasowe;

Rotacja mediów;

Konserwacja urządzeń backupowych zgodnie z harmonogramem.

Należy zauważyć, że automatyzacja pracy jest jednym z kluczowych warunków obniżenia kosztów utrzymania systemu backupu.

Obsługa różnych trybów tworzenia kopii zapasowych. Załóżmy, że każdego dnia musisz tworzyć kopie zapasowe zestawu plików, na przykład znajdujących się w jednym katalogu. Z reguły w ciągu dnia roboczego zmiany wprowadzane są tylko do: pojedyncze pliki, dzięki czemu codzienne kopiowanie informacji, które nie uległy zmianie od czasu ostatniej kopii zapasowej, stało się zbędne. Na tej podstawie system powinien udostępniać różne tryby tworzenia kopii zapasowych, czyli wspierać możliwość zapisywania tylko tych informacji, które uległy zmianie od czasu utworzenia poprzedniej kopii.

Szybka rekonwalescencja serwery sieciowe po awarii. Serwer sieciowy może ulec awarii z różnych powodów, na przykład z powodu awarii dysku twardego systemu lub błędów oprogramowania, które doprowadziły do ​​zniszczenia informacji systemowych. W takim przypadku jego odzyskanie wymaga ponownej instalacji systemu operacyjnego, skonfigurowania urządzeń, zainstalowania aplikacji, przywrócenia systemu plików i kont użytkowników. Wszystkie te operacje są bardzo pracochłonne i na każdym etapie ten proces mogą wystąpić błędy.

W związku z tym, aby przywrócić serwer, konieczne jest posiadanie kopii zapasowej wszystkich przechowywanych na nim informacji, w tym danych systemowych, aby jak najszybciej doprowadzić go do stanu roboczego.

Backup danych w trybie interaktywnym (on-line). Często system informacyjny zawiera różne aplikacje klient-serwer, które muszą działać przez całą dobę. Przykładami tego są systemy poczty, systemy współpracy (takie jak Lotus Notes) i serwery SQL. Nie jest możliwe tworzenie kopii zapasowych baz danych takich systemów konwencjonalnymi środkami, ponieważ są one zawsze otwarte. Dlatego często mają wbudowane własne narzędzia do tworzenia kopii zapasowych, ale ich wykorzystanie z reguły nie mieści się w ogólnej technologii przyjętej w organizacji. Na tej podstawie system backupu powinien zapewnić zachowanie baz danych aplikacji klient-serwer w trybie interaktywnym.

Zaawansowane narzędzia do monitorowania i zarządzania. Aby zarządzać procesami backupu i monitorować ich stan, system backupu musi mieć: pomoce graficzne monitoring i kontrola oraz szeroka gama alarmów o zdarzeniach.

Tak więc ustaliliśmy chronologię utraty informacji. Teraz stoimy przed bardzo trudnym zadaniem – zidentyfikowanie sprawców. Z jednej strony system backupu nie poradził sobie z zadaniem zapisywania informacji. Z drugiej strony informacje te były przechowywane na taśmach przez miesiąc i mogły zostać przywrócone na pierwsze żądanie użytkownika. Ale to żądanie nie zostało przyjęte, ponieważ projekt został ukończony i nikt z nim nie pracował. W rezultacie wszyscy mają rację, nie ma winnych, podobnie jak nie ma informacji. Sytuacja - dobry przykład niewłaściwe użycie odpowiedniej technologii. Odpowiedzmy na pytanie: jakie jest zadanie systemów backupu? Priorytetowym zadaniem jest szybkie i jak najpełniejsze odzyskanie informacji w przypadku awarii. Inną rzeczą jest to, że w rozważanym przykładzie fakt awarii nie był śledzony - a zatem dane nie zostały przywrócone. Ale w żaden sposób nie można winić za to administracji i usługi tworzenia kopii zapasowych.

Rozważana sytuacja jest przykładem, który jednoznacznie wskazuje na konieczność utrzymania co najmniej dwupoziomowego systemu backupu – codzienny backup bieżących informacji oraz osobny backup rzadko używanych informacji (w naszym przypadku zakończonych projektów). Niestety potrzeba takiego podejścia do problemu bezpieczeństwa informacji z reguły nie znajduje zrozumienia wśród kierownictwa.

Jak zakończyła się ta smutna historia? Ale co:

1. Podjęto decyzję o pozostawieniu zrealizowanych projektów na DVD.

2. Okres rotacji nośników magnetycznych został wydłużony do trzech miesięcy.

3. Opracowano i przyjęto politykę przechowywania i tworzenia kopii zapasowych informacji w całym gospodarstwie.

PS Dane zostały jednak znalezione w jednym z depozytów plików, których jest wiele w dowolnej sieci.

Podobał Ci się artykuł? Podziel się z przyjaciółmi!
Czy ten artykuł był pomocny?
TAk
Nie
Dziękuję za opinię!
Coś poszło nie tak i Twój głos nie został policzony.
Dzięki. Twoja wiadomość została wysłana
Znalazłeś błąd w tekście?
Wybierz, kliknij Ctrl+Enter a my to naprawimy!