Kundenservice Veranstaltungen: 02234-9894940
Kundenservice Bücher: 089-21837921
Aboservice Zeitschriften: 089-21837110

Die 3-2-1-Backup-Regel neu gedacht

Wenn ein Unternehmen angegriffen wird, kann jede Sekunde eines Systemausfalls katastrophale Auswirkungen haben. Laut Gartner können die Kosten pro Minute bis zu 5.600 US-Dollar betragen. Die 3-2-1-Backup-Strategie hat seither entscheidend dazu beigetragen, Datenverluste in Unternehmen zu verhindern. Allerdings sind elf Jahre in der digitalen Welt eine enorme Zeitspanne. Es lohnt sich daher, über eine Aktualisierung der gleichermaßen beliebten wie betagten Regel nachzudenken – insbesondere vor dem Hintergrund der anhaltenden und wachsenden Gefahr durch Ransomware.

Was haben Fotografie und Backups gemeinsam? Auf den ersten Blick nicht viel. Aber interessanterweise verdanken wir die bekannte und vielfach angewendete 3-2-1-Backup-Regel einem professionellen Fotografen. Peter Krogh stellte das Konzept in seinem 2009 erschienenen Buch The DAM Book: Digital Asset Management for Photographers vor.

Ein nicht unerhebliches Problem bei der traditionellen 3-2-1-Backup-Regel kommt laut StorageCraft bei der gewünschten Wiederherstellungszeit (RTO) und dem angestrebten Wiederherstellungspunkt (RPO) zum Tragen. Oft können beide nicht eingehalten oder erreicht werden. Noch schlimmer: Die Backups sind kompromittiert und die Gefahr eines kompletten Datenverlusts ist groß – selbst wenn man das Lösegeld bezahlt. Es ist also sinnvoll sich einen zeitgemäßen Ansatz für die 3-2-1-Regel zu überlegen.

Die traditionelle 3-2-1-Regel empfiehlt, dass man mindestens „3“ Kopien der Daten aufbewahrt. Zwei Kopien sollen vor Ort auf unterschiedlichen Medien (oder auf zwei Festplatten auf unterschiedlichen Systemen) gespeichert sein. Eine dritte Kopie wird laut der Regel an einem entfernten Ort aufbewahrt. Damit hätte man zwei Kopien auf verschiedenen Medien an zwei Lokationen oder auf zwei Geräten. Das wäre prinzipiell gleichbedeutend mit einem schnellen Zugriff auf das Backup, sollte der Primärspeicher ausfallen. Doch das ist nicht immer der Fall. Angenommen, es tritt eine standortweite Katastrophe ein und es fallen beide Speichersysteme aus? Und was, wenn eine Ransomware in das System des Administrators gelangt und sich die Schadsoftware wie ein Lauffeuer ausbreitet und sogar den Sekundärspeicher infiziert?

Tritt dieser Fall ein und sind die primären Speicher und die Backups vor Ort kompromittiert, dann fährt man alle Systeme herunter und startet anschließend den Backup- und Disaster-Recovery-Prozess. Im selben Moment widmet man sich den verbleibenden Offsite-Backups. Und genau an diesem Punkt beginnen die Probleme. Da Sekundärspeicher in erster Linie auf die Sicherheit und Skalierbarkeit von Backups zu relativ geringen Kosten ausgelegt wird, kommt häufig bandbasierter Speicher zum Einsatz. Tape ist zwar vergleichsweise günstig, jedoch langsam. Selbst der Einsatz herkömmlicher Festplatten anstelle von Tape behindert eine schnelle Wiederherstellung allein aufgrund von Bandbreitenbeschränkungen. Die Folge: Es nimmt eine lange Zeit in Anspruch, bis Anwendungen und Daten nach einer Katastrophe wiederhergestellt und online sind. Diese Zeit kann für Unternehmen sehr kostspielig oder sogar existenzgefährdend sein. Darum gilt es, einen 3-2-1-Ansatz zu finden, der eine schnelle Wiederherstellung garantiert.

Umfassender Datenschutz inklusive schneller Wiederherstellung

In der traditionellen 3-2-1-Regel bezieht sich die „2“ auf die Anzahl der Medientypen (und/oder separaten Systeme), die zum Einsatz kommen. In einer überarbeiteten Regel sollte sie sich besser auf die Standorte beziehen.

Es ist sinnvoll, die erste Kopie so nah wie möglich an den Endpunkten zu positionieren. Damit können Daten im Katastrophenfall schnell wiederhergestellt werden und man braucht sich keine Sorgen um Latenz oder den Zugriff zu machen. Die zweite Sicherungskopie sollte außerhalb des Virtual Local Area Network (VLAN) oder entfernt vom Standort aufbewahrt werden. Wenn die Kopie nicht innerhalb des VLAN oder des Standorts aufbewahrt wird, sind die Daten vor den meisten Schadprogrammen oder vor Ransomware geschützt. Die externe Aufbewahrung schützt zudem bei einer standortweiten Katastrophe, beispielsweise Feuer oder Überflutungen.

Backup und Wiederherstellung nach Plan ohne viel Administration

Unternehmen benötigen eine effiziente Backup- und Wiederherstellungs-Strategie – idealerweise mit einer zentralen, einfachen Verwaltung und mit klar definierten Service Level Agreements (SLAs). Damit werden die gewünschten RTOs und RPOs erreicht. Sollte ein Primärsystem aus welchen Gründen auch immer ausfallen, muss ein Unternehmen in der Lage sein, die ausgefallenen Server inklusive der Dateien und Ordner innerhalb von Sekunden aus dem Backup wiederherzustellen.

Einfache Skalierbarkeit, kontinuierliche Datensicherung

 Unveränderliche Snapshots sind eine wichtige Funktion zum Schutz vor Ransomware. Mit Snapshots kann man Daten beispielsweise alle 90 Sekunden sichern. Das Elegante an dieser Art der Sicherung ist, dass Snapshots in einem versteckten Share und ausschließlich mit Lesezugriff gespeichert werden. Damit sind sie automatisch vor Ransomware und einer Verschlüsselung geschützt. Noch besser: Sollten die Daten auf dem primären Speicher kompromittiert werden, können alle Daten innerhalb von 15 Sekunden aus den versteckten und sicheren Kopien wiederhergestellt werden.

Gesicherte Geschäftskontinuität

Es stellt sich die Frage, was passiert, wenn die lokale Kopie und der externe Speicher bei einer Katastrophe ausfallen? Hier kommt die „1“ der 3-2-1-Regel ins Spiel. Sie bezieht sich auf die Speicherung der dritten Kopie an einem sicheren, externen Ort. Heute handelt es sich dabei oft um Cloud-Speicher, der auch in Bezug auf Kosten und Skalierbarkeit eine sinnvolle Lösung darstellt. Allerdings ist der Transfer großer Datenmengen zwischen lokalen Systemen und der Cloud sehr bandbreitenintensiv und kann das lokale Netzwerk beeinträchtigen. Wenn die benötigte Geschwindigkeit für eine schnelle Wiederherstellung nicht zur Verfügung steht und die Einhaltung von RTO und RPO nicht garantiert werden kann, gibt es Möglichkeiten, auch mit Cloud-Speicher eine Geschäftskontinuität zu erreichen. Beispielsweise können Lösungen wie das zusätzliche Starten virtueller Server in der Cloud die Zeit während der Wiederherstellung der lokalen Systeme sinnvoll überbrücken und das Unternehmen arbeitsfähig halten.

Einige Teile der 3-2-1-Regel sind auch heute noch sinnvoll. Allerdings muss das Prinzip an die heutigen technologischen Möglichkeiten angepasst und mit besseren Methoden ergänzt werden.

Quelle: StorageCraft

 

Teaserbild: Pixabay

 

Passende Artikel