Downtime reduzieren

Datenverluste sind in großen Unternehmen die Regel und nicht die Ausnahme. Laptops werden gestohlen, eine Computervirenseuche bricht aus, Magnetplatten crashen oder Dateien werden versehentlich gelöscht oder verändert. Folgerichtig gehört Backup seit jeher zu den Routine-Aufgaben der IT-Abteilung, zumal sich so sogar Datenverluste bei Katastrophen wie Feuer im Rechenzentrum oder Hochwasser vermeiden lassen. Ein Artikel von Andreas Lappano, Key Account Director bei CA Technologies.

Snapshots halten das gesamte File-System oder eine Datenbank kurz an und erstellen in der Zeit eine konsistente Kopie der Dateistruktur – von einigen Herstellern wird dieser Vorgang auch als Point-in-Time-Kopie oder Image bezeichnet. CDP dagegen zeichnet kontinuierlich alle Datenänderungen auf, wobei die Administratoren wahlweise komplette Volumes oder nur einzelne Ordner oder Verzeichnisse replizieren. Der Datenbestand wird entsprechend der regelmäßig wiederkehrenden Recovery-Punkte kontinuierlich auf das adäquate Medium gesichert.

Noch einen Schritt weiter gehen Hochverfügbarkeits- und Disaster-Recovery-Lösungen, bei denen alle Aktivitäten jedes wichtigen produktiven Systems permanent auf ein entsprechendes Standby-System gespiegelt werden. Es kann aus Sicherheitsgründen auch an einem räumlich entfernten Standort stehen und springt im Fall der Fälle für das Produktivsystem ein – im Idealfall sogar vollkommen automatisch und ohne Datenverlust.

Allerdings: Diese Redundanz der Hardware- und Software-Systeme ist natürlich entsprechend teuer – und der Idealfall nur durch eine synchrone Spiegelung aller Transaktionen erreichbar. Je seltener die Daten gespiegelt beziehungsweise gesichert werden, desto geringer die Performance-Beeinträchtigungen (beziehungsweise die zusätzlich erforderlichen Hardware-Ressourcen) im Produktivbetrieb, desto größer aber auch die potentiellen Datenverluste beziehungsweise RPO-Werte. Die Wiederanlaufdauer ist weitgehend unabhängig davon durch das verwendete Backup-Verfahren bestimmt. Eine Vollsicherung beispielsweise dauert zwar länger als eine inkrementelle oder differentielle Sicherung, verkürzt aber auch die Dauer der Wiederherstellung eines Datenbestandes.

Diese drei Beispiele zeigen: Die “richtigen” RPO- und RTO-Werte sind ebenso spezifisch für jedes Unternehmen wie die RPO- und RTO-Anforderungen. Und je kleiner jeder der beiden Werte wird, desto höher der Kostenaufwand. Daher kann sich der IT-Chef nicht nach einem Branchendurchschnitt richten, geschweige denn nach allgemeinen Daumenregeln. Der RTO für eine Fertigungsstraße mit 2 Millionen Euro Ausfallkosten pro Stunde ist eben völlig anders zu kalkulieren, als der Datenverlust für einen kleineren Betrieb, den ein ganztägiger IT-Ausfall 20.000 Euro kosten würde.

Analog können auch die akzeptablen beziehungsweise notwendigen RPO-Werte sehr weit variieren, auch abhängig davon, ob es alternative Quellen für eine Wiederbeschaffung der Transaktionsdaten gibt. Firmen, die sich bereits von den Papierdokumenten verabschiedet haben und ihre Geschäftsprozesse ausschließlich mit elektronischer Unterstützung abwickeln, werden sich wesentlich ehrgeizigere RPO-Ziele setzen als Firmen, die ihre benötigten Transaktionsdaten um Beispiel noch mit Hilfe von Papierdokumenten rekonstruieren können.

Eine besser ausgearbeitete und umgesetzte Datenschutzstrategie kann so die eingangs erwähnten finanziellen Risiken vermindern, denn sie senkt sowohl die Häufigkeit als auch die Dauer von IT-Ausfällen. Sogar die Forderung nach Always-on-Betrieb der IT möglichst ohne Ausfallzeiten lässt sich mit effizienten Replikations- und Hochverfügbarkeitsprodukten erreichen. Weil sich diese RPO- und RTO-Ziele im Verlauf der Zeit für ein Unternehmen ändern, können definierte Ziele damit auch wahlweise einfach und schnell beispielsweise per Datensicherung auf Tape oder Disk umgesetzt werden.