Speichertrends III: Safety first!

EnterpriseNetzwerke

Ängste vor Datenverlusten und Betriebsunterbrechungen rangieren deutlich vor dem Wunsch, die Datenverfügbarkeit mit Hilfe von Information Lifecycle Management zu optimieren.

Neben der Virtualisierung von IT-Strukturen wird als zweiter Großtrend das so genannte Information Lifecycle Management (ILM) ins Feld geführt. Der ursprünglich vom Anbieter Storagetek geprägte Begriff meint im Kern, dass die Bedeutung und Nutzungshäufigkeit von Informationen gewichtet werden müsse, um daraus Regeln für einen differenzierten Umgang mit ihnen abzuleiten. Was nach einer Initiative für ausgefeilte Business-Intelligence- oder Data-Warehouse-Lösung klingt, beruht jedoch auch sehr stark auf der Klage der Anwender, dass teure Massenspeicher mit unnützen und veralteten Daten vollgemüllt sind. Tatsächlich liegen laut Meta Group 68 Prozent aller Daten länger als 90 Tage brach.
Es geht also darum, nicht mehr aktuell benötigte Daten zu archivieren, zu löschen oder auf preisgünstigen Medien (etwa Bandlaufwerken) abzulegen. Unternehmenswichtige Informationen werden dagegen zur Sicherheit gespiegelt oder im ständigen Zugriff gehalten. Ziel ist es, diesen Prozess über regelbasierte Lösungen zu automatisieren. Hier ist die Branche jedoch noch ganz am Anfang. Der Markt ist von einer unüberschaubaren Menge von Insellösungen geprägt, ILM gilt vielen vor allem als wirksames Werbe-Instrument. Diese Situation fordert zum Missbrauch heraus. “Der Begriff wird heute von Anbietern benutzt, um ihre wie auch immer gearteten Speicher-Management-Suiten zu vermarkten”, meint deswegen der Storage-Spezialist und Unternehmensberater Norbert Deuschle.

Ein Patchwork ist noch keine Lösung

Konkret stehen die Anbieter von Speicherlösungen vor zwei Problemen. Zum einen sind sie mit den manchmal hochkomplexen Verfahren zur Bewertung von Dateninhalten überfordert, zum anderen tun sie sich schwer damit, den gesamten Speicherprozess im Unternehmen bis hin zur Archivierung in den Griff zu bekommen. Der Markt ist daher durch eine unübersichtliche Vielfalt von Insellösungen und Beratungsdiensten (zum Beispiel ILM Assessment Services) geprägt.

Um das Versprechen der Automatisierung einzulösen, kaufen die großen Speicheranbieter derzeit hektisch Spezialanbieter zusammen, um die Lösungsschnipsel nach und nach zu einem Patchwork-Teppich zusammenzuflicken. Getrieben wird dieser Markt zusätzlich durch gesetzliche Regelungen, mit denen Unternehmen gezwungen werden, mehr Daten als bisher vorzuhalten und zudem solche, für die sich die Finanz- und Sicherheitsbehörden interessieren. Nach Einschätzung von Insidern wird jedoch erwartet, dass aufgrund der unreifen Technik der eigentliche Boom für Information Lifecycle Management noch bis 2005 auf sich warten lässt.

Bei Speichermanagement geht es immer auch um Geld, sprich um die möglichst ausfallsichere Unterstützung von Geschäftsprozessen und der Integration unter der Maßgabe der Kosten je Gigabyte pro Monat. Danach errechnen die Anwender den Return on Investment. Laut Deuschle braucht man für ILM verteilte Speichernetze, für die wiederum eine intelligente Verteilung der Daten (Datenreplikation) eine wesentliche Voraussetzung ist. So weit seien die meisten Unternehmen noch nicht. Geoff Sin, CEO des Lösungsanbieters Salem Group, urteilt daher: “Der Weg zu ILM ist noch weit. Der Trend weist zwar eindeutig in diese Richtung, aber Rundum-Lösungen können sich derzeit nur sehr große Firmen leisten.”

Sicherheit geht vor

Der Löwenanteil der Anwender-Investionen wird daher laut Gartner Group in einen Bereich des Information Lifecycle Managements investiert, der sich Business Continuity nennt.  Hinter diesem hochtrabenden Marketing-Begriff verstecken sich längst vertraute Aufgaben, vor allem Backup und Recovery.  Das Anliegen der Anwender ist schlicht, Unterbrechungen des laufenden Betriebs durch Datenverluste zu minimieren. Dabei gelten den europäischen Anwendern Naturkatastrophen wie Feuer oder menschliches Versagen als Hauptrisiken. Mit einigem Abstand folgt die Furcht vor Virenangriffen, so der European Storage Index von Hitachi Data Systems. Die Analysten von IDC sehen dagegen eher das Risiko von Hardware- und Software-Ausfällen oder das Fehlschlagen interner Backups als treibende Kräfte für den Markt von Business Continuity. In ihrer internationalen Studie rangiert zudem das Virenrisiko an Platz fünf vor der Gefahr von Feuer- oder Flutkatastrophen.

Solche bislang gerne vernachlässigten Gefahren werden inzwischen durchaus ernst genommen. Zu groß ist inzwischen die Abhängigkeit von der ständigen Verfügbarkeit ihrer Daten. So sind viele Unternehmen ohne die virengefährdete E-Mail-Korrespondenz kaum mehr zu führen. Data-Warehousing hilft die Produkt- und Markteting-Strategien ebenso zu steuern wie Informationen aus den Systemen für Customer Relationship Management. Mit Supply Chain Management hat die Anwendungs- und Datenintegration sogar schon die Firmengrenzen überwunden. Geschäfts- und Produktionsdaten, interne und externe Informationen sind heute so eng miteinander verwoben, dass Datenverluste zu dramatischen Folgen an vielen Stellen eines Unternehmens führen können.

Backup und Recovery dominieren

Der Einsatz komplexer SANs und riesiger virtualisierter Speicher verschärft das Problem zusätzlich. Bei einem Ausfall einer virtualisierten Umgebung oder der Steuerungssoftware dafür sind nicht – wie früher – nur eine isolierte Anwendung und die damit verbunden Daten betroffen, sondern potenziell das ganze Unternehmen.  Es ist daher kaum verwunderlich, dass die Anwender laut Gartner Group noch bis mindestens 2006 mit 17 Prozent des gesamten Speichermarkts den Löwenanteil ihrer Investitionen in Backup und Recovery stecken.

Anwender und Industrie begegnen den Gefahren durch Datenspiegelung, kluger Datenreplikation, hochsicheren Speichersystemen, doppelter Auslegung aller relevanten Komponenten, Raid-Systemen und mehr. Eine auch für mittelständische Unternehmen empfohlene Lösung haben im Sommer 2003 Dell und EMC vorgestellt. Beide Unternehmen spiegeln für den Katastrophenfall ihr Rechenzentrum über eine Entfernung von rund 100 Meilen.

Ein zentrales Instrument, um sich gegen Ausfälle zu schützen, ist vorausschauendes System-Management. Unternehmen, die ihre gefährdeten Komponenten kennen und wissen, in welchen Fällen, welche Spitzenlasten auftreten, können ihre Planung danach ausrichten. Ausgefeilte Planung schützt zudem davor, viel Geld für den Schutz von Komponenten auszugeben, die eigentlich gar nicht gefährdet sind.