Stefan Henke

ist Regional Vice President, Central Europe bei Veritas. Zuletzt verantwortete er als Country Manager Germany bei Symantec die Geschäftsentwicklung und den Vertrieb in Deutschland.

Die Cloud macht uns zu Daten-Messies

Wir werden zu Daten-Messies, fürchtet Stefan Henke von Veritas. In seinem neuen silicon.de-Blog erklärt er, warum gerade die Cloud dazu verführt, Daten ungezügelt zu horten, Man kann die ja vielleicht noch brauchen.

Für IT-Entscheider wird es eng. Die gespeicherte Datenmenge in Unternehmen wächst exponentiell. Doch der Platz für physische Speicher und vor allem das Budget, diesen zu kaufen und zu pflegen, wachsen nicht im selben Umfang. So erhöhen sich die IT-Budgets laut einer aktuellen Capgemini-Studie inzwischen wieder, größtenteils aber nur um einen einstelligen Prozentsatz. Das reicht nicht, um dem Datenwachstum Herr zu werden. Wohin also mit all den Daten?

Zu Mainframe-Zeiten war alles noch einfacher, weil die Datenhaltung zentralisiert war: Es gab fast nur strukturierte Daten in überschaubarem Ausmaß an wenigen Orten. Diese Zeiten sind mit dem Client-Server-Modell, und spätestens mit geteilten dezentralen Ressourcen wie Fileservern, Sharepoint und Cloud-Storage vorbei. Daten sind heute vorwiegend unstrukturiert, sie liegen an den verschiedensten Orten. Ihre schiere Menge macht es unmöglich, sie innerhalb der Unternehmensgrenzen zu speichern. Das Volumen wird durch neue Entwicklungen wie dem Internet der Dinge und Industrie 4.0 weiter massiv wachsen.

Die Cloud – ein Ort unbegrenzter Speichermöglichkeiten

Der Ausweg scheint so logisch wie verführerisch: die Cloud. Sind Daten und Workloads erst einmal in die Wolke ausgelagert, mutet das IT-Leben gleich viel einfacher und billiger an. Es wird kein Investitionsbudget in Hard- und Software gebunden, kein neues Personal für die Überwachung und Wartung der gewachsenen Rechenzentren nötig. Man bezahlt nur den tatsächlich verwendeten Speicherplatz per Mausklick. Globale Anbieter wie Amazon Web Services und Microsoft Azure oder lokale Anbieter wie T Systems oder Computacener machen es möglich.

Tatsächlich haben die meisten Unternehmen über die letzten Jahre eine stark fragmentierte Speicherumgebung aufgebaut, die nicht nur das interne Netz, sondern eine Vielzahl von Private-, Public- oder hybride Cloud-Strukturen miteinander koppelt. Gerade hybride Modelle gewinnen immer stärker an Bedeutung, weil Unternehmen damit noch am ehesten den Spagat zwischen Flexibilität und Sicherheit meistern.

Unternehmen werden zu Daten-Messies

Das Problem dabei: Je fragmentierter die Speicherumgebung, desto schwieriger ist es für Verantwortliche, den Überblick über die dort abgelegten Daten und gebotenen Services zu behalten. Einer aktuellen Veritas-Studie zufolge arbeiten weltweit 74 Prozent der Unternehmen mit mindestens zwei Cloud-Infrastrukturanbietern zusammen, 23 Prozent sogar mit vier Partnern oder noch mehr. Fehlt dann ein Information Management mit konsequenter Löschstrategie, wird das Unternehmen schnell zum Daten-Messie. Schließlich liegen Daten an allen möglichen Orten, ohne dass deren Relevanz, Risiko oder Geschäftsbedeutung klar definiert sind. Die Firmen sind auf mindestens einem Auge blind.

Ist die Übersicht erst einmal verloren und stehen neue gesetzliche Regelungen wie etwa die europäische Datenschutzgrundverordnung (GDPR) ins Haus, wird es richtig aufwendig und im Ernstfall teuer. Um sicherzustellen, dass alle Daten regelkonform gespeichert werden, ist eine Inventur der gespeicherten Daten nötig, inklusive aller internen und externen Resourcen wie die Cloud. Ein Projekt, das eine IT-Abteilung intensiv beschäftigen wird.

Ordnung ins Chaos bringen

Plötzlich ist der einst so verlockende Ausweg in die Cloud dann teurer als erwartet und es folgt die Erkenntnis: Das Speichern der Daten in der Cloud ist nicht der Kostenfaktor. Es ist die Verwaltung und vor allem Kategorisierung der Daten, die Ressourcen bindet und Kosten verursacht.

Die gute Nachricht zum Schluss: Wer jetzt konsequent seine Daten auf seinen Speicherresourcen beleuchtet, ob Cloud oder On-Premise, dann gezielt aufräumt und Prozesse für ein effizientes Information Management und eine konsequente Datenlöschung einführt, profitiert nicht nur lang, sondern auch kurzfristig: Das Volumen aller gespeicherten Daten verringert sich, interne Speicherressourcen werden wieder frei. Ein teurer Ausbau interner Resourcen kann im Idealfall verschoben werden, so dass der IT-Entscheider sich wieder Freiräume geschaffen hat.