André Kiehne

ist Director Next Generation IT Sales bei Dimension Data Germany.

Auf dem Weg zur modernen Back-up-Strategie

Neue Technologien wie das Cloud Computing stellen Unternehmen vor gewaltige Herausforderungen – und bergen Risiken. Da der digitale Wandel sich aber nicht aufhalten lässt, ist es ratsam, nicht nur in die notwendige Absicherung zu investieren, sondern gleichzeitig die Vorteile innovativer IT-Lösungen zu nutzen, weiß Andre Kiehne, Sales Director Transformational Business, Dimension Data Deutschland

Die Halbwertszeit von Back-up-Strategien sinkt angesichts des rasanten technologischen Fortschritts kontinuierlich. Traditionelle Disaster-Recovery-Pläne sind heute kaum noch zeitgemäß und die Unternehmen sehen sich gezwungen, auf den Wandel zu reagieren. Laut der Studie “Digital Business Readiness” von Crisp Research und Dimension Data tun das allerdings ganze 61 Prozent der deutschen Unternehmen nicht: Sie laufen der Digitalen Transformation hinterher, anstatt sie aktiv mitzugestalten. Die Tatsache, dass gerade die neuen Technologien wie etwa das Cloud Computing dabei helfen können, die Absicherung auf den neusten Stand zu bringen, könnte allerdings Anstoß zum Umdenken geben.

Natürlich, der Übergang zur modernen Back-up-Strategie gelingt nicht über Nacht. Das große Problem: Die meisten Unternehmen haben über einen langen Zeitraum in den Ausbau ihrer Back-up- und Recovery-Strategien investiert, die in vielen Fällen einen Großteil der Unternehmens-IT abdecken. Mit der Transformation stellen sich dann plötzlich neue Fragen: Wo beginnt man mit dem Neuanfang? Wie viel Vorbereitungszeit und Arbeitsaufwand werden nötig sein?

Der erste Schritt auf dem Weg zur zeitgemäßen und technologisch zukunftsfähigen Disaster Recovery ist zunächst, die Kosten zu überschlagen und die vorhandenen Daten im Unternehmen zu priorisieren. Denn nicht alle Daten müssen mit oberster Priorität gesichert werden, das wäre viel zu kostenintensiv. Viele Unternehmen gehen davon aus, dass grundsätzlich alles auf höchster Sicherheits-Ebene gespeichert und gleichzeitig sofort zugänglich sein muss. Bei einer Priorisierung wird dagegen unter realistischen Gesichtspunkten festgelegt, wie schnell auf die jeweiligen Daten tatsächlich zugegriffen werden muss und wie, wann und wo genau sie im Ernstfall wieder hergestellt werden müssen. Außerdem muss festgelegt werden, an welchem physischen Ort die Daten gespeichert werden sollen.

Ein weiteres Problem ist, dass die Rolle des Back-up-Administrators häufig unterschätzt wird. Oft wird ihm eine große Bandbreite an Aufgaben – wie die Überwachung und Fehlerbehebung bei Softwareanwendungen – übertragen und er ist kaum in der Lage, der Datensicherung die volle Aufmerksamkeit zu schenken. Das höchste Augenmerk sollte darauf liegen, wo und in welcher Form das Daten-Back-up gespeichert wird. Idealerweise sollten Unternehmen Tools implementieren, mit dem Back-ups zu voreingestellten Zeiten automatisch gemacht werden.

Gegen den Unternehmenswillen: Schatten-IT

Während das Interesse der Unternehmen an der als Service bezogenen IT weiter steigt, ist es nicht immer die IT-Abteilung, welche die Dienstleistungen auch tatsächlich einkauft. Oft wird die interne IT umgangen und praktikable Cloud-Services werden einfach mit der Firmenkreditkarte bezahlt – die klassische Schatten-IT. Ein solches Vorgehen birgt offensichtliche Risiken und kann Strategien für die Disaster Recovery komplett aushebeln. Hier schafft die bewusste Einbindung von Cloud-Diensten Abhilfe: Die meisten seriösen Provider bieten Schnittstellen, die eine automatisierte Bereitstellung der Daten ermöglichen und im Notfall zumindest Server und Dateien wieder herstellen können. Es geht dabei vor allem darum, den Mitarbeitern einfache und unkomplizierte Lösungen proaktiv zur Nutzung anzubieten, sodass die Schatten-IT quasi von selbst “austrocknet” und die IT-Abteilung die Kontrolle behält.

Automatisierung gegen manuelle Fehler

Die meisten größeren Unternehmen vertrauen auf ein Rechenzentrum, das eine Mischung aus Cloud- und On-Premise-Infrastruktur bereithält. Wie aber kann man in solch einem Modell die Übersicht über Back-up- und Recovery-Maßnahmen behalten? In den meisten Fällen tun Unternehmen gut daran, etwa über Managed Services externe Expertise ins Boot zu holen, die unter anderem bei der Automatisierung helfen kann. Denn menschliches Versagen – von der falschen Formatierung der Sicherungskopien bis hin zum mangelhaften Umgang mit Softwarefehlern – stellt noch immer die größte Gefahr für das Rechenzentrum dar und die Auswirkungen können gravierend sein. Unternehmen können sich dagegen schützen, indem sie alle Speicherberichte zentral zusammenlaufen lassen und an einer einzigen Schnittstelle Einsicht in alle Details der Sicherung erhalten – unabhängig davon, ob die Daten durch einen Cloud-Dienst oder ein On-Premise-Modell gespeichert werden. Hier kommen unabhängige Dienstleister ins Spiel, die sich darauf spezialisiert haben, die Netzwerk-Angelegenheiten des Unternehmens unter Kontrolle zu bringen. Das erhöht die Erfolgsquoten in der Absicherung genauso wie die Flexibilität des Unternehmens immens.

Interesse an IT-Lösungen der nächsten Generation haben heutzutage fast alle Unternehmen in Deutschland – zu Recht, denn ohne Antworten auf den digitalen Wandel wird es am Markt ziemlich ungemütlich. Eine detaillierte Strategie für die Einbindung neuer Technologien haben aber die wenigsten, sie tasten sich – salopp gesagt – nach und nach heran an die veränderten Bedingungen. Wohin die Reise führt, ist oft kaum absehbar, allerdings darf das Vorgehen nicht zu Lasten von Sicherheit und Compliance gehen. Schon aus Sicherheitsgründen müssen neue Technologien sowie deren Möglichkeiten und Risiken deshalb mitgedacht werden – selbst wenn das Unternehmen sie nicht aktiv nutzt. Warum aber sollte man dann nicht gleich auch deren Vorteile für sich nutzen?