Ratmir Timashev

ist ein ebenso erfahrener wie erfolgreicher Unternehmensgründer. Heute ist er President und CEO bei Veeam Software.

Freischwimmen im Datenmeer

2011 wurden genug Daten produziert, um 115 Milliarden 16-GB-iPads zu füllen. Silicon.de-Blogger Ratmir Timashev macht sich Gedanken über Narrenschiffe und Rettungsboote in der Datenflut.

In Anbetracht der Zeit, die wir online verbringen, verwundert ein Blick auf die dabei generierten Datenmengen nicht. Nach Schätzungen von IDC wurden bereits im Jahr 2011 über 1,8 Zetabyte Daten produziert. Genug Daten, um 115 Milliarden 16-GB-iPads zu füllen. Für das Jahr 2020 rechnet IDC mit jährlich generierten Datenmengen von 35 Zetabyte. Für dieses Wachstum sind nicht nur immer datenintensivere Anwendungen im geschäftlichen und privaten Umfeld verantwortlich. Auch die Analyse dieser Daten wird immer komplexer. Denken Sie zum Beispiel an Analysen zum Kaufverhalten oder gar Prognosen zur Nutzung bestimmter Angebot auf der Basis von Daten aus Loyalty-Programmen. Für Unternehmen stellt sich angesichts von “Big Data” die Frage, ob ihre IT-Infrastruktur diesen Datenmengen gewachsen ist.

Ein Narrenschiff im Datensturm

Viele Unternehmen setzen eine Fülle von Geschäftsprozessen auf den gesammelten Daten auf. Je größer das Datenvolumen, je geschäftskritischer die Prozesse, umso höher sind die Anforderungen an die Leistungsfähigkeit und Skalierbarkeit der IT-Infrastruktur. Bei der Auslastung vorhandener physischer Kapazitäten spielt die Virtualisierung längst eine entscheidende Rolle. Sie ermöglicht Unternehmen eine hohe Skalierbarkeit der IT entsprechend ihrer Geschäftsbedürfnisse. Mehr Kapazität, aber bei Bedarf auch weniger, ist per Knopfdruck verfügbar.

Im Hinblick auf Big Data ist Virtualisierung sehr vorteilhaft, weil sich die laufenden Kosten für die Infrastruktur besser im Blick behalten lassen. Man nutzt nur, was man wirklich braucht. Stellen Sie sich eine Reederei vor, die für ein Logistikprojekt in neue Schiffe investiert, nach Projektabschluss aber feststellt, dass sie die Schiffe nicht weiter benötigt. Es wäre eine schlechte Investition gewesen.

Rettungsboote an Bord

Schon kurze Ausfallzeiten können für viele Unternehmen herbe Verluste verursachen. Je mehr Transaktionen pro Zeiteinheit, umso höher ist das monetäre Risiko. Deshalb sorgen einige Unternehmen für den Notfall vor und nutzen dafür die Server-Replikation, welche im Gegensatz zum einfachen Backup, sämtliche Daten bei Ausfall unmittelbar in die Produktivumgebung kopieren und wiederherstellen kann. Dies wird möglich, indem Daten konstant repliziert werden können, also auch während Dokumente bearbeitet werden. So gehen keine Daten unerwartet verloren.

Virtualisierung erlaubt Unternehmen eine größere Menge geschäftskritischer Daten zu replizieren: Mehrere Virtuelle Maschinen (VMs) passen auf einen einzelnen physischen Server und jede bestehende VM, die technisch ja nur aus einer einzelnen Datei besteht, kann als Image gesichert und wiederhergestellt werden. Wenn es hart auf hart kommt, ist die Wiederherstellung auch komplexer Server-Infrastrukturen auf Basis von VMs deutlich schneller zu schaffen, als bei physischen Servern.

Server-Replikation ist für Unternehmen, die täglich mit sehr hohen Volumina geschäftskritischer Daten arbeiten, dringend erforderlich. Denn bei einem Systemausfall stellt die Replikation ein regelrechtes Rettungsboot für Unternehmensdaten dar.

Ein Rettungsboot, das – um im Bild zu bleiben – viele Unternehmen nicht mitführen, wie eine Studie von Vanson Bourne zeigt. Einer Befragung von CIOs zufolge wird die Server-Replikation oft noch mit Verweis auf hohe Hardware- und Softwarekosten oder schlicht auf die Komplexität des Unterfangens vermieden. Doch die Studie zeigt auch, dass selbst Unternehmen, die nur etwa ein Viertel ihrer geschäftskritischen Server replizieren, im Falle eines Ausfalls im Schnitt 417.931 US-Dollar pro Stunde an Ausfallkosten einsparen. Doch bevor Sie jetzt sagen, es reiche dann ja, nur die allernötigsten Server repliziert bereit zu halten, sollten Sie auch wissen, dass ein nicht-replizierter Server im Schnitt sogar 436.189 Dollar pro Stunde an Ausfallkosten verursachen kann. Angesichts rund 75 Prozent nicht replizierter Server bei den befragten Unternehmen, geht also das Ausfallrisiko schnell in die Millionen.

Gute Fahrt

Es liegt in der Natur von Unternehmen, stets nach höheren Zielen zu streben. Um sie zu erreichen, müssen sie mehr Daten generieren. Deshalb sollten Unternehmen Virtualisierung nutzen und Server-Replikation als Bestandteil ihrer Datensicherheitsstrategie begreifen. Durch Virtualisierung erhalten Unternehmen die nötige Flexibilität, um mehr Server bereitzustellen und im Ernstfall auch alle Daten repliziert vorhalten zu können. Die Basis an physischen Server muss dafür noch nicht einmal signifikant wachsen, wenn die Konsolidierungsrate stimmt. Die Technologiewahl bringt hier also sowohl monetäre Vorteile auf Seiten der Infrastruktur, als auch mehr Sicherheit bei der Vermeidung von hohen Schadenssummen, sollten einmal einzelne Server ausfallen.

Adaptieren Unternehmen die Virtualisierung und führen Management Tools ein, die die Replizierung ihrer Maschinen als einzelne Dateien ermöglichen, können sie die geschäftskritischsten Daten nahezu lückenlos vor einem möglichen Ausfall schützen. So können Unternehmen auf das weit verbreitete Prozedere von wöchentlichen, täglichen oder sogar stündlichen Backups quasi verzichten. Möchten Unternehmen die Auslastung ihrer Infrastruktur erhöhen, müssen sie ebenso dafür Sorge tragen, dass sie eine adäquate Datenschutz-Strategie schaffen. Virtualisierung schafft dies einfach und effizient und reduziert dabei Kosten. Nur so können Unternehmen wichtige Daten für Analysen nutzen und ihre Infrastruktur erweitern, ohne Angst zu haben, im Datenmeer unterzugehen.

Hinweis: Lesen Sie Artikel von silicon.de ab sofort auch in Google Currents. Jetzt abonnieren.



  1. Wie ist das jetzt zu verstehen…

    Entweder haben wir es mit Sponsoring seitens Apple zu tun
    oder
    Kann “die Gesellschaft” nur noch in 16GB-Einheiten denken???