Open-Hybrid-Cloud: Herausforderung an die IT-Abteilung der Zukunft

Cloud Computing

Die Art und Weise wie Anwendungen im Web bereitgestellt werden, hat sich durch das Cloudzeitalter massiv verändert. Daran kommen auch IT-Abteilungen nicht vorbei. Doch wer in alten Denkmusters mit langen Produktlebenssyklen und durch begrenzte Skalierbarkeit verharrt, wird die Herausforderung nicht meistern können.

Seit dem Beginn des Cloud-Zeitalters wird über die schwindende Bedeutung der IT-Abteilungen spekuliert. Gelegentlich ist zu hören, dass CIO kein anzustrebender Beruf mehr ist. Doch das Gegenteil ist der Fall. Die Herausforderungen an die Unternehmens-IT werden zunehmen. Nur wer glaubt, er müsse sich diesen Herausforderungen nicht stellen, sollte sich Sorgen um seinen Job machen.

Die Erwartungen, die zu erfüllen sind, werden sich in den nächsten Jahren sowohl verändern als auch wesentlich erhöhen. Hierbei lassen sich drei Hauptaspekte identifizieren. Mehr Agilität, geringere Kosten und beliebige Skalierbarkeit nach oben und unten bei hoher Qualität. Mit einer traditionellen IT, die auf einer Virtualisierungslösung mit dynamischer Verwaltung der VMs und Self-Service für Fachabteilungen basiert, kann man diesen Herausforderungen nicht immer optimal begegnen.

Entwicklung Enterprise Computing

Agilität bedeutet vor allem kürzere Lebenszyklen von Unternehmensanwendungen. Statt in Jahren wird man für viele zukünftige Projekte in Wochen, bestenfalls in wenigen Monate denken müssen. Die Zeiten von klassischen Releases, die über Jahre konstant bleiben und bestenfalls durch Service Packs und Sicherheitspatches ergänzt werden, eignen sich für viele schnelllebige Märkte nicht mehr. Dieser Trend kommt eher aus anderen Bereichen als der Unternehmens-IT, so muss sich selbst der träge Dinosaurier Microsoft bewegen und bietet neue Versionen seiner Betriebssysteme nun im Jahresrhythmus an.

Andere Hersteller, insbesondere von Open-Source-Lösungen sind hier allerdings einen Schritt voraus. Wenn es um den reinen Entwicklungszyklus von Anwendungen geht, ist man heute so weit, dass man Software inkrementell entwickeln kann, ohne dabei Stabilität und Sicherheit einzubüßen. Das ist einer Vielzahl von Faktoren zu verdanken, etwa dass die für Pufferüberläufe und Memory-Leaks anfälligen Sprachen C und C++ zunehmend von Java verdrängt werden. Ein weiterer Aspekt ist, dass aktuelle automatisierte Test-Suiten nicht nur Funktionalität, sondern auch Sicherheit und Stabilität testen können.

Für die IT-Abteilung bedeutet diese Veränderung, dass sie sich der Herausforderung stellen muss, Anwendungen in immer kürzeren Zyklen bereitzustellen. Mit dem klassischen Ansatz, der bei der Auswahl und Beschaffung der Hardware beginnt und damit endet, dass erhebliche Zeit- und Personalressourcen aufgewendet werden, Anwendungen auf Hardware und Betriebssystem zu installieren, sind diese Aufgaben nicht zu bewältigen. Die interne Virtualisierungslösung stößt immer dann an ihre Grenzen, wenn mehr Hardware benötigt wird.

Hybrid-Cloud

Die Lösung kann nur lauten, die IT-Strukturen auf eine offene Hybrid-Cloud wie OpenStack und sogenannte Cloud Management Plattformen wie CloudForms umzustellen. Eine reine Public Cloud kann dies nicht alleine liefern. Sie erlaubt zwar Skalierbarkeit, aber versagt überall da, wo hohe Bandbreite gefordert ist – von Governance- und Compliance-Regeln einmal ganz abgesehen.

Die offene Hybrid-Cloud hingegen bietet das Beste aus beiden Welten: Sicherheit und Kontrolle der privaten Cloud und die Hyperskalierbarkeit von öffentlichen Cloud-Anbietern. Man kommt nicht umhin, eine einheitliche unternehmensweite Architektur zu implementieren, mit der sich die beiden Welten verbinden lassen ohne dabei in Abhängigkeit zu einem bestimmten Cloud- oder Virtualisierungsanbieter zu geraten.

Big Data überall verfügbar

Eine weitere Herausforderung besteht darin, das klassische RDBMS in Form von transaktionalen SQL-Servern um Big-Data-Lösungen zu ergänzen. Dabei müssen große Datenmengen an verschiedenen Standorten für den schnellen Zugriff verfügbar sein. Es gilt, dass eine solche Big-Data-Lösung mit den Anwendungen skalieren muss, die diese Daten nutzen.

Eine klassische Virtualisierungslösung kann dieses Szenario nicht optimal abbilden. Zwar lassen sich große SANs leicht daran anbinden, jedoch wird keinerlei Unterstützung geboten, die Daten verteilt an mehreren Standorten zu halten. Eine Public Cloud kann das ebenfalls nicht leisten, da die Unternehmensstandorte nicht schnell genug auf die Daten zugreifen können.

Ziel muss es sein, die Daten verteilt an Unternehmensstandorten zu halten und zwar so, dass es keinen Single Point of Failure gibt. Mit OpenStack ist genau diese Funktionalität verfügbar. Über den Object Store lassen sich große Datenmengen redundant über ein Multi-Master-Replikationsmodell verteilen, so dass von überall darauf zugegriffen werden kann. Dieses Feature lässt sich nach der Inbetriebnahme von OpenStack per Mausklick unmittelbar nutzen. Wer ein verteiltes Dateisystem, etwa Hadoop einsetzt, kommt ebenfalls einer offenen Hybrid-Cloud nicht vorbei. Auch hier gilt, dass das verteilte Dateisystem mit den Anwendungen skalieren muss.

Deployment muss automatisiert werden

Will man das Deployment von Unternehmensanwendungen mit der geforderten Agilität durchführen, so kann es nicht angehen, dass an den verschiedenen Standorten, IT-Experten dafür eingesetzt werden, die Anwendungen manuell zu installieren. Die IT der Zukunft muss Deployment in Minuten höchstens Stunden abgeschlossen haben. Dabei muss ein Deployment kostensparend ablaufen. Mit den verkürzten Produktlebenszyklen müssen es zudem bis zu 10 Mal häufiger durchgeführt werden als bisher. Dies kann nicht einhergehen damit, dass man dazu sein Personal verzehnfachen muss. Weiterhin lässt sich durch eine Cloud-Management-Plattform ein Manager of Managers einsetzen, der die klassische Virtualisierungswelt unter VMWare mit der neuen agilen Welt unter OpenStack verbinden kann.

Eine klassische Virtualisierungslösung kann hier nicht zur Lösung dieses Problems genutzt werden. Zwar lassen sich damit hardwareunabhängige Images schaffen, die ohne großen Installationsaufwand überall zum Laufen gebracht werden, jedoch sind solche Images viel zu groß, um regelmäßig zwischen Standorten transportiert zu werden.

Eine offene Hybrid-Cloud hingegen bietet Unterstützung für kleine Scale-Out-Images, die nur wenig Bandbreite in Anspruch nehmen. Wer hier nicht rechtzeitig auf die richtige Architektur setzt, wird das Problem bekommen, dass er mir der Häufigkeit, mit der er Unternehmensanwendungen verfügbar machen muss, nicht mithalten kann.

Fazit

Auf die IT-Abteilungen von Unternehmen kommen in nicht allzu ferner Zukunft zahlreiche Herausforderungen zu. In immer kürzeren Abständen gilt es, Anwendungen weltweit bereitzustellen. Dabei muss eine beliebige Skalierbarkeit gewährleistet sein, die nicht nur die Anwendung selbst betrifft, sondern auch notwendige Basisdienste wie Big-Data-Lösungen.

Diese Herausforderungen lassen sich weder mit den Verwaltungstools heutiger Virtualisierungslösungen noch mit einem öffentlichen Cloud-Anbieter alleine lösen. Um die notwendige Agilität zu vertretbaren Kosten zu erreichen, kommt man nicht umhin, beide Welten mit einer offenen Hybrid-Cloud zu kombinieren. Über Public-Cloud-Modelle, egal wo sie gehostet werden, erreicht man die notwendige Skalierbarkeit. Durch klassische, isolierte IT-Ressourcen vor Ort stellt man sicher, dass Datensicherheitsaspekte berücksichtigt werden. Eine Cloud-Management-Plattform hilft dabei, dass Anwendungen und Daten nah genug an die Anwender gebracht werden und global deployt werden können ohne die Governance zu verlieren.

Es wird außerdem nicht mehr möglich sein, sich mit großen Deployment-Projekten oder der weltweit ausfallsicheren Verfügbarkeit von großen Datenmengen vor Ort zu befassen. Diese Aufgaben werden zu “Hygienefaktoren” der IT, die bereitstehen müssen, ohne dass man sich mit ihnen großartig beschäftigen kann.