Categories: Cloud

Hyperkonvergente Systeme – Die Vorteile

Die Vorteile von hyperkonvergenten, integrierten Systemen liegen klar auf der Hand: Die Systeme fassen Verwaltung, Storage, Netzwerk und Computing unter einem Hut zusammen. Sie sind modular aufgebaut und lassen sich ohne großen Aufwand skalieren. Diese Systeme gibt es als Software-Lösung aber auch schon in Hardware gegossen. Egal welche Geschmacksrichtung vorgezogen wird: beide Darreichungsformen bieten zahlreiche Vorteile.

Vom Konzept her sind hyperkonvergente Systeme mit klassischen, integrierten Systemen zu vergleichen, die für einen bestimmten Einsatzbereich eine spezielle und meist proprietäre Hardware anbieten. Solche Systeme sind jedoch für mittelständische Unternehmen zu teuer, zu komplex und oder sind für den Bedarf von Mittelständlern einfach überdimensioniert.

Hyperkonvergente Systeme dagegen unterstützten unterschiedliche Workloads. Mit vergleichsweise niedrigen Einstiegskosten können Anwender den Grundstein für eine moderne, skalierbare und hochgradig virtualisierte Infrastruktur legen.

Alternative zur Public Cloud

Wenn auch viel von der Cloud die Rede ist, so kann und will nicht jedes Unternehmen mit beliebigen Workloads den Schritt in die Public Cloud gehen, denn hier versperren beispielsweise ältere Branchenlösungen eine Migration in die Cloud.

Einer der Hersteller, die sich im Bereich hyperkonvergenten Systemen engagieren, ist Fujitsu mit dem Windows-Intel-basierten Cluster-in-a-Box. (Bild: Fujitsu)

Mit einer konvergenten Infrastruktur kann man mit vergleichsweise niedrigen Eingangsinvestitionen und ohne lange Implementierungszyklen schnell eine moderne Infrastruktur aufbauen und die eigene Infrastruktur für hybride (Private)-Cloud-Szenarien optimieren. Dennoch liegen die Kosten solcher Systeme über denen von Standard-Komponenten.

Der Aufwand für Konfiguration und Integration der einzelnen Komponenten entfällt weitgehend und wird vom Anbieter übernommen. Mit im Paket sind auch Virtualisierungslösungen, die teilweise auf Open-Source-Technologien basieren. Anwender können somit schnell und auch wenn in der eigenen IT-Organisation keine Expertise vorhanden ist, bereits nach wenigen Stunden Virtualisierungsprojekte, eine Private Cloud oder ein traditionelles Cluster aus virtuellen Maschinen umsetzen.

“Plug and Play”

“Hyperkonvergente Systeme werden derzeit hauptsächlich als fertige Appliances geliefert und von Unternehmen oder auch Service Providern in Standard-Racks eingesetzt”, kommentiert Max Hille, Analyst bei Crisp Research. Für Anwender ergebe sich dadurch eine “Plug and Play”-Erfahrung beim Einsatz der Systeme.”

Zeitersparnis durch den Einsatz von hyperkonvergenten Infrastrukturen laut Hersteller SimpliVity. (Grafik: SimpliVity/TechValidate)

Einheitliche Verwaltung und ein einheitliches Support-Modell reduzieren zusätzlich Komplexität und Zeitaufwand im Betrieb der Systeme. Damit können Verantwortliche schneller auf Belange und Bedürfnisse eines Unternehmens reagieren. Und genau diese Flexibilität und Agilität dürfte für viele – vor allem mittelständische – Anwender ein wichtiges Argument für diesen relativ jungen Formfaktor sein.

Ein weiterer Vorteil: Anbieter wie Nutanix oder SimpliVitiy haben bereits erkannt, dass auch Filialen und verteilte Niederlassungen Bedarf nach integrierten Systemen und modernen Ressourcen haben. Daher bieten sie in ihren Lösungen auch Features für Multiside Replication oder Wide Area Networks. Durch solche Features eigenen sich hyperkonvergente Systeme auch für den Einsatz im Einzelhandel oder in Banken. Denn in Filialen ist kein geschultes Personal für die Verwaltung und Pflege der Systeme vor Ort.

Workloads, die auf der integrierten Infrastruktur von SimpliVity typerscherweise laufen. (Bild: SimpliVity/TechValidate)

Auch im Bereich Storage eliminieren diese Systeme zusätzliche Anforderungen und unterstützen Funktionen wie Cloning oder Snapshots, Skalierbarkeit oder auch Komprimierungs- oder Deduplizierungs-Technologien.

Use-Cases und Erfolgsgeschichten

Dadurch, dass der Implementierungsaufwand zurückgeht, lassen sich auch sehr schnelle Release-Zyklen mit konvergenten Infrastrukturen realisieren. Eine Case-Study von SimpliVity zeigt eine deutliche Zeitersparnis bei Swisscom (dessen Venture-Arm auch einer der Geldgeber von SimpliVity ist) bei der Implementierung einer neuen Lösung für Disaster Recovery und Backup.

Zuvor habe sich Swisscom auf mehrere Lösungen von verschiedenen Herstellern verlassen und damit in erster Linie Microsoft SQL Server betrieben. Für ein Deployment von neuen Workloads (mit Rechenleistung, Storage und Datenschutzkonfigurationen) hatte der Telekom-Provider bis zu einer Woche gebraucht. Dank der neue Infrastruktur soll sich dieser Wert auf maximal einen Tag reduziert haben.

Neue Anwendungen, Projekte oder kundenseitige Apps können damit mit deutlich weniger Personalaufwand und natürlich auch deutlich schneller umgesetzt werden. Diese können jetzt auf der Plattform zentral implementiert werden, ohne dass weitere Funktionen und Abhängigkeiten in den einzelnen Projekten manuell angepasst werden müssen und das spart natürlich auch bei der Entwicklung viel Zeit.

Mehr als die Summe der Teile

Hersteller wie Nutanix, HP, Dell oder Nimboxx bieten Hardware-Appliances. Andere wie beispielsweise VMware, Maxta oder Yottabyte bieten eine Referenzarchitektur für hyperkonvergente Systeme. (Bild: VMware)

So erklärt auch Richard Fichera, Analyst bei Forrester, dass in diesen hyperkonvergenten Systemen weit mehr steckt, als Storage, Rechenleistung und Netzwerk zusammenzufassen. “Die wahre Kraft von hyperkonvergenten Plattformen ist, dass sie es erlauben, digitale Produkte schneller auf den Markt zu bringen und dabei auch noch Expansion, Provisionierung und Verwaltungsaufgaben vereinfachen. Diese Systeme erledigen Rechenleistung, Storage, Network und Data-Protection, was auch bedeutet, dass das IT-Team weniger Spezialisten für die einzelnen Bereiche vorhalten muss.” Letztlich sind durch hyperkonvergente Systeme Fachbereiche in der Lage, Digitalisierungsstrategien ohne die Unterstützung durch den CIO umzusetzen. Den Trend sehen – und fürchten – auch IT-Abteilungen

Organisatorische Veränderungen

Auch Joe Baguley, CTO von VMware EMEA sieht in der Folge von hyperkonvergenten Infrastrukturen auch organisatorische Veränderungen. Dennoch glaubt er, dass man für die Neubewertung der Rolle des CIO noch einen Schritt zurücktreten muss: “Was wir aktuell erleben, ist die Produkt-zu-Service-Evolution.”

Vor diesem Hintergrund ändere sich die Rolle des CIOs grundlegend. Statt wie einst vorzugeben, dass ein Prozess auf Windows Server zu laufen hat, würden die IT-Verantwortlichen jetzt zu Service-Brokern, die dann entscheiden müssen, auf welche Weise sich ein Business-Prozess oder eine neue Kundenanwendung am besten darstellen lässt.

“Man kann das in der Cloud machen oder als App. Bietet ein Service so viel Differenzierungspotential, behält man es lieber im Haus”, so Baguley. Und in solchen Szenarien wachse auch die Bedeutung von hyperkonvergenten Systemen, die in vielen Fällen auf Virtualisierungs-Lösungen von VMware (vSAN oder Evo:Rail) basieren.

Baguley berichtet, dass in Gesprächen mit Unternehmen des gehobenen Mittelstandes – die übrigens meistens mit dem Chief Operating Officer und nicht mit dem CIO geführt werden – hyperkonvergente Systeme praktisch immer ein Thema sind. Das Interesse scheint groß und auch die Nutzung scheint, zumindest in der Darstellung von Baguley auch durchaus in der Praxis angekommen zu sein.

Viel Potenzial – wenig Implementierungen

Interesse – speziell im deutschen Markt – sieht auch das Marktforschungsunternehmne Crisp Research laut einer Befragung. Demnach sehen 70 Prozent der IT-Entscheider Potenzial und Vorteile durch hyperkonvergente Systeme. Doch diese Entscheider haben noch keine konkreten Pläne für die Umsetzung oder Migration.

Vor allem der Mittelstand interessiere sich für hyperkonvergente Systeme. “Allerdings ist der Einsatzgrad bislang noch sehr gering. Unter den befragten mittelständischen Unternehmen sind es nur knapp zwei Prozent, die bislang hyperkonvergente Architekturen produktiv einsetzen”, kommentiert Crisp-Analyst Hille. Gut 19 Prozent der befragten IT-Entscheider evaluieren oder planen den Einsatz von integrierten Systemen. Für knapp 9 Prozent sind solche Plattformen derzeit überhaupt kein Thema.

Kommen hyperkonvergente Systeme zum Einsatz? Stand Ende November 2015 setzten in Deutschland gerade mal knapp 2 Prozent der Anwender auf integrierte Lösungen. (Grafik: Crisp Research)

Laut Crisp sehen mittelständische Unternehmen vor allem bei der Konsolidierung der Infrastrukturlandschaft und damit der Vereinfachung des Administrationsaufwandes den größten Nutzen (54 Prozent) von hyperkonvergenten Systemen. Weitere 15 Prozent hoffen, im Vergleich mit traditionellen Architektur-Landschaften Vorteile in der Gesamtkostenbetrachtung (TCO) zu realisieren.

Die Konsolidierung von Server und Storage ist für die meisten Anwender die wichtigste Motivation für den Einsatz von hyperkonvergenten Lösungen. (Bild: Crisp Research)

Weil eine Reihe von Open-Source-Tools für die Administration und den Betrieb genutzt werden können, sei das auch durchaus auf der Investitionsseite denkbar, wie Hille anmerkt. Bei den Betriebskosten ist das dann der Fall, wenn die IT bislang auf stark veralteten IT-Architektur basiert, die einen massiven Administrations- und Pflegeaufwand erfordert.

Sicherheit

Annette Meier, Country Manager Germany bei VMware, sieht einen weiteren wichtigen Aspekt von integrierten Systemen: “Dadurch, dass alle Komponenten – Storage, Networking, Betriebssystem und Virtualisierung – in Software abgebildet werden und die Anwender die Systeme nur noch anschließen müssen, ergeben sich auch Vorteile bei der Sicherheit. In unseren Gesprächen mit Anwendern höheren wir immer wieder, dass es nicht nur um die Senkung der Kosten und der Komplexität geht, sondern auch darum, die Sicherheit der Systeme zu erhöhen.”

Status Quo und Entwicklung

Es gibt, für bestimmte Einsatzszenarien also durchaus viele Vorteile durch hyperkonvergente, integrierte Systeme. Doch nach wie vor sortiert sich der Markt. Wie die Crisp-Befragung zeigt, ist der Verbreitungsgrad – zumindest in Deutschland – noch recht gering. Hersteller wie Simplivity stellen das etwas anders da, wie in einer Studie zu lesen ist. Laut der Untersuchung des Herstellers setzen heute Unternehmen solche Systeme produktiv vor allem für Test und Entwicklung ein. Demnach sollen 2016 bereits 37 Prozent der Unternehmen solche Infrastrukturen tatsächlich einsetzen.

Der HC 380 basiert auf der HPE StoreVirtual Data Fabric über die sich Daten durchgängig flexibel zwischen einzelnen Systemen und Niederlassungen verschieben lassen. Über integrierte Dienste sorge HPE für eine Verfügbarkeit von 99,99999 Prozent. (Bild: HPE)

Eine Prognose von Gartner geht von 79 Prozent Wachstum für hyperkonvergente Systeme aus. 2016 werde der weltweite Markt damit in diesem Jahr ein Volumen von 2 Milliarden Dollar erreichen. Zum Vergleich: Der allgemeine Server-Markt hat laut Gartner ein Volumen von 13,9 Milliarden Dollar, allerdings im ersten Quartal 2016 und nicht im Gesamtjahr. Die Marktdurchdringung ist also tatsächlich noch sehr gering.

Innerhalb der nächsten fünf Jahre werde sich dieser Formfaktor jedoch zum Mainstream entwickeln, glaubt man bei Gartner. So prognostiziert das Marktforschungsinstitut, dass bis 2018 rund 40 Prozent aller mittelständischen Anwender traditionelle Server/Storage-Infrastrukturen gegen integrierte Systeme austauschen werden.

“Wir sehen gerade die dritte Phase von integrierten Systemen”, kommentiert Gartner Analyst Andrew Butler. An dieser Stelle bekommen IT-Infrastruktur-Verantwortliche und Operation-Leaders ein Framework für die Evolution von Implementierungen und Architekturen.

Gartner teilt die Evolution von integrierten Systemen in die Zeit von 2005 bis 2015 ein, hier beherrschten Blade Systeme den Markt. Konvergente Infrastrukturen sieht Gartner seit 2010 und sie werde es noch bis 2020 geben. Die dritte Phase integrierter Infrastrukturen liefert kontinuierlich Anwendungen und Mikroservices auf diesen Plattformen, diese Phase teilt Gartner in die Jahre 2016 bis 2025 ein. Kennzeichnend dafür seien dynamische, zusammenstellbare und Fabric-basierte Infrastrukturen. Gleichzeitig werden dabei modulare und aufgegliederte Hardware-Bausteine für eine fortlaufende Optimierung der Application-Delivery und der wirtschaftlichen Entwicklung sorgen.

Die für den Mittelstand gedachte Reihe Nutanix Xpress wird im Juli zu Preisen ab 25.000 Dollar erhältlich (Bild: Nutanix).

Doch das scheint nach wie vor in die Zukunft gesprochen. Aktuell sieht Gartner noch recht eingeschränkte produktive Einsatzszenarien, denn häufig bilden sich durch den Einsatz von hyperkonvergenten Systemen zusätzliche Informationssilos in den bestehenden Infrastrukturen, statt diese zu eliminieren.

Daher rät auch Forrester-Research-Analyst Richard Fichera Interessenten dazu, mit der Einführung dieser Infrastruktur mit einem neuen Projekt oder bei einem Refresh-Cycle zu starten und sich dann gleich eine Anwendung herauszupicken, die Vorteile für die Kundenbindung bringt, wie zum Beispiel neue mobile Kunden-Anwendungen, die schnelles Wachstum versprechen. Denn nur so lassen sich diese neuen Systeme auch intern erfolgreich vermarkten.

Mit der Produktreihe HyperFlex ist inzwischen auch Cisco im Markt für hyperkonvergente Systeme vertreten. (Bild: Cisco)

Der Erfolg dieses Formfaktors hänge damit auch von der weiteren Entwicklung von Komponenten wie Networking und auch von der Evolution der Software ab. “Am Ende wird die zugrunde gelegte Infrastruktur verschwinden, und unter der Kontrolle von Software zu einer formbaren, intelligenten und automatisierten Utility werden und damit IT-as-a-Service für Unternehmen, Verbraucher und Enterprise-Prozesse ermöglichen”, prognostiziert Butler. Solche Funktionen sind derzeit nur innerhalb der Systeme möglich.

“Hyperkonvergente Systeme sind kein Fernziel, sondern eine evolutionäre Reise”, fährt Butler fort. Gartner gehe zwar davon aus, dass eines Tages auch unternehmenskritische Prozesse damit abgebildet werden. Dennoch können implementierte Systeme aktuell noch Hinderungsgründe für weiteres Wachstum darstellen.

Redaktion

Recent Posts

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen…

18 Stunden ago

Sicherheit für vernetzte, medizinische Geräte

Medizingeräte Hersteller Tuttnauer schützt Gerätesoftware mit IoT-Sicherheitslösung.

18 Stunden ago

Blockchain bleibt Nischentechnologie

Unternehmen aus der DACH-Region sehen nur vereinzelt Anwendungsmöglichkeiten für die Blockchain-Technologie.

1 Tag ago

Branchenspezifische KI-Modelle

SAS bietet einsatzfertige KI-Modelle für konkrete Herausforderungen wie Betrugserkennung und Lieferkettenoptimierung.

2 Tagen ago

Hypershield: Umfassender Schutz von Cloud über Rechenzentrum bis Fabrikhalle

Cisco stellt neuen Ansatz zur umfassenden Absicherung der IT-Infrastruktur vor.

2 Tagen ago

Vernetztes Fahren: Bereitschaft zum Teilen von Daten gering

Deloitte-Studie äußert jedoch Verständnis für die Zurückhaltung der Kunden. Nutzen der Angebote sei hierzulande kaum…

3 Tagen ago