Das bringen hyperkonvergente Infrastrukturmodelle

Server im Rechenzentrum (Bild: Shutterstock/Stefan Petru Andronache)

Während in einer konventionellen IT-Landschaft Server für die Datenverarbeitung bereitstehen, Storage-Systeme der Datenspeicherung dienen und Netzwerkkomponenten alles miteinander verbinden, bietet eine hyperkonvergente Infrastruktur alles aus einer Hand. Damit lassen sich Systeme schnell und exakt an geänderte Anforderungen anpassen.

Seit einiger Zeit setzt sich das Konzept der hyperkonvergenten IT-Infrastruktur auch bei mittelständischen Unternehmen durch. Einen echten Trend hat es bisher allerdings nicht ausgelöst. Bei vielen IT-Verantwortlichen herrscht noch große Unsicherheit, wie oder ob sich eine hyperkonvergente Infrastruktur im Rechenzentrum ihres Unternehmens einsetzen lässt.

Alexander Wichmann (Bild: Adacor)
Alexander Wichmann, der Autor dieses Gastbeitrags für silicon.de, ist bei der ADACOR Hosting GmbH im Bereich Technology Operations beschäftigt. (Bild: ADACOR)

Bei IT-Dienstleistungsunternehmen – Managed-Service-Hostern, großen Systemhäusern oder Betreibern von Rechenzentren – hingegen sind hyperkonvergente Strukturen im Kommen. Hyperkonvergenz kombiniert anbieterunabhängig die jeweils bestmögliche Lösung für Netzwerk, Server und Speicher in einer Suite, gesteuert über eine Applikation, die als Management-Software für das komplette System fungiert.

Während in einer konventionellen IT-Landschaft Server für die Datenverarbeitung bereitstehen, Storage-Systeme der Datenspeicherung dienen und Netzwerkkomponenten alles miteinander verbinden, bietet eine hyperkonvergente Infrastruktur alles aus einer Hand. Die in der Regel externen Speichermöglichkeiten sind bei einer hyperkonvergenten Infrastruktur in die Server integriert. Die Server werden über spezielle Software zu Verbünden zusammengeschlossen – und über eine hoch spezialisierte Rack-Lösung verfügbar gemacht.

Virtualisierung für Input und Output

Doch wie gelingt das? Nur durch Virtualisierung! Denn mit hyperkonvergenten Infrastrukturen sind nicht nur Server-Landschaften gemeint, die Festplatten und SSDs integrieren, anstatt Daten über externe Storage-Systeme zu verarbeiten. Hyperkonvergenz entsteht, wenn sehr viele virtuelle Maschinen (VMs) zum Einsatz kommen – was gleichzeitig auch Effizienz, Skalierbarkeit und Automatisierung eines Systems vorantreiben kann.

Flexible Skalierbarkeit

Womit das Thema “Agilität” auf den Tisch kommt. Die virtuellen Speicher ermöglichen es, Arbeitslasten bedarfsgerecht und zeitnah zu verschieben. So können die IT-Mitarbeiter eines Unternehmens ihre Projekte schneller und effizienter abwickeln. Da hyperkonvergente Systeme von der Genese her als eine Art Baukastensystem angelegt sind, ist die Skalierbarkeit relativ unproblematisch.

Ausgewähltes Whitepaper

Fünf wichtige Aspekte bei der Auswahl eines Wide Area Networks

Erfolgreiches Netz-Design kann die Produktivität deutlich verbessern und neue Chancen für die digitale Geschäftsentwicklung eröffnen. Ein unzureichend dimensioniertes WAN hemmt dagegen das produktive Arbeiten und führt zu Frustration bei Mitarbeitern, Lieferanten und Kunden. In diesem Whitepaper erfahren Sie, worauf es zu achten gilt.

Um neue Anforderungen aus dem Geschäftsumfeld bewältigen zu können, müssen also nicht zwangsläufig auch Komponenten der Infrastruktur ersetzt werden. Häufig ist die Versorgung mit Software-Updates durch die Anbieter völlig ausreichend, um neue Funktionen aufsetzen zu können, ohne Hardware ersetzen zu müssen.

Beste Voraussetzung für Automatisierung

Automatisierungsprozesse gestalten sich einfach: Da alle Elemente und Ressourcen über die Serverumgebung miteinander verwoben sind, können zentralisierte Verwaltungstools und Skripts “voneinander lernen” beziehungsweise “ihre Arbeit teilen”. Hinzu kommt, dass die Hyperkonvergenz ein softwarebasierter Ansatz ist.

Leistungsfähige VM-Server

Hyperkonvergente Strukturen ermöglichen es, viele verschiedene Anwendungen zu nutzen, die auf gemeinsame Ressourcenpools zurückgreifen. Sie sind dabei so ausgelegt, dass die Gefahr eines sogenannten I/O-Blender-Effekts gebannt ist. Bei einem I/O-Verbund-Effekt kann es passieren, dass die Leistung virtueller Maschinen zum Erliegen kommt, weil heterogene Abläufe des Inputs und des Outputs von Informationen um begrenzte Speicherressourcen konkurrieren.

Mehr zum Thema

Hyperkonvergente Systeme

Weniger Komplexität, einheitlicher Einkauf, vorintegrierte und aufeinander abgestimmte Komponenten sowie weniger Sorgen und Kosten beim Betrieb durch Abstraktion und Automatisierung, das versprechen die Anbieter "hyperkonvergenter Systeme". Im silicon.de-Special finden sie aktuelle Nachrichten und umfassende Hintergrundartikel zu dem Marktsegment.

Eine Plattform, die auf virtuelle Maschinen setzt, umgeht diesen Effekt und ermöglicht die Optimierung der Informationsverarbeitung. Durch die Installation von unterschiedlichen Speichertypen in eine hyperkonvergente Infrastruktur kann zudem vollständige Redundanz und Datensicherheit erreicht werden.

Konzentration auf Geschäftsprozesse

So liegen die Vorteile für Unternehmen, die auf hyperkonvergente Infrastrukturen setzen, auf der Hand: Die Umgebungen können mehr Arbeitslasten flexibler abwickeln als konventionelle Infrastrukturen. Damit lassen sich die Systeme schnell und passgenau an sich verändernde Unternehmensanforderungen anpassen – die IT-Experten können sich mehr und mehr der Erfüllung von Anforderungsprofilen widmen und sind weniger mit der Technologie selbst beschäftigt. Hyperkonvergente Systeme senken den Ressourcenverbrauch – von physikalischem Raum, Strom, Klimatisierung oder Verkabelung.

Umdenken beim Server-Management

Allerdings ist es für Unternehmen in der Regel nicht möglich, ihr Rechenzentrum “von heute auf morgen” komplett neu zu strukturieren, nur um diese neue Technologie einzuführen. Deshalb ist es aktuell häufig der Fall, dass hyperkonvergente Strukturen herkömmliche Umgebungen ergänzen – eine besondere Herausforderung für die Betreiber von Rechenzentren, die nur durch ein leistungsfähiges Data Center Infrastructure Management (DCIM) zu bewältigen ist.

IT-Admininstrator (Bild: Shutterstock)
Die Konzentration auf hyperkonvergente Infrastrukturen macht auch eine Umstrukturierung konventioneller Aufgabenteilungen in einem Rechenzentrum erforderlich. (Bild: Shutterstock)

Das heißt, dass eine Konzentration auf hyperkonvergente Infrastrukturen eine Umstrukturierung konventioneller Aufgabenteilungen in einem Rechenzentrum erforderlich macht. Waren bisher System- und Netzwerkmanager für die Verwaltung der aktiven IT-Komponenten wie Server, Speichersysteme und Netzwerkkomponenten zuständig, während Facility-Manager sich um Stromversorgung, Klimatisierung und bauliche Infrastruktur kümmerten, müssen diese beiden Welten jetzt enger miteinander verzahnt werden.

Wie solch ein ganzheitlicher Ansatz umgesetzt werden kann, zeigen einige Beispiele. Da eine hyperkonvergente Infrastruktur Schnittstellen zu allen Anwendungen und Betriebssystemen vorsieht, sollten nicht nur Server und Netzwerkkomponenten, sondern auch die Facility-Steuerungen für Klimaanlagen und Stromversorgung miteinander verknüpft sein. Das DCIM verarbeitet zum Beispiel Informationen über den Stromverbrauch pro Rack, Rack-Reihe oder Schrank – woraus wiederum unter anderem Maßnahmen für die Datensicherung oder Kapazitätsplanung abgeleitet werden können.

Die Integration von Bauplänen eines Datencenters in die DCIM-Tools kann die Planung von Serverarchitekturen optimieren und die spätere Integration neuer Komponenten erleichtern. Die Software, die DCIM-Experten nutzen, verfügt deshalb in der Regel über Schnittstellen zu den Datensystemen wie Server oder Switches ebenso wie zu Lüftungs- und Klimatisierungssystemen sowie Notstrom- oder Gebäudeleittechnik.

Ganzheitlicher Ansatz im Fokus

Fazit: Hyperkonvergente Infrastrukturen entfalten ihre Vorteile optimal, wenn alle technischen Komponenten mit einem einheitlichen Datencenter-Management perfekt abgestimmt sind. Daraus ergeben sich Erleichterungen für die Verwaltung der Datenlasten sowie für flexible Kapazitätsplanungen. Schnittstellen- und Inkompatibilitätsproblematiken zwischen Hard- und Software reduzieren sich. Das spart Kosten und macht einen effizienten Support “aus einer Hand” möglich.

Der Autor

Alexander Wichmann (Bild: Adacor)

Alexander Wichmann arbeitet bei der Adacor Hosting GmbH im Bereich Technology Operations. Dieses Team ist für „Neue Technologien“ verantwortlich. Zu den Schwerpunktaufgaben des IT-Fachmanns zählen die Koordination und technologische Unterstützung der anderen Fachteams wie Consulting und die Koordination der entsprechenden Businessanforderungen.