So steuert Software das Rechenzentrum der Zukunft

Rechenzentrum (Bild: Shutterstock)

Das Verwalten virtueller Server und Storage im Data Center ist Standard. Das logische Zuteilen von Speicher- und Netzwerkressourcen erfolgt hingegen oft noch nicht automatisiert – das ändert sich gerade. Der Weg führt über hyper-converged Infrastructure zum Software Defined Data Center, wie Michael Ganzhorn in diesem Gastbeitrags für silicon.de erklärt.

Rechenzentren müssen Skalierbarkeit, Effizienz, Flexibilität sowie mehr Sicherheit bieten, um die steigenden Anforderungen zu erfüllen. Oft stauen sich IT-Projekte auf der Agenda, weil die Ressourcen nicht rechtzeitig bereitstehen. Fachabteilungen finden dann allzu schnell alternative Anwendungen auf Cloud-Plattformen wie Amazon und Google. Es entsteht Schatten-IT und das Vertrauen in die eigene IT-Abteilung schwindet.

Michael Ganzhorn, der Autor dieses Gastbeitrags für silicon.de, verantwortet bei Fritz & Macziol als Business Unit Leiter das Datacenter Geschäft (Bild: Fritz & Macziol).
Michael Ganzhorn, der Autor dieses Gastbeitrags für silicon.de, verantwortet bei Fritz & Macziol als Business Unit Leiter das Datacenter-Geschäft (Bild: Fritz & Macziol).

Viele Unternehmen begegnen den rasant wachsenden Ansprüchen an Ressourcen und den zunehemdnen Datenmengen noch immer mit beschränkten, starren IT-Systemen. Denn das Budget für die interne IT sinkt und damit die Chance mit neuen, innovativen Konzepten aktuelle Herausforderungen zu adressieren. Handlungsdruck baut sich auf, mit weniger mehr aus den Technologien herauszuholen. Virtualisierte Umgebungen können das Dilemma lösen – denn sie versprechen Nutzern, agil und flexibel auf Marktchancen reagieren zu können.

Reale IT-Kostenargumente berücksichtigen

Befürchtungen, dass eine Modernisierung im Rechenzentrum extrem teuer wird, lassen sich ausräumen. Die Anschaffung, also die notwendige Capex (Capital Expenditure), schlägt nämlich meist mit nur circa 25 Prozent der Gesamtausgaben zu Buche. Die restlichen 75 Prozent verschlingt der Betrieb der IT-Systeme – die Opex (die Operational Expenditure).

Eine Kalkulation sollte Stromverbrauch und Managementeffizienz stärker als bisher berücksichtigen. Die neue Hardware braucht weniger Platz, Strom und Kühlung. Experten sehen beispielsweise großes Potenzial in neuer Storage-Technik, beim täglichen IT-Management zu sparen. Darüber hinaus sorgt Server-Virtualisierung für besser ausgelastete und flexibel zuzuteilende Rechnerkapazitäten.

Virtualisierte Komponenten

Anfangs wurden nur Testsysteme virtualisiert, mittlerweile geschieht das auch für Produktivsysteme und geschäftskritische Server. Dabei stellt ein Hypervisor virtuelle Maschinen (VMs) zur Verfügung. Die VMs betreiben Gastbetriebssysteme und teilen sich die Hardware – das lastet die Serverressourcen besser aus.

Ein wichtiger Baustein für die Servervirtualisierung ist Shared Storage. Auf der Speichervirtualisierung basiert Software Defined Storage (SDS). Die Abstraktionsschicht trennt hierbei die Hardware-Eigenschaften und das Speichermanagement. Ein Hypervisor virtualisiert Host-interne Storagemedien wie SDDs und HDDs und macht sie als Speicher verfügbar. Auch lässt sich so das leistungsfähige Speichermedium Flash integrieren.

Die Speicher werden als eigenständige Ressourcen gehandelt und sind softwaremäßig skalierbar. Software-gesteuerte Speicher helfen Datenanalysten, beispielsweise Big-Data-Initiativen umzusetzen. Auch Cloud-Speicher-Services basieren auf SDS. Es bleibt festzuhalten, dass SDS noch in den Anfängen steckt. Die Technologie wird aber weiter Fuß fassen und langfristig Appliance-basierte Storage-Systeme verdrängen.

(Bild: Shutterstock.com/You can more)
(Bild: Shutterstock.com/You can more)

Noch verzögertes Networking

Software Defined Network (SDN) wird über bestehende Layer-3-Netzwerke gespannt. Das transformiert das physikalische Netzwerk zum Transportmedium. Die Netzwerksteuerung erfolgt per Software und ist von der Hardware entkoppelt, was man über zwei Ebenen realisiert. Die Entscheidungen für den Transport der Datenpakete fallen auf der Control Plane. Das Weiterleiten der Datenpakete findet auf der darunterliegenden, unabhängigen Data Plane statt.

Damit VMs auf demselben Host miteinander kommunizieren können, kommen seit Langem virtuelle Switches zum Einsatz. VMs unterschiedlicher Hosts tauschen sich über verteilte virtuelle Switches aus. Zudem existieren 3rd-Party-Komponenten wie Switches, die in den Hypervisor geladen werden. Auch lassen sich Geräte wie Loadbalancer, Firewall oder Router als Software betreiben. Generell zeichnet sich für SDN einen ähnliche Entwicklung wie bei SDS ab. Nur läuft sie für das Networking deutlich verzögert ab.

Converged und Hyper-converged Infrastructure

Die Rechenzentrums-Komponenten Storage, Netzwerk, Computer und Virtualisierung werden zunehmend als eine Einheit, ein sogenanntes integriertes System, betrachtet. Das erlaubt stufenloses Skalieren von Rechenleistung und Speicherplatz nach oben und unten. Je nachdem, welcher Bedarf gerade anfällt. Integrierte Systeme unterteilen sich in Converged und Hyper-converged Infrastructures. Konvergente Systeme bestehen aus einzelnen Hardwarekomponenten für Server, Speicher und Netzwerkinfrastruktur, die von Experten gesteuert und verwaltet werden können.

Die Komplexität bleibt jedoch sichtbar und steigt beim Erweitern an. Im Gegensatz dazu lassen sich Hyper Converged Infrastructure Appliances (HCIA) einfach über eine Management-Konsole verwalten. Es braucht nur wenige Tage, eine komplette Infrastruktur auf dieser Basis (Appliance/Racks) einzurichten. So können IT-Fachleute HCIAs laut Herstellerangaben schon innerhalb einer Stunde für den Betrieb bereitstellen.

Hyperkonvergente Lösungen benötigen im Rechenzentrum nur zwei Rack-Höheneinheiten. Dadurch können Anwender die Infrastruktur schnell um ein zusätzliches Gerät ergänzen. Ihre Stärken spielen Hyper-converged Lösungen in Niederlassungen und Filialen aus, in denen kein IT-Personal arbeitet. Genauso gut bewährt sich das “in-a-Box”-System für virtuelle Desktop-Infrastrukturen (VDIs) oder Hochverfügbarkeitslösungen mit mehreren verteilten Knoten. Auch für Backup und Recovery gibt es geeignete Systeme, um ein voll redundantes Rechenzentrum mit zwei HCIAs an verschiedenen Standorten zu realisieren.

Ein hessischer Service-Provider setzt auf die neue Technologie

Wie eine Hyper-converged Infrastructure in der Praxis aussehen kann, lässt sich an der hessischen Ekom21 zeigen. Der Service-Provider führte die neue Technologiebasis ein, damit kommunale Betriebe mehr Auswahl beim IT-Betrieb haben. Die installierte Hyper-converged Infrastructure integriert einen x86-Server mit einem Virtualisierungs-Layer (Hypervisor) sowie lokalen SSD-/HDD-Datenträgern.

Ein Software Defined Storage (SDS) ersetzt die bisher separat benötigen Speicherkomponenten, verwaltet die Ressourcen zentral und stellt darüber hinaus integrierte Backup- und Restore-Funktionalitäten bereit. Das schließt eine Storage-Spiegelung und Replikationsmöglichkeit sowie eine Datendeduplizierung und Komprimierung ein. Der Service-Provider stützt sich nun auf zuverlässige, sichere, skalierbare und einfach zu wartende IT-Systeme.

Die Zukunft ist von der Software vorbestimmt

Der nächste Entwicklungsschritt steht an: Zwar gibt es Software Defined Data Center (SDDC) als HCIA bereits im Kleinformat. An der großen Lösung arbeiten die IT-Spezialisten derzeit. Im SDDC virtualisiert eine Software alle Speicher- und Netzwerkressourcen. Auf die elastischen Pools der Software lässt sich meist über ein Self-Service-Portal zugreifen.

Die Software arbeitet im Hintergrund, automatisiert Arbeitsabläufe, die IT-Fachkräfte sonst manuell steuern müssten. Das verschlankt und beschleunigt IT-Prozesse, während das System Monitoring- und Reporting-Aufgaben bewältigt. Darüber hinaus sind Zusatzfunktionen wie Showback oder Chargeback für die transparente Verrechnung der IT-Ressourcen möglich.

Die abstrahierte SDDC-Benutzeroberfläche verringert die IT-Komplexität. Die agilen IT-Strukturen reagieren schnell auf sich ändernde Geschäftsanforderungen und lassen sich individuell an eine gegebene Infrastruktur anpassen. Das System stellt Policy-basierte Ressourcen schnell und zentral in Pools bereit. Entwickler setzen im SDDC das Grundprinzip um, Control Plane (Steuerung) und Data Plane (Datenzugriffe) zu trennen. Das spiegelt sich in der Ebene für Hardwareabstraktion wieder, die es ermöglicht, unabhängig vom Hardwarehersteller zu agieren. Im SDDC übernimmt Software das Steuern und Bereitstellen der Infrastruktur.

Fazit: Fortschritt Hyperkonvergenz

Bei Hyper-converged Infrastructure liegt der Management-Schwerpunkt nicht auf der Ebene der IT-Komponenten, sondern auf der Ebene der Applikation und der virtuellen Maschine. Dies bedeutet: Es gibt keine Silos von unabhängigen IT-Komponenten und keine Notwendigkeit, einzelne Geräte zu verwalten. Die resultierende einfache und flexiblere IT-Infrastruktur beschleunigt den Einsatz der Ressourcen, macht die IT-Mitarbeiter produktiver und kann die Betriebskosten erheblich senken. Hyperkonvergenz ist der größte Fortschritt in der IT seit der Virtualisierung. Und die nächste Entwicklungsstufe kündigt sich mit dem SDDC massiv an.