ANZEIGE
ANZEIGE
ANZEIGE

Geht es um die Zukunft des Rechenzentrum-Betriebs gilt das Thema Converged Infrastructure derzeit als einer der heißesten Trends. Doch der Denkansatz ist nicht so simpel wie es auf den ersten Blick scheint. Denn das geschlossene Management aller Teile der IT-Infrastruktur verspricht zwar einen deutlich geringeren Administrationsaufwand – hat aber ihren Preis.

160212_datacenter012

Noch bis vor kurzem galt Virtualisierung als das Allheilmittel wenn es um die Vereinfachung des RZ-Betriebes ging. Doch schon bald nach dem die ersten Virtual Machines (VM) angelegt waren, zeigte sich, dass die Zahl der VMs rasant anstieg und damit das Managen der realen und virtuellen RZ-Bereiche komplizierter geworden war, als die rein reale Welt zuvor.

Inzwischen hat die Automatisierung des RZ-Betriebes eine sehr hohe Priorität erhalten, denn die Kosten dafür steigen rasant an und es fehlt an qualifizierten Mitarbeitern. Der nächste Schritt bei der RZ-Automatisierung ist die Konvergenz aller RZ-Bereiche. “Convergence” heißt das dann bei den Anbietern. Doch dabei handelt es sich weniger um eine Technologie, sondern vielmehr um einen neuen Denkansatz. Convergence bedeutet vor allem ein Umdenken bei den IT-Chefs. Es geht jetzt nicht mehr darum, die separaten Bereiche Hardware, Software und Operations getrennt zu definieren, sondern es geht um einen holistischen Gesamtansatz, bei dem das Rechenzentrum oder Teile davon als eine einzige Einheit betrachtet werden. Der größte Vorteil eines solchen Denkansatzes ist der, dass die Aufgaben und Anforderungen an das RZ an oberster Stelle stehen – ein reiner Business-Ansatz also. Alle Technologien und RZ-Services haben sich dann diesem Business-Anforderungsprofil unterzuordnen.

Mit dieser neuen Betrachtungsweise geht einher, dass die Anbieter eine höhere Aggregationsebene bei der Integration ihrer Produkte anstreben. Jüngstes Beispiel hierfür ist die erweiterte FlexPod-Kooperation von Cisco und NetApp, bei der neue hochintegrierte Produkte für Filialen, Rechenzentren und Cloud-Infrastrukturen angeboten werden. Diese Lösungen umfassen die Bereiche Computing, Storage, Netzwerke und die Orchestrierung von Abläufen. Neues Kernstück ist eine Integration von Ciscos Unified Data Center Solution mit NetApps FAS Storage-Systeme, sowie neue Management-Tools, mit denen sich bis zu 1000 Server managen lassen.

Auch Oracles Exa-Maschinen und IBMs Pure-Systeme fallen in diese Kategorie, da sie viele Standard-Komponenten in einer optimal abgestimmten Weise direkt integrieren. Das hat unter anderem den Vorteil, dass sie in kürzester Zeit betriebsbereit sind. IBM wirbt beispielsweise bei seinen PureApplication-System damit, dass es nur vier Stunden dauert, bis das System betriebsbereit ist – inklusive dem Auspacken.

Knapp gesagt bedeutet Converged Infrastructure also nichts anderes, als das optimale Bundling von verschiedenen Hardware- und Software-Komponenten sowie den zugehörigen Netzwerk- und Administrations-Komponenten. Das hört sich sehr simpel an und führt zu der Frage, warum man das nicht schon vor Jahren eigeführt hat. Die Antwort ist einfach: Der Preis für die Integration und den geringeren Administrationsaufwand ist die Offenheit der Architektur. In der alten Welt von Servern, Storage, Netzwerken und Software waren die einzelnen Komponenten weitestgehend frei austauschbar. Vor allem x86-Server und Storage waren längst Commodities geworden, die nur noch über den Preis verkauft wurden. Die neuen großen Kisten von IBM und Oracle sind aber genau das Gegenteil dieser Offenheit. Die Fragestellung für den CIO lautet also: Offenheit und Komplexität oder Geschlossenheit und einfache Administrierbarkeit.

Den total abgeschotteten Systemen von IBM und Oracle droht jetzt aber Konkurrenz, in Form von “semi-offenen” Systemen. So bieten vor allem HP und Dell ebenfalls Convergence an. Hierbei werden die erforderlichen Komponenten und Tools vorher festgelegt und dann in einer nahezu optimalen Weise integriert. Der Vorteil ist, dass diese Infrastruktur weiterhin aus einzelnen Standard-Komponenten besteht, die leichter aufzurüsten und auszutauschen sind, als es bei den total integrierten Black-Boxen der Fall ist. Der Nachteil einer solchen Infrastruktur ist der, dass nicht alle Komponenten bis zum Anschlag ausgereizt werden.

Die CIOs müssen sich also zwischen drei Varianten entscheiden:

  1. Weiterhin reine Standard-Komponenten nutzen und alle Abstimmungen, Integrationen und Kontrollfunktionen in Eigenregie installieren und betreuen. Das bietet höchste Flexibilität, aber auch höchsten Administrationsaufwand.
  2. Weitestgehend hoch-vorkonfigurierte “converged” Hardware und Appliances. Das bewirkt ein Minimum an Administrationsaufwand, erlaubt aber nur begrenzte Erweiterungen und spätere Anpassungen.
  3. Ein Mittelweg in Form von Converged Infrastructure mit Standardkomponenten, wie Ciscos/NetApps FlexPod oder den entsprechenden Angeboten von Dell und HP.

Die Hardware-Anbieter bevorzugen natürlich die zweite Lösung, die sie mit guten Performancewerten bewerben. Folglich steigt hier das Angebot rasant an. So stellte kürzlich auch Dell eine hochintegrierte Infrastruktur vor. Deren vStart 1000 eignet sich eigenen Angaben zufolge “sowohl für eine komplette interne, als auch für den Aufbau eines Public-Cloud-Service”.

Fotogalerie: Ungewöhnliche Rechenzentren


» Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Tipp: Was wissen Sie eigentlich über Hewlett Packard? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

silicon für mobile Geräte
Android-App Google Currents App for iOS

Neuester Kommentar




0 Kommentare zu Convergence: Was IT-Chefs darüber wissen müssen

Hinterlasse eine Antwort

  • Erforderliche Felder sind markiert *,
    Deine E-Mail-Adresse wird nicht veröffentlicht.

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>