Jörg Mecke

ist Bereichsleiter Cloud Plattformen beim herstellerunabhängigen IT System- und Beratungshaus FRITZ & MACZIOL. Ein anderer Blickwinkel auf die Dinge ist bei ihm an der Tagesordnung.

Leistungsverdichtung an der Grenze des Machbaren?

Eine Frage beschäftigt mich seit Tagen: Überfordert uns ein Zuviel an Möglichkeiten und Freiheit? Konkreter kreisen meine Gedanken um das Flexibilitäts-Monster Virtualisierung.

Seit Jahren heißt die Devise: Versuche jede Server-Instanz zu virtualisieren, wo immer es geht. Wenn die Kapazitäten erschöpft sind, kaufe neue Hardware. So wurde immer mehr Platz im Rechenzentrum geschaffen und viele haben die Vorzüge genossen. Flexibilität, Ausfallsicherheit und dynamische Ressourcen-Allokation. Und so kann ein Virtualisierungsadministrator weit mehr halten als er verspricht: Memory-Overcommitment und virtuellen Kernen sei Dank.

Heute, im Sommer 2011, stelle ich nun einen neuen Trend fest. Vielleicht liegt es an den Cloud-Diskussionen um “Software-as-a-Service”, vielleicht ist es die Kapitulation vor der Komplexität. Ich meine den neuen Drang, einzelne Funktionen auf Appliances auszulagern. Dabei spielt es zunächst keine Rolle, ob es sich um virtuelle Appliances handelt oder physikalische. Der Reiz liegt im dedizierten Ansatz: Eine Appliance, eine Funktion. Und diese sind vom Hersteller schon fertig konfektioniert:

  • Die Hardware ist dimensioniert, die Leistungsdaten sind nachweislich kommunizierbar.
  • Die Umgebung ist durchgetestet und wird ganzheitlich supportet.
  • Best Practices sind implementiert, ohne dabei einen hohen Dienstleistungsaufwand zu generieren.

Diese Vorteile sind so überragend, dass der Bitkom Ende Juni die Ergebnisse des Arbeitskreises SOA zu Appliances veröffentlicht hat. Interessant ist, dass diese fertigen “Boxen” Potentiale nicht nur für Firewalls, Proxies und Gateways bieten.

Dennoch, sie widersprechen der Strategie der Vergangenheit. Appliances sind nicht so flexibel einsetzbar, wie es die Nutzer von Virtualisierungslösungen heute gewohnt sind.
Mit Hardware-basierten Appliances wird eine Virtualisierung dieser Funktionen verhindert. Sobald findige Administratoren einen Physical-to-Virtual (P2V)-Ansatz versuchen, leben diese gefährlich, weil in den allermeisten Fällen der Support ausgeschlossen wird. Außerdem besteht die Gefahr, dass die Performance leidet, weil die speziell verbaute Hardware in der virtuellen Hardware nicht zur Verfügung steht. Da erlebt ein Appliance-Nutzer aber auch den Rückschritt in die gute, alte Welt der Physik – keine Funktionsverschiebung, keine einfache Verfügbarkeitserhöhung, keine zentrale Administration mit anderen Maschinen.

Dann gleich eine virtuelle Lösung? Auch hier gibt es Einschränkungen. Mit virtuellen Appliances legt der Anbieter der Lösung den Hypervisor fest. Hat sich der Kunden für VMware vSphere, Citrix XenServer oder Microsoft Hyper-V entschieden, kann ein weiterer Hypervisor für die Bereitstellung der Appliance notwendig sein. Die Flexibilität der Virtualisierung kann genutzt werden, aber der Apfel hat eine saure Note: Die Einstellungsmöglichkeiten beim Hypervisor legt der Lieferant fest.

Auch wenn es gute Gründe dafür und dagegen gibt, stellt sich die Frage: Haben wir die maximale Komplexität der virtuellen Infrastruktur über Storage, Server, Desktops und Applikationen sowie Netzwerke erreicht? Gibt es nur noch wenige Administratoren, die sich dieser Herausforderung stellen (können)? Sind Appliances eine Flucht aus dieser Situation?

Um das Kind beim Namen zu nennen: Durch die enorme Belastung der heutigen IT-Verantwortlichen kann der Aufbau von Know-how nicht mehr mit der technischen Aufrüstung in Taktgleichheit geschehen. Die Anforderungen an Verfügbarkeit und Kostenoptimierung lassen immer weniger Teilzeitbetreuung von IT-Systemen zu. Auch wenn die Hersteller von Software-Produkten sagen, es wird durch die Weiterentwicklung alles einfach; geschafft haben es die wenigsten, das Gros ist komplexer geworden. Es gab da doch mal so einen Ansatz. Software-Ergonomie. Wo war der doch gleich?