On-demand-Computing krempelt Rechenzentren um

Hersteller wie IBM, HP oder Sun propagieren die schöne neue IT-Welt des bedarfsgerechten Computing. Doch erst müssen sich die Rechenzentren mächtig umstellen.

Mit der Ankündigung des On-demand-Computing ist in den Rechenzentren ein neues Zeitalter angebrochen. Seit über einem Jahr verspricht die Branche, allen voran IBM, den Anwenderunternehmen eine völlig neue IT-Landschaft. Darin sollen Ressourcen wie CPU-Leistung oder Speicherplatz, sowie Anwendungen nur dann in Anspruch genommen werden, wenn sie tatsächlich gebraucht werden. Die damit möglichen Kostensenkungen bringen die Augen der Top-Manager zum leuchten. Die schöne neue IT-Welt kann jedoch nur nach einem aufwändigen Umbau und vor allem einer Neuorganisation der Rechenzentren entstehen.
Trotz utopisch klingender Schlagworte wie Autonomic Computing, selbstheilender Hard- und Software oder virtualisierter Ressourcen handelt es sich keineswegs um eine nur mit heißer Luft gefüllte Marketing-Blase. Außer IBM bauen daran besonders intensiv auch Sun Microsystems unter der Bezeichnung ‘N1‘ und Hewlett-Packard, wo das Konzept ‘Utility Data Center‘ (UDC) heißt. 

Die Gründe für den Umbau der Rechenzentren für On-demand-Computing liegen nicht zuletzt in der schlechten wirtschaftlichen Situation. In besseren Zeiten haben sie ihre Systeme für Spitzenlasten ausgelegt, was bedeutet, dass in normalen Zeiten Ressourcen verschwendet werden. Zudem lassen sich überflüssigen Ressourcen nur mit extrem großen Aufwand für andere, neue Geschäftsmöglichkeiten nutzen. Hinzu kommt, dass die bisherige RZ-Struktur nicht auf moderne Unternehmenskonzepte ausgelegt war, die immer öfter die Einbindung von Partnerfirmen wie Zulieferer oder Dienstleister (Outsourcing) in die Unternehmensabläufe vorsehen. Kurz: Die IT ist momentan eher nach technischen Kriterien organisiert, nicht nach geschäftlichen Anforderungen.

Trennung von Geschäftsprozess und Ressource

Ein Teil dieser Probleme lässt sich aus Sicht des Kunden durch Outsourcing auf einen Dienstleister übertragen. Für den Rest bietet sich das On-demand-Computing an. Aus technischer Sicht geht es dabei im Kern um die Abtrennung der Geschäftsanwendungen von IT-Ressourcen wie Speicher, Prozessorleistung oder Bandbreite. Thomas Groth, einer von zwei Chef-Visionären bei Sun erklärt: “Wir ziehen eine Metaschicht oberhalb von Hardware und Betriebssystem ein. Ziel ist es, sämtliche verfügbaren Quellen und Assets, spricht Festplatten, Hauptspeicher und Prozessorleistungen, zu einer virtuellen Maschine zusammenzufassen.”

Durch eine enge Koppelung der Hardware soll zudem ein virtueller Rechner entstehen, der nun den Anwendungen nach Bedarf (On-demand) Ressourcen zuordnet. Die Organisation übernimmt der so genannte Provisioning-Server, dessen Regeln vom Systemadministrator festgelegt werden. Vervollständigt wird ein solches System durch ein Programm, das den Ressourcenverbrauch für jeden Arbeitsplatz auf Prozessebene abrechnet. Diese Information soll nicht nur Dienstleistern die Rechnungsstellung ermöglichen, sondern vor allem bei der Bedarfsplanung helfen.

Gerhard Steininger, Senior Consultant bei der Meta Group, hat an der Realisierung dieser Vision keine Zweifel. Nach seiner Auskunft werden bis 2007 rund 40 Prozent der Global-2000-Firmen in High-Availability- und On-demand-Technologien investieren. Zudem ist die Technik für das Rechenzentrum der Zukunft teilweise bereits auf dem Markt.

In weiten Bereichen klingen die Virtualisierungsbemühungen von HP und Sun sogar wie die Nachahmung der seit Jahrzehnten eingeführten Mainframe-Techniken, deren Basis-Betriebssystem bezeichnenderweise Virtual Machine (VM) heißt. Tatsächlich empfiehlt die IBM ihre neuen Modelle aus genau diesem Grunde für On-demand-Computing.

Das bedeutet jedoch nicht, dass sich Entwickler und Marketiers aus der Mottenkiste der IT-Geschichte bedienen würden. Die Anforderungen an das Rechenzentrum der Zukunft, an die Flexibilität bei der Ressourcenzuordnung, würde nach dem alten Mainframe-Konzept menschliche Administratoren überfordern. Deshalb wird es nicht ohne so genanntes ‘Autonomic Computing‘ gehen. “Damit”, so erklärt Sun-Visionär Groth, “ist die Fähigkeit der Systeme gemeint, aus Ereignissen zu lernen, damit sie selbst entscheiden können, wann Ressourcen neu zugeordnet werden müssen. In drei Jahren sind wir so weit.” Bei HP und IBM wird mit ähnlichen Zeiträumen gerechnet.

Mit Autonomic Computing rückt zudem das alte Ziel eines weitgehend automatisierten Rechenzentrums etwas näher. In diese Richtung zielen auch die so genannten ‘selbstheilenden‘ Systeme. Hinter diesem esoterisch klingenden Begriff verstecken sich jede Menge recht triviale Funktionen. Dazu gehört, dass ein defektes Betriebssystem automatisch herunter und wieder hoch gefahren wird. Sollte ein Neustart nicht genügen, wird das System von Aufgaben freigestellt, bis ein neues Betriebssystem aufgespielt ist, oder ein Fachmann den Fehler behoben hat. Am meisten verbreitet sind ‘selbstheilende‘ Server- oder Speicher-Racks. Hier wird ein defektes Teil einfach so lange ignoriert, bis es durch einen Mitarbeiter oder einen online informierten Dienstleister ausgetauscht ist. Ein menschenleeres RZ wird es also auf absehbare Zeit nicht geben.

Eine neue RZ-Organisation

Der zentrale Unterschied zur angestammten Großrechnertechnik liegt jedoch in der völlig neuen Art der Virtualisierung. Die Trennung von Geschäftsprozessen von den Ressourcen widerspricht der bisherigen RZ-Organisation in so genannte ‘Anwendungssilos‘. Das heißt, wichtige Systeme wie etwa betriebswirtschaftliche Software belegen heute einen oder mehrere nur für sie zuständige Rechner – gleichgültig ob Mainframe oder Unix-Maschinen – inklusive aller Ressourcen.

Bei aller Inflexibilität und Ressourcenverschwendung hat diese Silo-Organisation aber den Vorteil, dass sich solche Systeme isoliert aufsetzen und vergleichsweise einfach verwalten lassen. Diese Arbeit soll künftig von der RZ-Software übernommen werden. Die Aufgabe weniger verbleibender Administratoren wird es dagegen sein, Regelsysteme für diese Software zu entwerfen, die sowohl den technischen wie den geschäftlichen Bedürfnissen gerecht werden.

Dafür und für den Aufbau eines virtualisierten Rechenzentrums fehlt es aber derzeit an geschultem Personal. Hierin sieht Meta-Group-Analyst Steininger das größte Hemmnis bei der Einführung des On-demand-Computing im Rechenzentrum. Seiner Ansicht nach kann es daher noch mehr als ein Jahrzehnt dauern, bis das Rechenzentrum der Zukunft flächendeckend etabliert ist.

Schon jetzt in den Rechenzentren angekommen ist die erste Welle des On-demand-Computing. Sie besteht in dem seit rund drei Jahren angebotenen Utilitiy-Services. Dabei handelt es sich um Systeme, die der Hersteller voll ausgestattet liefert. Der Kunde zahlt nur die Leistung, die er gerade benötigt und kann bei Bedarf zusätzliche Ressourcen aktivieren und wieder ausschalten. Dieser Service gilt als Standard, der von HP, IBM, Sun, Fujitsu-Siemens und anderen zu haben ist. Unterschiede gibt es hier höchstens in der Vielfalt der Vertragsgestaltung. Sie orientieren sich zum Beispiel an den Bedarfsprognosen der Kunden, an monatlichen Leistungsspitzen (etwa für die paar Tage, die die Gehaltsabrechnung braucht) oder rechnen schlicht jede tatsächliche Nutzung auf Minuten-, CPU- oder Prozessbasis ab.