IBM und die EU erforschen die ‘Cloud’

Der Hersteller IBM und die EU haben ein gemeinsames Forschungsprogramm für das so genannte Cloud-Computing gestartet.

Damit fasst der Hersteller alle Dienste zusammen, die auf gemeinsam genutzte IT-Ressourcen zurückgreifen.  Die Initiative läuft unter dem Namen RESERVOIR (Resources and Services Virtualisation without Barriers) und hat aus Brüssel eine 17 Millionen Euro schwere Finanzspritze bekommen. Neben den IBM-Laboren in Haifa sind auch andere Hersteller wie SAP, Sun Microsystems, Thales sowie das University College aus London an dem Projekt beteiligt.

Erklärtes Ziel der Initiative ist die “Erforschung der Installation und der Verwaltung von IT-Diensten über verschiedene Domänen, Plattformen und Regionen hinweg”. Dass sich die EU bei dieser Initiative auf IBM einschießt ist kein Zufall.

So verfolgt IBM seit geraumer Zeit das Thema in fast allen Bereichen des Technologieunternehmens. Vor einigen Monaten stellte IBM dann Blue Cloud vor, das sind verschiedene Produkte, die bei der Verteilung von Ressourcen in Datenzentren helfen sollen. Eine der wesentlichen Technologien in solchen Szenarien ist Virtualisierung, worüber sich unterschiedliche Hardware zu einem Ressourcen-Pool zusammenschließen lässt. Dabei soll diese Lastenverteilung möglichst automatisiert ablaufen.

Die Technologien, die im Zuge dieser Initiative entwickelt werden sollen, werden in erster Linie auf die Bereitstellung von Online-Diensten hinauslaufen. Voraussetzung ist, dass diese Entwicklungen auf offenen Standards basieren. Eine mögliche Anwendung von RESERVOIR könnte zum Beispiel leistungsfähigeres IP-TV sein.

Die Idee ist, dass RESERVOIR-Seiten dynamisch Bedarfsspitzen abfangen können. Wenn etwa viele Zuschauer sich bei einer besonders spannenden Wette bei ‘Wetten, dass’ einklinken, so könnte dieser Kanal von anderen RESERVOIR-Seiten, die zu diesem Zeitpunkt nicht ausgelastet sind, zusätzliche Server zuschalten.

Damit könnten Kosten für Hardware geringer gehalten werden. Denn derzeit haben Anbieter solcher Services meist kaum eine andere Möglichkeit sich gegen dynamische Spitzen abzusichern, als mit viel zusätzlicher Hardware, die bei geringeren Zugriffszahlen nicht voll ausgelastet werden.