Virtualisierung darf nicht zu komplex werden

CloudManagementVirtualisierung

Virtuelle Systeme sind in der heutigen IT-Landschaft zu einem fixen Bestandteil geworden. Die Verbreitung und Akzeptanz durch die Kunden bringt eine zunehmende Angebotsvielfalt hervor.

“Damit wird Virtualisierung jedoch wieder komplexer und droht ihren ursprünglichen Vorteil zu verlieren”, meint Joseph Reger, CTO des Elektronikherstellers Fujitsu Siemens Computers (FSC), anlässlich einer Analystenkonferenz in Wien.

Die Technologie ist mittlerweile zu einem Muss für Unternehmen geworden, was sich auch in Umfragen widerspiegelt. “Für zwei Drittel der Kunden hat Servervirtualisierung eine hohe Priorität und 90 Prozent sehen in der Technologie eine zukünftige IT-Plattform”, sagt Reger. Problematisch gestaltet sich jedoch mittlerweile die Tatsache, dass viele Softwarehersteller Virtualisierungstechnologien in ihr Portfolio aufgenommen haben. Damit ist der anfängliche Vorteil der Technologie, dass die Systeme einfacher sind, wieder verschwunden, dafür hält Komplexität Einzug.

“Virtualisierung ist vom Prinzip her eine Technologie, die eine Abstraktionsebene zwischen Software und Hardware einführt. Sie nimmt die Eigenarten der Hardware heraus und schaltet sie gleich. Die Hardware wird dadurch austauschbar und somit günstiger für den Kunden”, erläutert der CTO. Nun würden die verschiedenen Angebote zunehmen und damit erfordere Virtualisierung eine Verwaltung. FSC bietet hier mit seinen Blade-Frame-Systemen eine entsprechende Lösung, die dem Kunden eine einfache und vor allem beherrschbare IT-Infrastruktur verschafft. “Es ist ein System, das in die Breite geht und mit Virtualisierungslösungen von verschiedenen Anbieter umgehen kann. Es werden nicht einzelne Systeme virtualisiert, sondern ein solider Unterbau geschaffen”, meint Reger.

Die ursprünglich aus dem Speicherbereich kommende Virtualisierung strahle nun über den Serverbereich zunehmend auch auf die Clients aus, so Reger. Der Trend geht in eine Richtung, wo die Berechnung von Anwendungen von Computer auf Server verlagert wird. “Hintergrund ist die Tatsache, dass in vielen Büros Rechner stehen, die völlig unterfordert sind im Vergleich dazu, was sie leisten könnten. Die Überlegung ist nun, dass man hier die Hardware einspart und die kompletten Berechnungen von einer Server-CPU durchführen lässt”, führt der CTO aus.

Am Arbeitsplatz selbst bleiben lediglich die Ein- und Ausgabegeräte über. Da Serverprozessoren ebenfalls auf der x86-Architektur basieren, gibt es keine Kompatibilitätsprobleme mit den PC-Anwendungen und ein Server bringt die Leistung, um bis zu 50 PCs darauf zu betreiben.