Categories: CloudManagement

Virtualisierung darf nicht zu komplex werden

“Damit wird Virtualisierung jedoch wieder komplexer und droht ihren ursprünglichen Vorteil zu verlieren”, meint Joseph Reger, CTO des Elektronikherstellers Fujitsu Siemens Computers (FSC), anlässlich einer Analystenkonferenz in Wien.

Die Technologie ist mittlerweile zu einem Muss für Unternehmen geworden, was sich auch in Umfragen widerspiegelt. “Für zwei Drittel der Kunden hat Servervirtualisierung eine hohe Priorität und 90 Prozent sehen in der Technologie eine zukünftige IT-Plattform”, sagt Reger. Problematisch gestaltet sich jedoch mittlerweile die Tatsache, dass viele Softwarehersteller Virtualisierungstechnologien in ihr Portfolio aufgenommen haben. Damit ist der anfängliche Vorteil der Technologie, dass die Systeme einfacher sind, wieder verschwunden, dafür hält Komplexität Einzug.

“Virtualisierung ist vom Prinzip her eine Technologie, die eine Abstraktionsebene zwischen Software und Hardware einführt. Sie nimmt die Eigenarten der Hardware heraus und schaltet sie gleich. Die Hardware wird dadurch austauschbar und somit günstiger für den Kunden”, erläutert der CTO. Nun würden die verschiedenen Angebote zunehmen und damit erfordere Virtualisierung eine Verwaltung. FSC bietet hier mit seinen Blade-Frame-Systemen eine entsprechende Lösung, die dem Kunden eine einfache und vor allem beherrschbare IT-Infrastruktur verschafft. “Es ist ein System, das in die Breite geht und mit Virtualisierungslösungen von verschiedenen Anbieter umgehen kann. Es werden nicht einzelne Systeme virtualisiert, sondern ein solider Unterbau geschaffen”, meint Reger.

Die ursprünglich aus dem Speicherbereich kommende Virtualisierung strahle nun über den Serverbereich zunehmend auch auf die Clients aus, so Reger. Der Trend geht in eine Richtung, wo die Berechnung von Anwendungen von Computer auf Server verlagert wird. “Hintergrund ist die Tatsache, dass in vielen Büros Rechner stehen, die völlig unterfordert sind im Vergleich dazu, was sie leisten könnten. Die Überlegung ist nun, dass man hier die Hardware einspart und die kompletten Berechnungen von einer Server-CPU durchführen lässt”, führt der CTO aus.

Am Arbeitsplatz selbst bleiben lediglich die Ein- und Ausgabegeräte über. Da Serverprozessoren ebenfalls auf der x86-Architektur basieren, gibt es keine Kompatibilitätsprobleme mit den PC-Anwendungen und ein Server bringt die Leistung, um bis zu 50 PCs darauf zu betreiben.

Silicon-Redaktion

Recent Posts

EU-Staaten segnen Regulierung von KI final ab

AI Act definiert Kennzeichnungspflicht für KI-Nutzer und Content-Ersteller bei Text, Bild und Ton.

7 Stunden ago

eco zum AI Act: Damit das Gesetz Wirkung zeigen kann, ist einheitliche Auslegung unerlässlich

Aufbau von Aufsichtsbehörden auf nationaler und EU-Ebene muss jetzt zügig vorangetrieben werden.

8 Stunden ago

Datenqualität entscheidet über KI-Nutzen

Hochwertige Daten liegen häufig unerkannt in Daten-Pools und warten darauf, mit ausgefeilten Datamanagement-Plattformen gehoben zu…

8 Stunden ago

Gartner: Public-Cloud-Ausgaben steigen auf mehr als 675 Milliarden Dollar

Prognostiziertes jährliches Wachstum von mehr als 20 Prozent wird durch GenKI-fähige Anwendungen in großem Maßstab…

9 Stunden ago

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

4 Tagen ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

4 Tagen ago