Kostenhebel Desktop-Virtualisierung

Angesichts des Hypes in der IT-Industrie klingen Nachrichten über Desktop-Virtualisierung fast schon bescheiden. Denn trotz sinkender Anschaffungskosten für PCs bleiben die Aufwendungen für den Betrieb von Endgeräten ein Dorn im Auge vieler CIOs.

Teure Supportkosten vor Ort, Sicherheitsaspekte, Datenmanagement, Image Management durch Unterstützung verschiedener Plattformen und Chipsets, besonders aber Software-Upgrades und Patches sind dabei die wichtigsten Kostentreiber. Die vielleicht am treffendsten als Unaufgeregtheit zu beschreibende Wahrnehmung steht im scharfen Kontrast zur Diskussion um die Virtualisierung von Servern, Storage und Rechenzentren. Aber gerade der Vergleich zu diesen Entwicklungen unterstreicht, warum es wichtig ist, sich frühzeitig Gedanken über das Potenzial, mögliche Nutzungsszenarien, aber nicht zuletzt auch um die Machtbalance auf dem Desktop zu machen.

Desktop-Virtualisierung, also die Adaptierung der Virtualisierungstechnologie auf das Thin-Client-Konzept, wird nach Einschätzung von IDC den klassischen ‘Fat Client’ nicht ersetzen, aber im Zeitverlauf einen signifikanten Anteil an verkauften PCs erzielen. Dabei können neben Thin Clients aber auch Blade PCs eingesetzt werden. 

Während Thin Clients gegenwärtig etwas mehr als 5 Prozent des Marktvolumens für PCs in Deutschland ausmachen, erwartet IDC, dass virtualisierte Infrastrukturen bis zum Jahr 2011 mehr als 10 Prozent des PC Marktes erzielen könnten. Diese Annahme basiert vornehmlich auf der ‘value proposition’ von Desktop-Virtualisierung, nämlich den Kosteneinsparungen durch zentrales Management der PCs im Rechenzentrum, dem nahtlosen Wechsel zwischen verschiedenen Betriebssystemen per Hotkey und dem erhöhten Sicherheitsstandard.

Wie schon beim Thin-Client-Konzept müssen dabei allerdings Unterschiede beim Leistungsverhalten als auch kulturelle Widerstände übernommen werden. Dies gilt insbesondere im Hinblick auf das Leistungsverhalten aufgrund der Beschränkungen durch die Übertragungsprotokolle ICA (Independant Computing Architecture) und RDP (Remote Desktop Protocol). Weitaus schwerer wiegt jedoch wahrscheinlich der kulturelle Widerstand von Mitarbeitern gegen eine wahrgenommene Herabstufung in der Funktionalität. Ebenso wird entscheidend sein, inwiefern mobile Lösungen eingebunden und unterstützt werden.

Aus der Marketingperspektive werden für den Markterfolg virtueller Infrastrukturen die Skizzierung klarer Nutzungsszenarien und eine transparente ROI-Analyse entscheidend sein. Ein genereller horizontaler Einsatz ist allein schon wegen der fehlenden Offline-Nutzung wenig sinnvoll. Vielmehr scheint ein dedizierter Einsatz bei Call Centern, im herstellenden Gewerbe gerade wegen der häufig verschmutzten Umgebung, im Gesundheitssektor wegen der hohen Sicherheitsanforderungen, aber auch im Finanzsektor wegen Platzmangels und der Geräuschbelästigung sinnvoll.

Gleichwohl kann bei spezifischen Aufgabenstellungen, wie etwa in Personalabteilungen, im Rechnungswesen oder der Heimarbeit auch ein horizontaler Einsatz Sinn machen. Nicht zuletzt wegen der im Vergleich zum traditionellen PC höheren Anschaffungskosten ist es aber entscheidend, bei der Wirtschaftlichkeitsbetrachtung die Return-on-Investment (ROI)-Methodik zu verwenden. Die holistische Betrachtung von Infrastruktur und Applikationen, die den ROI für Virtualisierung aus der Perspektive des Desktopnutzers betrachtet, dürfte jedoch in vielen Unternehmen auf organisatorische Probleme treffen, da Hardware und Applikation häufig von unterschiedlichen Abteilungen eingekauft werden. Da sich der ROI vornehmlich über die Zentralisierung des Managements der PCs sowie aus geringen Supportkosten errechnet, ist eine abteilungsübergreifende Betrachtung unverzichtbar.

Aus der Sicht der IT-Industrie ist die wohl spannendste Frage, inwieweit Desktop-Virtualisierung die Machtbalance auf dem Desktop weiter verschieben könnte, auch wenn der Absatz in den nächsten fünf Jahren nicht mehr als 10 Prozent des PC Marktes sein dürfte. Die Zeiten als die Industrie durch Wintel-Plattform dominiert und die Dynamik im Markt durch Moore’s Law und Betriebssystem- sowie MS-Office-Upgrades bestimmt wurden, gehören mehr oder minder der Vergangenheit an. Der Aufstieg von AMD, die Enttäuschung des jüngsten Vista Launch sind nur einige der Indikatoren für diesen Trend.

Und Google durch Google Apps (nicht zuletzt nach jüngst verkündeter Partnerschaft mit Capgemini) droht Microsofts Dominanz auf dem Desktop nachhaltig zu erschüttern. Von einem anderen Ansatz kommend, könnte Desktop-Virtualisierung Open-Source-Betriebssystemen auf dem Desktop verstärkt die Türen öffnen und Virtualisierungs-Anbieter wie VMware oder Citrix könnten potenziell ein weitaus gewichtigeres Wort im Konzert der PC OEMs mitreden. Hierbei kann Microsoft im Kontext der Diskussionen um Lizenzkosten die Entwicklung allerdings zu einem gewissen Grad beeinflussen.

Somit wird deutlich, von wie vielen Stellschrauben der Erfolg von Desktop-Virtualisierung abhängig ist. Aus der Sicht des Nutzers ist Desktop-Virtualisierung ein weiterer Ansatz, neben Standardisierung als auch Desktop und Helpdesk Outsourcing, die zum Teil exorbitanten Kosten zu reduzieren. Aber die informellen Marktkräfte, die den Kampf um die Dominanz auf dem Desktop beeinflussen, werden mehr die Umsätze der Industrie als die Kostenstrukturen der Nutzer im Fokus haben. Insofern bleibt die weitere Entwicklung im Bereich Desktop-Virtualisierung ein spannendes Kapitel in der Geschichte der IT-Industrie.