Speicher per Utility-Abrechnung ist an der Zeit

Veritas macht sich Gedanken um Abrechnungssysteme im Unternehmen und will den Utility-Gedanken, den die Firma jetzt in die eigenen Produkte eingebaut hat, weiter verbreiten.

Das Speichersoftwareunternehmen Veritas macht sich Gedanken um Abrechnungssysteme im Unternehmen und will den Utility-Gedanken, den die Firma jetzt in die eigenen Produkte eingebaut hat, weiter verbreiten. Dafür spricht nach Auskunft von Frank Bunn, Senior Product Marketing Manager EMEA bei Veritas, dass die meisten Firmen ihre IT-Services intern überhaupt nicht abrechnen geschweige denn Ausgaben rechtfertigen können. Das will sein Unternehmen nun ändern und hat dafür zunächst mit dem Marktforschungsunternehmen Dynamic Markets eine Bestandsaufnahme gemacht und erste Schlüsse daraus gezogen.
Ohne den Serverbereich, beginnt er, sei so eine neue Messkategorie aber selbstredend nicht umsetzbar. Bunn im Gespräch mit silicon.de: “Monitoring der eingesetzten Lösungen und Services ist nur ein Mittel zum Zweck – das eigentliche Ziel muss für die IT-Abteilung Kostentransparenz heißen.” Server-Management gehöre dazu ebenso wie die vernünftige Planung. Im Datenzentrum heiße dies, dass der Nutzer “von roher IT verschont” bleiben müsse. “Der Anwender muss nur drei Funktionen zwingend mit den Daten ausführen können: Er muss sie abrufen und auswählen können, den Aufwand dafür messen und den Messwert abrechnen, auch intern”, so Bunn.

Im Speicherbereich gehe daher die Entwicklung dahin, die Kosten pro TByte für diese drei Schritte zu veranschlagen. Beim Backup sei dies eher ein technischer Vorgang. “Interessant wird es beim Reporting in die Chefetage, hier müssen die hochkomplexen Zahlen greifbar und ihre Notwendigkeit sichtbar gemacht werden und dabei wollen wir helfen.” Speichermanagement könne durch den Utility-Gedanken genauso gut berechenbar werden wie jeder andere Bereich.

Das Argument, die Speicherwelt sei viel zu komplex für ein solches Vorgehen, lässt er nicht gelten: “Denken wir an Datenübertragung, so war es vor fünf Jahren noch ein technisches Wunder wenn ein paar Kbit sich pro Sekunde bewegt haben, heute sind 10GigE der Standard. Genauso wird die Speicherung eine Entwicklung durchmachen und weniger undurchschaubar werden. Messbar machen müssen wir sie aber schon heute, weil die Firmen heute schon den Kostendruck spüren.”