In der heute mehr auf das Geschäft denn auf die Technik ausgerichteten IT-Landschaft haben es die IT-Abteilungen aber schwer – es wird immer deutlicher, dass die traditionellen IT-Metriken nicht mehr in der Lage sind, den tatsächlichen Wert der IT darzustellen. Viele IT-Abteilungen nutzen übliche Bezugssysteme, um wichtige Metriken anzupassen, zu kombinieren und in überschaubaren Gruppen zu ordnen. Einige IT-Abteilungen kombinieren verschieden Metriken zu Übersichten für die Geschäftsleitung, während andere sich auf die Kernmetriken konzentrieren, um Fortschritte zu messen.

IT-Mitarbeitern, die mit ihren traditionellen Metriken vertraut sind, fällt die Umstellung nicht leicht, wenn das IT-Management Änderungen vornimmt. Während die Übersichten für das höhere Management eine Kurzfassung der IT-Leistung bieten, sagen sie den einzelnen Mitarbeitern wenig über den Wert ihres eigenen Beitrags. IT-Mitarbeiter konzentrieren sich daher verständlicherweise auf einzelne Metriken, die sich direkt auf ihre eigene Leistung beziehen.

Möchten Unternehmen schließlich den Geschäftswert ihrer IT-Investitionen ermitteln, haben die IT-Abteilungen Schwierigkeiten, ihren Wert durch messbare Ergebnisse darzustellen. Allzu oft verwenden die IT-Abteilungen ihre Energie darauf, eine Vielzahl von Metriken zu definieren, zu steuern und bekannt zu machen, die keinerlei betrieblichen Bezug haben, und oft verstehen sie nicht, was im Unternehmen eigentlich gemessen werden sollte. Während die IT-Mitarbeiter gerne einfachere Metriken hätten, um ihren eigenen Wert darzustellen, verlangt die Geschäftsleitung nach solchen, mit denen sie besser den Geschäftswert der IT nachvollziehen kann.

Eine einfache Definition von Metrik wäre: “eine standardisierte Messgröße”. Die Schlüsselbegriffe sind “Standard”, was eine Übereinkunft zwischen verschiedenen Parteien beinhaltet, und “Messen”, was ein Verständnis von Wert impliziert. Zudem hat jede Metrik ein bestimmtes Merkmal, das eine wichtige Rolle spielt, wenn es darum geht, ihren Wert zu verstehen.

IT-Metriken wie “Uptime” werden in absoluten Begrifflichkeiten ausgedrückt, weil hier das Ergebnis mit einem Optimalwert wie “0” oder “100 Prozent” verglichen wird. Perfektion ist zwar möglich, sie wird aber meist deshalb nie erreichbar sein, weil die Kosten für absolute Perfektion nicht zu rechtfertigen sind. IT-Fachleute finden große Befriedigung darin, ihre Uptime in Prozentangaben auszudrücken, der echte Wert läge aber darin, die tatsächlichen Anforderungen zu verstehen und diese in Metriken auszudrücken, welche sich an den betrieblichen Zielen orientieren. Auf eine Betriebszeit mit fünf Neunern (99,999 Prozent) verweisen zu können, mag andere IT-Abteilungen beeindrucken, der CFO dürfte sich aber über die Kosten weniger freuen, wenn der Betrieb auch geringere Prozentwerte tolerieren würde.

Den Unterschied zwischen absoluten und relativen Metriken zu verstehen, ist zudem nützlich, wenn es darum geht, ein betriebswirtschaftlich orientiertes Publikum anzusprechen. Präsentiert man eine absolute Metrik z.B. im Branchenvergleich, so wird sie in einen sinnvollen Zusammenhang gestellt. Dieser Zusammenhang ermöglicht es den Betriebswirten zu verstehen, welche Art von Investition erforderlich sein könnte, was letztlich zu informierteren und fundierteren Entscheidungen führt.

Page: 1 2 3 4

Silicon-Redaktion

View Comments

  • Metrik ersetzt nicht das Denken ...
    Metriken sind besonders dann sehr nützlich, wenn sie objektiv gehandhabt werden. Häufig machen aber gängige Vorurteile einen dicken Strich durch die Rechnung, weil sie die objektive Untersuchung der Gesamtsituation verhindern.

    Der vorliegende Artikel propagiert unter anderem das gängige Vorurteil, dass hohe Verfügbarkeit zwangsweise mit sehr hohen Kosten verbunden und daher unwirtschaftlich sei. Dieses Syndrom gilt aber nicht uneingeschränkt, es findet sich hauptsächlich dort wo man dem süßen Gift der billigen Hardware und Software verfallen ist. Die Folgekosten (hoher Personalaufwand, durch hohe Komplexität bedingte längere Ausfallzeiten und die daraus resultierenden Kosten) sieht man im Einkauf nicht - sie spielen erst wieder in jenen Leitungsgremien eine Rolle, in denen über die mangelnde Effizienz der IT beratschlagt wird. Allerdings treten diese Kosten dort nicht klar zutage, weil man normalerweise über keine vernünftige Root Cause Analysis verfügt.

    Metriken gepaart mit Hirnschmalz könnten zuweilen zu überrraschenden Erkenntnissen führen - zum Beispiel, dass in manchen Fällen der Einsatz fehlertoleranter Systeme nicht nur bessere Service Level sondern gleichzeitig auch geringere Gesamtkosten zur Folge haben kann.

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

2 Tagen ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

2 Tagen ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

2 Tagen ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

3 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

4 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

5 Tagen ago