IT-Abteilungen sind dabei, Wege zu finden, traditionelle IT-Metriken zu vereinfachen und somit leichter verständliche und umsetzbare Formate zu schaffen. Es bietet auch Vorteile, eine Metrik in ihre Bestandteile zu zerlegen, um ihre Grundstruktur zu erkennen. Auch wenn dies anfangs der Intuition widerspricht, so kann das Ergebnis doch ein umfassenderes Verständnis dafür liefern, was eine spezifische Metrik bewegt.

Systemverfügbarkeit oder “Uptime” ist eine der anerkanntesten Metriken der IT-Abteilungen. Systemverfügbarkeit ist eine Effizienzmetrik, die erzeugt wird, indem “Downtime” von “gesamt möglicher Verfügbarkeit” abgezogen wird, was heißt: je mehr “Downtime” desto geringere Systemverfügbarkeit. Wenn man Downtime in ihre Bestandteil zerlegt, erhält man drei Grundkomponenten:

Benachrichtigung Die verstrichene Zeit bevor die IT über einen spezifischen Ausfall informiert wird.
Eskalation Die verstrichene Zeit bevor die richtige Person gefunden ist, welche die Problemstellung lösen kann
Erledigung Die Zeit, die erforderlich ist, um das Problem zu lösen

Ein Verständnis der Komponenten von Downtime versetzt IT-Abteilungen besser in die Lage, die Downtime zu reduzieren und die Systemverfügbarkeit zu erhöhen. Für IT-Abteilungen ist es üblich, sich vorwiegend mit den Lösungsmöglichkeiten zu befassen, während es tatsächlich erforderlich wäre, für eine schnellere Benachrichtigung und einen verbesserten Eskalationsprozess zu sorgen.

Page: 1 2 3 4

Silicon-Redaktion

View Comments

  • Metrik ersetzt nicht das Denken ...
    Metriken sind besonders dann sehr nützlich, wenn sie objektiv gehandhabt werden. Häufig machen aber gängige Vorurteile einen dicken Strich durch die Rechnung, weil sie die objektive Untersuchung der Gesamtsituation verhindern.

    Der vorliegende Artikel propagiert unter anderem das gängige Vorurteil, dass hohe Verfügbarkeit zwangsweise mit sehr hohen Kosten verbunden und daher unwirtschaftlich sei. Dieses Syndrom gilt aber nicht uneingeschränkt, es findet sich hauptsächlich dort wo man dem süßen Gift der billigen Hardware und Software verfallen ist. Die Folgekosten (hoher Personalaufwand, durch hohe Komplexität bedingte längere Ausfallzeiten und die daraus resultierenden Kosten) sieht man im Einkauf nicht - sie spielen erst wieder in jenen Leitungsgremien eine Rolle, in denen über die mangelnde Effizienz der IT beratschlagt wird. Allerdings treten diese Kosten dort nicht klar zutage, weil man normalerweise über keine vernünftige Root Cause Analysis verfügt.

    Metriken gepaart mit Hirnschmalz könnten zuweilen zu überrraschenden Erkenntnissen führen - zum Beispiel, dass in manchen Fällen der Einsatz fehlertoleranter Systeme nicht nur bessere Service Level sondern gleichzeitig auch geringere Gesamtkosten zur Folge haben kann.

Recent Posts

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

2 Wochen ago

Studie: KI-Technologie unverzichtbar für zukunftsfähige Paketlogistik

Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.

2 Wochen ago

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

2 Wochen ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

2 Wochen ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

2 Wochen ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

3 Wochen ago