IT-Landschaften: Vermessen, Vergleichen, Vorhersagen

CloudManagementProjekteRechenzentrumSoftware-Hersteller

IT-Landschaften sind fragile Gebilde. Jede Änderung an den Rahmenparametern von Prozessen, Anwendungssystemen oder der Technik kann einen unerwarteten Leistungs- beziehungsweise Qualitätseinbruch bewirken. Eine Simulation auf Basis komplexer statistischer Modellierungsverfahren erlaubt jedoch im Vorfeld verlässliche Aussagen über das künftige Anwendungsverhalten. Ein Gastbeitrag von Ralph K. Treitz, Gründer und Vorstand der VMS AG.

Der Brückenbau zählt zu den anspruchsvollsten Aufgaben des Bauwesens. Sorgfältig werden Festigkeit, Dauerhaftigkeit und Wirtschaftlichkeit anhand eines Modells berechnet. Erst wenn alle Punkte durchdacht und durchgerechnet sind, erfolgt die reale Konstruktion. In den Ingenieurwissenschaften gehört eine solche Simulation und Prognose des künftigen Verhaltens zum Handwerkszeug. Schließlich ist es günstiger, einen Fehler im Vorfeld am Modell zu identifizieren, als später am “lebendigen” Objekt Flickschusterei zu betreiben.

Ralph K. Treitz
Ralph K. Treitz
VMS AG

Von einem solchen Procedere ist die IT im Unternehmenssegment meilenweit entfernt. Zur Simulation wird vielleicht die neue Lösung mit Realdaten für einen Monatsabschluss oder Ähnlichem durchgespielt, aber nach einigen fehlerfreien Test-Cases folgt das Rollout. Übertragen auf den Brückenbau bedeutet ein solches Vorgehen: Eine Brücke wird ohne Modellsimulation gebaut und nach dem Bau fahren probeweise ein paar LKWs über das Bauwerk. Kommen die Fahrzeuge ohne Probleme ans andere Ende, wird die Brücke für den allgemeinen Verkehr frei gegeben. Jeder mag für sich selbst die Frage beantworten, ob er der Festigkeit oder Dauerhaftigkeit dieses Brückenbaus vertrauen würde.

Im Produktivbetrieb gibt es dann in der Regel zwei Klassen von Problemen. Einerseits kann sich bereits beim Going Live zeigen, dass die Testszenarien ungenügend waren. Dann bricht bereits mit der ersten Welle der User die Performance zusammen oder massive Fehlersituationen sorgen für Ärger. Die zweite Klasse der Probleme kommt schleichend. Langsam – und zunächst nur für die IT mit ihren technischen Werkzeugen wahrnehmbar – sinkt die Leistung. Woche für Woche verschlechtert sich die Performance. Anwender beginnen zu murren. Ein technischer Ausbau der Systeme führt nicht zu der angestrebten Verbesserung und bewirkt nur eine punktuelle Entlastung. Kurz: Das Phänomen von ständig wachsender Datenmenge und Datenkomplexität hat zugeschlagen.

Die IT sollte sich daher das Vorgehen in den Ingenieurwissenschaften zum Vorbild nehmen und für das eigene Aufgabengebiet adaptieren. Vor der Betriebsaufnahme muss die spätere Nutzung mit größtmöglicher Präzision, vielleicht auch in unterschiedlichen Szenarien, durchgerechnet werden.

Werden von der Lösungslandschaft die Geschäftsprozesse und -transaktionen bei dem avisierten Volumen in angestrebter Zeit und Qualität zu vernünftigen Preisen bearbeitet? Als nachlaufende Fragestellung ist das in der IT wohlbekannt. Denn im Benchmarking werden letztlich identische Zielstellungen verfolgt. Warum aber erst nach Auftreten des Problems kurieren? Warum erst mühsam ohne ein solches Hilfsmittel Systeme zu optimaler Leistung bringen? Es bietet sich an, die Benchmark-Werkzeuge für Simulation und Prognose heranzuziehen und sich dadurch Schwachstellen quasi auf dem Silbertablett servieren zu lassen.

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen