IT-Landschaften: Vermessen, Vergleichen, Vorhersagen

Der Brückenbau zählt zu den anspruchsvollsten Aufgaben des Bauwesens. Sorgfältig werden Festigkeit, Dauerhaftigkeit und Wirtschaftlichkeit anhand eines Modells berechnet. Erst wenn alle Punkte durchdacht und durchgerechnet sind, erfolgt die reale Konstruktion. In den Ingenieurwissenschaften gehört eine solche Simulation und Prognose des künftigen Verhaltens zum Handwerkszeug. Schließlich ist es günstiger, einen Fehler im Vorfeld am Modell zu identifizieren, als später am “lebendigen” Objekt Flickschusterei zu betreiben.


Ralph K. Treitz
VMS AG

Von einem solchen Procedere ist die IT im Unternehmenssegment meilenweit entfernt. Zur Simulation wird vielleicht die neue Lösung mit Realdaten für einen Monatsabschluss oder Ähnlichem durchgespielt, aber nach einigen fehlerfreien Test-Cases folgt das Rollout. Übertragen auf den Brückenbau bedeutet ein solches Vorgehen: Eine Brücke wird ohne Modellsimulation gebaut und nach dem Bau fahren probeweise ein paar LKWs über das Bauwerk. Kommen die Fahrzeuge ohne Probleme ans andere Ende, wird die Brücke für den allgemeinen Verkehr frei gegeben. Jeder mag für sich selbst die Frage beantworten, ob er der Festigkeit oder Dauerhaftigkeit dieses Brückenbaus vertrauen würde.

Im Produktivbetrieb gibt es dann in der Regel zwei Klassen von Problemen. Einerseits kann sich bereits beim Going Live zeigen, dass die Testszenarien ungenügend waren. Dann bricht bereits mit der ersten Welle der User die Performance zusammen oder massive Fehlersituationen sorgen für Ärger. Die zweite Klasse der Probleme kommt schleichend. Langsam – und zunächst nur für die IT mit ihren technischen Werkzeugen wahrnehmbar – sinkt die Leistung. Woche für Woche verschlechtert sich die Performance. Anwender beginnen zu murren. Ein technischer Ausbau der Systeme führt nicht zu der angestrebten Verbesserung und bewirkt nur eine punktuelle Entlastung. Kurz: Das Phänomen von ständig wachsender Datenmenge und Datenkomplexität hat zugeschlagen.

Die IT sollte sich daher das Vorgehen in den Ingenieurwissenschaften zum Vorbild nehmen und für das eigene Aufgabengebiet adaptieren. Vor der Betriebsaufnahme muss die spätere Nutzung mit größtmöglicher Präzision, vielleicht auch in unterschiedlichen Szenarien, durchgerechnet werden.

Werden von der Lösungslandschaft die Geschäftsprozesse und -transaktionen bei dem avisierten Volumen in angestrebter Zeit und Qualität zu vernünftigen Preisen bearbeitet? Als nachlaufende Fragestellung ist das in der IT wohlbekannt. Denn im Benchmarking werden letztlich identische Zielstellungen verfolgt. Warum aber erst nach Auftreten des Problems kurieren? Warum erst mühsam ohne ein solches Hilfsmittel Systeme zu optimaler Leistung bringen? Es bietet sich an, die Benchmark-Werkzeuge für Simulation und Prognose heranzuziehen und sich dadurch Schwachstellen quasi auf dem Silbertablett servieren zu lassen.

Page: 1 2

Silicon-Redaktion

Recent Posts

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

1 Stunde ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

2 Stunden ago

Selbstangriff ist die beste Verteidigung

Mit autonomen Pentests aus der Cloud lassen sich eigene Schwachstelle identifizieren.

21 Stunden ago

Prozessautomatisierung im Distributionslager

Die Drogeriekette Rossmann wird ihr neues Zentrallager in Ungarn mit Software von PSI steuern.

1 Tag ago

Wie autonome Fahrzeuge durch Quantencomputing sicherer werden können

Automobilhersteller planen, Quantentechnologie zunehmend auch bei fortschrittlichen Fahrerassistenzsystemen (ADAS) einzusetzen.

2 Tagen ago

Heineken plant Bedarfe mit KI-Lösung von Blue Yonder

Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.

2 Tagen ago