Digitale Souveränität sorgt für Handlungsfreiheit – in jeder Situation

Digitale Souveränität ist Teil einer demokratisch verfassten, offenen und globalen Vernetzung, sagt Stefan Sigg, Vorstand der Software AG, in seinem Gastbeitrag.

Der Begriff Souveränität spielt nicht nur bei der Definition und dem Selbstverständnis von Staaten eine zentrale Rolle, sondern auch in der digitalen Welt. Dort beschreibt „digitale Souveränität“ im Grunde die Fähigkeit, im offenen Wettbewerb mit fairen Mitteln agieren zu können. Das geht dann am besten, wenn die Akteure nicht gegen einseitige Vorteilsgaben angehen müssen und dabei durch wettbewerbsverzerrende Abhängigkeiten ausgebremst werden. Digitale Souveränität ist wichtig, aber sie bedeutet nicht den Rückfall in Nationalstaatlichkeit und Protektionismus, sondern ist Teil einer demokratisch verfassten, offenen und globalen Vernetzung.

Wir erleben in diesen Tagen schmerzhaft die Folgen einer zu starken und einseitigen Abhängigkeit: Wenn wichtige Energien oder auch kritische Rohstoffe wie Silizium, Lithium oder Uran bis hin zu Mikrochips und anderen Bauteilen wegbrechen oder als Druckmittel missbraucht werden, verringert das bei uns die wirtschaftliche Leistungsfähigkeit, sorgt für eine massive Inflation und entwertet private wie öffentliche Vermögen.

In der digitalen Welt geht es ebenfalls um einen zentralen Rohstoff – den Rohstoff der Digitalisierung als Basis für digitale Geschäftsmodelle. Es geht um Daten, die in Cloud-Infrastrukturen gespeichert und von Algorithmen verarbeitet werden. Hier wie dort brauchen wir intelligente Lösungen, um den offenen und fairen Zugang zu diesen Rohstoffen sicherzustellen und Missbrauch zu verhindern.

Diversifizierung, Offenheit und Interoperabilität

Es ist im Geschäftsleben, im globalen Handel und in der IT selten eine gute Idee, alles auf eine Karte zu setzen. Das gilt für einseitige Abhängigkeiten im Energie- und Rohstoffhandel ebenso, wie für Finanzinvestitionen. Und sogar bei der Entscheidung etwa für eine cloudbasierte IT-Infrastruktur ist von Monokulturen und dem damit in der Regel verbundenen Vendor-Lock-in dringend abzuraten.

Um diese Fallen zu umgehen, kennt die Finanzwelt Instrumente wie Diversifizierung und Hedging, über die sich Risiken streuen und gegensätzliche Wahrscheinlichkeiten managen lassen. Sie lassen sich, mit ein wenig Kreativität, auch im Energie- und Rohstoff-Sektor und sogar in der IT-Administration anwenden: Hier sind es eben immer seltener One-Vendor-Strategien, die zum Erfolg führen. Stattdessen treffen wir immer häufiger auf Multi-Clouds mit einer Integration unterschiedlicher Applikationen verschiedener Anbieter und hybriden Deployments am Edge, On-Prem, in Private oder Public Clouds sowie auf verteile Datenbanken und Data Lakes. Sie alle stehen beispielhaft für Diversifizierungs- und Hedging-Strategien in IT-Portfolios.

Absolut erfolgskritisch für solche heterogenen Systeme ist ein Mindestmaß an Offenheit (APIs) und Interoperabilität (Service-Orientierung) sowie eine ausreichende Menge von Klebstoff für die Integration der Einzelkomponenten. Diese Komponenten ergeben eine diverse IT-Struktur, die robuster, resilienter und effizienter ist, weil sie Ausfallrisiken minimiert und Verhandlungspositionen stärkt. Es ist eine Struktur, die den Wechsel von Anbietern konzeptionell erleichtert und gleichzeitig Business Continuity gewährleistet.

Und es ist eine souveräne IT-Infrastruktur, die die Freiheit zum Wechsel nicht nur theoretisch, sondern auch praktisch ermöglicht.

Datengetriebenes Prozess-Monitoring bringt Potenziale ans Licht

Eine souverän organisierte IT-Infrastruktur wirkt sich unmittelbar auf die Wertschöpfung eines Unternehmens aus, also auf die Prozesse in der Energieversorgung, der Lieferkette sowie in Forschung, Produktion, Vertrieb oder Service. Aber Unternehmensprozesse lassen sich nicht einfach auf die einzelnen Säulen einer IT-Struktur übertragen, sondern verlaufen quer zu den Systemen, Applikationen und Technologien, weil sie mehrere Komponenten nutzen. Damit das reibungslos funktioniert, sind Transparenz, Dokumentation und Kontrolle der Prozesse in diversen Umgebungen ungeheuer wichtig.

Noch wichtiger ist das datengetriebene Monitoring der Prozesse, also die Rekonstruktion von Prozessflüssen aus den Bewegungsdaten, die regelmäßige Versorgung mit neuen Daten, die Auswahl und Definition von Prozess-Kennzahlen und die Visualisierung in Prozess-Instanzen und Dashboards.

Mit diesen Daten werden jeder einzelne Prozessdurchlauf und jede Abweichung davon sofort sichtbar. So fördern Unternehmen Optimierungspotenzial etwa nach Durchlaufzeiten, Energieverbrauch oder Kosten zutage. Die Rückkopplung mit den dokumentierten Prozessmodellen ist dann der Schlüssel zu einem lernenden Unternehmen.

Digitalisierung ohne „Lock-in“

Die digitale Souveränität von Unternehmen ist immer dann in Gefahr, wenn sie sich zu tief in eine Technologie-Plattform „eingraben“ und dabei etwa ihre selbst entwickelte Software hart mit Funktionen und Services ihres Anbieters verdrahten. Das kann leicht passieren, wenn Software-Entwickler ohne echten Plan einfach drauflos programmieren (dürfen). Und eine mit einer Monokultur verbundene Convenience lässt sich auch nicht immer abstreiten.

Aber die Folgen solcher Abhängigkeiten werden nicht ausbleiben – in Form von explodierenden Kosten für den Betrieb und von hohen finanziellen Aufwänden für eine dann doch vielleicht ins Auge gefassten Migration aus der Monokultur heraus.

So verlockend vermeintliche Rundumsorglospakete einzelner Anbieter auch sein mögen, die Unternehmen schnell und vorgeblich ohne längerfristige Verpflichtungen zu guten Ergebnissen kommen lassen: Nachhaltig und zukunftssicher ist das nicht. Denn wer über einseitige Abhängigkeiten zu viele Kompromisse auf den Gebieten Architektur, Schnittstellen, Erweiterbarkeit, Skalierbarkeit, User Experience, Dokumentation oder Sicherheit eingeht, häuft einen Haufen Schulden an, sogenannte  technische Schulden, die später umso teurer getilgt werden müssen, wenn es zu Problemen im Produktivbetrieb oder bei Upgrades kommt.

Je mehr Eigensoftware ein Unternehmen nutzt, desto größer ist das Risiko, in die Falle der technischen Schulden zu tappen. Dies ist nicht nur ärgerlich, sondern auch komplett unnötig. Die meisten professionellen Anbieter am Markt bieten Komponenten („Services“) an, die die Aufgaben der Eigenentwicklungen übernehmen können. Statt eines einseitigen „build OR buy“-Ansatzes sollten Unternehmen daher besser eine „build AND buy“-Strategie verfolgen. Idealerweise finden sie dabei einen Software-Stack, der über Standard-Anwendungen möglichst viel von dem abdeckt, was im Wettbewerb nicht unmittelbar differenzierend wirkt, aber gleichzeitig die Offenheit und Flexibilität bietet, um unternehmensspezifische Teile hinzuzufügen.

Business Continuity Management ist nicht „nice-to-have“

Oftmals wird der Wert von vorausschauender Planung erst dann erkannt, wenn es zu spät ist, weil die Krise in Form einer Hacker-Attacke, einer Pandemie, eines Börsencrashs oder, wie gerade, eines nicht für möglich gehaltenen Kriegs schon zugeschlagen hat. Wer für solche, auch undenkbare Fälle einen Business-Continuity-Prozess modelliert hat, ist definitiv besser dran.

Auch das ist eine Facette von Souveränität: die Bewahrung von Handlungs- und Entscheidungsfähigkeit im Krisenfall.Wer ohne übermäßige Abhängigkeiten von außen in der Lage ist, sein Geschäft resilient zu organisieren, läuft weniger Gefahr, von aktuellen Entwicklungen in die Knie gezwungen zu werden. Mehr können einzelne Organisationen, besonders unter den aktuell mehr als komplizierten Bedingungen, nicht erreichen.

 

Dr. Stefan Sigg

ist Mitglied des Vorstands der Software AG, verantwortlich für das gesamte Produktportfolio sowie Forschung & Entwicklung. Nach seinem Studium der Mathematik und Physik startete er seine Berufslaufbahn in der Produktentwicklung von SAP, später  übernahm er die Leitung der Entwicklung von SAP Business Warehouse, SAP HANA und SAP Analytics.