Categories: Data

Herausforderungen der digitalen Transformation: Heiße Tech-Trends erfordern coole Anwendungsstrategien

Kaum ein IT-Profi wird wohl das enorme Potenzial innovativer Tech-Trends wie 5G, IoT, Edge-, Fog-, Cloud- oder Core Computing, Microservices sowie künstlicher Intelligenz und Machine Learning bestreiten. Die genannten Ansätze bilden eine zentrale Basis für die Transformation der IT-Landschaft kompletter Unternehmen und Organisationen. Sie stellen aber auch die Weichen neu für eine lösungsorientierte Customer Experience auf Höhe des digitalen Zeitalters. Entsprechend wichtig ist es, den Blick zu schärfen für die Versprechen, die diese neuen Technologien beinhalten, aber auch für die daraus entstehenden Herausforderungen bei der praktischen Anwendung.

(Bild: Shutterstock.com/agsandrew)

Die Datenmenge und Geschwindigkeit des Datenverkehrs nehmen seit Jahren enorm zu – ein Ende der Entwicklung ist nicht in Sicht. Vor diesem Hintergrund sind technische Lösungen gefragt, die sich im Alltagseinsatz bewähren und ihren Anwendern spürbare Mehrwerte liefern. Ein gutes Beispiel ist 5G: Die Technologie ermöglicht 10 bis 100 Mal mehr Durchsatz als 4G LTE und bis zu 90 Prozent niedrigere Latenzen. User mit einem Durchsatz zwischen einem und zehn Gbps (Gigabyte pro Sekunde) müssen lediglich mit Latenzen von rund einer Millisekunde rechnen. Auf diese Weise lassen sich große Dateien wie 4K- oder 8K-Videos in Sekundenschnelle herunter- oder hochladen.

Der lange Weg zum flächendeckenden Highspeed-Netz

Es besteht kein Zweifel, dass 5G künftig mobiles Breitband bereitstellen und möglicherweise sogar das traditionelle Breitband überflüssig machen wird, ähnlich wie die Mobiltelefonie das Festnetz bereits weitgehend eliminiert hat. Der Clou daran: Die mobile 5G-Netzwerktechnologie macht das industrielle IoT skalierbarer, einfacher und viel wirtschaftlicher. Während 4G auf rund 400 Geräte pro Quadratkilometer begrenzt ist, erhöht 5G die Anzahl der unterstützten Geräte auf nahezu 1.000.000.000 oder 250.000 Prozent. 5G punktet also bei Leistung, Latenz und Skalierbarkeit.

Allerdings nennen Analysten häufig die erheblichen Investitionsbeträge, die für die Einführung von 5G erforderlich sind. Diese konzentrieren sich in erster Linie auf Antennen und zugehörige Glasfaserkabel. Der Hintergrund: 5G basiert auf einer völlig anderen Technologie als 4G. Damit 5G effektiv funktioniert, werden deutlich mehr Antennen sowie optische Kabel zum Anschluss der Antennen benötigt. Das bedeutet auch, dass es vermutlich lange dauern wird, bis ländliche Gebiete mit 5G versorgt sind – und über lange Zeit wird nur ein abgespecktes Netz verfügbar sein.

Datenbank-Infrastruktur als erfolgskritischer Faktor der Transformation

Aufgrund seiner immensen Leistungsfähigkeit ermöglicht 5G vor allem auch eine Vielzahl neuer, deutlich komfortablerer und leistungsfähigerer Anwendungen. 5G wird durch eine Vielzahl nun flächendeckend einsatzbarer neuer Techniken wesentlich mehr aktuelle Sekundärinformationen liefern, die in die Nutzerservices integriert werden müssen. Ein Beispiel dafür sind IoT-Daten, die mit den Anwenderdaten korreliert werden müssen. Die Kombination dieser Primärinformationen mit Third-Party-Informationen aus anderen Quellen ermöglicht noch präziser maßgeschneiderte, individualisierte Anwendungen für jeden Nutzer. Digitale Assistenten und Augmented Reality lösen klassische Benutzerschnittstellen ab.

Um diese gewaltigen neuen Anforderungen zu erfüllen, muss die Leistungsfähigkeit der Anwendungsinfrastruktur in ähnlichem Umfang wachsen wie die Bandbreite von 5G. 250.000 Prozent mehr Bandbreite bedeuten auch 250.000 Prozent mehr Daten und Datenverarbeitung – eine gewaltige Aufgabe. Der Generationenwechsel in der Mobiltechnologie erfordert daher auch einen Generationenwechsel in der IT. Zentrale Herausforderung dieses Generationenwechsels ist der Umgang mit Daten, deren Volumen sich explosionsartig erhöhen wird. Noch viel mehr als heute, wird die Fähigkeit zur Bereitstellung, Analyse und Verarbeitung dieser enormen Datenmengen im Kampf um den Kunden entscheidend sein.

Damit nicht genug: Durch die rasch zunehmende Heterogenität der Datenquellen steigt auch die Komplexität der Datenverarbeitung exponentiell an. Daten unterschiedlichster Herkunft und Struktur müssen in Echtzeit korreliert und evaluiert werden. Diese Aufgaben zu bewältigen, liegt weit jenseits menschlicher Kräfte. Manuelle Prozesse müssen daher flächendeckend durch weitest gehende Automatisierung und den Einsatz künstlicher Intelligenz ersetzt werden.

Auch wenn der 5G-Rollout noch bevorsteht, sind IT-Entscheider gut beraten, bereits hier und heute mit der Upgrade-Planung ihrer Infrastruktur, insbesondere im Bereich der Datenhaltung, zu beginnen.

5G – phantastische Möglichkeiten im Zusammenspiel mit dem IoT

Das Internet der Dinge ist eine transformative Technologie, die 5G voraussetzt. Mit den 5G-Leistungsmerkmalen kann buchstäblich jedes intelligente Produkt über IoT-Technologien gekoppelt werden. Viele bisher nicht mit Elektronik ausgestattete Produkte werden eigens für die IoT-Vernetzung mittels 5G aufgerüstet werden. Die durch 5G ausgelöste IoT-Revolution wird den „Rand des Netzwerks“ zu einem Tummelplatz für intelligente Lösungen machen. Der in Fachkreisen „Edge Computing“ genannte Ansatz ermöglicht bisher undenkbare, völlig neue Automatisierungskonzepte und Services.

Viele Branchen, darunter Automotive, Manufacturing, Logistik, Health, Commodity und mehr, arbeiten bereits seit langem an entsprechenden Technologien, um die durch IoT eröffneten Möglichkeiten zu ihrem Vorteil zu nutzen. Gewaltige Effizienzsteigerungen und Synergieeffekte sind möglich, ebenso unzählige neue Consumer-Services. Die meisten dieser IoT-Anwendungen gibt es schon heute, aufgrund der Beschränkungen durch 4G (maximal 400 Geräte je Quadratkilometer, Netzwerk-Latenz usw.) aber bisher nicht im produktiven Einsatz. Das Analystenhaus Gartner hat in diesem Zusammenhang herausgefunden, dass rund 85 Prozent der bereits vorhandenen industriellen IoT-Lösungen heute nur im Pilotbetrieb laufen, 28 Prozent von ihnen bereits seit mehr als zwei Jahren.

Edge Computing, also die Ansiedlung intelligenter Lösungen am Rande das Netzwerks, möglichst nahe beim Kunden, hat diesbezüglich viele Vorteile. Ein offensichtlicher Nutzen sind Echtzeit-Services: Durch Kombination verschiedener Informationen lassen sich blitzschnell Services erbringen. Die Vermeidung langer Transportwege für Informationen zu einem zentralen Rechenzentrum spart Bruchteile von Sekunden, in vielen Situationen ein entscheidender, manchmal lebenswichtiger Vorteil.

Ein konkretes Anwendungsbeispiel ist die Auswertung von Bewegungsdaten von Fahrzeugen. Unübersichtliche Verkehrsknotenpunkte werden sicherer, wenn bekannt ist, ob sich hier in Kürze zwei Fahrzeuge begegnen. Ist das der Fall, lässt sich die Geschwindigkeit so regeln, dass die Fahrzeuge nicht kollidieren. Ist die Kreuzung frei, kann der Verkehrsfluss beschleunigt werden. IoT und Edge Computing ermöglichen es quasi „um die Ecke zu schauen“. So ließen sich künftig beispielsweise Ampeln ersetzen.

Ein weiterer Vorteil des Edge Computings ist schlicht Effizienz. So können Datenfilter am Rande des Netzwerks beispielsweise eintreffende Daten vorselektieren und so das Datennetz immens entlasten.

Die verschiedenen Aspekte des Edge Computings bringen Vorteile in allen Service-Bereichen – Smart Grids, Smart Cities, Smart Water Management, Smart Traffic Management sind nur einige Beispiele, die profitieren.

Allen Edge-Lösungen gemein ist, dass sie in hoher Anzahl im Netz verteilt werden. Um dies zu erreichen, müssen sie relativ einfach und bezahlbar sein. Komplexere Services oder Datenanalysen erfordern mehr Ressourcen und sind daher für Edge Computing weniger geeignet beziehungsweise zu teuer, sie werden üblicherweise als Micro-Services realisiert.

Mit Micro-Services, Makro-Services und KI/ML-Tools auf die digitale Überholspur

Micro-Services bestehen aus einem Konglomerat von Funktionsmoduln. Dabei ist jedes Funktionsmodul auf seine Aufgabe fokussiert und hat eine eigene, möglichst schlanke und daher hochspezialisierte Datenhaltung. Je nach Bedarf kann nun jedes Funktionsmodul „horizontal skalieren“, das heißt es werden so viele Kopien des Moduls gestartet wie die Anwendung gerade benötigt.

Ein Streaming-Video Service besteht beispielsweise aus Dutzenden von Moduln. Bei einer Marketing-Kampagne – Beispiel „Sonderangebot, nur heute: Jahresbeitrag 30 Prozent billiger“ – wird der Vertragsfunktion stärker beansprucht, es werden also mehr Instanzen dieses Moduls gestartet. Typischerweise läuft eine derartige Funktion eher im Backend. Wird dagegen ein Blockbuster erstmals ausgestrahlt, starten mehr Instanzen des Streaming-Moduls. Um die Belastung des Netzwerks zu senken, macht es Sinn, die Video-Daten an den Netzwerkrand zu bringen und die Streaming-Services von dort, in unmittelbarer Nähe der Konsumenten, zu erbringen.

Micro-Services eignen sich hervorragend für Anwendungen, die sich in lose gekoppelte Funktionen zerlegen lassen, und bei denen jede Funktion horizontal skaliert werden kann. Lose gekoppelte Systeme zeichnen sich wiederum durch einen geringen Datenaustausch zwischen verschiedenen Funktionen aus. Funktionen, die horizontal skalierbar sind, erbringen gleichartige, meist wenig komplexe Services für eine beliebig große Anzahl von Konsumenten. Micro-Services eignen sich vor allem für Front-End/Web Services, denn dort finden sich ideale Voraussetzungen für diese Architektur.

Macro-Services hingegen sind das Mittel der Wahl, um komplexere, enger gekoppelte Back-Office-Anwendungen mit mehr Abhängigkeiten zwischen den Funktionen zu implementieren. Macro-Services nutzen eine gemeinsame Datenbank, um miteinander zu kommunizieren und Daten über ein gemeinsames Datenmodell auszutauschen.

KI und ML zählen aktuell zu den besonders heißen Tech-Trends. Die Leistungsfähigkeit moderner IT-Infrastrukturen erlaubt es mittlerweile, KI/ML-Algorithmen zu vertretbaren Kosten zu nutzen, der KI/ML Business Case wird mit zunehmender Leistungsfähigkeit der IT-Infrastruktur besser.

KI/ML wird entweder als Entwicklungsumgebung oder als fertige Lösung eingesetzt

Eine KI/ML-Entwicklungsumgebung besteht aus einem sehr vielseitigen Toolkit, das Dutzende von KI-Methoden bereitstellt. Dieses Toolset wird von IT-Spezialisten eingesetzt, um KI/ML -Lösungen zu entwickeln, die dann auf einer KI/ML-Engine zum Einsatz kommen. Eine KI/ML-Lösung erleichtert hingegen eine klar definierte, aber komplexe Aufgabe, die ein gewisses Fachwissen und „Erfahrung“ erfordert. Im Prinzip werden viele komplexe Szenarien gleichen Typs auf Abweichungen zu einem vorgegebenen Ergebnis-Korridor untersucht. Eine Abweichung kann beispielsweise der beste Kandidat aus einer Gruppe von Bewerbern oder auch ein aus Security-Sicht auffälliges Verhalten eines Nutzers sein. Charakteristisch für eine KI/ML-Lösung ist, dass sie aus Erfahrung lernt und sich automatisch optimiert.

Wertvolles Potenzial vorhanden – nun muss es ausgeschöpft werden

All diese Trends zeigen die Vielfalt und Chancen der Digitalisierung. Um sie zu nutzen, müssen Unternehmen die Herausforderungen der Transformation nun proaktiv angehen und den passenden Technologiepartner für ihre Belange finden. Insellösungen werden dabei nicht zum Ziel führen, denn die eigentlich vermeidbaren Integrationsaufwände mit der Unternehmens-IT verlangsamen und verteuern Digitalisierungsprojekte.

Die unvermeidbare Komplexität der künftigen IT-Welt erfordert eine solide, vielfältige und zukunftsfähige IT-Plattform, die die Erstellung und Integration neuer Anwendungen vereinfacht, einen sicheren und schnellen Umgang mit den Daten ermöglicht und mit anderen Plattformen leicht integrierbar ist.

Erfahrene IT-Manager haben längst erkannt: Digitalisierung ist die Verbindung aller Teile des Unternehmens, Partner und Kunden mittels durchgängiger, hochautomatisierter IT-Prozesse und -Lösungen. Insellösungen sind daher fatal. Mehr denn je hängt der Erfolg und Mehrwert dieses großen IT-Projekts von der Durchgängigkeit und Integration der gemeinsamen IT-Plattform ab.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

3 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

3 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

3 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

3 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

3 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

3 Jahre ago