IT-Trends 2024: Daten neu denken

Teil 5: Unternehmen, die ihre Daten für sich arbeiten lassen, sind die großen Profiteure der Zukunft.

Eine Studie der Boston Consulting Group zeigt, dass 30 Prozent der datengesteuerten Unternehmen ihren Umsatz bis Ende 2024 um mehr als 10 Prozent steigern werden, verglichen mit nur 13 Prozent der Datennachzügler. Auf der Suche nach Wettbewerbsvorteilen und Differenzierung im Markt sammeln und analysieren Unternehmen riesige Mengen an Daten und Metadaten. Diese stammen aus unterschiedlichen Geschäftsanwendungen, Kundenkontakten und Geräten. Sie sind die Grundlage für wertvolle Erkenntnisse, die heutzutage insbesondere durch KI und Analytik gewonnen werden. In der neuen Technologie steckt also viel Potenzial.

„Die exponentiellen Fortschritte in KI und Datenanalytik vor allem in diesem Jahr bringen Unternehmen zum Umdenken und fordern bestehende IT-Infrastrukturen heraus. Die neuen Technologien benötigen Daten in großer Menge und Vielfalt – entsprechend braucht es in Zukunft mehr Storage-Effizienz und weniger Datensilos. Die Cloud ist dabei nicht immer der Allheilsbringer, Stichwort Data Sovereignty”, sagt Marc Kleff von NetApp. Die Herausforderung für Unternehmen besteht nun darin sicherzustellen, dass die zugrundeliegende IT- und Geschäftsinfrastruktur in der Lage ist, all diese Daten zu verarbeiten und zu analysieren. Der Speicherort und der Zeitpunkt der Datenabfrage dürfen dabei keine Rolle spielen.  

1. Fehlende Data Sovereignty wird Innovationsprozesse ausbremsen

Data Sovereignty bestimmt, wie unternehmensweit in Abhängigkeit von lokalen Gesetzen mit Daten umgegangen werden darf. Entsprechend gravierend ist ihr Einfluss auf moderne, IT-basierte Wertschöpfungsketten: Die oben angeführte Kongruenz verschiedener Datenplattformen und Architekturprinzipien erfordert klare Regeln, wie die dort gespeicherten Daten zu verarbeiten sind. Wie lassen sich vor allem die digitalen Informationen Einzelner schützen, ohne die Sammlung dieser Daten zu Analysezwecken auszubremsen? Wenn Unternehmen wie Regulierungsbehörden in Europa an dieser Frage scheitern, droht die Region bei der Umsetzung von KI-Projekten an Boden zu verlieren. Dabei müssen explizit internationale IT-Anbieter, vor allem Cloud Service Provider, berücksichtigt werden. Am stark abweichenden Datenschutzverständnis in den verschiedenen Regionen Nordamerika, Europa oder Asien zeigt sich, dass Unternehmen absolute Sicherheit brauchen, wo ihre Daten liegen – und welche Sovereignty-Auswirkungen sich ergeben. Datenkonzerne können mit dieser Rechtssicherheit ihre Services für Analyse, Portabilität und Datenschutz anbieten und nur so mit intelligenter Dateninfrastruktur ihre Kunden unterstützen.

2. Daten – nicht KI-Modelle – treiben KI-Innovation

Im letzten Jahr haben wir einen wahren Ansturm auf generative KI in der deutschen Unternehmenswelt erlebt. Kein Wunder, immerhin ist KI mittlerweile allgegenwärtig und bietet scheinbar endlose Anwendungsmöglichkeiten. Rasante Entwicklungen im Bereich umfangreicher Sprachmodelle und multimodaler KI haben dabei neue Möglichkeiten für die Verarbeitung von Text, Bildern und Anfragen geschaffen. Diese ermöglichen es, Kundeninteraktionen zu verarbeiten, menschenähnliche Avatare zu erstellen und sogar Code zu generieren.

Wenn Unternehmen aber mit KI neue Business-Ansätze erarbeiten und Teile ihrer Geschäftsprozesse automatisieren, stellen sie in der Regel bald fest, dass ihre KI-Modelle nicht so anpassungsfähig sind wie gewünscht. Die Modelle sind ein guter Start, aber naturgemäß durch ihre vorgegebenen Parameter begrenzt. Unternehmen werden sich in Zukunft also darauf konzentrieren, kontinuierliche Datenpipelines für KI-Anwendungen zu schaffen, damit diese aus den neuesten Informationen lernen und sich fortlaufend aktualisieren. Das Ziel: Mit Hilfe von KI lassen Unternehmen ihre Daten für sich arbeiten und steigern ihre Agilität.

3. Datensilos aufbrechen

Weiterhin werden Unternehmen die Silos zwischen verschiedenen Datentypen mit einer einheitlichen Datenspeicherung aufbrechen und so alle Datentypen und -formate eines Unternehmens aus lokalen sowie Cloud-Umgebungen zusammenführen. Auf diese Weise wird die neue Ära der KI- und Analyseinnovation eingeläutet. Wenn Unternehmen tiefer in die Analytik einsteigen, um neue Geschäftsansätze zu entwickeln, stellen sie fest: Ihre bestehenden Storage-Architekturen liefern je nach Quelle unterschiedliche Datenströme. Kunden-, Produkt-, Lieferanten- und Mitarbeiterdaten zum Beispiel weisen unterschiedliche Merkmale auf. Möglicherweise empfinden sich die Entscheidungsträger außerdem durch veraltete Analyseplattformen, Computing-Modelle und Speichersysteme eingeschränkt, weil diese unter anderen Vorzeichen beschafft wurden. Infolgedessen werden immer mehr Unternehmen ihre Datenarchitekturen überdenken, um Datenströme in einem Strang zu konsolidieren und anzuzapfen. Verborgene Korrelationen zwischen verschiedenen Datentypen werden so leichter aufgedeckt. Dadurch nutzen Unternehmen ihre Daten sinnvoll in Antwort auf Bewegungen im Markt und schaffen zuvor unbekannte Wachstumsgrundlagen.

4. Mehr IT-Pragmatismus

Unternehmen, die ausschließlich auf die Cloud setzen, müssen mit Enttäuschungen rechnen. Da Cloud-Migrationen sowohl den Zeitrahmen als auch das Budget sprengen können, werden Anwender gezwungen, parallel den Betrieb ihrer hybriden und Multi-Cloud-IT-Architekturen zu optimieren – und zwar nicht nur während der Umstellung auf die Cloud, sondern im laufenden Betrieb. Laut dem NetApp Data Complexity Report 2023 geben etwa drei von vier Führungskräften aus der globalen Tech-Branche an, dass sie immer noch zwischen 30 und 80 Prozent ihrer Workloads On-Premises betreiben. Und das obwohl drei Viertel der Befragten sich bereits auf der „Cloud Journey“ befinden. Es ist deshalb davon auszugehen, dass die Suche nach einer perfekten Cloud-Umgebung immer mehr zur Suche nach einer intelligenten Dateninfrastruktur wird, um Transparenz, Effizienz und Automatisierung auszubauen. Diese intelligente Infrastruktur kombiniert einheitliche Datenspeicherung mit integrierten Datenmanagementfunktionen für Sicherheit und Observability in einer Plattform. So wird die Speicherung, Kontrolle und Nutzung von Daten erleichtert – unabhängig davon, welche Cloud-Dienste, Anwendungen und Datenbanken verwendet werden.

5. Der nächste Hack kommt bestimmt – seien Sie vorbereitet

Angesichts der anhaltenden Bedrohungen der Cybersicherheit durch bösartige Akteure aller Art – Insider, Kriminelle, sogar Regierungen – müssen sich Unternehmen verstärkt darauf konzentrieren, wie sie sich von Angriffen erholen. Cyberkriminelle lassen sich kaum daran hindern, auf IT-Netzwerke und wichtige Vermögenswerte wie Kundendaten und geistiges Eigentum zuzugreifen, sie zu stehlen oder zu manipulieren. Experten gehen davon aus, dass bis 2031 alle zwei Sekunden ein Ransomware-Angriff stattfinden wird, der die Opfer jährlich 265 Milliarden US-Dollar kosten wird. Laut dem NetApp Data Complexity Report 2023 betrachten 87 Prozent der Führungskräfte auf Vorstands- und Geschäftsführungsebene folgerichtig den Schutz vor Ransomware als hohe oder höchste Priorität in ihrem Unternehmen.

Die größte Bedrohung für ein Unternehmen nach einem Cyber-Angriff ist dabei nicht der Datendiebstahl selbst. Es sind vielmehr die Zeit und die Ressourcen, die für die Reparatur der Systeme und die Wiederherstellung der Daten benötigt werden, um den regulären Geschäftsbetrieb wieder aufzunehmen. Um ihre wichtigsten Vermögenswerte zu schützen und die Geschäftskontinuität zu gewährleisten, werden Investitionen in die IT-Sicherheit zunehmen. Der Fokus liegt dabei auf „Security by Design“, also inhärent sicheren Lösungen. Nur so können Unternehmen im Falle einer Produktions- oder Geschäftsunterbrechung die Ausfallzeit minimieren. Funktionen wie unveränderbare Backups tragen ebenfalls dazu bei, Unterbrechungen während der Untersuchung von Cybervorfällen zu verkürzen.