Categories: DataDigitalisierung

Trends Folge 1: Fünf Trends für datengesteuerte Unternehmen

Das Jahresende naht und damit steigt wieder die Zahl der “IT-Tipps und -Trends” für das Jahr 2023.  Welche prognostizierten Trends dann am Ende eintreten werden, wissen wir erst in gut einem Jahr. Wir veröffentlichen bis Weihnachten in loser Folge, was bei uns an Trendvorhersagen auf dem Redaktionstisch landet. Unsere Leser müssen auswählen, was davon passen könnte. Allerdings sollte man genau hinschauen, von wem die Trends kommen. Eigeninteressen können den Trendkompass durchaus beeinflussen.

Folge 1: Qlik

Die sich rasant verändernden Bedingungen erfordern schnelle und zielgerichtete Entscheidungsfindungsprozesse sowie die Integration von isolierten und distribuierten Datensätzen, um ein Gesamtbild aller Variablen in Echtzeit sehen zu können. Ohne dieses setzen Unternehmen ihren künftigen Erfolg aufs Spiel, sagt Qlik, und skizziert fünf “besonders wichtige” Schlüsseltrends.

Investitionen in abgeleitete und synthetische Daten

Wenn die letzten Jahre etwas verdeutlicht haben, dann ist es die Bedeutung der Risikovorhersage und des Risikomanagements. Vor COVID-19 standen beispielsweise nicht genügend reale Daten über Pandemien zur Verfügung, um sich auf eine solche Krise vorzubereiten. Synthetische Daten, also Daten die künstlich generiert werden und nicht auf realen Messungen oder Datenerhebungen beruhen, schließen diese Lücke. Darüber hinaus können auf Grundlage von Modellen, die auf synthetischen Daten basieren, genauere Ergebnisse erzielt werden. Darauf deuten neue Forschungsergebnisse hin. Zudem entfallen dadurch Bedenken in Bezug auf Datenschutz, Urheberrecht und Ethik, die mit realen Daten verbunden sind. Abgeleitete Daten ermöglichen es wiederum, Daten für verschiedene Zwecke zu verwenden und erlauben die Planung verschiedener Szenarien, die für die Vorbereitung auf zukünftige Probleme und Krisen erforderlich ist.

KI dringt tiefer in die Datenpipeline ein

Aktuell stellen viele Unternehmen Neueinstellungen zurück oder bauen gar Stellen ab. Ein Umstand, der die durch den Fachkräftemangel ohnehin angespannte Personaldecke weiter belastet. Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind in der Lage, aufwändige Vorgänge im Bereich der Datenaufbereitung zu automatisieren. Indem KI tiefer in die Datenpipeline eingebracht wird, noch bevor eine Anwendung oder ein Dashboard erstellt wurde, lässt sich der Zeitaufwand für die Datenvorbereitung reduzieren und Ressourcen können in die Datenanalyse gesteckt werden. Aktuell fallen weniger als 20 Prozent der Zeit auf ebendiese, während mehr als 80 Prozent für die Suche nach geeigneten Daten, deren Aufbereitung sowie deren Verwaltung aufgewendet werden. Auf diese Weise könnten sich Datenfachkräfte darauf konzentrieren, gemeinsam durch ausführliche Analyse neue und wertvolle Erkenntnisse zu gewinnen und einen bedeutenden Mehrwert für ihr Unternehmen zu generieren.

Natural Language Processing (NLP) macht dem Menschen Konkurrenz

Viele Unternehmen nutzen bereits seit einiger Zeit Sprach-KI in ihrer Grundform. So ist die Interaktion mit einem Chatbot im Kundenservice schon fast alltäglich. Schätzungen zufolge wird die Beliebtheit der Sprachbots in den kommenden Jahren um weitere 18 Prozent zunehmen. Parallel befinden sich mehrere neue Technologie-Modelle in der Entwicklung, die wesentlich leistungsfähiger sind als alles, was aktuell auf dem Markt ist. Wohin die Entwicklung führt, lässt sich nur erahnen. Sicher ist jedoch, dass NLP enorme Auswirkungen auf die Art und Weise haben wird, wie Informationen abgefragt, interpretiert oder berichtet werden. Durch NLP sind nicht nur solche Daten leichter auffindbar, nach denen aktiv gesucht wird, sondern es kommen auch Daten zum Vorschein, an die bei der Suche noch gar nicht gedacht wurde.

Entschärfung von Lieferkettenunterbrechungen durch Echtzeitdaten

Die Nachwirkungen von COVID-19 und die anhaltenden globalen Konflikte beeinträchtigen noch immer die Lieferketten. Wer in den letzten Jahren versucht hat, ein neues Auto oder einen Computer zu kaufen, weiß, wie schwerwiegend die Lieferketten beeinträchtigt wurden. Es gibt keine Anzeichen dafür, dass sich die Lage in den nächsten Jahren entspannen wird. Somit bleibt auch die Notwendigkeit bestehen, schnell auf alle Eventualitäten reagieren oder diesen idealerweise vorausschauend entgegenwirken zu können. Potenzielle Störfaktoren müssen erkannt werden, bevor sie entstehen. Der Schlüssel hierzu ist die Möglichkeit, Daten in Echtzeit und im jeweiligen Kontext zu analysieren. So ist es nicht verwunderlich, dass laut IDC bis 2027 sechzig Prozent der Ausgaben im Bereich Datenerfassung und -bewegung auf Lösungen fallen, die Simulationen, Optimierungen und Empfehlungen in Echtzeit ermöglichen.

„X-Fabric“ verbindet Data Governance

Investitionen in Daten und Analysen haben sich aufgrund der Pandemie immens beschleunigt – ein Trend, der sich auch weiterhin fortsetzen wird. So planen laut einer aktuellen Studie rund 93 Prozent der befragten Unternehmen, ihre Ausgaben in diesen Bereichen weiter zu erhöhen. Sich schnell verändernde Regularien zum Datenschutz sowie zur Verteilung, Diversität und Dynamik von Daten bremsen Unternehmen dabei aus, den größtmöglichen Wettbewerbsvorteil aus den Daten zu generieren. Besonders herausfordernd ist dies in einer fragmentierten Welt, in der Data Governance zunehmend komplexer wird.

Um das volle Datenpotenzial ausschöpfen zu können, ist der verbesserte Zugriff auf Daten, deren Bewegung in Echtzeit sowie eine fortschrittliche Transformation zwischen Quellen und Systemen im gesamten Unternehmen von entscheidender Bedeutung. Aus diesem Grund setzen immer mehr Unternehmen auf eine „X-Fabric“. Dabei handelt es sich um eine Datenstruktur, die neben verteilten Daten auch Applikationen, BI-Dashboards und Algorithmen durch Kataloge und Cloud-Datenintegrationslösungen verknüpft. Dies ist eine entscheidende Komponente in der modernen verteilten Umgebung für jedes Unternehmen, das mit Gewissheit handeln und dem Prinzip einer Connected Governance folgen möchte. Derzeit sind diese Methoden jedoch noch weniger ausgereift als eine Methodik, die nur verteilte Datensätze durch semantische Modelle miteinander verbindet.

Roger Homrich

Recent Posts

Traditionelle Sicherheit versus Zero Trust-Architektur

Zero Trust richtig eingesetzt, kann es Organisationen bei der Umsetzung ihrer Transformation unterstützen, sagt Nathan…

4 Stunden ago

Router-Update legt Microsofts Online-Dienste lahm

Eigentlich sollte nur eine IP-Adresse geändert werden. Ein dazu benutzter Befehl legt über einen Router…

14 Stunden ago

Valide Ergebnisse in zehn Sekunden statt zwei Monaten

Feuerwehr Düsseldorf greift für die strategische Standortplanung auf ein geodatenbasiertes Tool zu.

1 Tag ago

Nürburgring auf Digitalisierungskurs

Die "Grüne Hölle" soll mithilfe Künstlicher Intelligenz noch sicherer werden.

1 Tag ago

Führungskräfte brauchen ökologisches Händchen

Gartner: 70 Prozent der Führungskräfte in der Technologiebeschaffung müssen bis 2026 Leistungsziele erreichen, die auf…

1 Tag ago

Deutsche sind klar Letzte in punkto Datenschutz

Cisco Consumer Privacy Survey zeigt: 57 Prozent der Deutschen sehen sich nicht in der Lage,…

1 Tag ago