Vor allem kleine und mittelständische Unternehmen mit weniger als 500 Mitarbeitern setzen sich kaum mit den Möglichkeiten von Big Data auseinander. Insgesamt sind es damit lediglich 8 Prozent der Unternehmen, die bereits aus großen Datenmengen Analysen herausziehen. Wie die Studie “Big Data Report 2015/16” der Hochschule Reutlingen im Auftrag von T-Systems zeigt, beschäftigen sich immerhin 78 Prozent mit der Thematik. Bei etwa einem Viertel der Unternehmen wurden bereits solche Projekte gestartet. Und fast zwei Drittel sind weiterhin unentschlossen.
Etwas mehr als 50 Prozent der Unternehmen werten interne Daten, wie etwa Prozess- oder Sensordaten aus. Dabei geht es vor allem um Prozessoptimierung und die Analyse von Kundenanliegen. Vorausschauende Analysen, sogenannte Predictive Analytics, die insbesondere im Maschinen- und Wartungsumfeld interessant sind, finden in 20 Prozent der Unternehmen Anwendung. Etwa ein Drittel der Unternehmen wertet die Daten nur dann aus, wenn tatsächlich Bedarf besteht. 14 Prozent der Unternehmen fahren hingegen kontinuierliche Datenanalysen.
Ein wichtiger Punkt dabei ist die Datensicherheit. Die wird mit rund 70 Prozent der Nennungen bei den Anforderungen an die IT am häufigsten genannt. Die Autoren der Studie sehen, dass bei deutschen Unternehmen bei der Auswertung von Unternehmens- und Kundendaten ein großes Sicherheitsbewusstsein herrscht. Der Schutz vor Verlust und Missbrauch von Daten bekommt hohe Aufmerksamkeit.
Doch hier zeigt sich auch, dass in den Unternehmen offenbar hier wenig spezialisiertes Wissen vorhanden ist. 56 Prozent der Unternehmen greifen daher auf externes Know-how zurück. Knapp drei Viertel der Unternehmen priorisieren daher die Entwicklung unternehmensinterner Fähigkeiten als wichtigsten Themenpunkt.
Unternehmen müssten auf mehreren Ebenen auf die neuen Anforderungen reagieren und auch umfassende Ressourcen zur Gestaltung der digitalen Transformation aufbringen. “Es ist es enorm wichtig, das Thema nicht isoliert zu betrachten und Insellösungen aufzubauen. Unternehmen müssen Big Data vor allem in die gesamte digitale Strategie einbetten, wenn sie sich durch die Analyse großer Datenmengen verbessern möchten”, so Prof. Alexander Rossmann, Hochschule Reutlingen.
“Wir sehen im Geschäftsalltag, dass sich Datenanalysen immer stärker durchsetzen”, Dr. Rolf Werner, Geschäftsführer der T-Systems Multimedia Solutions. Seiner Ansicht nach würden vor allem Branchen mit hohem Aufkommen an Prozess- und Kundendaten in besonderem Maße von der Auswertung großer Datenmengen profitieren.
Dennoch stellen die Autoren der Studie einen schwachen Reifegrad bei der Entwicklung und Umsetzung von Big Data Strategien. Zudem würden kaum Standards und Referenzmodelle vorliegen. Schwierig wird es durch die doppelte Anforderungen an die IT, denn neben der Abbildung einer businessrelevanten Strategie müsse die IT auch mit einer veränderten technologischen Plattform zurechtkommen.
Wie groß ist Ihr Wissen über Big Data? Machen Sie den Test mit 15 Fragen auf silicon.de.
Auf der Technologiemesse CES zeigte das Unternehmen, wie Daten, KI und softwaredefinierte Automatisierung zusammenwachsen.
Was bedeutet der Entwurf "Transition to Post-Quantum Cryptography Standards" des National Institute of Standards and…
Bikom-Umfrage: 53 Prozent der Importeure müssten in der Folge von Einführungsstopps spätestens nach einem Jahr…
KI-Trends 2025: Flexible, generative KI-Lösungen ersetzen starre Architekturen / Mensch und KI bilden positive Lernschleife
Wie interagieren die Kernkomponenten eines Security Operation Centers? Und welchen Einfluss hat KI auf die…
Mit den Vorteilen generativer KI gehen ernsthafte Herausforderungen einher, insbesondere in Bezug auf Datenschutz und…