Big-Data-Projekte sind noch rar

Das IBM Institute for Business Value und die Saïd Business School der Universität von Oxford haben gemeinsam untersucht, wie Unternehmen mit Hilfe von Big-Data-Methoden Wert generieren. Befragt wurden knapp 1144 Manager aus 95 Ländern, rund zur Hälfte aus der IT, zur Hälfte aus anderen Geschäftsbereichen. Dazu kamen Interviews mit Fachexperten.


Zunächst besteht noch viel Unklarheit darüber, was mit Big Data eigentlich gemeint ist. 18 Prozent an ein größeres Spektrum an Informationen, 16 Prozent an neue Datenarten und Analysemethoden. 15 Prozent betonten vor allem den Echtzeit-Aspekt, um nur die häufigsten Nennungen zu erwähnen.

Mit der Umsetzung ist es noch nicht so weit her: Erst sechs Prozent der Organisationen betreiben schon zwei oder mehr Big-Data-Projekte, 22 Prozent Pilotprojekte. 47 Prozent legen gerade ihre Roadmap fest und 24 Prozent beschaffen Informationen. Das größte Problem, so die IBM-Studie, sei es, im Vorfeld einenusiness Case zu finden, das zweite Hindernis sind fehlende Spezialisten auf allen Ebenen.

Big Data hat sich trotzdem einen relativ guten Ruf erarbeitet. Von den Befragten glauben inzwischen 63 Prozent, dass sich durch gründliche Datenanalysen Wettbewerbsvorteile generieren lassen (2010: 37 Prozent). Bei aktiven Big-Data-Nutzern lag die Quote 15 Prozent höher.

Beliebteste Datenquellen für Big Data sind Transaktionen, Logfiles, Events und E-Mails.

Informationen über Kunden als wichtigstes Ziel

Was tun nun die heute aktiven Big-Data-Anwender? Meist wollen mehr über ihre Kunden wissen: Was wollen sie, wie verhalten sie sich, wie würden ihnen die angebotenen Produkte besser gefallen? Einzelhandel, Gesundheitswesen, Telekommunikation, Verwaltung und Finanzwesen betreiben Projekte mit diesem Ziel. Dafür werten sie übergreifend Transaktionen, Multikanal-Interaktionen und Soziale Medien aus. Weitere wichtige Ziele sind bessere Prozesse (18 Prozent), Risikomanagement, bessere Zusammenarbeit und neue Geschäftsprozesse.

Voraussetzung für Big Data ist eine stimmige Informationsinfrastruktur. Rund zwei Drittel der befragten Professionals mit Big-Data-Aktivitäten haben ihr Informationsmanagementsystem verbessert oder sind dabei. 65 Prozent integrierten verschiedene Informationsquellen, 64 Prozent erhöhten die Skalierbarkeit der Speicherinfrastruktur, 59 Prozent bauten ein hochkapazitatives Data Warehouse und 58 Prozent kümmerten sich um Datensicherheit und –governance. Die damit verbundenen Kosten versucht das Management durch Strategien wie Cloud, Outsourcing und neue Preismodelle gering zu halten.

Mehr als die Hälfte der Befragten findet nutzt vor allem interne Datenquellen 73 Prozent analysieren Log-Daten, 88 Prozent Transaktionen, 59 Prozent Events und 57 Prozent E-Mails. Social Media, Sensor- und RFID/POS-Daten, Text und räumliche Daten beziehen jeweils etwa 40 Prozent ein.

Bei den verwendeten Lösungen dominieren das klassische Beantworten von Anfragen und Reporting (91 Prozent), Data Mining (77 Prozent), Visualisierungslösungen (71 Prozent) und Prognosemodelle (67 Prozent). Sprach- und Videoanalyse, von Anbietern oft als wichtige Einsatzfelder angepriesen, verwendet heute nur rund ein Viertel der Befragten mit Big-Data-Projekten.

Insgesamt scheinen Anwender bei Big-Data-Projekten klar definierbaren und pragmatisch erklärbaren Schritten zu folgen: Zunächst stellen sie fest, an welchen Analysen überhaupt geschäftliches Interesse besteht.

Anschließend entwerfen sie die nötige Infrastruktur, identifizieren die Datenquellen und die nötigen Analysemethoden, entwickeln dann eine Big-Data-Technologiestrategie und bauen schließlich die Infrastrukturen entsprechend ihrem Bedarf mit der Zeit aus. Dabei wandert die oberste Verantwortung für die Projekte mit der Zeit von der IT in die höchste Managementebene.

Die praktischen Ergebnisse solcher Big-Data-Strategien, von denen der IBM-Report einige aufzählt, sind durchaus beeindruckend. Der südafrikanische Schadensversicherer Santam verwendet Big Data, um die Betrugsschäden (6 bis 10 Prozent des Prämienvolumens) zu verringern und hat seine Abwicklungsprozesse massiv beschleunig.Ein indisches Teehandelsunternehmen beispielsweise eliminierte mit Big Data Unterbrechungen im Handel von 100 Millionen Kilo Tee jährlich. Und das venezolanische Familienunternehmen Automercados Plazas, das Gemüseläden betreibt, erhöhte seinen Umsatz durch Big-Data-getriebenes besseres Lagermanagement und schnellere Reaktionen auf Marktveränderungen um 30 Prozent.

Auch bei Big Data dominieren derzeit mit einfachen Anfragen und Reports konventionelle Auswertungsformen

Sind sie ein EiBiEmmer? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Redaktion

Recent Posts

Blockchain bleibt Nischentechnologie

Unternehmen aus der DACH-Region sehen nur vereinzelt Anwendungsmöglichkeiten für die Blockchain-Technologie.

10 Stunden ago

Branchenspezifische KI-Modelle

SAS bietet einsatzfertige KI-Modelle für konkrete Herausforderungen wie Betrugserkennung und Lieferkettenoptimierung.

14 Stunden ago

Hypershield: Umfassender Schutz von Cloud über Rechenzentrum bis Fabrikhalle

Cisco stellt neuen Ansatz zur umfassenden Absicherung der IT-Infrastruktur vor.

20 Stunden ago

Vernetztes Fahren: Bereitschaft zum Teilen von Daten gering

Deloitte-Studie äußert jedoch Verständnis für die Zurückhaltung der Kunden. Nutzen der Angebote sei hierzulande kaum…

3 Tagen ago

Plattenspiegelung ist keine Backup-Recovery-Strategie

Die Ziele einer Festplattenspiegelung und eines Backups sind unterschiedlich, sagt Sven Richter von Arcserve.

3 Tagen ago

Chaos bei der Umsetzung von NIS-2 droht

Das Damoklesschwert NIS-2 kann daher schneller wirksam werden, als manchem lieb ist, warnt Bernhard Kretschmer…

3 Tagen ago