- silicon.de - http://www.silicon.de -

So gelingen Big-Data-Projekte

Daten erzeugt die Menschheit schon so lange sie über die Schrift verfügt. Hielt sich die Menge in der Vergangenheit in überschaubaren Grenzen, folgte im Computer-Zeitalter eine regelrecht explosionsartige Zunahme: Allein während der letzten beiden Jahre wurden mehr Daten erzeugt, als in der gesamten Menschheitsgeschichte zuvor. Aus Wertschöpfungsgründen sammeln Unternehmen heute Daten über nahezu alles und jeden, Kunden, Konkurrenz und Interna.

Da jeder von den neuen Möglichkeiten profitieren möchte, ist mit einem enormen Wachstum bei Datenlösungen zu rechnen. Bis 2019 werden dafür 50 Milliarden Dollar ausgegeben werden, schätzen die Marktforscher von IDC. Um gewinnbringend zu wirtschaften, müssen aber die richtigen Daten eingesetzt werden, damit sich Trends und künftige Ergebnisse zuverlässig vorhersagen lassen.

Auf die richtige Analyse kommt es an

Richtig ausgewertet ermöglichen es Daten, Trends und Entwicklungen im Konsumverhalten und in der generellen Stimmung der Konsumenten vorherzusagen. Aus Sicht eines Unternehmens ist es natürlich ungünstig, wenn Kunden zu Konkurrenten oder eigenen, weniger gewinnträchtigen Produkten abwandern. Um das zu verhindern gibt es mehrere Möglichkeiten. Zum einen wären da personalisierte Angebote, die genau auf die Bedürfnisse einzelner Kunden zugeschnitten sind. Dabei gilt natürlich: Je mehr Daten zur Verfügung stehen, desto besser.

Big Data (Bild: Shutterstock) [1]
Ein typisches Unternehmen auf der Fortune-1000-Liste kann aus einer 10-prozentigen Zunahme der Datenzugänglichkeit ein Plus der Nettoeinnahmen von über 65 Millionen Dollar generieren. (Bild: Shutterstock)

Man kann aber auch besonders treue Kunden für ihre Loyalität belohnen, etwa durch spezielle Rabatte. Am Ende sollte auf jeden Fall ein zufriedener Kunde stehen, für den der Einkauf eine positive Erfahrung war, die er gerne wiederholen möchte. Neben Maßnahmen zur Kundenbindung lässt sich Big Data [2] aber auch noch auf vielfältige andere Weise einsetzen, wie Risikominderung, Produktverbesserung oder Performance- und Prozessoptimierung.

Es springt sofort ins Auge, dass bei riesigen Datenmassen die Automatisierung in der Verarbeitung entscheidend ist. Bekommt man sie nicht in den Griff, lässt sich keine langfristige und günstige Strategie umsetzen. Bei der Umsetzung von großen Datenprojekten gibt es noch viel Potential für Verbesserungen. Bei Gartners Big Data Survey gaben nur 15 Prozent der Unternehmen an, dass es ihr Big Data Projekt in die Produktion geschafft hat.

Wer sein Datengroßprojekt erfolgreich operationalisieren will muss einiges beachten. Die vier wichtigsten Faktoren sind dabei:

1. Bestehende Infrastruktur optimieren

Mit dem exponentiellen Anwachsen des Datenvolumens gilt es auch, die Infrastruktur eines Unternehmens adäquat anzupassen. Zunächst steht ein Vergleich zwischen Ist- und Soll-Kapazitäten an. Anschließend muss geklärt werden, wie man die Infrastruktur bedarfsgerecht aufrüsten kann.

Mit Prognosemodellen haben IT-Manager Werkzeuge zur Hand, die zukünftiges Nutzungsverhalten und Infrastrukturwachstum darstellen können. Daneben müssen Maßnahmen ergriffen werden, um die bestehende Infrastruktur optimal zu nutzen. Mit dem richtigen IT-Management-Tool kann man zum Beispiel Kapazitäten visualisieren und anschließend optimieren.

2. Reibungsloser Datenfluss

Müsste man alle Datensätze aus allen möglichen Quellen wie ERP, CRM oder sozialen Netzwerken manuell in eine Plattform einpflegen, wäre das so zeit- und arbeitsaufwändig, dass es sich wohl kaum lohnen würde. Außerdem müsste man noch zahlreiche Tools und Technologien einbinden.

Ein leistungsfähiges Automatisierungswerkzeug ermöglicht es hingegen, Daten ohne Widerstand fließen zu lassen. Der funktionierende Datenfluss ist essentiell, um ein Projekt über das Pilotstadium hinaus erfolgreich umzusetzen. Eine Automatisierungslösung braucht in der Regel viel kundenspezifische Entwicklungsarbeit. Bei den Themen Geschwindigkeit und Reichweite kann das zum Problem werden. Die neue Lösung muss sich also reibungslos in die vorhandene Infrastruktur eingliedern.

Die Datenversorgungskette muss auch ganzheitlich betrachtet werden. Einzelne Werkzeuge zur Aufnahme, Verarbeitung und Analyse von Daten zu verwenden, schaffen unerwünschte Silos. Dagegen ist eine Komplettlösung prädestiniert dafür, erfolgreich mit großen Mengen von Daten umzugehen.

3.Entscheidende Daten rechtzeitig bereitstellen

Für Unternehmen ist es wichtig, die Erkenntnisse zu erlangen, die es ermöglichen, die Einflussgrößen der Datenzunahme zu bestimmen. Das Technologieökosystem von Big Data muss mit anderen Anwendungen im Unternehmen wie ERP und angeschlossenen Geräten koordiniert werden, um diese Erkenntnisse anschließend erfolgreich zu nutzen.

Die IT muss nicht nur das vollständige Management der Daten-Workflows abwickeln, sondern auch Deadlines für diese setzten, damit Analyseteams wiederrum innerhalb ihrer Fristen auf die Daten zugreifen können.

4. Datenschutz durch Sichtbarkeit

Die zögerliche Haltung vieler Unternehmen gegenüber Big Data liegt oftmals in Sicherheitsbedenken begründet, denn natürlich möchte niemand zum Opfer der nächsten großen Datenpanne werden und damit Schlagzeilen machen.

Es klingt trivial, aber schützen kann man nur, was man kennt. Im Falle der Verbindung von Big Data mit Anwendungen des Unternehmens müssen alle Prozesse ganzheitlich sichtbar sein. Nur so können im Fall eines Falles Maßnahmen ergriffen werden.

Fazit

Der Umstieg auf ein datengetriebenes System kann für viele Unternehmen in Bezug auf Technologie und Kultur eine große Umstellung bedeuten. Implementiert man allerdings die richtige Strategie zur Verwaltung und Analyse großer Datenmassen unter Verwendung der richtigen Tools, so lassen sich die vorhandenen Datenmengen so vielfältig und gewinnbringend verwerten, dass der Ertrag deutlich über dem Aufwand steht – eine lohnende Investition also in der datengetriebenen Zukunft.