Big Data – eine Lösung sucht ihre Probleme

Big DataData & StorageManagement

Längst gilt Big Data auch als Big Business. Erste Analysten warnen dagegen inzwischen vor dem Platzen der Big-Data-Bubble. “Big Data ist verdammt teuer und taugt nicht für die überwiegende Mehrzahl der Unternehmen”, sagt einer von ihnen.

Big Data zeichnet nach allgemeiner Definition dadurch aus, dass die anfallenden Daten mit hoher Geschwindigkeit (Velocity), in großen Mengen (Volume) und in unterschiedlichen Formaten (Variety), kurz 3V, anfallen. Gartner meldete im vergangenen Herbst, dass mit Big Data im vorigen Jahr 28 Milliarden Dollar umgesetzt wurden, und in diesem Jahr sollen es bereits 34 Milliarden Dollar werden.

Nutznießer sind vor allem die Anbieter von Speicher-Technologien und Analyse-Software, die in ihrer Werbung wahre Wunderleistungen über Big Data verbreiten: Keine Bauchentscheidungen mehr, keine Fehlentscheidungen mehr, kein Diktat mehr von HIPPO (Highest Paid Person Opinion). Und sie sind selbstbewusst genug, um unmissverständliche Drohungen auszusprechen: “Wer Big Data nicht konsequent einsetzt, wird schon bald pleite gehen”, heißt es bei vielen Präsentationen. Hierzu verweisen sie nahezu alle auf dieselben, wenigen Erfolgsgeschichten von Caesars-Hotels, Ford, UPS und Interconti, die eigenen Angaben zufolge Big-Data-Methoden erfolgreich zur Analyse des Mitarbeiterverhaltens, der Kundenwünsche und der Logistik einsetzen.

Doch es gibt Anzeichen dafür, dass der dazugehörige Wirbelwind nur eine große aufgebauschte Blase ist. So schreibt das International Institute for Analytics (IIA) in einer Research Note, dass “2013 das Jahr sein wird, in dem die Big-Data-Bubble zum Platzen kommt”. Das IIA stützt sich dabei auf die überhitzte Gründer- und Finanzierungs-Szene. Laut deren Forschungsdirektor Ravi Kalakota gab es im vorigen Jahr zwar 360 Venture-finanzierte Neugründungen, doch kaum steigenden Bedarf. “Wir werden einen massiven Shake-Out bei den Startups und ein massives Scaleback bei den etablierten Anbietern erleben”, so Kalakotas Prognose.

Auch bei Gartner ist man über die Zukunft von Big Data skeptischer geworden. “Big Data ist eine Lösung, die ihre Probleme sucht”, sagt Gartner-Analystin Debra Logan. “Nicht einmal Banken mit ihren Milliarden an Kundendaten setzen Big Data ein, denn das meiste davon ist sehr gut in Mainframes organisiert und wird schon seit Jahrzehnten ausgewertet”, so Logan weiter. Dabei verweist sie auf die Deutsche Bank und die HMRC-Bank. Beide haben jüngst davon berichtet, dass es ihnen bislang nicht gelungen sei, die strukturierten Mainframe-Daten mit den unstrukturierten Daten in einem Hadoop-Cluster zu verknüpfen.

Nur einer einzigen Branche spricht Logan eine sinnvolle Nutzung von Big Data zu: “Der Handel steht vor wirklich echten Big-Data-Herausforderungen, die durch RFID, vollelektronischem SCM und den vielfältigen Kundenkarten hervorgerufen werden.” Allen anderen Branchen würden ihrer Ansicht nach zwar mit Big Data experimentieren – aber nur weil es alle anderen auch machen. Doch diese Versuche würden nur viel Geld verschlingen und kaum bessere Ergebnisse liefern. “Big Data ist nur ganz selten eine Antwort auf aktuelle Business-Probleme. In fast allen Fällen können einfache Standard-Programme mit bewährten Samplings und soliden Analytics völlig ausreichende Ergebnisse liefern”, lautet ihre Einschätzung.

Auch die Insider im Big-Data-Business gestehen inzwischen ein, dass Big Data für die “normalen” Firmen zu hoch angesiedelt ist. “Big Data ist verdammt teuer und taugt nicht für die überwiegende Mehrzahl der Unternehmen”, sagt Bruno Aziza, Vice President von SiSense, einer Big Data Analytics Firma. Er verweist auf eine Studie von Vantage Partners, wonach ein Big-Data-Projekt zwischen einer und zehn Millionen Dollar kostet. Außerdem würden die meisten Firmen gar nicht so viele Daten haben, dass sich ein Big-Data-Projekt lohnen würde. Laut SAP haben 95 Prozent aller Firmen nur einen Datenbestand von rund 0,5 bis 40 Terabytes. Nur für die Megadaten-Sammler, wie Facebook oder NASA würden sich Big-Data-Projekte im Bereich von etlichen Petabytes lohnen.

Aziza sieht eines der Probleme von Big Data in der schwammigen Definition: “Wir sollten die Definition von den drei Vs in etwas leicht verständliches abändern, beispielsweise in ‘Big Data ist ein subjektiver Zustand, der dann eintritt, wenn die Infrastruktur eines Unternehmens die anfallen Daten nicht mehr beherrschen kann'”, lautet sein plausibler Vorschlag.

Fotogalerie: Der Supercomputer der NASA

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Tipp: Kennen Sie die größten Technik-Flops der IT-Geschichte? Überprüfen Sie Ihr Wissen – mit 14 Fragen auf silicon.de