Georgios Rimikis

Dr. Georgios Rimikis ist Senior Manager Solutions Strategy bei Hitachi Data Systems.

Big DataData & Storage

Das Rüstzeug für den Ritt auf der Big-Data-Welle

Ein Bücherstapel, der bis in das Doppelsternbild Alpha Centauri reicht: So kann man sich die Datenmenge vorstellen, die die Weltgemeinschaft im Jahr 2024 wird bewältigen müssen. Georgios Rimikis von Hitachi Data Systems gibt Tipps zum Umgang mit dieser Informationsflut.

Die Big-Data-Welle rollt auf uns zu. Bis zum Jahr 2024 werden Unternehmensserver rund um die Welt jeden Tag ein Datenvolumen verarbeiten, das der Menge einer 4,37 Lichtjahre langen Kette von Büchern entspricht und damit der Entfernung bis Alpha Centauri, dem uns am nächsten gelegen Sternensystem in der Milchstraße. Und diese Menge stellt zurzeit wahrscheinlich nur eine konservative Schätzung dar.

Die Datenmengen sind schneller gewachsen, als jeder hätte vorhersehen können. Das erhöht auch den Bedarf an intelligenten, leicht zugänglichen Speicherlösungen. Angesichts der Menge und Geschwindigkeit, mit der Daten anfallen, kann der Analysebedarf von Unternehmen überwältigend anmuten. Unternehmen können dieser Aufgabe aber nicht ausweichen, sonst riskieren sie, den Anschluss an Wettbewerber zu verlieren.

Zunehmende Datenmengen (Bild: Shuttrstock)

Stellen Sie sich vor, Sie produzieren Metallverschlüsse und ein Wettbewerber hat mit Hilfe von Datenanalysen herausgefunden, wie das gleiche Produkt durch optimierte Prozesse und Mechanismen für weniger Geld hergestellt werden kann. Sie werden Ihre Kundschaft sehr schnell verlieren. Solche Szenarien lassen sich auf nahezu jedes Unternehmen und alle Branchen übertragen.

Die Umsetzung von Big-Data-Projekten zur effizienten Nutzung der Datenmengen stellt jedoch eine große Aufgabe dar. Um die Daten zu analysieren, muss ein Unternehmen nicht nur eine ständig wachsende Zahl von Datensätzen und Dateiformaten in Echtzeit durchleuchten. Um eine Analyse zu liefern, die auf den richtigen Fragen basiert und sinnvolle Antworten bietet, braucht es auch Teams mit den passenden Fähigkeiten.

Die digitale Transformation wurde schon mit einer gewaltigen Welle verglichen, die sich gerade bricht. Wer diese Welle erwischen möchte, braucht auch die richtigen Surfer dafür. Und falls es an geeigneten Talenten mangelt, kann am Ende die ganze Welle verpasst werden.

Data Scientists: Die Alchimisten der Neuzeit

In einer Welt, in der Big-Data-Analysen immer wichtiger werden, müssen Unternehmen und Organisationen eine Belegschaft gewinnen und fortentwickeln, die mit den nötigen Fähigkeiten ausgestattet ist und einen Wettbewerbsvorsprung verschafft. Eines der neuen Berufsbilder in dieser Big-Data-Welt ist der “Data Scientist” – eine seltene und mystische Spezies.

Data Scientist (Bild: Shutterstock)
Data Scientists: Die Alchimisten der Neuzeit (Bild: Shutterstock)

Mystisch, weil es sich um eine neue Disziplin handelt, die eine spezielle Mischung aus Erfahrung und Wissen voraussetzt. Josh Wills von Slack, eines der berühmtesten dieser mystischen Wesen, besuchte vor einiger Zeit Airbnb. Er präsentierte einige Tweets mit Antworten auf die Frage “Was ist ein Datenwissenschaftler?” Eine Antwort lautete: “Ein Datenwissenschaftler ist jemand, der sich besser mit Statistik auskennt als jeder Softwareingenieur und besser über Softwareentwicklung Bescheid weiß als jeder Statistiker.”

Geeignete Profis zu finden, die diesen fast utopischen Erwartungen der Märkte gerecht werden, kann allerdings ein schwieriges Unterfangen darstellen.

Eine Studie von McKinsey kommt zu dem Schluss, dass allein in den USA bis zum Jahr 2018 zwischen 140.000 und 190.000 Menschen mit umfassenden analytischen Kompetenzen fehlen werden. Bis dahin sind es nicht einmal mehr zwei Jahre! Europäische Unternehmen sind von dieser Kompetenzlücke genauso, wenn nicht drastischer, betroffen.

Was nun, was tun?

Wie können Unternehmen nun Mitarbeiter gewinnen, die die passenden Fähigkeiten besitzen? Betrachten Sie erst einmal das vorhandene Team. Mag sein, dass keine Datenwissenschaftler dabei sind, aber das nötige Potenzial könnte schon vorhanden sein. Investieren Sie in Weiterbildungen, kombinieren Sie das Wissen und die Fähigkeiten der Teammitglieder – und schon bauen Sie ein Kernteam auf, das zum Aufbruch in die Big-Data-Welt bereit ist.

Checkliste (Bild: Shutterstock/Karuka)

Eine Firma, die erfolgreich Big-Data-Analysen betreiben will, muss Datenwissenschaftler in vielerlei Hinsicht mit den passenden unternehmerischen Fähigkeiten ausstatten. Teil der Kompetenzen dieser Spezialisten liegt insbesondere in der Entwicklung innovativer Konzepte, Methoden und Instrumente der Informationsvisualisierung, und Wissensentdeckung in den Daten, die durch das ganze Unternehmen greifen.

Analytische Plattformen wie Pentaho sind ein sehr gutes Hilfsmittel, durch das ein großer Teil komplexer technischer Entwicklungsarbeit letztlich gewonnen  werden. Soll heißen: Big-Data-Teams brauchen dadurch geringeren Aufwand  im Entwickeln und Programmieren, aber mehr Wissen in den Bereichen Geschäft und Informationen. Daten können mit wenigen Mausklicks abgefragt werden, was die zu füllende Ressourcenlücke deutlich kleiner werden lässt und es Unternehmen leichter macht, Erkenntnisse in Handlungen zu verwandeln.

Unternehmen können das Personal weiterbilden, einen Riecher für das Geschäft, einen Hintergrund in Mathematik und eine Affinität gegenüber Daten vorausgesetzt. Es gibt zahlreiche, von der Branche betriebene Ausbildungszentren, Schulungen oder Online-Kurse, die ein gutes Fundament an Rüstzeug vermitteln. Die besten Fähigkeiten werden natürlich im richtigen Leben erworben…

Statistik (Bild: Shutterstock/Denphumi)

Über den Aufbau kleiner Arbeitsgruppen aus Menschen mit sich gegenseitig ergänzenden Fähigkeiten sind sie in der Lage, die Fähigkeit Ihres Unternehmens zur Datenabfrage erfolgreich fort zu entwickeln. Ein aktuell bestehender Mangel an Fachkompetenzen ist kein Grund, sich als Unternehmen die Big Chance Big Data entgehen zu lassen.

Das “was wäre, wenn?” nicht aus den Augen verlieren

Wie wichtig es ist, Datenanalysen im Hause zu haben, macht im Rückblick die Katastrophe des Space Shuttles “Challenger” 1986 deutlich. Big-Data-Fachmann Bernard Marr erinnert uns daran, dass die NASA seinerzeit mit einer überwältigenden Menge an Daten umgehen musste, die das erhebliche Risiko eines Auseinanderbrechens des Shuttles hätte voraussehen können.

Aufgrund mangelnder Methoden; waren die Verantwortlichen für die Mission aber nicht in der Lage, diese Tatsache in der Masse von “anscheinend” irrelevanten Daten zu erkennen. Marr spekuliert, dass die Ereignisse womöglich ganz anders verlaufen wären, hätten die mit den Daten befassten Fachleute den Verantwortlichen eine Analyse mit dem Titel übergeben können: “Das Shuttle wird wahrscheinlich abstürzen, weil…”