Categories: Cloud

Die fünf größten Herausforderungen von Big Data

Daten sind für Unternehmen ein wertvolles Gut. Ob Produktions-, Geschäfts- oder Kundendaten – richtig gesammelt, verwaltet und analysiert, steckt in Daten ein großes Potenzial, das für den Erfolg eines Unternehmens entscheidend sein kann. Immer mehr Unternehmen starten Big-Data Initiativen und so nimmt das Thema bei Unternehmensentscheidern einen immer höheren Stellenwert ein. Das zeigt auch eine aktuelle Studie(1) der Wirtschaftsprüfungsgesellschaft PwC. Diese besagt, dass 27 Prozent der befragten Entscheider Big Data bereits aktiv umsetzen. Weitere 36 Prozent der Unternehmen planen konkret, Big Data einzuführen. IT- und Fachbereiche haben bereits die Chancen von Big Data für das Analysieren von Daten verstanden und der Erfolg von Projekten wird zunehmend sichtbar. Aber so attraktiv auch die Chancen für Unternehmen durch Big Data sein mögen, es stellt Unternehmen auch vor viele neue Herausforderungen. Aus meiner Sicht sehen sich Unternehmen heute mit fünf großen Big Data-Herausforderungen konfrontiert:

  1. Qualifizierte Mitarbeiter finden und halten

Die größte Herausforderung in Bezug auf Big Data liegt im Bereich Personal. Für Unternehmen wird es immer schwieriger, qualifizierte Mitarbeiter für ihre Big Data-Projekte zu finden und auch zu halten. Laut Gartner(3) sollen bis 2015 ein Drittel der 4,4 Millionen Jobs, die in Bezug zu Big Data stehen, besetzt sein. Aktuell bremst der Personalmangel jedoch Unternehmen teils immens aus. Laut einer Studie von “InformationWeek 2013 Analytics”(2) unter 541 Business Technologie-Fachkräften, war die Tatsache, dass “Expertise knapp und teuer ist”, für die Befragten die größte Sorge in Bezug auf Big Data. Zudem werden oftmals die schier großen Mengen an Daten und Ansprüche an die Infrastruktur unterschätzt. Eine Studie von InformationWeek zeigt, dass 80% der Arbeit an Big Data-Projekten in die Integration und Datenqualität fließt. Wollen Sie wirklich, dass diese schwer zu findenden und teuren Ressourcen 80% ihrer Zeit mit der Integration und Aufbereitung von Daten verbringen? Informatica bietet Unternehmen die Möglichkeit, Big Data-Projekte mit leicht verfügbaren Informatica-Entwicklern zu besetzen, statt mit einer Armee von Entwicklern, die manuell Java und anderen Hadoop-Programmiersprachen codieren. Die Informatica-Entwickler sind mit Hadoop bis zu 5-mal produktiver als mit manueller Codierung und sie müssen nicht erst lernen, wie man in Hadoop programmiert. Somit haben Mitarbeiter mehr Zeit, sich auf das eigentliche Projekt zu konzentrieren.

  1. Die Umsetzung von Big Data-Projekten dauert zu lange

Auf dem Hadoop Summit im Juni 2014, der größten Big Data-Konferenz der Welt, erklärte Gartner in einer Keynote, dass lediglich 30% Prozent der Hadoop-Implementierungen auch tatsächlich genutzt werden. Diese Beobachtung unterstreicht die zweite Herausforderung, die sagt, dass die Umsetzung von Big Data-Projekten von der “proof-of-concept”-Phase zum tatsächlichen Einsatz zu lange dauert. Ein Problem, das Unternehmen haben, ist, dass beispielsweise Java-Entwickler tolle Ideen in Sandbox-Umgebungen umsetzen, für die Einführung in die Produktion jedoch Teile des Codes überarbeitet werden müssen, um diesen performant und skalierbar zu machen und in die restliche Produktions-Infrastruktur zu integrieren. Darüber hinaus ist es schwierig, das Ganze aufrecht zu erhalten, sobald sich Änderungen ergeben. Das Ergebnis sind Projektverzögerungen und Kostenüberschreitungen. Die Lösung ist die automatisierte Integration von Daten und der Datenqualitäts-Pipeline. Alles was in der Sandbox-Umgebung entwickelt wird, kann sofort und automatisch eingesetzt werden. Performance, Skalierbarkeit und Zuverlässigkeit werden durch einfache Parameter gesteuert, ohne bereits vorhandene Codierungen anpassen oder erneuern zu müssen, was typisch für manuelles codieren wäre. Informatica ermöglicht es so bereits, bestehende Big Data-Projekte weiterzuführen, auch wenn sich Dinge mit der Zeit ändern.

  1. Big Data-Technologien entwickeln sich zu schnell

Big Data-Technologien entwickeln sich rasant. Laut der “Wikibon Big Data Vendor Revenue and Market Forecast 2013-2017”(4), soll der Markt für Big Data-Technologien von 28,5 Milliarden in 2014 auf 50,1 Milliarden US-Dollar in 2015 wachsen. Dies wiederum hindert die Innovation, da sich die Technologien viel zu schnell entwickeln und Unternehmen mit der Einführung nicht hinterherkommen – oft steht bei der Implementierung schon der nächste Durchbruch vor der Tür. Was also, wenn Sie auf die falsche Technologie setzen und merken, dass diese bereits überholt ist, bevor Sie überhaupt mit der Einführung begonnen haben? Hadoop wird mehr und mehr verwendet, aber parallel dazu entwickeln sich andere Big Data-Technologien; dazu gehören hunderte von Open Source-Projekten und kommerzielle Anbieter im Big Data-Umfeld. Informatica bietet Unternehmen eine Lösung, die es Unternehmen ermöglicht, Dinge, die in der Vergangenheit aufgebaut und die heute entstehen, auch mit den großen Big Data-Technologien von morgen zu nutzen.

  1. Big Data-Projekte bringen nicht die erwarteten Ergebnisse

Zu viele Big-Data-Projekte starten als wissenschaftliche Experimente und können nicht den erwarteten Mehrwert liefern, da der Umfang nie genau festgelegt wurde. Oft wurde unterschätzt, was es braucht, um verwertbare Informationen für den Produktionsmaßstab zu integrieren, zu operationalisieren und zu liefern. Laut einer Befragung von 300 InfoChimp IT-Profis werden “55% der Big Data-Projekte nicht abgeschlossen und viele weitere liegen hinter ihren Zielen”(5). Eine weitere Studie (6) zeigt, dass 86% der Vermarkter sagen, dass sie mehr Umsatz generieren könnten, wenn sie einen umfassenderen Blick auf ihre Kunden hätten. Es ist schon lange bekannt, dass die Kosten für den Verkauf eines Produktes an einen bestehenden Kunden nur 10 Prozent von dem betragen, was es kostet um einen neuen Kunden zu gewinnen. Im Bereich CRM ist es also von großer Bedeutung, dass Unternehmen ihre Kundendaten mit Big Data-Insights bereichern und somit einen einfachen und kompletten Blick auf ihre Kunden kreieren können. Wir nennen das Kundenanalyse in Echtzeit. Diese verbessert das Kundenerlebnis und wandelt Big Data in verwertbare Informationen, die es ermöglichen, mit dem Kunden in Echtzeit zu agieren.

  1. Umsetzungsschwierigkeiten bei “fit-for-purpose”, Vertrauen und Sicherheit

Unsicherheit ist beim Umgang mit großen Datenmengen, die von externen Datenquellen, durch soziale, mobile und Sensorgeräte erfasst werden, inhärent. Dies ist mit einer der Gründe, wieso Unternehmen sich schwer tun, ihre Daten “fit-for-purpose” zu machen, das Maß an Vertrauen zu beurteilen und den Sicherheitslevel für die Daten festzulegen. Laut Gartner “erkennen Führungskräfte, dass Big Data sie dazu befähigt, bessere Geschäftsergebnisse zu erzielen und wertvolle Erkenntnisse zu erlangen. Ohne absolutes Vertrauen in Big Data (und der Anwendung von Informationsvertrauensmodellen), gehen Unternehmen eventuell Risiken ein, die den Wert, den sie suchen, untergraben.” (7)  Unsere Lösungen helfen Unternehmen das Meer von Daten auf einen zentralen Punkt zu managen und die Rohdaten in vertrauensvolle, sichere und “fit-for-purpose” Informationen zu verwandeln.

___________________________________________________________________

(1) PwC-Studie: Revolution Big Data, Mai 2014

(2) InformationWeek 2013 Analytics, Business Intelligence and Information Management Survey of 541 business technology professionals

(3) Big Data Governance From Truth to Trust, Gartner Research Note, July 2013

(4) Wikibon Big Data Vendor Revenue and Market Forecast 2013-2017

(5) “CIOs & Big Data: What Your IT Team Wants You to Know,” – Infochimps conducted its survey of 300 IT staffers with assistance from enterprise software community site SSWUG.ORG.

(6) Predicts 2013: Big Data and Information Infrastructure, Gartner, November 2012

(7) Gleanster Survey: Lifecycle Engagement: Imperatives for Midsize and Large Companies.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

3 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

3 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

3 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

3 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

3 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

3 Jahre ago