Big DataBusiness IntelligenceCloudData & StorageE-GovernmentEnterpriseManagementNetzwerkeProjekteRegulierungServerService-ProviderSicherheitSoftwareStorage

“Big Data – Welches Problem soll eigentlich gelöst werden?”

0 0 Keine Kommentare

Außerhalb des des Dunstkreises der Technologieunternehmen ist Big Data noch absolutes Neuland. Um so mehr sollte man sich daher fragen, was und vor allem wie man aus großen Datenhäufen, die es vermutlich in jedem Unternehmen gibt, auch verwertbare Ergebnisse bekommt. Dazu spricht silicon.de mit dem deutschen Geschäftsführer von Versant Volker John.

Neben seiner Roller als Geschäftsführer Deutschland für den Datenbank- und Big Data-Spezialisten Versant ist Volker John als Managing Director auch für Forschung und Entwicklung der Datenbank-Technologien von Versant und FastObjects verantwortlich. John kam 2004 durch den Verkauf der FastObjects-Technologie durch die Poet Software GmbH zu Versant.

silicon.de: Herr John, wie würden Sie eigentlich den Begriff Big Data definieren?

John: Es ist gut, dass Sie nach meiner Definition für Big Data fragen – im Markt kursieren ja viele Varianten. Gemeinsam ist den Definitionen in der Regel eine Anlehnung an die Begriffe „Volumen, Geschwindigkeit, Variabilität“. Gemeint ist damit, dass früher funktionierende Verarbeitungsformen nicht mehr greifen, weil entweder zu viele Daten zu verarbeiten sind, die Verarbeitung in kurzer Zeit stattfinden oder zu unterschiedliche Datenarten gemeinsam verarbeitet werden sollen. Bei Versant sehen wir noch eine weitere Dimension – die Komplexität der Daten, also das Beziehungsgeflecht zwischen einzelnen Datenpunkten, deren Verarbeitung herkömmliche Systeme oftmals überfordert.

 

silicon.de: Alle Welt spricht von Big Data, aber das Problem, das mit aktuellen Technologien angegangen wird, ist doch eigentlich schon viel älter als der Begriff?

John: Richtig. Mit aktuellen Technologien ist es verhältnismäßig einfach geworden, gigantische Datenmengen zu speichern, zu verwalten und zu analysieren. Was außer Acht bleibt ist der Umstand, dass die Analyse oder Ablage kein Selbstzweck ist. So muss auch mit vielen Daten die Daten- und Modellqualität sichergestellt werden. Das ist ein Problem das heute oft übergangen wird, nach dem Motto ‚Heben wir doch erst einmal alles auf, dann können wir immer noch sehen, was wir damit anfangen können’. Im Prinzip gar nicht schlecht, solange man sich am Ende noch daran erinnert, dass man unter Umständen auch viele Störeinflüsse gespeichert oder eine Stichprobe minderer Güte verwendet hat.


Darüber hinaus fehlt vielen Diskussion um Big Data ein ganz entscheidender Aspekt: Welches Problem soll eigentlich gelöst werden? Am Ende macht der Aufwand nur dann Sinn, wenn Unternehmensabläufe oder -entscheidungen durch die Daten beziehungsweise die Erkenntnisse verbessert werden können. Wie so oft muss also der Return On Investment betrachtet werden. Eine Ausnahme kann das Thema Knowledge Discovery sein, also die Schaffung neuer Erkenntnisse, weil zuvor unbekannte Wirkungsursachen und Verbindungen zwischen Daten identifiziert werden. Letztlich muss aber auch hier das Bewusstsein im Vordergrund stehen, dass die Speicherung und Analyse von Daten kein Selbstzweck ist, sondern letztlich zielorientiert sein muss.

"Big Data ist in vielen Branchen noch kein Mainstream-Thema", weiß Volker John Geschäftsführer und Managing Director bei Versant (Deutschland). Quelle: Versant
“Big Data ist in vielen Branchen noch kein Mainstream-Thema”, weiß Volker John, Geschäftsführer und Managing Director bei Versant Deutschland. Quelle: Versant

 

silicon.de: Nach wie vor sind für das Verwalten, Speichern und Analysieren von großen unstrukturierten Datenmengen viele verschiedene Technologien nötig. Glauben Sie, dass es eines Tages von Herstellern schlüsselfertige Lösungen geben wird?

John: Das kommt ganz auf die Definition von „schlüsselfertig“ an. Wenn Sie eine moderne Linux-Distribution als „schlüsselfertig“ ansehen, dann kann man bei Big-Data-Distributionen bereits heute erste Schritte in die gleiche Richtung erkennen. Ob im Gegensatz zu Distributionen von Werkzeugen unterschiedlicher Communities beziehungsweise Anbieter ein einzelner Hersteller tatsächlich genügend Potential erkennt, eine Big-Data-Lösung mit allen sinnvollen beziehungsweise notwendigen Komponenten zu kommerzialisieren, halte ich im Moment für schwer absehbar. Selbst wenn dies so wäre, hätte ich zudem Zweifel an der „Schlüsselfertigkeit“ – schon bei anderen umfangreichen Themengebieten wie CRM oder ERP ist die Definition von „schlüsselfertig“ ja durchaus Gegenstand von Diskussionen.

 

silicon.de: Der Umgang mit Big Data lässt sich in groben Zügen auf die eben bereits genannten Bereiche Storage, Prozess und Analyse und Zugriff auf die Daten zusammenfassen. Wo gibt es denn derzeit für die Anwender die größten Probleme?

John: So wie wir bei Versant den Markt beobachten, sind Prozess und Analyse zum jetzigen Zeitpunkt die größten Herausforderungen. Datenpersistenz und -zugriff sind zwar vor dem Hintergrund stetig wachsender Datenmengen permanent ein Thema, aber die grundlegenden Herausforderungen sind bekannt und erste sinnvolle Ansätze zeichnen sich ab. Viel interessanter stellt sich der Umgang mit den Aufgaben in der Analyse dar: Welche Analysen sind denn eigentlich sinnvoll? Welche Verfahren können zum Einsatz kommen? Wie wird die Datenqualität sichergestellt? Immer wieder stellt sich bei statistischen Verfahren die Frage der Ergebnisgüte, also: Wie viele Abstriche bin ich als Anwender bereit in Kauf zu nehmen, bevor ich ein Ergebnis verwerfe?

Aus diesen Überlegungen heraus ergibt sich auch die ganz banale Frage nach den datengestützten Prozessen. Viel zu oft wird heute nach dem Motto argumentiert, dass, wer seine Daten nicht ausreichend nutze, dadurch erhebliche Nachteile in Kauf nehmen müsse. Eine berechtigte Gegenfrage lautet, ob einzelne Prozesse mit noch mehr Daten noch weiter zu optimieren wären; immerhin müssen dem Nutzen auch die Kosten für die Speicherung, Verarbeitung und Analyse der Daten entgegen gesetzt werden. Tatsache ist aber auch, dass es, zum Beispiel in der Logistik oder im Telekommunikationsbereich, Anwendungsfälle gibt, die von der Einbeziehung weiterer Datenquellen beziehungsweise deren sinnvoller Verknüpfung profitieren können. Ähnliches gilt für die Steuerung der Energienetze in Deutschland, Stichwort: Energiewende.

 

silicon.de: Wie sieht es von personeller Seite aus? Sind Absolventen aktuell gut auf die Aufgaben mit Big Data vorbereitet?

John: Das kommt auf den individuellen Blickwinkel der Unternehmen an, also auch darauf, welchen Nutzen man aus seinen Daten ziehen kann. Für uns ist es derzeit schwierig, genügend Absolventen zu finden, die etwa mathematische oder statistische Fachkenntnisse mit dem Wissen um Softwareentwicklung zusammenbringen oder umgekehrt. Eine besondere Herausforderung ist es, den Umgang mit großen Datenmengen einer breiteren Anwenderschicht zugänglich zu machen, auch dies bedeutet zusätzliche Anforderungen an Absolventen auch aus dem IT-Bereich. Zudem gehören Verfahren wie Predictive Analytics oder fortgeschrittene Analysen von Graphen nicht gerade zum Allgemeingut beziehungsweise zum Interessenschwerpunkt vieler Absolventen.

 

silicon.de: Sind Big-Data-Experten denn derzeit sehr gefragt?

John: Bei uns und unseren Kunden jedenfalls schon. Wir beobachten allerdings nach wie vor eine Schere zwischen Anbietern und potenziellen Nutzern von Big-Data-Anwendungen. Hierzu ist es auch wichtig, sich vor Augen zu führen, dass Big Data bei Geschäftsmodellen sozusagen außerhalb des Internet einige Leuchtturm-Projekte vorweisen kann. Trotzdem ist Big Data in vielen Branchen noch kein Mainstream-Thema.

 

silicon.de: Wie hoch ist der Trainingsaufwand für bestehende Mitarbeiter?

John: Wir beschäftigen uns bereits seit vielen Jahren mit der Verarbeitung komplexer Datenmodelle in Szenarien mit hohen Volumen, insofern sehen wir uns hier gut aufgestellt und der Trainingsaufwand ist gering. Im Rückgriff auf die Aussage, dass Big Data kein Selbstzweck ist, sondern der Verbesserung der Betriebsabläufe und Betriebsergebnisse dienen muss, ist dies ohnehin eine Frage, die jeweils individuell zu klären ist. Unternehmen, die bereits an der informationsgestützten Optimierung von Abläufen gearbeitet haben, ohne das Label Big Data zu nutzen, werden über Mitarbeiter verfügen, die wesentlich besser mit der Thematik umgehen können. Dort wo dem Trend folgend ‚einfach mal etwas mit Big Data’ gemacht werden soll, ist der Ausbildungsaufwand höher und die Gefahr des Scheiterns größer.

 

silicon.de: Wichtig ist ja auch die Schnittstelle – wie in anderen Bereichen auch – zwischen Technik und Business. In wie weit müssen sich die Mitarbeiter in den Fachabteilungen an den Umgang mit Big Data gewöhnen, oder ist das alleine ein Thema für den CIO?

John: Wenn man sich überlegt, wie das Thema Big Data für eine breitere Öffentlichkeit zugänglich wurde, so wird man in vielen Fällen auf die Bereiche Social Networking / Social Media und digitales Marketing treffen. Beides sind aus unserer Erfahrung Bereiche, die selten den CIO betreffen, sondern den CMO oder Leiter Marketing. Dies geht sogar soweit, dass Marketing-Abteilungen eigenes technisches Know-how aufbauen und diesen Aufbau mit dem CIO koordinieren. Vielerorts gibt es eine Bewegung hin zu cross-funktionalen Teams, man denke etwa an Design Thinking. Insofern sehe ich hier eine ebenso starke, wenn nicht gar stärkere Verknüpfung zwischen Fachbereichen und IT.

 

silicon.de: Ist denn die traditionelle Unternehmens-IT auf den Umgang mit Big Data gut vorbereitet, oder müssen zum Beispiel transaktionale Systeme neu angepasst werden?

John: Nun ja, da gibt es eine einfache und viele differenzierte Antworten – es kommt darauf an. Wichtig ist es, die eng mit Big Data verknüpften Themen Cloud, Mobile Devices, Complex Event Processing und Polyglot Persistence zu berücksichtigen und zu hinterfragen, inwieweit die eigene Infrastruktur bereits Anpassungen durchlaufen hat, um diesen Aspekten gerecht zu werden. Je weiter der bereits zurückgelegte Weg ist, desto weniger Anpassungen sollten erforderlich sein. Ein Bereich, der im Kontext von Big Data tatsächlich hinterfragt wird, ist die Fokussierung auf relationale Datenbanken. Es ist aber falsch, Big Data allein auf das Thema Storage und Datenmengen zu reduzieren.

 

silicon.de: In wie weit sehen Sie neue Geschäftsfelder rund um Big Data entstehen? Können Unternehmen damit neue Märkte erschließen, oder hilft es ihnen lediglich dabei, bestehende Märkte besser zu verstehen?

John: Mehr Daten und bessere Analysen helfen natürlich nicht allein, wenn es um die Erschließung neuer Märkte geht. Daten und Analysen können aber helfen, Ereignisse und Signale beziehungsweise deren Ursachen besser zu verstehen. Aktuelle, anstehende Entscheidungen könnten auf eine verbesserte Datenbasis und fortgeschrittene Analysen aufsetzen und somit helfen, Entscheidungen bei der Erschließung neuer Geschäftsfelder zu treffen – zum Beispiel über die Verbesserung von Absatzprognosen. Letztlich wird aber gerade bei gravierenden Fragestellungen wie der über neue Geschäftsfelder die unternehmerische Entscheidung lediglich unterstützt und nicht ersetzt.

 

silicon.de: Herr John, wir danken für das Gespräch.