Maurizio Canton

ist CTO EMEA bei TIBCO Software.

Big Data: Wer zu spät kommt, ….

Bei Daten ist es wie mit dem Gemüse – Je frischer desto besser. Aber manche Sorten halten sich dann doch noch etwas länger, erklärt Maurizio Canton, CTO EMEA bei TIBCO, in seinem aktuellen silicon.de-Blog.

Öl, Wasser und gute Ideen zählen bekanntlich zu den knappen Gütern. Das kann man von Daten gerade nicht behaupten, im Gegenteil. Tagtäglich sind kleine wie große Unternehmen mit einer exponentiell wachsenden Flut von Daten konfrontiert. Ein Ende dieser Entwicklung ist nicht in Sicht. Dabei ist das eigentliche Sammeln der Daten nicht das Problem. Die IT-Branche hat hier gute Arbeit geleistet. Und wir sind dabei, auch die Auswertung und sinnvolle Nutzung dieser enormen Mengen von Rohinformationen in den Griff zu bekommen; vor allem, weil die Unternehmen Big-Data-Applikationen immer besser zu nutzen wissen. Aber es gibt nicht nur gute Nachrichten.

Positiv ist zwar, dass Big-Data-Anwendungen die Identifikation nützlicher Muster und Trends ermöglichen, die ansonsten unerkannt blieben. Aber: Die Mehrzahl der Applikationen ist so ausgelegt, dass Informationen erst eine gewisse Zeit nach der eigentlichen Datensammlung gesichtet und analysiert werden können. Das ist ausreichend, wenn es um langfristige Trends geht. Will man die verfügbaren Daten aber unmittelbar verwerten, ist eine schnelle Analyse Voraussetzung. Denn viele Daten haben quasi ein Mindesthaltbarkeitsdatum. Verzögerungen lassen den Wert der gesammelten Daten unter Umständen rapide sinken.

Solche Daten sollten in sehr kurzer Zeit analysiert, verarbeitet und genutzt werden. Das erfordert eine einheitliche In-Memory-Lösung sowie die Fähigkeit, Ereignisse in Echtzeit zu analysieren. So können alle Daten, historische ebenso wie Echtzeit-Streaming-Daten,  verarbeitet und noch vor ihrem “Ablaufdatum” verwertet werden.

Nehmen wir ein Beispiel aus dem Einzelhandel. Hier lassen sich potenzielle Kunden beispielsweise auf der Grundlage früherer Einkäufe und ihres Online-Verhaltens identifizieren. Die großen Handelsketten haben das zwar verstanden, aber historische Daten sind ihrer Natur nach nun einmal “kalte” Daten. Den Einzelhändlern bleibt also nichts anderes übrig, als mit herkömmlichen Marketingkampagnen Kunden erneut in die Läden oder Onlineshops zu locken. Welche Chancen würden sich ergeben, wenn man diese historische Analyse mit Echtzeit-Standortdaten von mobilen Endgeräten, mit Lagerbestandsdaten, verfügbaren Angeboten und anderen kurzlebigen Datenbeständen verknüpfen könnte? Man würde Kunden bereits während des Einkaufens identifizieren und berechnen können, wie wahrscheinlich es ist, dass sie ein bestimmtes Angebot attraktiv finden und kaufen.

Wir nennen diese Art von Analyse “Psychological Router”. Unternehmen ziehen daraus Informationen, mit deren Hilfe sie ihren Kunden personalisierte Angebote, Kaufempfehlungen oder gezielte Informationen direkt auf ihr Handy senden können. So generieren die Datenbestände wirklich zusätzlichen Mehrwert.

Oder werfen wir einen Blick auf die Versorgungswirtschaft. Regulatorische Vorgaben und eine nachhaltige Umweltpolitik zwingen die Versorger, ihre operative Effizienz zu steigern, indem sie ihre Aktivitäten in ihrem gesamten Umfeld in Echtzeit überwachen. Wichtig auch hier: Die gesammelten Daten müssen analysiert werden, solange sie aktuell sind. Nur so können die Reaktionen auf Nachfrageschwankungen, das Lastmanagement und Maßnahmen, mit denen mögliche Fehler und Netzausfälle vorab erkannt werden können, optimiert werden.

Ganz ähnlich verhält es sich im Gesundheitssektor. Hier nutzen die forschenden Unternehmen schon immer Patientendaten, um langfristig Ursachen von Krankheiten und neue Therapien zu finden. Doch eine sofortige Analyse der Daten würde noch größeren Nutzen bringen. Beispielsweise kann die Echtzeit-Analyse von Überwachungsgeräten zeigen, dass ein sofortiges Eingreifen, Änderungen in der Medikamentation oder andere Maßnahmen erforderlich sind. Die Werthaltigkeit solcher Daten kann unter Umständen von extrem kurzer Dauer sein. Eine verspätete Big-Data-Analyse wäre wertlos.

Natürlich gibt es auch Szenarien, bei denen Schnelligkeit keine so große Rolle spielt. Aber zahlreiche Beispiele belegen, dass die Fast-Data-Analyse Big-Data-Applikationen noch wertvoller macht. Wir müssen also verstehen, für welche Anwendungsszenarien Echtzeit-Analysen sinnvoll sind und zusätzliche Vorteile liefern. Dann gilt es nur noch, die Daten auszuwerten, solange sie noch “frisch” sind.