Andreas Becks und Andreas Heiz

Andreas Becks ist Manager Business Analytics bei SAS DACH, und Andreas Heiz leitet das Customer Intelligence Competence Center bei SAS DACH. Die beiden teilen sich einen silicon.de-Expertenblog.

Big DataData & Storage

Event Stream Processing: Analyse direkt am Ort des Geschehens

Unternehmen stehen immer noch ziemlich am Anfang, wenn es darum geht, Big Data Analytics in der gesamten Organisation zu verankern – das zeigen wiederholt Studien wie “Wettbewerbsfaktor Analytics” von der Uni Potsdam und SAS. Die Technologieentwicklung ist jedoch schon längst einen Schritt weiter. Ein besonders anschauliches Beispiel: Event Stream Processing (ESP). Hier findet Analytics nicht

Unternehmen stehen immer noch ziemlich am Anfang, wenn es darum geht, Big Data Analytics in der gesamten Organisation zu verankern – das zeigen wiederholt Studien wie “Wettbewerbsfaktor Analytics” von der Uni Potsdam und SAS. Die Technologieentwicklung ist jedoch schon längst einen Schritt weiter.

Ein besonders anschauliches Beispiel: Event Stream Processing (ESP). Hier findet Analytics nicht erst im zentralen Datenspeicher statt, sondern gleich dort, wo die Daten entstehen. Das Prinzip dabei ist, dass Muster erkannt und Chancen genutzt werden können, die in dem immensen Informationsfluss ansonsten untergehen würden. Und dieses Fortschrittstempo hat einen sehr realen Anlass: Die Verarbeitung von Datenströmen in Echtzeit gilt als absolute Schlüsseltechnologie zur Umsetzung neuer Geschäftsmodelle.

SAS (Bild: SAS)
Dr. Andreas Becks, der Autor dieses Blogs für siilicon.de, ist Manager Business Analytics bei SAS Deutschland

Ein Beispiel dafür ist der analytische Datenstrom im Zusammenhang mit der Sensorik von Maschinen, Fahrzeugen, Industrieanlagen oder Ortungssystemen. Gerade im Internet der Dinge (IoT) ist die Echtzeitverarbeitung von Daten entscheidend, die in erster Linie von Sensoren generiert werden. Diese enormen Datenströme müssen direkt nach ihrer Entstehung analytisch gefiltert werden.

Erst ESP macht angesichts der weiter steigenden Datenvolumina Reaktionszeiten im Fast-Echtzeitbereich möglich. In der Konsequenz müssen analytische Modelle nicht nur In-Database oder In-Memory, sondern auch In-Stream funktionieren. Der nächste Schlüssel: Entscheidungen (Decisioning) müssen ebenfalls in Echtzeit vorbereitet und ausgeführt werden.

Keineswegs technologische Spielerei

Die Praxis zeigt, dass eine solche High-Performance-Verarbeitung von Daten keineswegs technologische Spielerei im Sinne von höher, weiter, schneller ist. Ein typisches Netzwerk in einem Industrieunternehmen verzeichnet 250.000 Events – pro Sekunde. Bei der enormen Menge an datenrelevanten Aktivitäten wird schon die Erfassung, Speicherung und Bereitstellung zur Herausforderung, die mit Big-Data-Technologien wie Hadoop aber beherrschbar erscheint. Eine effiziente Verarbeitung allerdings funktioniert zunehmend nur noch mit ESP.

Webinar

Digitalisierung fängt mit Software Defined Networking an

In diesem Webinar am 18. Oktober werden Ihnen die unterschiedlichen Wege, ein Software Defined Network aufzubauen, aus strategischer Sicht erklärt sowie die Vorteile der einzelnen Wege aufgezeigt. Außerdem erfahren Sie, welche Aspekte es bei der Auswahl von Technologien und Partnern zu beachten gilt und wie sich auf Grundlage eines SDN eine Vielzahl von Initiativen zur Digitalisierung schnell umsetzen lässt.

Ein weiterer Bereich ist die IT-Sicherheit. Mittels ESP lassen sich blitzschnell auffällige Ereignisse ausmachen, die auf Fraud oder Cyberattacken hinweisen könnten. Ein ganz anderer Fall wiederum ergibt sich aus der Kundeninteraktion. Eine Analyse von Datenströmen dient hier dazu, dem Kunden – egal, ob im physischen Ladengeschäft oder im Online-Shop – anhand seiner bisherigen Käufe oder seiner Bewegung maßgeschneiderte Nachrichten und Angebote zu schicken.

Die Anwendungsfälle und Technologien sind also bereits da. Einer Umsetzung steht somit nichts im Wege.