Mark Darbyshire

Mark Darbyshire hat an der University of Bristol Physik studiert und ist heute European Chief Technology Officer bei TIBCO Software. Marks Interessen reichen von Nanotechnologie bis hin zu Big Data.

Big DataBusiness IntelligenceDatenbankEnterprise

Ein Tick schneller als der Rest

Mark Darbyshire, CTO EMEA bei Tibco Software ist neu im Blogger-Team von silicon.de. Zum Auftakt macht er sich Gedanken zum Hype-Thema Big Data. Der Begriff beschreibe keine neue Technologie, sagt Darbyshire. Es gehe darum, die richtigen Schlüsse zu ziehen.

Big Data ist nichts, was kommen wird – Big Data ist seit langem Realität. Als solches definiert wurde es erstmals 2001 mit drei Vs: Volume, Velocity und Variety. Ersteres beschrieb die schon sehr konkrete Ahnung von den schieren Datenmassen, die es zu verarbeiten gilt, von Gigabytes zu Terabytes zu Petabytes. Velocity machte klar, mit welcher Geschwindigkeit immer neue Daten durch immer mehr und schnellere Ereignisströme erzeugt werden. Variety stand für die Datenvielfalt unterschiedlichster Strukturen oder eben keiner.

Heute ist klar: Zu diesen drei Vs hat sich ein viertes gesellt – Volatility. Dabei geht es weniger um die Daten selbst, sondern darum, wofür sie stehen. Für alles, was im Unternehmensalltag geschieht, steht der Begriff Events als digitale Repräsentanten von Risiken oder Chancen für eine Organisation. Beispielsweise steht ein Event für die Möglichkeit, dass ein Kunden im Laden genau das Produkt findet und kauft, das er gesucht hat. Ein Event ist auch, wenn über einen Angriff auf das eigene Netzwerk sensible Informationen gestohlen werden.

Ganz gleich welcher Fall – Events warten nicht auf Antwort, sie haben ihren ganz eigenen Zeitplan. Wenn ein Unternehmen nicht bereit ist, innerhalb angemessener Zeit darauf zu reagieren, haben der Kunde – oder sensible Daten – das Unternehmen einfach wieder verlassen.

Was also haben diese vier Vs für Konsequenzen? Die Antwort darauf beschreiben drei Begriffe: Verstehen, Schlüsse ziehen, Handeln.

Der erste Schritt ist daher, ein tiefes Verständnis für die Aussagekraft der eigenen Daten zu entwickeln. Hilfreich sind dafür vorausschauende Analyse-Anwendungen, die Daten visuell aufbereiten und für statistische Modellrechnungen nutzen. Bieten etwa Vergleichseinkäufe eine gute Voraussage für Einkäufe einer bestimmten Kategorie? Ist ein Muster an nächtlichen Log-ins tatsächlich ein Anzeichen für Datendiebstahl? So steht jedes Unternehmen vor der Frage, welche Muster zu finden sind, wenn es an der richtigen Stelle sucht?

Danach geht es darum, die richtigen Schlüsse zu ziehen. Doch erst nachdem Unternehmen ihre Daten wirklich verstehen sind sie reif dafür, Ereignisse zum Zeitpunkt ihres Geschehens zu korrelieren. Dafür stehen Lösungen zur Verarbeitung komplexer Event-Prozesse: Sie finden Muster bevor die Ereignisse Gestalt angenommen haben – und nicht erst, wenn alles vorbei ist.

Am Ende heißt es: Handeln! Und zwar sobald aus der Korrelation deutlich wird, dass ein Unternehmen inmitten einer sich entwickelnden Situation steht. Wem es genügt, den Dingen ihren Lauf zu lassen, wird von Wettbewerbern bald überholt werden. Zumal alle Informationen eigentlich vorhanden sind, um den Stier bei den Hörnern zu packen: Dem Kunden sein nächstes Lieblingsprodukt zu zeigen, bevor er den Laden verlässt; vor dem Angreifer die Firewall hochfahren, bevor es zu einem Datendiebstahl kommt.

Big Data beschreibt keine bestimmte Technologie an sich, sondern Fähigkeiten, die durch Technologien erreicht werden: Verstehen, was die eigenen Daten aussagen, daraus Schlüsse ziehen und direkt handeln – einen Tick schneller als der Wettbewerber.