Maurizio Canton

ist CTO EMEA bei TIBCO Software.

Big DataData & Storage

Modern, überall und unsichtbar

Auswertungen und Berichte sind aus dem Arbeitsalltag nicht mehr wegzudenken. silicon.de-Blogger Maurizio Canton fragt sich, wie sich die Disziplin Analytics weiterentwickeln muss, damit sie den Anforderungen einer modernen IT und den Anwendern gleichermaßen gerecht wird.

Die Disziplin (oder sollte man eher sagen: die Kunst) Data Analytics wurde bislang in eine Folge sehr unterschiedlicher, separater Prozesse unterteilt: Das Sammeln von Daten, sei es aus einem Datenpool oder, was heute üblicher ist, aus einer Vielzahl von Datenquellen, die Analyse, typischerweise offline, und schließlich das Zusammenführen der Daten.

Dieses lineare Modell ist für die moderne IT und für die Art und Weise, wie wir sie heute nutzen, jedoch ungefähr so relevant wie die Stapelverarbeitung, prozedurale Programmiersprachen und die Kathodenstrahlröhre.

Zugegeben, diese Analogie passt nicht hundertprozentig, denn im Gegensatz zur Kathodenstrahlröhre hat der traditionelle Ansatz von Data Analytics durchaus noch seine Berechtigung.

Aber er ist in die Jahre gekommen. Paradoxerweise zu einem Zeitpunkt, in dem die Datenmengen aus Embedded Systemen, aus sozialen Netzwerken und von Wearable-Technologien förmlich explodieren. Es stehen riesige “Container”, befüllt mit strukturierten und unstrukturierten Daten, sowohl im Unternehmen als auch extern bereit. Analytics-Anwendungen und ihre Nutzer rücken damit ins Zentrum der Aufmerksamkeit.

Wie bereits in einem früheren Post ausgeführt, haben Daten ein Ablaufdatum. Sie sollten in einem kurzen Zeitfenster analysiert und verarbeitet werden. Sonst sind sie nahezu wertlos.

Die technologischen Entwicklungen lassen herkömmliche Analytics-Lösungen inzwischen schnell hinter sich. Sollen sie weiterhin wertvolle Informationen liefern, sind Veränderungen nötig, damit sie unseren Anforderungen entsprechen und laufend angepasst werden können.

Wir sollten zumindest aufhören, in sequenziellen Prozessen zu denken: Daten sammeln, auswerten und dann handeln. Dieser Ansatz ist schon allein deshalb überholt, weil wir die Daten nicht mehr suchen müssen. Sie sind einfach überall, wir ertrinken förmlich in der Datenflut.

Darüber hinaus können wir nicht mehr länger warten, bis die Daten zusammengetragen und analysiert sind. Wir haben die Daten bereits, deshalb sollten sie auch sofort ausgewertet werden. Das bedeutet: Die Analytics-Lösungen müssen noch näher an die Datenquelle heranrücken, gleichsam überall eingebettet werden. Man könnte sagen, jede App sollte zu einer Analytics-App werden.

Dies bedeutet jedoch nicht, dass Big Data Analytics, wie wir es in den letzten zehn bis 15 Jahren kennengelernt haben, verschwinden wird. Big Data ist immer noch relevant. Es ist ein wesentlicher Impulsgeber dafür, dass sich die eigentliche Auswertungsarbeit stärker in Richtung Datenquelle verschiebt.

Ungeachtet dessen, muss sich unser Fokus statt auf die Verarbeitung großer Datenmengen darauf richten, wie wir die riesigen Datenmengen aus den sozialen Netzwerken, aus dem Internet der Dinge und ähnlichem am besten filtern, und auch darauf, wie wir diese Datenströme so einsetzen können, dass wir den richtigen Personen die richtigen Daten zum richtigen Zeitpunkt bereitstellen.

Fazit

Wir sollten nicht so sehr über Big Data oder das Sammeln von Daten nachdenken, sondern die wirklich großen Fragen stellen, und zwar in Echtzeit und an der Stelle, an der die Daten gesammelt werden, anstatt dies auf einen späteren Zeitpunkt an einem anderen Ort zu verschieben. Es geht darum zu erkennen, dass der eigentliche Mehrwert nicht in den Daten per se liegt, sondern darin, dass wir die großen Fragen beantworten können. Je einfacher und schneller wir Erkenntnisse gewinnen und diese an die relevanten Personen zur Umsetzung weiterreichen, umso größer ist der Nutzen von Data Analytics.