- silicon.de - http://www.silicon.de -

Erfolgreiche Prognosen – ein IT und Business Joint Venture

Da exakte Prognosen einen Wettbewerbsvorteil schaffen, wurde bereits früh versucht, diese mit Hilfe von Software zu erstellen. Seitdem IBM in den 70er-Jahren den Markt für Business Intelligence etabliert hat, ist viel passiert. Im Laufe der Jahre pendelte die Zuständigkeit für die Systeme zwischen IT und Business hin-und-her. Mit Big Data und IoT kommt das Pendel nun in der Mitte zum Stehen.

[caption id="attachment_41660061" align="alignright" width="250"]Dominik Claßen Hitachi Vantara (Bild: Hitachi Vantara) [1] Dominik Claßen, der Autor dieses Gastbeitrags für silicon.de, ist Director of Sales Engineering EMEA & APAC bei Hitachi Vantara (Bild: Hitachi Vantara)[/caption]

In seinem Buch “Do Lunch or Be Lunch” schrieb Howard H. Stevenson, Fakultätsmitglied der Harvard Business School, dass Geschäftsprognosen ebenso wichtig wie schwierig seien. Auch wenn das Buch schon ein wenig älter ist, trennt die Fähigkeit, genaue Vorhersagen zu treffen, noch immer die erfolgreichen Unternehmen von denen, die unter “ferner liefen” das Rennen beenden.

Der Hunger nach Lösungen zur Unterstützung genauer Vorhersagen hat, seitdem IBM in den 70er-Jahren den Markt für Business Intelligence [2] etabliert hat, die Nachfrage vorangetrieben. Wer lange genug in dieser Branche gearbeitet hat, konnte miterleben, wie Kaufentscheidung und Projektverantwortung zwischen IT und Business hin- und herpendelten. Jahrzehntelang beharrten die IT-Abteilungen darauf, dass die Systeme bei ihnen anzusiedeln seien, damit strikte Governance gewährleistet wird, Sicherheitseinbußen gering gehalten und richtige Entscheidungen getroffen werden können. Die Einwände von Seiten der Geschäftsabteilungen, dass diese Rigorosität keinen Sinn macht, wenn die gewonnenen Erkenntnisse zu spät kommen, um rechtzeitig Entscheidungen zu treffen, verhallten ungehört.

Von BI 2.0 zu Big Data

Bis Anfang der 2000er-Jahre, nach etlichen teuren, gescheiterten Implementierungen, das Pendel zugunsten des Business ausschlug: Unter dem Stichwort “BI 2.0” lud ein neuer Typus visueller, branchenspezifischer, oft cloudbasierter Tools den Geschäftsanwender dazu ein, die IT-Abteilung gleich ganz zu umgehen. Doch diese neuen Lösungen konnten den Hunger nach Vorhersagen nicht wirklich stillen. Obwohl diese Tools wesentlich einfacher zu bedienen waren, konnten nicht genug Daten herangezogen werden, um kontinuierlich zuverlässige und genaue Vorhersagen zu treffen.

Bestenfalls ermöglichten sie einen visuell ansprechenden Blick in den Rückspiegel. Doch da die IT-Abteilungen umgangen wurden, basierten diese Rückblicke oftmals auf unzuverlässigen und fehlerhaften Daten.

Big Data (Bild: Shutterstock) [3]

2010 schließlich wirbelten Big Data [4] dank Apache Hadoop [5] den Markt durcheinander. Mit Big Data und den sinkenden Rechner- und Speicherkosten rückten zuverlässige prognostische Analysen zum ersten Mal in Reichweite. Jetzt wurde es möglich, ein ganzes Universum an diversen unstrukturierten, qualitativen Daten aus Dokumenten, Clickstreams und Maschinensensoren zu nutzen.

Obwohl die Geschäftsanwender die neu gewonnene Kontrolle über die BI-Systeme nur ungern aufgeben wollten, brauchten sie nun die Unterstützung durch die IT-Abteilung (inklusive Data Scientists, Daten-Ingenieuren und Daten-Analysten), um diese komplexen Systeme zu entwickeln, zu bauen und daraus Werte zu schöpfen. Die Erkenntnis, dass ohne Datenbereinigung und Governance diese leistungsfähigen Business-Analysen und IoT-Systeme allenfalls unzuverlässige oder schlimmer noch riskante Ergebnisse liefern, wurde von allen Seiten akzeptiert.

Von BI-Branchenlösungen zu eingebetteten Analyseplattformen

Endlich kam das Pendel in der Mitte zum Stehen. IT und Business kommen zusammen, um einen neuen Markt gemeinsam zu gestalten, bei dem einfache Bedienbarkeit, schnelle Analysen und Vorhersagen für den Geschäftsanwender auf einem robusten Fundament aus Datenbereinigung, Datennachvollziehbarkeit, Governance und Sicherheitsanforderungen aufbauen. Mit diesem Wandel von BI 2.0 hin zu Big-Data-Analysen hat sich auch die Sichtweise der Geschäftsanwender geändert: Während früher Branchenlösungen und visuelle Attraktivität im Mittelpunkt standen, werden nun Datenintegrität und Zuverlässigkeit als wichtiger angesehen.

[highlightbox id="41636025"]

In diesem Zusammenhang ist ein Trend weg von alleinstehenden Datenvisualisierungs-Lösungen hin zu unternehmensweit eingebetteten Plattformen zu beobachten, die Analysen als Teil der täglichen Geschäftsanwendungen zur Verfügung stellen. Ein gutes Beispiel ist das europäische Teilchenforschungszentrum CERN, das Analysen eingebettet hat und seinen rund 15.000 Nutzern in ihren täglichen Anwendungen wie ERP, Finance, HR oder anderen Systemen zur Verfügung stellt.

Aussagekräftige Einblicke durch verknüpfte Datensätze

Ein Feld, auf dem IT und Business zusammenarbeiten, ist die Gewinnung aussagekräftiger Einblicke durch die Verknüpfung von Datensätzen. Bei IoT-Anwendungsfällen reicht es nicht aus, nur Sensordaten zu analysieren. Echte Erkenntnisse ergeben sich nur dann, wenn diese oder andere von Maschinen generierten Daten mit Daten aus Unternehmensanwendungen oder aus sozialen Netzwerken verknüpft werden.

[highlightbox id="41634272"]

Die Fähigkeit, aus miteinander verknüpften Datensätzen Vorhersagen zu erstellen, lässt sich besonders an dem überaus wichtigen Anwendungsfall Cyber-Security aufzeigen. So ist zum Beispiel BT Assure Cyber in der Lage, Event- und Telemetrie-Daten aus einer Vielzahl von Datenquellen zu analysieren, inklusive Geschäftssystemen, traditionellen Sicherheitssystemen und modernen Detection Tools, und ermöglicht damit seinen Kunden in kürzester Zeit weitreichende Einblicke in mögliche Schwachstellen und Risiken.

Geschwindigkeit steht nicht zur Verhandlung

Eine Sache, die Unternehmen niemals zur Disposition stellen, ist Geschwindigkeit. Es macht keinen Sinn, perfekte Daten zu haben, wenn die sich daraus ergebenden Erkenntnise so spät kommen, dass die Unternehmen nicht mehr darauf reagieren können. Glücklicherweise baut Big Data auf Open Source auf, und das gesamte Hadoop-Umfeld sowie eine globale Entwickler-Community arbeiten daran, schwierige Probleme zu lösen, die die Zurverfügungstellung der Daten verlangsamen – zum Beispiel Onboarding, Transformation, Verknüpfung und Streaming von Datensätzen.

Die neuen Kriterien für Vorhersage-Projekte

Egal ob schnell wachsende mittelständische Firma, die bezüglich IT flexibel ist, oder Großunternehmen mit vielen Altsystemen – es gibt kaum ein Unternehmen, das nicht die Folgen von Big Data in irgendeiner Form zu spüren bekommen hat. Viele BI-2.0-Anbieter reagieren auf die neuen Anforderungen durch Technologiepartnerschaften und investieren verstärkt in Forschung und Entwicklung, doch oft ist die Geschwindigkeit des Wandels für die bestehenden Kunden zu disruptiv. Die großen Anbieter von Altsystemen, die die neue Konkurrenz zu spät ernst genommen haben, reagieren aggressiv: Sie gewähren hohe Rabatte, erklagen zusätzliche Lizenzgebühren oder streben Patentklagen an.

In diesen turbulenten Zeiten das richtige Vorhersage- und Analyse-Tool auszuwählen ist schwierig. Die altbewährten funktionalen Kriterien laufen Gefahr, zu kurz zu greifen. Welche neuen Kriterien diese ersetzen könnten, wird im Anschluss in Form einer Frageliste zusammengefasst. Diese basiert auf Gesprächen mit Kunden, bei denen IT und Business gemeinsam erfolgreich daran gearbeitet haben, prognostische Analyse im Big-Data- bzw. IoT-Kontext umzusetzen.

Zehn Fragen zur Auswahl eines Prognose-Tools

In unseren ungewissen Zeiten spielen Geschäftsvorhersagen eine wichtigere Rolle als je zuvor. Dank einer engeren Zusammenarbeit von IT und Business und der Big-Data-Technologien werden Prognosen zumindest einfacher, als es der anfangs erwähnte Howard H. Stevenson damals noch einschätzte.

Über den Autor
Dominik Claßen Hitachi Vantara (Bild: Hitachi Vantara) [1]
Dominik Claßen ist Director of Sales Engineering EMEA & APAC bei Hitachi Vantara [6]. Er ist ein Branchenkenner mit langjähriger Erfahrung in Business Intelligence und war für Unternehmen wie Microstrategy, IBM, Cognos und T-Systems tätig. Der Diplom-Wirtschaftsinformatiker verfügt über Abschlüsse der Berufsakademie Mannheim und der Open University London.