Categories: Data

Data Analytics: Warum der ersehnte Erfolg häufig ausbleibt

Data Analytics kann helfen, schlechte Entscheidungen auf ein Minimum zu reduzieren, indem dem Entscheidungsprozess eine faktenbasierte Informationsbasis vorgeschaltet wird. Oder anders gesagt, Data Analytics kann dabei helfen, Fragen zu beantworten wie: Was wünschen sich Kunden und Geschäftspartner? In welchen Mengen wird ein bestimmtes Produkt in Zukunft nachgefragt oder kann ich den Zeitpunkt prognostizieren, bevor Materialverschleiß zum Schaden wird? Wer über den richtigen Datensatz und die dazu passende Analyse-Methode verfügt, kann all diese Fragen schon heute beantworten und hat damit einen klaren Wettbewerbsvorteil.

Peter Breuer, der Autor dieses Beitrags, ist Senior Partner bei der Unternehmens- und Strategieberatung McKinsey. Der promovierte Mathematiker ist Spezialist für Big Data Analytics und Leiter von McKinsey Analytics (Bild: McKinsey).

Möglichkeiten werden nicht ausgeschöpft

Im Jahr 2013 erklärte der amerikanische Psychologe und Verhaltensökonom Dan Ariely: „Big Data ist wie Teenagersex: Jeder spricht darüber. Keiner weiß wirklich, wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut.“ Das ist fünf Jahre her und seitdem hat sich in den Unternehmen vieles verändert. Was bislang häufig gleich geblieben ist, ist die mangelnde Skalierung von Pilotprogrammen. Die Gründe sind vielfältig und es ist ein klarer Zusammenhang erkennbar zwischen dem Digitalisierungsgrad eines Unternehmens in Gänze und der funktionsübergreifenden Skalierung von Analysemethoden in Unternehmen.

Die häufigsten Gründe für fehlende ausbleibende Skalierung: Das Top-Management stellt dem Analyse-Team nicht die richtigen Fragen und investiert nicht genügend in die Entwicklung der Data Analytics-Fähigkeiten. Die Folge kann frustrierend sein: Die Programme im Bereich Data Analytics bleiben auf der Strecke und hinter den Erwartungen des Managements zurück. Die notwendigen Investitionen, um weiter zu lernen, bleiben aus und der Teufelskreis setzt sich zuverlässig in Gang.

Wirtschaftlicher Nutzen bleibt auf der Strecke

Doch es gibt sie ja, die anderen Unternehmen, die mit ihren Analytics-Programmen erfolgreich sind. Doch was machen diese Unternehmen anders, beziehungsweise was machen die anderen falsch? Um diese Frage zu beantworten, müsste man sich jeden Einzelfall im Detail anschauen.

Es gibt allerdings zehn typische Fehler, die häufig in Zusammenhang mit dem Scheitern eines Data-Analytics-Programms stehen:

  1. Der Geschäftsleitung fehlt eine Vision
    Das obere Management hat keine klare Vorstellung davon, was es mit Data Analytics erreichen möchte.
  2. Die Anwendungsfälle wurden nicht kalkuliert
    Kosten und Nutzen wurden nicht gegenübergestellt und entsprechend auch nicht die Anwendungsfälle ausgewählt, die möglichst schnell einen Mehrwert für das Unternehmen liefern.
  3. Es gibt keine Analyse-Strategie
    Die einzelnen Projekte stehen in keinem Zusammenhang. Ihre Auswahl ist willkürlich.
  4. Die Rollen sind nicht klar definiert
    Fachleute und Personaler haben für den Analyse-Bereich keine konkreten Stellenprofile entwickelt.
  5. Es gibt zu wenig Analyse-Übersetzer
    Es fehlen Mitarbeiter, die sowohl das technische Knowhow besitzen als auch die Geschäftsprozesse und den Markt kennen und zwischen Technologen und Betriebswirten vermitteln können.
  6. Data Analytics ist nicht Teil des Kerngeschäfts
    Erkenntnisse aus diesem Bereich können dementsprechend auch nicht zum Erfolg des Unternehmens beitragen und die Arbeit der Daten-Experten ist ineffektiv.
  7. Kostspielige Datenbereinigung nach dem Gießkannen-Prinzip
    Statt sich anzuschauen, welcher Anwendungsfall den größten Mehrwert liefert und welche Daten man hierfür konkret benötigt, werden alle Daten bereinigt. Das ist wenig zielführend, aber dafür sehr teuer.
  8. Die Analyse-Architektur dient den falschen Zielen
    Die neue Analyse-Architektur wurde nicht mit dem Ziel entwickelt, die besten Ergebnisse zu liefern, sondern sie orientiert sich an dem alten IT-System des Unternehmens.
  9. Der finanzielle Gewinn des Data Analytics-Programms ist unbekannt
    Niemand hat sich detailliert damit auseinandergesetzt, wie sich das Analyse-Programm finanziell für das Unternehmen auswirkt.
  10. Die ethischen, sozialen und rechtlichen Folgen von Data Analytics werden nicht berücksichtigt
    Zu technologisch fokussiertes Testen kann zu Problemen führen, die dem Image schaden oder sogar rechtliche Konsequenzen nach sich ziehen.
  11. So unterschiedlich diese zehn Fehler auch sind, eines haben sie gemeinsam. Sie zeigen: Wer die Chancen von Datenanalysen wirklich für sich nutzen will, muss seine gesamte Unternehmenskultur auf dieses Ziel hin ausrichten. Es genügt nicht, ein Team aus Spezialisten zusammenzustellen und zu glauben, dass diese im stillen Kämmerlein vor sich hinarbeiten und trotzdem bahnbrechende Ergebnisse liefern. Data Analytics muss Teil des Kerngeschäfts sein und in andere Unternehmensprozesse wie Marketing und Vertrieb integriert werden.

    Zudem ist es essentiell, dass neben Technikern und Strategen auch „Analytics-Übersetzer“ an Bord geholt werden. Sie stellen das Bindeglied zwischen den Daten-Spezialisten und dem Unternehmen und dem Top-Management dar. Sie geben die Ziele und Fragestellungen der Firmenleitung an die Daten-Experten weiter und spielen die Ergebnisse der Datenanalyse zurück in den Betrieb.

    Firmenleitung braucht Fachwissen, um wichtige Fragen zu beantworten

    Neben der Expertengruppe sollte aber auch die Firmenleitung über ein gewisses Fachwissen auf diesem Gebiet verfügen. Die Zauberworte „Künstliche Intelligenz“ und „Advanced Analytics“ sind zwar in der Regel bekannt, doch nur die wenigsten wissen, was sich dahinter tatsächlich verbirgt. Ohne dieses Wissen ist es aber kaum möglich, die drängenden Fragen zu beantworten. Von wo aus soll die Datenanalyse beispielsweise gesteuert werden? Von einer zentralen Stelle? Das birgt die Gefahr, dass sie nicht bis in die einzelnen Geschäftsbereiche vordringt. Oder dezentral aus den einzelnen Abteilungen heraus? Hier besteht das Risiko von Co-Existenzen. Mehrere Analyse-Programme bestehen nebeneinander und sind nicht kompatibel.

    Sollen bestimmte Aufgaben an externe Dienstleister abgegeben werden? Auch diese Entscheidung sollte reiflich überlegt sein. Natürlich können strategische Partnerschaften ein Gewinn sein. Gleichzeitig ist die Datenanalyse aber vergleichbar mit dem Gehirn eines Unternehmens. Und wer möchte schon, dass ein Fremder Zugriff auf all seine Erinnerungen und Zukunftspläne hat. Ziel muss immer sein, alleine laufen zu können.

    Mitarbeiter müssen auf Ergebnisse der Datenanalyse vertrauen

    Aber auch die übrigen Mitarbeiter müssen auf die Reise hin zu einem datengetriebenen Unternehmen mitgenommen werden. Schließlich müssen sie nicht nur eng mit den Daten-Experten zusammenarbeiten, sondern vor allem auch auf deren Ergebnisse vertrauen. Nur so kann die Datenanalyse zur Grundlage für wichtige Geschäftsentscheidungen werden. Klar ist, dass es nicht reicht, lediglich die neuen Rollen vom Chief Analytics Officer (CAO) bis zum Chief Data Officer (CDO) zu vergeben. Die Arbeit fängt dann erst an.

    Lesen Sie auch : Datenmanagement und KI
Redaktion

View Comments

  • Sehr geehrter Herr Dr. Breuer,
    gestatten Sie mir einen Kommentar zu Ihrem Beitrag, indem ich auf das Stichwort "Pivot-Tabellen-Berichtsgenerator" verweise, welches in der kommenden Auflage der "Enzyklopädie der Wirtschaftsinformatik" erscheinen wird.

    Stichworte: BI-Power User, Data Analysis eXpressions (DAX), Flache Tabelle, MultiDimensional eXpressions (MDX), Multidimensionale Datenmodellierung (MDDM), OnLine Analytical Processing (OLAP), Pivot-Chart, Pivot-Tabelle, Power Pivot, Self-Service Business Intelligence (SSBI), SQL-View, Stern-Schema, Tabellarisches Modell.

    Kurzfassung

    Pivot-Tabellen-Berichtsgeneratoren ermöglichen dem Endanwender ein eigenständiges  Online Analytical Processing (OLAP) ohne Unterstützung durch eine Zentrale IT (Self-Service Business Intelligence / SSBI). Hierzu müssen die Input-Daten in Form einer flachen Tabelle (ohne Fremdschlüssel) vorliegen; sie gleicht einer SQL-View auf das Stern-Schema der Multidimensionalen Datenmodellierung. Zur Unterscheidung spricht man vom Tabellarischen Modell.
    Die Struktur der Input-Daten basiert auf dem Tabellarischen Modell; sie gleicht einer SQL-View auf das Stern-Schema der Multidimensionalen Datenmodellierung. Die Input-Daten werden als flache Tabelle (ohne Fremdschlüssel) importiert. Mit dem Berichtsgenerator wählt der Benutzer Attribute (Spalten) der flachen Tabelle aus, um sie der Zeilen- und der Spaltendimension der Pivot-Tabelle, ihren Wertfeldern und den Berichtsfiltern zuzuordnen. Eine damit einhergehende Dimensionsreduktion bedingt eine Aggregation der dem Wertefeld zuzuordnenden Messgrößen / Fakten. Der Benutzer hat die Wahl zwischen mehreren Aggregatfunktionen (SUM, ANZAHL, MEAN etc.) und Formen der Ergebnisdarstellung (absolut, relativ in Bezug auf übergeordnete Werte etc.). Berichtsfilter und selektive Filter unterstützen Drill Down / Roll Up und Slice & Dice.
    Das Arbeiten mit dem Pivot-Tabellen-Berichtsgenerator und dessen Leistungsumfang illustriert eine Fallstudie zur Sozialstatistik unter Einsatz des Excel Add In „Power Pivot“.

    Mit freundlichen Grüßen
    Prof. Dr. Wilh. Hummeltenberg

Recent Posts

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

23 Stunden ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

3 Tagen ago

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

4 Tagen ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

6 Tagen ago

Zero Trust bei Kranich Solar

Absicherung der IT-Infrastruktur erfolgt über die Zero Trust Exchange-Plattform von Zscaler.

6 Tagen ago

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen…

7 Tagen ago