Categories: DataKI

Datenbasiert entscheiden: Datenanalyse-Trends 2022

CDOs und CEOs erwarten schnelle und zielgerichtete Ratschläge aus der Datenanalyse. Daher sollten Unternehmen folgende Entwicklungen im datengestützten Handeln beachten:

1. Visualisierung

Daten in konkrete Handlungsempfehlungen zu übersetzen ist die eine Herausforderung. Diese Information im gesamten Unternehmen zu vermitteln, sie zu „demokratisieren“ und allgemeinverständlich zu veranschaulichen, ist eine mindestens ebenso wichtige. Gartner sagt voraus, dass im Jahr 2025 80 Prozent aller unternehmerischen Innovationen auf visualisierten Daten basieren werden. Das ganze Unternehmen sollte daher Datenkompetenz besitzen und fördern. Jeder sollte die typischen Fragen wie „Wo und wie können wir neue Werte für unser Geschäft schaffen oder ausbauen?“ beantworten können. Dabei kann Datenvisualisierung enorm helfen.

2. On-Demand und Echtzeit-Analysen

Datenanalysen, Empfehlungen und daraus abgeleitete Maßnahmen finden immer stärker in kürzesten Zeitspannen bis hin zu Echtzeit statt. Hierbei hilft nicht nur die Visualisierung bei der schnellen Interpretation der Daten. Auch in Dashboards, in denen sämtliche Betriebsdaten konsolidiert werden, bleiben relevante Unternehmensdaten permanent on-demand im Blick und können für sämtliche betriebliche Abteilungen oder auch externe Stakeholder geteilt oder schnell in Reportings übersetzt werden.

3. Small statt Big Data

Das Bewusstsein steigt, dass Künstliche Intelligenz (KI) und Smart Analytics wenig bringen, wenn die Grundlage der Auswertungsprozesse unsaubere Daten sind. Unternehmen, die den Wert der Datenqualität erkennen, wissen spätestens ab diesem Punkt, dass Datenqualität auch zusätzlichen Aufwand für deren Pflege beinhaltet. Schlechte Daten – wie veraltete, ungenaue und unvollständige Daten – mindern die Qualität der Erkenntnisse, die aus Datenanalyse gewonnen werden, und verursachen damit Mehrarbeit. Zudem können Daten auch rechtlich aufs Glatteis führen: So schreibt die DSGVO eine Löschpflicht vor. Also heißt es im Hinblick auf Daten im Jahr 2022: Small statt Big Data und Qualität statt Quantität.

4. KI-getriebenes Data-Storytelling

Data Storytelling übersetzt abstrakte Daten in anschauliche Geschichten und kann Mitarbeitern über reine Auswertungen und Visualisierungen hinaus, Trends anschaulich vermitteln. Entscheider und Analysten können Daten-Stories nutzen, um wichtige Trends, Veränderungen, KPIs und Metriken hervorzuheben und datenbasierte Entscheidungsprozesse zu beschleunigen, und um klar zu sehen, welche nächsten Schritte logisch sein könnten. KI-getriebenes Data-Storytelling kann mit Hilfe holistischer Datenanalysen etwa automatisiert Geschichten aus Daten erstellen. „Augmented Analytics“ ist ein Ansatz, bei dem mit KI Daten zuerst strukturiert und im nächsten Schritt in natürliche Sprache übersetzt werden, um schließlich auf konkrete Anwendungsfälle übertragen zu werden – wie etwa die Sales-bezogene Fragestellung: „Wo kommen unsere Kunden her?“

5. Datenanalyse ist Teamwork und Business-getrieben

Data Analytics wird zunehmend zu einer Disziplin, die weit über die reine Datenwissenschaft, also das reine Sammeln und Aufbereiten von Daten, hinausgeht. Datenanalyseprozesse integrieren vor eine wachsende Anzahl an Rollen und Spezialisten. Datenanalysten haben in diesem Gefüge selbstverständlich weiterhin ihren Platz. Sie arbeiten aber verstärkt mit Business-Stakeholdern zusammen, die definieren, welche Daten überhaupt wichtig sind und verwendet werden sollen. In diesem Prozess spielen Daten-Strategen auch eine wichtige Rolle, die mit Daten-Architekten entscheiden, welche Anwendungsfälle für die Analyse relevant sind. Data Engineers bringen die dafür notwendigen Daten in das passende Format.

6. Datenanalyse auf dem Prüfstand: Wie gut funktionieren Prognosen?

Wenn Vorhersagen aus Datenanalysen mit der Realität nicht übereinstimmen, steht die Datenanalyse auf dem Prüfstand. Einer der Gründe für entsprechende Abweichungen kann neben der Analyse-Methodik die mangelnde Datenqualität sein, durch unvollständige, redundante oder veraltete Daten. Forecasts aus schlechten Daten können Unternehmensstrategen nicht nur in die falsche Richtung leiten, sondern auch enorme Kosten verursachen. Es gilt für Unternehmen also nicht nur, sich grundsätzlich für Datenanalyse und Datenzentrierung einzusetzen, sondern bei spürbaren Abweichungen der Vorhersagen auch die Datenqualität kritisch zu hinterfragen.

Roger Homrich

Recent Posts

Im Blindflug in Richtung Nachhaltigkeit

Eine Mehrheit der deutschen Unternehmen will klimaneutral werden. Aber wie? Für eine Antwort fehlen ihnen…

14 Stunden ago

Unternehmen unterschätzen Cyberrisiken durch vernetzte Partner und Lieferanten

Firmen stufen Sicherheitsrisiken ihrer Partner in digitalen Ökosystemen und Lieferketten als wenig besorgniserregend ein.

15 Stunden ago

Silicon DE im Fokus Podcast: Microsoft und der Mittelstand

Im Silicon DE Podcast erläutert Oliver Gürtler, Leiter des Mittelstandsgeschäfts bei Microsoft Deutschland, im Gespräch…

17 Stunden ago

Microsoft Edge erhält neue Sicherheitsfunktion für “unbekannte” Websites

Der Browser wendet beim Besuch bestimmter Websites automatisch strengere Sicherheitsregeln an. Nutzer müssen den erweiterten…

22 Stunden ago

August-Patchday: Microsoft schließt aktiv ausgenutzte Zero-Day-Lücke

Sie ist eigentlich schon seit Dezember 2019 bekannt. Eine weitere Zero-Day-Lücke wird bisher nicht aktiv…

1 Tag ago

Microsoft warnt vor möglichem Datenverlust bei Windows-Systemen mit aktuellen CPUs

Betroffen sind Windows-Rechner, die den Befehlssatz VAES unterstützen. Ein Update reduziert vorübergehend die Leistung AES-basierter…

2 Tagen ago