Schlechte Datenqualität treibt Kosten in die Höhe

Einer der wichtigsten Probleme sei hier die unzureichende Qualität von vorhandenen Daten, so lautet das Fazit einer gemeinsamen Studie von Garnter Research und Völcker Informatik, ein Berliner Unternehmen, das sich auf Identity Management und Datensicherheit spezialisiert hat.

“Üblicherweise liegt die Datenqualität bei den häufig genutzten Active Directory oder Lotus Notes bei 80 bis 85 Prozent”, so Eckhard Völcker, Vorstandsvorsitzender der Völker Informatik. In stark fragmentierten ERP-Landschaften sei es um die Datenqualität in der Regel noch schlechter bestellt.

Je höher die Zahl verschiedener Business-Anwendungen ist, desto höher ist das Risiko von Fehlern in einem Data Warehouse und der nachgeschalteten Auswertung dieser Daten. “Solange sie eine Datenbank aus einer Anwendung heraus befüllen, stimmen die Daten”, so Klaus Webersinke, Vice President Central Europe bei dem Datenqualität-Spezialisten Trillium Software. In Anwendungen verschiedener Hersteller werden beispielsweise Daten unterschiedlich behandelt, benannt oder gelistet. Bei einer Analyse werden dann gegebenenfalls ganze Datensätze nicht erkannt, oder falsch abgelegt.

So ist das Problem von mangelnder Datenqualität nicht nur ein Hemmschuh für Identity-Management-Projekte. “Obwohl die Prozesse für Analysen etwa mit den Tools von Business-Intelligence-Herstellern meist sehr gut ausgeprägt sind, bekommen die Unternehmen und Fachabteilungen am Ende doch falsche Zahlen”, erläutert Webersinke. Daher sollten Daten aus verschiedenen Quellen oder Anwendungen zunächst standardisiert, anschließen bereinigt und dann erst in ein Repository oder ein Data Warehouse überspielt werden.

Völcker Informatik sieht ein weiteres Problem: Viele Unternehmen gingen das Thema falsch an, indem sie das Thema rein technologisch erschlagen wollen. So müssten die Mitarbeiter auf die Notwendigkeit einer hohen Datenqualität getrimmt werden. Und auch die Prozesse im Unternehmen sollten mit Workflows und Audits das Auftreten inkonsistenter Daten verhindern.

Völcker ist überzeugt, dass viele ID-Management-Systeme nur unzureichenden Support für die Qualitätssicherung bieten. In kleineren Unternehmen mit nur wenigen Hundert Mitarbeitern, ließe sich vielleicht noch manuell Abhilfe schaffen. Bei größeren Mitarbeiterzahlen sei jedoch eine manuelle Pflege der Daten nicht mehr zu bewältigen. Daher gelte es auf ein flexibles System zu setzen, das Daten aus verschiedenen Lösungen integrieren könne und sich leicht implementieren lasse.

“Das Identity-Management-Projekt sollte eine Quick Win Situation schaffen und mit geringem Aufwand eine möglichst große Anzahl von Nutzern der am häufigsten genutzten Zielsysteme integrieren”, so Völcker. “Eine schnelle Neunzig-Prozent-Lösung für drei wichtige Zielsysteme ist wichtiger als eine Hundert-Prozent-Lösung für nur ein einziges Zielsystem.”

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

6 Stunden ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

7 Stunden ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

8 Stunden ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

1 Tag ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

2 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

3 Tagen ago