Schlechte Datenqualität treibt Kosten in die Höhe

EnterpriseSicherheit

Viele Projekte für Identity Management laufen zeitlich und finanziell aus dem Ruder, weil von den Anwendern die Komplexität unterschätzt wird.

Einer der wichtigsten Probleme sei hier die unzureichende Qualität von vorhandenen Daten, so lautet das Fazit einer gemeinsamen Studie von Garnter Research und Völcker Informatik, ein Berliner Unternehmen, das sich auf Identity Management und Datensicherheit spezialisiert hat.

“Üblicherweise liegt die Datenqualität bei den häufig genutzten Active Directory oder Lotus Notes bei 80 bis 85 Prozent”, so Eckhard Völcker, Vorstandsvorsitzender der Völker Informatik. In stark fragmentierten ERP-Landschaften sei es um die Datenqualität in der Regel noch schlechter bestellt.

Je höher die Zahl verschiedener Business-Anwendungen ist, desto höher ist das Risiko von Fehlern in einem Data Warehouse und der nachgeschalteten Auswertung dieser Daten. “Solange sie eine Datenbank aus einer Anwendung heraus befüllen, stimmen die Daten”, so Klaus Webersinke, Vice President Central Europe bei dem Datenqualität-Spezialisten Trillium Software. In Anwendungen verschiedener Hersteller werden beispielsweise Daten unterschiedlich behandelt, benannt oder gelistet. Bei einer Analyse werden dann gegebenenfalls ganze Datensätze nicht erkannt, oder falsch abgelegt.

So ist das Problem von mangelnder Datenqualität nicht nur ein Hemmschuh für Identity-Management-Projekte. “Obwohl die Prozesse für Analysen etwa mit den Tools von Business-Intelligence-Herstellern meist sehr gut ausgeprägt sind, bekommen die Unternehmen und Fachabteilungen am Ende doch falsche Zahlen”, erläutert Webersinke. Daher sollten Daten aus verschiedenen Quellen oder Anwendungen zunächst standardisiert, anschließen bereinigt und dann erst in ein Repository oder ein Data Warehouse überspielt werden.

Völcker Informatik sieht ein weiteres Problem: Viele Unternehmen gingen das Thema falsch an, indem sie das Thema rein technologisch erschlagen wollen. So müssten die Mitarbeiter auf die Notwendigkeit einer hohen Datenqualität getrimmt werden. Und auch die Prozesse im Unternehmen sollten mit Workflows und Audits das Auftreten inkonsistenter Daten verhindern.

Völcker ist überzeugt, dass viele ID-Management-Systeme nur unzureichenden Support für die Qualitätssicherung bieten. In kleineren Unternehmen mit nur wenigen Hundert Mitarbeitern, ließe sich vielleicht noch manuell Abhilfe schaffen. Bei größeren Mitarbeiterzahlen sei jedoch eine manuelle Pflege der Daten nicht mehr zu bewältigen. Daher gelte es auf ein flexibles System zu setzen, das Daten aus verschiedenen Lösungen integrieren könne und sich leicht implementieren lasse.

“Das Identity-Management-Projekt sollte eine Quick Win Situation schaffen und mit geringem Aufwand eine möglichst große Anzahl von Nutzern der am häufigsten genutzten Zielsysteme integrieren”, so Völcker. “Eine schnelle Neunzig-Prozent-Lösung für drei wichtige Zielsysteme ist wichtiger als eine Hundert-Prozent-Lösung für nur ein einziges Zielsystem.”

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen