Master Data Management macht dem Business Beine

Wer die Schwankungen zwischen vollen Lagern und fehlenden Produkten unterbinden will, muss an den Schrauben seiner Supply Chain drehen. Eine Möglichkeit ist, die Segnungen des Master Data Management in das Netz zu integrieren.

Das machen heute schon recht erfolgreich der amerikanische Schokoladen-Hersteller Hershey und der Chipkonzern Intel. Hier haben sich IT und Management die Frage gestellt, wie die Firma ihre Produkte in der ausreichenden Anzahl vorhalten kann, ohne zuviel Geld und Arbeit in die Lagerung zu stecken.

“Produkte nicht oder nicht ausreichend vorzuhalten, führt zu Frustration bei den Kunden und Imageverlust für die Firma – wer die Bedarfskette allerdings tatsächlich am Echtzeit-Bedarf ausrichten kann, gewinnt Loyalität, macht mehr Profit und unterscheidet sich wesentlich vom Wettbewerb. Einige gemischte Erfahrungen mit unserer Supply Chain in der Vergangenheit brachten uns auf diese Spur und ließen uns die ersten Schritte in Richtung eines Nachfrage-orientierten Supply Network machen,” sagte George Spanos, Director of IT, Logistics and Sales Systems bei The Hershey Company, anlässlich einer Teradata-Kundenkonferenz.

Dieses Demand Driven Supply Network (DDSN) ermöglicht der 1876 gegründeten Firma, auf sich verändernde Kundenwünsche schnell zu reagieren. “Wir haben die Sache einfach umgedreht: Früher bestimmten unsere Produktionszyklen und Pläne die Produktion, jetzt können wir mit Unterstützung der Systeme, wie sie beispielsweise Teradata anbietet, die Kundenwünsche tatsächlich als treibende Kraft und Schlüsselfaktor für jeden Aspekt unseres Geschäftes einsetzen und sind so näher an der Realität”, sagte Spanos. Dabei kommen außer der Datenbank des US-Herstellers auch die Lösungen und Systeme ‘Manufacturing Logical Data Model’, ‘Supply Chain Accelerator for SAP’ und ‘Demand Chain Management’ von Teradata zum Einsatz.

Etwas ganz ähnliches, übersetzt in die IT-Branche, wendet Intel an. Hier wurde die Effizienz des Bedarfsnetzes in Schwung gebracht. Wie Mark Boucher, Supply Network Architect von Intel, auf derselben Veranstaltung ausführte, sei diese Frage geschäftskritisch geworden. Schliesslich ist der Chipmarkt sehr ausgereift und die Hersteller zählbar. “Im Zentrum unserer Überlegungen stand, mit welchen Mitteln wir unserer Idee von einer entscheidend effektiveren Bedarfskette beikommen können – die einzige Antwort, die Sinn machte, lautete: durch Master Data Management”, sagte Boucher.

Basierend auf Intels eigenen, internen Geschäftslogikmodellen wurde ein einheitliches Plandatenmodell errichtet. Dazu kam ein Single Repository für alle Planungs-, Ablauf- und Verzeichnisdaten. Integrierte Flexibilität innerhalb des umfangreichen Meta oder Master Data Framework sorgte für die Chance, temporäre oder permanente Datenerstellung zu erlauben. Dabei wurden die Systeme sowohl für die Upstream- als auch die Downstream-Daten neu designt und konsolidiert.

Die Herausforderungen bestanden darin, das Inventar und die Nachfrage zu verstehen. Verpasste Profitchancen und aufwändige Nacharbeit, um entstandene Zeitfenster wieder zu schliessen, sowie inflationär steigende Systemkosten durch Buffertime und mangelnde Datenkenntnis – das alles musste schnell und dauerhaft abgestellt werden. “Die schlechte Kenntnis unserer Informationen und Prozessketten führte zu ständig auftretenden Problemen mit der Datenqualität, unsere Geschäftsregeln waren inkonsistent und Prozessübergänge wurden durch wertlose Zusatztätigkeiten wie Datenwiederherstellung und manuelle Datenarbeiten blockiert”, sagte er.

Erst mit dem Einsatz von Lösungen, die die Metadatenarbeit flexibel machen, soll sich alles zum Besseren gewendet haben. Eine Standardsoftware sorgt jetzt für Überblick. Der Konzern kann anhand von Performance Scorecards die treibenden und blockierenden Faktoren erkennen und bearbeiten. Dabei ist die Kontrolle direkt in das Enterprise Data Warehouse Layer eingebaut und interagiert mit allen Daten, die hier verabeitet wurden. Das hat laut Boucher zu einer Bedarfskette geführt, die “den Namen auch verdient”, wie er sagte. Doch ein gutes Master Data Management allein ist nicht alles, warnte er. “Wer die Daten nicht ab initio konsistent und relevant hält, die Rolle der Geschäftsprozesse unterschätzt und kein Team von Governance-Spezialisten etabliert, die die Datenströme im Griff behalten, der wird kostspielige Fehler machen.”