Categories: Data

Datenintegration als Grundlage für Industrie 4.0

Manche stehen noch am Anfang, andere sind schon mittendrin: Viele produzierende Unternehmen haben ihre Industrie 4.0-Initiative erfolgreich auf den Weg gebracht. Ohne die Integration der Daten ist Industrie 4.0 allerdings nicht denkbar. Was aber ist in Sachen Datenintegration auf dem Weg zur smarten Fabrik wichtig und was nicht?

Ziele von Industrie 4.0-Initiativen

Eine gelungene Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern. Um die Möglichkeiten und die zahlreichen Vorteile einer digitalisierten Produktion zu nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Denn der Kern von Industrie 4.0-Initativen besteht aus Informationen, ihrer Integration und ihrer Auswertung.

Daten: Rohstoff für die Wertschöpfungskette

Die klassische Industrie 3.0 hat hohen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen eine starke Fragmentierung in Datensilos auf. Sie sind kaum vernetzt, sodass keine ganzheitliche Betrachtung von Prozessen möglich ist. Laut Schätzungen wird gegenwärtig weniger als ein Prozent der unstrukturierten Daten eines Unternehmens analysiert. Deshalb findet auch eine Betrachtung und Verknüpfung von internen wie externen Daten häufig nicht statt – obwohl der Anteil unstrukturierter Daten bis zu 80 Prozent ausmacht!

Exkurs: Was sind unstrukturierte Daten?

Ein typisches Beispiel für semi- und unstrukturierte Daten sind Logs, Sensor- und Videodaten. Zu den strukturierten Daten zählt man dagegen u.a. SAP-Daten. Momentan wird nur ein geringer Teil von unstrukturierten Daten ausgewertet, denn

– sie liegen in sehr unterschiedlichen Formaten vor, etwa als Bilder, Texte, Maschinen- und Sensordaten. Dadurch ist es schwierig, ein passendes Tool zu finden, das auf alle zugreifen und das jeweilige Datenformat lesen und verarbeiten kann.
– das Datenvolumen ist extrem hoch.
– sie müssen in geeigneter Form extrahiert werden.
– oft müssen spezifische (manuelle) Lösungen entwickelt werden, damit sich die Daten überhaupt anbinden lassen.
– die Vielzahl an Daten-Updates und die fehlende Vergleichbarkeit ihrer Quellen verkomplizieren die Prozesse.
– es fehlt häufig an Fachwissen über Datenintegration und den Umgang mit Datenquellen.

Ungeheures Potenzial: Daten in der Produktion

In den Daten von Fertigungsunternehmen steckt enormes Potential. Seine Nutzung ist jedoch für viele Organisationen herausfordernd. Mit geeigneten Applikationen lassen sich die Schwierigkeiten lösen:

• Volume – die Datenmenge
Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.

• Velocity – die Übermittlungsgeschwindigkeit
Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.

• Variety – die Datenvielfalt
Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über eine Vielzahl von Formaten und Protokollen geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Datenintegration: Die einzelnen Ausbaustufen

Eine große Herausforderung für die systematische Datennutzung in der Produktion liegt darin, die verstreuten Datenquellen so zusammenzuführen, dass am Ende ein optimaler Datenfluss entsteht, der alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten versorgt. Dafür lassen sich folgende Stufen identifizieren:

1. Data Warehouse
Klassische Data Warehouse-Implementierungen führen Daten aus den unterschiedlichen Systemen automatisiert zusammen, aggregieren sie und stellen Kennzahlen bereit.

2. Data Lake
In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting, und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

3. Near Realtime
Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics „on the Edge“ ermöglicht, Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.

4. Data Blending
Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden.

Datenauswertung: Von der Analyse bis zur Handlungsempfehlung

Die verschiedenen Integrationsstufen bei Daten aus der digitalen Fertigung spiegeln sich auch in der Ausprägung der Auswertungsverfahren für diese Informationen wider: die Reise beginnt bei der klassischen Auswertung historischer Daten und endet bei Advanced Analytics mit Prognosen für zukünftige Entwicklungen mitsamt Handlungsempfehlungen oder Aufträgen an Prozesse oder andere Teilnehmer der Wertschöpfungskette. Nach der Überwindung der Datensilos-Welt steht die Erzeugung von Wissen durch Analysen und seine Verteilung an die richtigen Personen im Unternehmen an. So genannte Advanced Analytics bilden daher das Herz vieler Industrie 4.0-Anwendungen.

1. Business Intelligence
Business Intelligence-Anwendungen versorgen Fachanwender mit Informationen in Form von Berichten, Dashboards oder Self-Service-Auswertungen. Dadurch erhält man beispielsweise Einblicke in die Performance der Anlagen oder in Wartungsaktivitäten. So lassen sich Vergleiche von Rüstzeiten zwischen Maschinen oder Werken schnell aufdecken, etwa ob es Defizite bei einzelnen Teams oder Standorten gibt.

2. Prädiktive Analysen
Dabei geht es weniger um den Blick nach hinten, sondern um Zukunftsprognosen und die Entdeckung versteckter Zusammenhänge in den Daten. Prädiktive Analysen prognostizieren, was als Nächstes passieren kann und eröffnen die Möglichkeit, Problemen proaktiv gegenzusteuern.

3. Präskriptive Analysen
Sie geben Auskunft darüber, wie Unternehmen mit zukünftigen Herausforderungen umgehen sollten, und unterbreiten konkrete Handlungsempfehlungen für anstehende Aufgaben in der Produktion.

Am Ziel: Wettbewerbsvorteile realisieren

Im Rahmen einer gelungenen Industrie 4.0-Initiative sorgen leistungsfähige moderne Technologien dafür, dass Wettbewerbsvorteile wirklich realisiert und neue Perspektiven für künftige Produktionsszenarien möglich werden. McKinsey geht davon aus, dass Industrie 4.0-Applikationen das Potenzial haben, bis 2025 einen Wert von 3,7 Billionen US-Dollar pro Jahr zu erreichen. Fertigende Unternehmen profitieren bei der Umsetzung von Industrie 4.0-Projekten von folgenden Vorteilen:

• Produktivitätssteigerung und Kostensenkung
• Höhere Genauigkeit von Planungen und Forecasts
• Verkürzung der Zeit des Go-to-Market
• Steigerung der Wettbewerbsfähigkeit

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

3 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

3 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

3 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

3 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

3 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

3 Jahre ago