Bernhard Fauser

General Manager & Managing Director, HP Germany & Austria

Big DataData & Storage

Daten, überall Daten

Wir leben in einer Welt der „Datenexplosion“. Die Zahl an Endgeräten, Monitoren und Sensoren im Internet of Things (IoT)-Umfeld steigt täglich. Dabei hat die wachsende Datenmenge sowohl Vor- als auch Nachteile.

Der Vorteil: Mithilfe von IoT-Daten lässt sich Energie einsparen, beispielsweise beim automatisierten Heizen, Kühlen oder Beleuchten von städtischen Gebäuden. Gleichzeitig kann durch die Analyse der Daten – beispielsweise über predictive Analytics – Servicefenster von Maschinen optimiert und Stillstandszeiten reduziert werden. Der Nachteil: Die gesammelten Exabytes an Daten müssen in umsetzbare Informationen umgewandelt wohlmöglich in die Cloud gesendet werden. Der damit verbundene Zeit- und Kostenaufwand ist schier unerschwinglich.

Die Lösung? Die Rechenleistung muss zu den Daten gebracht werden. Um in dieser Umgebung die Recheneffizienz zu fördern und datenintensive Workloads zu bearbeiten, sollten Unternehmen an verschiedenen Aspekten arbeiten. Dazu zählen ultra-effiziente Prozessoren ebenso, wie die nächste Generation der Anwendungsprogramme – Software 2.0 sowie der Einsatz von virtuelle Maschinen oder virtuellen Fabriken.

Ultra-effiziente Prozessoren

Neue Computerprozessoren – genannt Machine Learning Accelerators (MLA) – versprechen in den kommenden Jahren große Fortschritte in Sachen Energieeffizienz. Die steigende Datenmenge innerhalb eines Edge-Netzwerks sowie immer komplexere Anforderungen an die Rechenleistung überfordern deren reguläre Entwicklungszyklen – bekannt als „Moore’s Law“. Seit mehr als 30 Jahren verdoppelt sich die Leistung mit jeder neuen Halbleitergeneration im Vergleich zur Vorgängergeneration. Mittlerweile stoßen wir vermehrt an die Grenzen der Physik. Und selbst bei neueren Graphics Processing Units (GPU)-Architekturen verlangsamt sich die Effizienzsteigerung.

Daten (Shutterstock/BeeBright).

Einfach immer mehr Transistoren auf einen Chip zu packen, funktioniert nicht. Das führt zu Interferenzen. Nur neue, „ultra-effiziente” Prozessoren können die steigende Nachfrage nach Rechenleistung erfolgreich bedienen. Mithilfe von Machine Learning lässt sich die Datenlast umleiten, die mehrheitlich durch Maschinen generiert werden sowie sensorisch und wahrnehmungsbezogen sind. Dazu gehören Sensordaten von Kameras, Mikrofonen, Sprachassistenten und autonomen Fahrzeugen.

Software neu denken

Aktuell befinden wir uns außerdem in einer Phase, in der Software-Entwicklung neu gedacht werden muss. Diese Entwicklung nennt sich Software 2.0 (oder SW 2.0) und kombiniert Software, wie wir sie bisher kennen, und mit neuen, daten-intensiven Workloads und Hardware-Architekturen. SW 2.0 ermöglicht schnellere Entwicklungszyklen und eine höhere Flexibilität bei der Lösung traditioneller Herausforderungen sowie bei der Adressierung komplexer neuer Problemstellungen. Unternehmen können somit Produkte schneller auf den Markt bringen sowie ihre Entwicklungs- und Wartungskosten senken.

In der traditionellen oder klassischen Software-Entwicklung (oder SW 1.0) muss ein Software-Team bei einem typischen Projekt unter anderem Algorithmen programmieren und mehrere Millionen an Anweisungscodes schreiben. SW 2.0 hingegen verfolgt einen neuen Denkansatz, bei dem der Mehrwert nicht durch Kodieren, sondern durch Datenaufbereitung entsteht. Das bedeutet: Daten werden von Endgeräten eingesammelt, relevante Datensets ausgewählt und diese im Anschluss verifiziert und gekennzeichnet. Die kuratierten Daten lassen sich dann nutzen, um Machine Learning (ML)-Modelle zu „trainieren“.

Ein Beispiel aus dem Druck-Bereich: Um Daten von einer großen Druckmaschine sinnvoll auszuwerten, müssen Ingenieure beispielsweise Druckresultate sichten, Mängel finden – das können Linien, Flecken, oder Spuren von Transportrollen sein – und dann das Modell trainieren. So können eben diese Mängel vermieden werden. Das Modell überprüft dabei in Echtzeit den Output der Druckmaschine. Mit SW 2.0 werden einfache Probleme schnell antrainiert. Selbst komplexe, ansonsten kaum behebbare Mängel können so vermieden werden.

Virtuelle Maschinen und Fabriken

Die stetig wachsende Zahl an Cyber-physischen Systemen mit Massen an Maschinen-generierten Daten ermöglicht Virtual Machines (VM). Ein VM – in der Produktion auch Digital Twin genannt – ist eine holistische, modellbasierte Repräsentation eines physischen Systems mit allen funktionalen, physischen Eigenschaften, die den Betrieb der Maschine widerspiegeln. Ein Beispiel für ein solches System ist der 3D Multi Jet Fusion-Drucker.
Somit können Simulationen die benötigte Zeit für Produktentwicklungen um 33 Prozent reduzieren. Die Simulation einer VM-Fabrik kann zudem reale Einsatzumgebungen simulieren. Ein enormer Vorteil: Kunden sind in der Lage, die Kosten der Produktion und damit jedes produzierten Teils zu prognostizieren und durch Veränderungen im Workflow zu optimieren.

Während des Betriebs unterstützen die in der Fabrik gesammelten Daten und VM-Modelle Kunden dabei, ihre Effizienz in Echtzeit zu verbessern und so den kalkulierten Kostenrahmen für Material- und Energieströmungen im berechneten Rahmen zu halten – oder gar zu reduzieren. So kann die Kernursache für Abweichungen identifiziert und eliminiert werden.

Schöne neue Computing-Welt

Als Branche suchen wir stetig nach Technologien, die es uns ermöglichen, effizienter, nachhaltiger und produktiver zu arbeiten. Innovation geschieht nicht im Vakuum, und oft führen Fortschritte in einem Bereich (IoT, Sensoren, Monitore) zu Komplexitäten stromabwärts (der daraus resultierenden Datenflut). Unternehmen sollten Herausforderungen aus mehreren Blickwinkeln gleichzeitig erforschen und angehen. Oft sind es komplementäre Ansätze, die zum Erfolg führen. Die Umwandlung von Rohdaten in verwertbare Informationen war schon immer wichtig, aber noch nie waren die verfügbaren Daten umfangreicher und die Notwendigkeit größer, sie kritischer zu verarbeiten. Mit steigendem Energiebedarf konzentrieren wir uns zunehmend darauf, den Verbrauch zu senken und die Effizienz zu maximieren. In diesem und vielen anderen Bereichen sind neue Rechenarchitekturen und -technologien wesentliche Bausteine für unsere datengesteuerte Zukunft.

Quelle:
https://hpmegatrends.com/data-data-everywhere-1c9ed22cb8e9

  • Daten