Memory-Driven Computing: HPE zeigt ersten Prototypen von “The Machine”

The Machine (Grafik: HPE)

Hewlett Packard Enterprise will damit die Architektur grundlegend umkrempeln, auf der Computer aufbauen: Bei The Machine steht nicht mehr der Prozessor, sondern der Arbeitsspeicher im Mittelpunkt. Das Konzept soll vielfältig anwendbar sein – von winzigen IoT-Geräten bis zu Rechnern für Exascale-Computing.

Zum Auftakt seiner Hausmesse Discover 2016 in London hat Hewlett Packard Enterprise (HPE) den ersten Protoytpen seiner seit fünf Jahren in Vorbereitung befindlichen Computing-Architektur “The Machine” gezeigt. Elemente davon sollen im Wesentlichen 2018 und 2019 in HPE-Produkte Eingang finden. Das Ziel ist ehrgeizig: HPE bezeichnet The Machine als “weltweit erste Arbeitsspeicher-zentrische Computer-Architektur” und will damit die seit rund 60 Jahren gebräuchlichen Rechnerarchitekturen ablösen.

Die sind nach Ansicht von HPE nämlich nicht geeignet, die künftigen Aufgaben, die durch Cloud Computing und das Internet der Dinge (IoT) sowie mobile Netzwerke und Machine-to-Machine-Computing auf sie zukommen, noch zufriedenstellend zu lösen. Erstmals offiziell vorgestellt wurde das Projekt bereits vor gut zwei Jahren auf der damals in Las Vegas stattfindenden HP-Hausmesse. Der damalige CTO Martin Fink erklärte dabei den Bedarf nach einem neuen Ansatz damit, dass der bisherige dazu führe, dass Betriebssystem und Prozessoren zu 90 Prozent lediglich damit beschäftigt seien, Daten zwischen verschiedenen Speichern zu verschieben, beispielsweise von einer Festplatte in den Hauptspeicher.

The Machine früher Entwurf Hardware (Bild: HPE)

Bei “The Machine” kommunizieren dagegen auf bestimmte Arbeitslasten spezialisierte Prozessoren über optische Verbindungen mit einem “universellen Speicher”. Die Trennung von Hauptspeicher und Massenspeicher wird somit aufgehoben. Für den neuen Speicher setzt HPE auf Memristoren. Das dafür auf Basis von Linux konzipierte Betriebssystem wird HPE als Open-Source-Lizenz bereitstellen.

Der Prototyp von “The Machine” ist laut HPE seit Oktober in Betrieb. Er habe erfolgreich belegt, dass die vier wesentlichen Säulen des Konzepts kurz vor der Marktreife stehen. Erstens funktioniert der Ansatz, dass zahlreiche greifen auf einen gemeinsamen Pool von “Fabric Attached Memory” zugreifen. Zweitens läuft das optimierte – soll vor allem heißen auf seine wesentlichen Bestandteile reduzierte – Linux-Betriebssystem auf dem maßgeschneiderten System on a Chip (SOC). Drittens haben sich Komponenten zur optischen Datenübertragung als funktionsfähig erweisen. Sie sollen den Rechner nicht nur wesentlich schneller, sondern auch energieeffizienter machen. Und viertens sind wohl auch die Entwicklungs-Werkzeuge, die es überhaupt ermöglichen Anwendungen zu konzipieren, um den umfangreichen, nicht-flüchtigem Arbeitsspeicher nutzen können, so weit, dass sie allgemein genutzt werden können.

Antonio Neri (Bild: HPE)
“Wir haben einen großen Meilenstein mit unserem Forschungsprojekt The Machine erreicht – einem der größten und komplexesten Forschungsprojekte in unserer Firmengeschichte”, erklärt Antonio Neri, Executive Vice President und General Manager der Enterprise Group bei HPE. (Bild: HPE)

Benchmarks liegen noch nicht vor. HPW wirbt aber damit, dass “mithilfe von Simulationen” errechnet worden sei, dass die Verarbeitungsgeschwindigkeit mit der neuen Architektur „bei zahlreichen Workloads“ im Vergleich zu heutigen Computern 8000-mal schneller sein wird. “HPE erwartet ähnliche Resultate, wenn die Kapazität des Prototyps um weitere Knoten und weiteren Arbeitsspeicher erweitert wird”, teilt das Unternehmen heute mit.

Im Rahmen der Forschung an “The Machine” wurden von HPE respektive damals noch Hewlett Packard mehrere Technologien entwickelt. Neuerungen gibt es vor allem bei nichtflüchtigem Speicher sowie der Vernetzung der Netzwerk Komponenten (Fabric und Photonik). Im Bereich Sicherheit scheint HPE ebenfalls einiges in Vorbereitung zu haben, Ergebnisse hier werden allerdings noch länger auf sich warten lassen.

Byte-adressierbaren nichtflüchtigen Speicher plant HPE dagegen 2018 oder 2019 vorzustellen. Er soll die Vorteile von DRAM bei der Leistung und die Vorteile von traditionellem Speicher in Bezug Kapazität und Beständigkeit in sich vereinen. Ein Schritt auf dem Weg dahin ist HPE Persistent Memory. Es wurde im Frühjahr eingeführt. In den HPE-Servern ProLiant DL360 und DL380 Gen9 werden inzwischen HPE 8GB NVDIMM angeboten. Sie sind vor allem darauf ausgelegt, Workloads für Datenbanken und Analytics-Anwendungen zu unterstützen und sollen dazu beitragen, Flaschenhälse bei traditionellen Storage-Umgebungen zu eliminieren.



Die für “The Machine” entwickelten optischen Technologien sollen mit den für 2017 angekündigten HPE-Synergy-Systemen auf dem Markt eingeführt werden. Ab 2018 soll die Photonik-Technologie von “The Machine” in weiteren Produktlinien, auch in einigen aus dem HPE_Storage-Portfolio, integriert werden. Das Unternehmen plant anschließend dann auch Fabric Attached Storage-Produkte auf den Markt zu bringen, die auf dem vom kürzlich gegründeten Gen-Z-Konsortium entwickelten Hochleistungs-Interconnect-Protokoll basieren. Neben HPE gehören dort zum Beispiel auch IBM, DellEMC, Lenovo, Huawei und Cray sowie ARM, Micron, SK Hynx und Samsung zu den Mitgliedern.

Damit bei der Markteinführung der neuen Rechnersysteme mit “Memory-Driven Computing” auch Software zur Verfügung steht, die davon profitieren kann, hat HPE dieses Jahr begonnen, mit Hortonworks/Spark zusammenzuarbeiten. Seit Juni 2016 steht außerdem Code auf Github zur Verfügung, um Programmierer an die Memory-Driven Architecture heranzuführen. 2017 soll der Code in vorhandene Systeme integrieren werden und dann die Grundlage für künftige Analytics-Anwendungen bilden. Mit ihnen ist erst ab 2018 zu rechnen.