HPE “The Machine” – speicherorientierte Architektur als Hoffnungsträger

Der Prototyp eines The-Machine-Nodeboards. HPE zeigt auf der Cebit die neue Rechnerarchitekutr, die die Unterscheidung zwischen Massen- und Arbeitsspeicher weitgehend auflöst. (Bild: Ariane Rüdiger)

Mit großem Theaterdonner präsentierte HPE auf der Cebit einen ersten Prototypen der speicherzentrierten Systemarchitektur “The Machine”, an der das Unternehmen nun schon seit zehn Jahren forscht.

Bläuliches Licht, geheimnisvolles Glitzern und Funkeln im Halbdunkel: Wie die Kronjuwelen präsentiert HPE auf der CeBIT, was die Grundlage einer neuen Computergeneration werden soll – den ersten öffentlich vorgeführten Prototypen eines Nodeboards. Das Nodeboard ist die Grundeinheit von “The Machine”, der neuen, speicherzentrierten Rechnerarchitektur von HPE, auf die der Hersteller seine Zukunft verwettet hat.

“Wir brauchen für die immensen Datenmassen, die durch das Internet of Things (IoT) und Anwendungen wie das autonome Fahren entstehen, dringend eine neue, speicherorientierte Computerarchitektur”, erklärte das HPE-Management wieder und wieder dem durch die Hallen streifenden Publikum. “Immerhin erzeugt ein einziges Fahrzeug pro Tag vier TByte Daten”, konkretisierte Heiko Meyer, Managing Director HPE Enterprise Germany, vor der Presse. Die Daten dienen beim autonomen Fahren nicht nur, wie bisher, als Grundlage menschlicher Interaktionen mit den Systemen, sondern die Resultate ihrer blitzschnellen Auswertung stoßen selbst regelbasierte Aktionen an, die sich durch maschinelles Lernen immer wieder an die aktuelle Situation anpassen. Und dafür waren traditionelle Architekturen viel zu langsam, weil sie die Daten umständlich vom Festplattenspeicher in die Arbeitsbereiche holen müssen.

Der Prototyp eines The-Machine-Nodeboards. HPE zeigt auf der Cebit die neue Rechnerarchitekutr, die die Unterscheidung zwischen Massen- und Arbeitsspeicher weitgehend auflöst. (Bild: Ariane Rüdiger)
Der Prototyp eines The-Machine-Nodeboards.
HPE zeigt auf der Cebit die neue Rechnerarchitekutr, die die Unterscheidung zwischen Massen- und Arbeitsspeicher weitgehend auflöst. (Bild: Ariane Rüdiger)

Wie nun sieht ein Nodeboard aus? Betrachtet man das Foto, erkennt man ganz links einen Gateway-Baustein, der mehrere Nodeboards über einen doppelt ausgelegten Backbone logisch miteinander verbindet. Physisch besteht die Verbindung zur redundanten Backbone aus doppelt ausgelegten schnellen Glasfasern, auf die die Daten mittels Silicon Photonics aufgespielt werden, die digitalen Impulse werden also direkt auf dem Board weitgehend mit Halbleiterbausteinen in Lichtimpulse umgewandelt. Das spart Zeit und macht die Verbindungen schnell.

Eine Verbindung besteht jeweils aus einem 600 GBit/s schnellen Hin- und einem genauso schnellen Rückkanal, insgesamt stehen also zur Kommunikation mit dem Gesamtsystem pro Nodeboard redundant ausgelegte 1,2 TBit/s zur Verfügung. Die verfügbare Bandbreite lässt sich durch weitere genauso designte Verbindungen skalieren. Irgendwann soll auch die gesamte Kommunikation innerhalb eines Nodeboards mittels Lichtimpulsen erfolgen, bis dahin allerdings muss die SiPho-Technologie noch verfeinert werden.

Gen-Z statt PCIe

Weiter rechts auf dem Board sieht man den Kern der Architektur, den Prozessor, und rechts davon die festplattenlosen Speicherbänke samt programmierbarer Bausteine, die die Zugriffe an die richtigen Speicher weiterleiten. Jeder Prozessor bekommt für die gerade bearbeitete Aufgabe genau den Speicher, der nötig ist. Der Zugriff darauf erfolgt nicht mehr mit bekannten Technologien wie PCI oder PCIe, sondern mit dem neuen Interconnect-Standard Gen-Z.

Ausgewähltes Webinar

Praxisleitfaden für den Schutz von Unternehmen vor Ransomware

Helge Husemann, Product Marketing Manager EMEA von Malwarebytes, stellt in diesem 60-minütigen Webinar (Aufzeichnung) die neue Sicherheitslösung Malwarebytes Endpoint Protection vor. Sie enthält ein mehrstufiges Sicherheitskonzept und bietet damit einen effektiven Schutz vor modernen Bedrohungen wie WannaCry, Petya und anderen.

Hinter Gen-Z, das die Bandbreite bei direkten Speicherzugriffen gegenüber PCIe vervielfacht, steht ein selten breites Gremium von Herstellern. Eigentlich fehlt im Gen-Z-Konsortium nur ein Name: Intel. Kein Wunder, hat der Hersteller doch bislang verschlafen, seine Prozessorarchitekturen durch neuartige Speicherzugriffsmechanismen an das heraufdämmernde Datenzeitalter anzupassen. Es ist durchaus nicht falsch, Gen-Z als frontalen Angriff auf Intels Technologien in diesem Bereich zu betrachten. Deshalb sollte man genau beobachten, ob sich der Hersteller in der nächsten Zeit ebenfalls diesem Gremium anschließt oder etwas Eigenes aus dem Hut zaubert.

Enthält ein Gesamtsystem von “The Machine” mehr als ein Nodeboard, können sich die Daten zu einem bearbeiteten Vorgang überall im System befinden. Jede Task bekommt also genau so viel Speicher wie sie benötigt, und zwar da, wo gerade Speicher frei ist. Allerdings dürfte der Speicher auf dem Board schon für einiges ausreichen. Bis zu einem Petabyte passen hinein. Jedes System hat eine doppelt ausgelegte Backbone, an die die Nodeboards nebeneinander angeschlossen werden – derzeit sind bis zu zehn geplant.

“The Machine”: Großes Interesse der Anwender

Das Interesse an “The Machine”, so betont das HPE-Management einhellig, sei gewaltig, weil die Technologie bislang sehr zeitaufwändige Prozesse um Größenordnungen schneller macht. Andreas Hausmann, bei HPE Deutschland Chief Technologist Networking, konnte von einer rechtzeitig zur CeBIT abgeschlossenen Kooperation mit dem Deutschen Zentrum für Neurovegetative Erkrankungen (DZNE) berichten. “Bisher dauerte es eine Woche bis 14 Tage, bis eine Bildanalyse abgeschlossen war und der nächste Schritt erfolgen konnte. Mit “The Machine” reduziert sich das auf Stunden oder Minuten.” Unzählige Bilder, die im Speicher des Systems vorgehalten werden, könnten mehr oder weniger simultan mit einem neuen Bild verglichen werden, um übereinstimmende Muster zu entdecken und entsprechende Diagnosen zu stellen.

Mehr zum Thema

Wie man gefährliche E-Mails identifiziert

Gefälschte E-Mails enthalten häufig Viren oder andere Angreifer. Oft sollen auch private und sensible Daten gestohlen werden. Anhand weniger Kriterien lassen sich gefährliche E-Mails jedoch schnell erkennen.

Ganz unverändert überlebt aber wohl kein Konzept die ersten Stadien seiner Realisierung. Die wichtigste Veränderung betrifft die Software für “The Machine”. “Wir haben an diesem Punkt unsere Meinung etwas geändert”, sagte Andrew Wheeler, Vice President und stellvertretender Direktor der HP Labs. Ursprünglich sollte ein komplett neues Betriebssystem geschrieben werden – nun werden neue Softwarebausteine in der offenen Linux-Community entwickelt. “Es wird zwar noch an einigen Universitäten an einem neuen Betriebssystem geforscht, aber die offene Software ist derzeit wichtiger”, sagt Wheeler.

Der bedeutendste Unterschied zu konventionellen Linux-Betriebssystemen ist, dass die komplette Ein-/Ausgabelogik ersatzlos entfällt, weil es in “The Machine” nun einmal keine Festplatten gibt. Laut HPE gelinge es häufig, Programme einfach dadurch an “The Machine” anzupassen, dass man die Ein-/Ausgabelogik aus ihnen entfernt, weil sie bei der Arbeit mit “The Machine” keine Funktion mehr erfüllt – es reichen direkte Speicherzugriffe.

Bei HPEs "The Machine" steht vor allem der Arbeitsspeicher im Fokus und weniger die Rechenleistung. (Bild: HPE)
Bei HPEs “The Machine” steht vor allem der Arbeitsspeicher im Fokus und weniger die Rechenleistung. (Bild: HPE)

Der zweite Punkt betrifft die Speichertechnologie, mit der die Nodeboards ausgerüstet werden. Die dafür vorgesehenen Memristoren sind nichtflüchtige Speicher, die weit weniger Strom brauchen als DRAMs und an denen HPE schon lange forscht.  An deren Realisierung in Stückzahlen auf Basis von HPE-Entwicklungen werkeln Western Digital und SanDisk. Wheeler: “Speicherhersteller arbeiten häufig mit winzigen Margen, und die Ausbeute ist derzeit einfach noch zu klein.” Es könne auch sein, dass Intel und Micron mit ihrer ebenfalls nichtflüchtigen 3D X Point (sprich: 3D Crosspoint)-Technologie schneller als Western Digital die nötige Produktionsperfektion erreichen. Dann würde HPE nach eigenen Aussagen möglicherweise durchaus zunächst diesen Speichertyp in The Machine verwenden – Hauptsache nichtflüchtig und wahlfrei, heißt die Devise.

"The Machine" im Einsatz beim DZNE. (Bild: HPE)
“The Machine” im Einsatz beim DZNE. (Bild: HPE)

Wie dem auch sei: In den nächsten ein bis zwei Jahren will der Hersteller damit beginnen, die Technologien, die The Machine zugrunde liegen, Schritt für Schritt in seine Produkte zu integrieren –  Silizium-Photonik, die speicherzentrierte Architektur mit dem der Gen-Z-Interconnect und nichtflüchtiger, wahlfreier Speicher als Ersatz für die Festplatte. Erste Produkte, die vollständig auf der Technologie von The Machine fußen, könnten sich laut HPE aus der Kombination mit eingekauften SGI-Technologien im Big-Data- und HPE-Umfeld ergeben.

Ist The Machine eine Konkurrenz zu Produkten wie SAP HANA oder IBM Watson? HPE verneint das. “Watson und HANA könnten wunderbar auf “The Machine” laufen”, meinte Wheeler. Fraglich ist, ob IBM das genau so sehen würde. Auf jeden Fall ist diese Architektur ein Rückgriff auf die Anfangszeiten des digitalen Rechnens. Denn ganz zu Anfang der Computerentwicklung nutzte man ebenfalls Speicher, der seine Daten nicht verlor, wenn man ihn stromlos stellte – nur war dessen Kapazität viel kleiner.