Categories: Cloud

HPE weitet The Machine auf 160 Terabyte Arbeitsspeicher aus

Hewlett Packard Enterprise (HPE) präsentiert einen weiteren Prototyp des auf einem einheitlichen Arbeitsspeicher basierenden Big-Data-Computers “The Machine”. Das neue Modell kann nun bis zu 160 TByte Arbeitsspeicher adressieren und sei damit laut HPE in der Lage, so viele Daten gleichzeitig zu verarbeiten wie in der Library of Congress in Form von Büchern gehortet werden – und das gleich fünfmal. Das entspreche etwa 160 Millionen Bänden. Es sei bisher laut Hersteller nicht möglich gewesenen, Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

Der zweite Prototyp bietet über 40 physische Rechnerknoten, die mit einem Hochleistungs-Fabric-Protokoll miteinander verbunden sind. Als Betriebssystem kommt ein optimiertes Linux zum Einsatz, das auf ThunderX2 läuft, der ARMv8-SoC-Architektur der zweiten Generation von Cavium. “The Machine” kann außerdem auf lichtbasierte Kommunikationsverbindungen, darunter das neue X1 Photonics Module, zurückgreifen, damit Softwareprogrammierungswerkzeuge die Vorteile des immensen nicht-flüchtigen Arbeitsspeichers auch ausschöpfen können.

“Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen. Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde”, erklärt HPE-CEO& Meg Whitman.

Hewlett Packard Enterprise (HPE) hatte erste Protoytpen der seit mehreren Jahren in Entwicklung befindlichen Computing-Architektur “The Machine” dieses Jahr auch auf der CeBIT ausgestellt. Elemente aus der neuen Architektur sollen schon 2018 und 2019 in erste HPE-Produkte fließen. Mit der weltweit ersten Arbeitsspeicher-zentrischen Computer-Architektur will der Hersteller die seit rund 60 Jahren gebräuchlichen Rechnerarchitekturen ablösen.

Bei HPEs “The Machine” steht vor allem der Arbeitsspeicher im Fokus und weniger die Rechenleistung. (Bild: HPE)

Diese sind nach Ansicht von HPE nicht geeignet, die künftigen Anforderungen des Cloud Computing und des Internet der Dinge (IoT) sowie mobile Netzwerke und Machine-to-Machine-Computing zufriedenstellend zu lösen.

Bei “The Machine” kommunizieren dagegen spezialisierte Prozessoren und für bestimmte Aufgaben optimierte Beschleuniger über optische Verbindungen mit einem universellen Speicher. Die Trennung von Hauptspeicher und Massenspeicher wird somit aufgehoben. Für den neuen Speicher setzt HPE auf Memristoren.

Byte-adressierbaren nichtflüchtigen Speicher wolle HPE in den nächsten Jahren vorstellen und damit Vorteile von DRAM und von traditionellen Speichern vereinen. HPEs Persistent Memory das bereits als Option für die HPE-Server ProLiant DL360 und DL380 Gen9 zur Verfügung steht ist dabei ein erster Schritt. Sie sind vor allem darauf ausgelegt, Workloads für Datenbanken und Analytics-Anwendungen zu unterstützen und sollen dazu beitragen, Flaschenhälse bei traditionellen Storage-Umgebungen zu eliminieren.

Die für “The Machine” entwickelten optischen Technologien sollen mit den für 2017 angekündigten HPE-Synergy-Systemen auf dem Markt eingeführt werden. Ab 2018 soll die Photonik-Technologie von “The Machine” in weiteren Produktlinien integriert werden.

PartnerZone

Effektive Meeting-und Kollaboration-Lösungen

Mitarbeiter sind heute mit Konnektivität, Mobilität und Video aufgewachsen oder vertraut. Sie nutzen die dazu erforderlichen Technologien privat und auch für die Arbeit bereits jetzt intensiv. Nun gilt es, diese Technologien und ihre Möglichkeiten in Unternehmen strategisch einzusetzen.

Das Unternehmen plant auch Fabric Attached Storage-Produkte auf den Markt zu bringen, die auf dem vom kürzlich gegründeten Gen-Z-Konsortium entwickelten Hochleistungs-Interconnect-Protokoll basieren. Neben HPE gehören dort zum Beispiel auch IBM, Dell EMC, Lenovo, Huawei und Cray sowie ARM, Micron, SK Hynx und Samsung zu den Mitgliedern.

Der Prototyp eines The-Machine-Nodeboards. HPE zeigte auf der CeBIT die neue Rechnerarchitektur, die die Unterscheidung zwischen Massen- und Arbeitsspeicher weitgehend auflöst. (Bild: Ariane Rüdiger)

Damit bei der Markteinführung der neuen Rechnersysteme mit “Memory-Driven Computing” auch Software zur Verfügung steht, die davon profitieren kann, arbeitet HPE seit 2016 mit Hortonworks zusammen, das mit Apache Sparks über eine In-Memory-Datenbank-Engine verfügt.

HPE bietet auf Github das Projekt auch der Open Source Community an. Noch im Laufe des Jahres 2017 soll der Code in vorhandene Systeme integriert werden und dann die Grundlage für künftige Analytics-Anwendungen bilden.

[mit Material von Kai Schmerer, ZDNet.de]

Tipp: Was wissen Sie eigentlich über Hewlett Packard? Überprüfen Sie Ihr Wissen – mit 16 Fragen auf silicon.de.

Martin Schindler

Martin Schindler schreibt nicht nur über die SAPs und IBMs dieser Welt, sondern hat auch eine Schwäche für ungewöhnliche und unterhaltsame Themen aus der Welt der IT.

Recent Posts

Silicon Security Day: Künstliche Intelligenz in der Cyber-Security

Cyberangreifer setzen zunehmend KI als Waffe ein, um ihre Angriffe noch zielführender zu starten –…

2 Tagen ago

Hacking-Event Pwn2Own: 25 Zero-Day-Schwachstellen aufgedeckt

Die Hunter nahmen Unternehmenssoftware ins Visier, um Schwachstellen in häufig genutzten Anwendungen ausfindig zu machen.

2 Tagen ago

Echte Security-KI für den OnPrem-Betrieb

Sie heißt LARA. Sie ist eine Security-KI, die sich auf die individuellen Anforderungen von Kunden…

2 Tagen ago

Schnelle Klicks mit schlimmen Folgen

Mit psychologischen Tricks verleiten Spear-Phishing-Angreifer ihre Opfer zu schnellen Klicks auf betrügerische Mails, warnt David…

3 Tagen ago

Lieferkettensorgfalts- pflichtengesetz setzt Unternehmen unter Zugzwang

Modebranche, Textilindustrie und Einzelhandel stehen unter Druck, die Vorgaben des Lieferkettensorgfaltspflichtengesetz (LkSG) ab Januar 2023…

3 Tagen ago

Mit DevOps die Produktivität und Qualität von Software-Releases erhöhen

Das DevOps-Konzept erfordert eine weitflächige Automatisierung, um die Prozesse der Softwareentwicklung zu verbessern, sagt Gastautorin…

4 Tagen ago