300 Petaflops – IBM, Nvidia und Mellanox planen neuen Supercomputer

Das US-Energieministerium hat zwei neue Superrecher beauftragt. IBM, Nvidia und Mellanox haben jetzt die Arbeiten an den beiden Supercomputern gestartet. 2017 und 2018 werden diese Rechner in Betrieb gehen und damit die USA wieder zur führenden Supercomputer-Nation machen. Für Sierra und Summit sind Das Budget für die beiden Sierra und Summit genannten Systeme beläuft sich auf 325 Millionen Dollar.


Angetrieben werden beide Rechner von OpenPower-Prozessoren von IBM, denen Nvidias neuer Grafik-Chip Volta zu Seite steht. Über die Nvidia-Technologie NVLink werde der Datenaustausch zwischen CPU und GPU zusätzlich bis zu 12 Mal beschleunigt. Mellanox wiederum steuert High-Speed-Networking-Technologien bei, die die einzelnen Komponenten miteinander verbinden.

Das größere der beiden Systeme, Summit, entsteht am Oak Ridge National Laboratory im US-Bundesstaat Tennessee. Es soll eine Spitzenleistung von 150 bis 300 Petaflops bieten und für zivile und wissenschaftliche Zwecke eingesetzt werden. Für Sierra wiederum ist eine Spitzenleistung von über 100 Petaflops geplant. Es wird am Lawrence Livermore National Laboratory errichtet und soll in erster Linie Simulationen für Nuklearwaffen durchführen.

Beide Supercomputer werden in drei Jahren mit den geplanten Kapazitäten die aktuell schnellsten Systeme weit hinter sich lassen. Die aktuelle Supercomputer-Liste Top500 führt der chinesische Tianhe2 mit 54,9 Peak Petaflops an, also einer Spitzengeschwindigkeit von 54,9 Billiarden Fließkomma-Berechnungen pro Sekunde. Der schnellste US-Supercomputer, der von Cray entwickelte Titan, schafft bis zu 27,11 Peak Petaflops. Der Jülicher Superrechner JUQUEEN ist mit einer Peak-Leistung von 5,8 Petaflops derzeit Deutschlands schnellster Rechner.

Das Wachstum der HPC-Gesamtrechenleistung flachte sich in jüngerster Vergangenheit etwas ab. (Bild: Top500.org)

Laut IBM steht bei der Entwicklung beider Systeme die Verarbeitung von Daten im Vordergrund. Ziel ist es, die Menge der zu bewegenden Daten und damit auch den Energiebedarf zu minimieren. Sierra und Summit sollen in der Lage sein, mehr als 17 Petabyte Daten pro Sekunde zum Prozessor zu bewegen. Das entspricht der Verarbeitung von 100 Milliarden Fotos auf Facebook in einer Sekunde. Wie es von IBM heißt, wurde der Rechner sozusagen um die Daten herum entwickelt.

Bislang habe man das Ziel verfolgt, die stetig wachsende Datenmenge mit immer schnelleren Prozessoren zu kompensieren. Nun aber haben die drei genannten Hersteller einen neuen Ansatz entwickelt, der den Anforderungen von Big Data offenbar besser gerecht wird. So kämen täglich 2,5 Milliarden Gigabyte an Daten hinzu, was ungefähr der Fläche von 250 Millionen Fußballfeldern entspricht, die mit Büchern bedeckt sind. In der neuen, datenzentrischen Systemarchitektur, an der Mellanox, IBM und NVidia in den letzten fünf Jahren entwickelt haben, werden die Komponenten und vor allem die Rechenleistung eines Computersystems dort angesiedelt, wo die Daten sitzen. Datenanalyse, Modellierung, Visualisierung oder Simulationen können damit  mit bisher unerreichter Geschwindigkeit durchgeführt werden, so IBM.

“Die heutige Ankündigung markiert die Abkehr vom traditionellen Supercomputing, das nicht länger praktikabel ist, da Daten mit enormen Raten wachsen”, sagte Tom Rosamilia, Senior Vice President von IBMs System and Technology Group. IBMs neuer auf Daten ausgerichteter Ansatz sei die Zukunft offener Computing-Plattformen und in der Lage, mit den zunehmenden Datenmengen umzugehen.

Darüber hinaus kündigte das Department of Energy weitere 100 Millionen Dollar für ein FastForward2 genanntes Forschungsprojekt an, an dem unter anderem IBM, Nvidia, Intel, AMD und Cray teilnehmen. Ziel dieser Initiative ist die Entwicklung leistungsfähigerer und energieeffizienterer Supercomputer. Die Gesamtleistung aller Systeme der Top500-Liste war zwischen November 2013 und Juni 2014 nur um 24 Petaflops auf 274 Petaflops gestiegen.

[mit Material von Stefan Beiersmann, ZDNet.de]

Tipp: Wie gut kennen Sie sich mit Prozessoren aus? Überprüfen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Redaktion

Recent Posts

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

1 Tag ago

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

2 Tagen ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

4 Tagen ago

Zero Trust bei Kranich Solar

Absicherung der IT-Infrastruktur erfolgt über die Zero Trust Exchange-Plattform von Zscaler.

4 Tagen ago

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen…

5 Tagen ago

Sicherheit für vernetzte, medizinische Geräte

Medizingeräte Hersteller Tuttnauer schützt Gerätesoftware mit IoT-Sicherheitslösung.

5 Tagen ago