300 Petaflops – IBM, Nvidia und Mellanox planen neuen Supercomputer

Das US-Energieministerium hat zwei neue Superrecher beauftragt. IBM, Nvidia und Mellanox haben jetzt die Arbeiten an den beiden Supercomputern gestartet. 2017 und 2018 werden diese Rechner in Betrieb gehen und damit die USA wieder zur führenden Supercomputer-Nation machen. Für Sierra und Summit sind Das Budget für die beiden Sierra und Summit genannten Systeme beläuft sich auf 325 Millionen Dollar.


Angetrieben werden beide Rechner von OpenPower-Prozessoren von IBM, denen Nvidias neuer Grafik-Chip Volta zu Seite steht. Über die Nvidia-Technologie NVLink werde der Datenaustausch zwischen CPU und GPU zusätzlich bis zu 12 Mal beschleunigt. Mellanox wiederum steuert High-Speed-Networking-Technologien bei, die die einzelnen Komponenten miteinander verbinden.

Das größere der beiden Systeme, Summit, entsteht am Oak Ridge National Laboratory im US-Bundesstaat Tennessee. Es soll eine Spitzenleistung von 150 bis 300 Petaflops bieten und für zivile und wissenschaftliche Zwecke eingesetzt werden. Für Sierra wiederum ist eine Spitzenleistung von über 100 Petaflops geplant. Es wird am Lawrence Livermore National Laboratory errichtet und soll in erster Linie Simulationen für Nuklearwaffen durchführen.

Beide Supercomputer werden in drei Jahren mit den geplanten Kapazitäten die aktuell schnellsten Systeme weit hinter sich lassen. Die aktuelle Supercomputer-Liste Top500 führt der chinesische Tianhe2 mit 54,9 Peak Petaflops an, also einer Spitzengeschwindigkeit von 54,9 Billiarden Fließkomma-Berechnungen pro Sekunde. Der schnellste US-Supercomputer, der von Cray entwickelte Titan, schafft bis zu 27,11 Peak Petaflops. Der Jülicher Superrechner JUQUEEN ist mit einer Peak-Leistung von 5,8 Petaflops derzeit Deutschlands schnellster Rechner.

Das Wachstum der HPC-Gesamtrechenleistung flachte sich in jüngerster Vergangenheit etwas ab. (Bild: Top500.org)

Laut IBM steht bei der Entwicklung beider Systeme die Verarbeitung von Daten im Vordergrund. Ziel ist es, die Menge der zu bewegenden Daten und damit auch den Energiebedarf zu minimieren. Sierra und Summit sollen in der Lage sein, mehr als 17 Petabyte Daten pro Sekunde zum Prozessor zu bewegen. Das entspricht der Verarbeitung von 100 Milliarden Fotos auf Facebook in einer Sekunde. Wie es von IBM heißt, wurde der Rechner sozusagen um die Daten herum entwickelt.

Bislang habe man das Ziel verfolgt, die stetig wachsende Datenmenge mit immer schnelleren Prozessoren zu kompensieren. Nun aber haben die drei genannten Hersteller einen neuen Ansatz entwickelt, der den Anforderungen von Big Data offenbar besser gerecht wird. So kämen täglich 2,5 Milliarden Gigabyte an Daten hinzu, was ungefähr der Fläche von 250 Millionen Fußballfeldern entspricht, die mit Büchern bedeckt sind. In der neuen, datenzentrischen Systemarchitektur, an der Mellanox, IBM und NVidia in den letzten fünf Jahren entwickelt haben, werden die Komponenten und vor allem die Rechenleistung eines Computersystems dort angesiedelt, wo die Daten sitzen. Datenanalyse, Modellierung, Visualisierung oder Simulationen können damit  mit bisher unerreichter Geschwindigkeit durchgeführt werden, so IBM.

“Die heutige Ankündigung markiert die Abkehr vom traditionellen Supercomputing, das nicht länger praktikabel ist, da Daten mit enormen Raten wachsen”, sagte Tom Rosamilia, Senior Vice President von IBMs System and Technology Group. IBMs neuer auf Daten ausgerichteter Ansatz sei die Zukunft offener Computing-Plattformen und in der Lage, mit den zunehmenden Datenmengen umzugehen.

Darüber hinaus kündigte das Department of Energy weitere 100 Millionen Dollar für ein FastForward2 genanntes Forschungsprojekt an, an dem unter anderem IBM, Nvidia, Intel, AMD und Cray teilnehmen. Ziel dieser Initiative ist die Entwicklung leistungsfähigerer und energieeffizienterer Supercomputer. Die Gesamtleistung aller Systeme der Top500-Liste war zwischen November 2013 und Juni 2014 nur um 24 Petaflops auf 274 Petaflops gestiegen.

[mit Material von Stefan Beiersmann, ZDNet.de]

Tipp: Wie gut kennen Sie sich mit Prozessoren aus? Überprüfen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Redaktion

Recent Posts

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

21 Stunden ago

Studie: KI-Technologie unverzichtbar für zukunftsfähige Paketlogistik

Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.

21 Stunden ago

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

2 Tagen ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

2 Tagen ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

4 Tagen ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

6 Tagen ago