Categories: Cloud

SuperMUC: LRZ schließt Phase 2 ab

Der Supercomputer SuperMUC hat mehr Leistung erhalten. Das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften hat dafür die nächste Ausbaustufe in Betrieb genommen. Durch Phase 2 steigt die Rechenleistung um 3,6 Petaflops auf 6,8 Petaflops. Das System galt bereits mit den 3,2 Petaflops zur Inbetriebnahme am 20. Juli 2012 als schnellster Rechner Europas.

6144 zusätzliche Prozessoren vom Typ Intel Xeon E5-2697 v3 mit 86.016 Rechenkernen haben die Steigerung möglich gemacht. Insgesamt verfügt SuperMUC nun über 241.016 Rechnerkerne. Die Grundlage des Kommunikationsnetzes der Phase 2 bilde Mellanox FDR14- und ConnetIB-Infiniband-Technologie, heißt es in einer Pressemitteilung. Außerdem habe das LRZ den Hauptspeicher von 288 Terabyte um rund 200 Terabyte erweitert.

Darüber hinaus stellt das LRZ den Nutzern des Höchstleistungsrechners weitere 7,5 Petabyte SAN/DAS-Speicher zur Verfügung. Unter anderem nutzt SuperMUC GPFS Storage Server (GSS), die IBMs Spectrum-Scale-Technologie mit System-x-Servern von Lenovo vereinen. Auf diese Weise können etwa 5 Petabyte Daten mit einer Bandbreite von 100 GBit/s verwaltet werden.

Wasserkühlung für SuperMuc

Bild 1 von 15

SuperMUC
SuperMUC im Leibnitz Rechenzentrum in Garching nahe München. Das LRZ ist das Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften (BAdW) und betreut das wissenschaftliche Datennetz in München. Es liefert verschiedene Datenservices und betreibt High-End-Computing-Einrichtungen für die Wissenschaftsgemeinschaft in Deutschland und darüber hinaus. Das LRZ unterstützt ein breites Spektrum wissenschaftlicher Aufgaben von Kosmologie über die Entstehung des Universums bis hin zu Seismologie und Erdbebenvorhersage.

Die jüngste Ausbaustufe beeinflusse vorhandene Programme auf dem Supercomputer kaum. Das sei möglich, da SuperMUC seine Rechenleistung ohne besondere Anpassungen an Rechenbeschleuniger, sogenannte Acceleratoren, bereitstelle. “Die neue Erweiterung macht den anhaltenden Fortschritt der Hardwaretechnik erlebbar”, heißt es in der Pressemeldung. “Die gleiche Rechenleistung wie vor drei Jahren benötigt jetzt nur noch ein Viertel der Fläche von damals.”

SuperMUC bleibe auch nach der Erweiterung einer der energieeffizientesten Rechner der Welt, so das LRZ. Das Warmwasserssystem zur Kühlung des Supercomputers stammt weiterhin von IBM. Es reguliere die Temperatur der Prozessoren, des Hauptspeichers und weiterer Komponenten über Mikrokanäle mit bis zu 45 Grad warmem Wasser. Auf diese Weise sinke der Gesamtenergieverbrauch um 40 Prozent, weil die Abwärme für die Gebäudeheizung verwendet werde. Das spare pro Jahr mehrere Millionen Euro Betriebskosten ein.

Finanziert wird das Projekt je zur Hälfte durch das Land Bayern und den Bund über das Gauss Centre for Supercomputing (GCS), den nationalen Verbund der drei Höchstleistungsrechenzentren in Garching, Jülich und Stuttgart. Für die Jahre 2015 bis 2017 belaufen sich die Investitions- und Betriebskosten auf etwa 49 Millionen Euro. Über die Partnership for Advanced Computing in Europe (Prace) steht SuperMUC nicht nur deutschen Nutzern, sondern auch Anwendern aus Europa zur Verfügung.

Schon in der ersten Ausbaustufe ermöglichte der Rechner zum Beispiel Simulation des Blutstroms durch Gefäße oder des Luftstroms durch die Lunge. Auch für Berechnung des Einflusses der dunklen Materie auf die Entstehung des Universums zählt zu den bestehenden Awendungen. Auch eine Simulation des Erdinneren war möglich. Das Programm SeisSol etwa simulierte Vibrationen innerhalb des geometrisch komplexen Vulkans Merapi auf der Insel Java. Für SuperMUC bedeutete das 1,09 Billiarden Rechenoperationen pro Sekunde. Dafür wurden drei Stunden alle Rechenkerne des SuperMUC ausgelastet.

[mit Material von Stefan Beiersmann, ZDNet.de]

Tipp: Wie gut kennen Sie sich mit der europäischen Technologie-Geschichte aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Andre Borbe

Andre ist Jahrgang 1983 und unterstützte von September 2013 bis September 2015 die Redaktion von silicon.de als Volontär. Erste Erfahrungen sammelte er als Werkstudent in den Redaktionen von GMX und web.de. Anschließend absolvierte er ein redaktionelles Praktikum bei Weka Media Publishing. Andre hat erfolgreich ein Studium in politischen Wissenschaften an der Hochschule für Politik in München abgeschlossen. Privat interessiert er sich für Sport, Filme und Computerspiele. Aber die größte Leidenschaft ist die Fotografie.

Recent Posts

EU-Staaten segnen Regulierung von KI final ab

AI Act definiert Kennzeichnungspflicht für KI-Nutzer und Content-Ersteller bei Text, Bild und Ton.

2 Stunden ago

eco zum AI Act: Damit das Gesetz Wirkung zeigen kann, ist einheitliche Auslegung unerlässlich

Aufbau von Aufsichtsbehörden auf nationaler und EU-Ebene muss jetzt zügig vorangetrieben werden.

3 Stunden ago

Datenqualität entscheidet über KI-Nutzen

Hochwertige Daten liegen häufig unerkannt in Daten-Pools und warten darauf, mit ausgefeilten Datamanagement-Plattformen gehoben zu…

3 Stunden ago

Gartner: Public-Cloud-Ausgaben steigen auf mehr als 675 Milliarden Dollar

Prognostiziertes jährliches Wachstum von mehr als 20 Prozent wird durch GenKI-fähige Anwendungen in großem Maßstab…

4 Stunden ago

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

4 Tagen ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

4 Tagen ago