Ein steiniger Weg ins Exaflop-Zeitalter

Auf der Internationalen Supercomputer Konferenz in Hamburg, die noch bis zum 26. Juni für Fachpublikum geöffnet hat, wurde die neusten Trends im HPC-Bereich vorgestellt. Außerdem waren das Trendthema Green IT und das Exaflop-Zeitalter häufiges Gesprächsthema.

Im Mittelpunkt der Dell-Produktpräsentationen stand der speziell für HPC-Anforderungen ausgelegte Server PowerEdge R410. Dell setzt im High Performance Computing auf Standard-basierte Cluster-Technologie. Der R410 ist ein leistungsstarker 1-HE-Rack-Server mit zwei Sockeln und Intel-Xeon-Prozessoren der 5500-Serie. Mit seiner Gehäusetiefe von lediglich 24 Zoll ist er auch optimal für den Einsatz in Rechenzentren mit beschränktem Platzangebot geeignet. Der Schwerpunkt von Dell liegt auf der Entwicklung von IT-Lösungen, die die Komplexität von Rechenzentrums-Infrastrukturen und HPC-Umgebungen reduzieren.

Eine wichtige Rolle spielen die Betriebssysteme im HPC-Bereich. Zwar hat Microsoft gegenüber Linux noch einen verschwindend geringen Marktanteil, doch laut Vince Mendillo, HPC Director Marketing, liegt der Fokus von Microsoft nicht auf der Höchstleistung, sondern auf dem Massenmarkt. Microsofts Argumente für Windows HPC Server haben fünf Supercomputerbesitzer in der neuen Top500 Liste überzeugt – fast 390 Systeme laufen mit Linux. Mit ‘Dawning 5000A’ im Shanghai Supercomputer Center, der den 15. Platz belegt, beweist Microsoft, dass der HPC Server sich auch Spitzengruppe beweisen kann.

Heiß diskutiert wurde auf dem Treffen der Supercompter-Experten auch das Thema ‘Exascale Computing’. Doch bis die Wissenschaftler das Zeitalter des Exascale Computing einläuten, werden wohl noch gut zehn Jahre vergehen. Professor Horst Simon, Associate Laboratory Director for Computing Sciences des renommierten Lawrence Berkeley National Lab, erklärte, dass zwischen dem derzeitigen Stand und dem Exascale Computing noch zu viele technische Unbekannte liegen. “Ein Report der US-Forschungsbehörde DARPA hat im Rahmen einer Exascale-Roadmap Szenarien bei den Komponenten untersucht – wie Dichte der Festplatten, Fortschritte bei den DRAMs, den Verbindungsarchitekturen oder Multicores. Das Ergebnis: Folgen wir dem traditionellen Cluster-Ansatz, wie er beispielsweise durch die Cray XT5 charakterisiert ist, werden wir das Ziel schwerlich erreichen. Die Chance besteht darin, den Technologiepfad mit Low-Power- und integrierten Prozessoren zu beschreiten, wie ihn IBM mit BlueGene eröffnet hat. Aber auch hier muss noch sehr viel Forschung betrieben werden”, führte Simon weiter aus.

Auch bei IBM wird fleißig am Exascale Computing geforscht. “Grundsätzlich sei es schon möglich, solch einen Rechner zu bauen, doch momentan ist das einfach zu teuer und eine gute Energieeffizienz wäre bei einem so riesigen Rechner zum jetzigen Zeitpunkt nicht möglich”, erklärte Torsten Bloth, Linux Cluster Specialist IBM Deep Computing im Gespräch mit silicon.de.

Der Sun-Mitgründer Andy von Bechtolsheim hatte bei seiner Eröffnungsrede auf der Konferenz ein weiten Blick nach vorne geworfen. Er hat auch die Vision von Exaflop-Supercomputer, die tausendmal schneller rechnen als die schnellsten heutigen Supercomputer. Für ihn sei das eine große Herausforderung, die geschätzt bis etwas 2020 durchaus machbar sei. Dabei setzt Bechtolsheim voraus, dass die nächsten zehn Jahre noch das Mooresche Gesetz gilt, demzufolge sich die Transistordichte pro Chip etwa alle zwei Jahre verdoppelt.