Bildergalerie: Supercomputing in Stuttgart

“Wer mit Supercomputern arbeitet, der erlebt technologischen Fortschritt in einem unglaublichen Tempo. Vor 10 Jahren war unvorstellbar, was heute am Computer darstellbar ist, und auch in 10 Jahren werden wir nach heutigen Maßstäben unvorstellbare Simulationen durchführen können”, erklärte Prof. Dr. Michael Resch, der Direktor des HLRS. “Doch das eigentlich Spannende an der Supercomputer-Forschung ist, dass sie die wichtigsten wissenschaftlichen Disziplinen zusammenführt und einen fruchtbaren Austausch ermöglicht. Denn wie Blut oder Ozeane strömen, lässt sich am Computer mit denselben Algorithmen berechnen.”

Doch Resch sieht ein großes Problem in der Entwicklung von Supercomputern. “Grundlegend dient der Workshop dazu, die Frage zu klären wie es mit der Supercomputer-Forschung weitergeht. Wir fragen uns wie viel Leistung wir aus den Systemen herausholen können”, so Resch. “Wir sehen zwar das die Rechner immer schneller werden, aber das nur theoretisch. Kauft man sich zum Beispiel einen Porsche der mit 300 km/h angegeben ist, aber tatsächlich nur 30 km/h fährt, dann ist das einfach nur frustrierend. Und so geht es uns mit der Supercomputer-Forschung auch”, erklärt Resch. “Die Schwierigkeit besteht darin die theoretischen Vorstellungen der Wissenschaftler mit den hardwaregetriebenen Vorstellungen der Anwender zusammenzubringen. Es wird Petaflops-Systeme geben, die sind unheimlich mächtig, ungefähr eine Million Mal so schnell als das was wir in den 70er-Jahren hatten, aber die Frage ist wie viel kann ich davon überhaupt nutzen – das System läuft zwar theoretisch schnell aber praktisch nicht”, erklärt Resch.

Das HLRS wurde im Juli 2005 eingeweiht. Insgesamt wurden 35 Millionen Euro für das Superhirn von Baden-Württemberg ausgegeben. Das Rechenzentrum ist eines von drei deutschen sogenannten Bundeshöchstleistungsrechenzentren, die sich im März 2007 zu einem Verbund zusammengeschlossen haben – dem Gauss Centre for Supercomputing (GCS). Der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren – John-von-Neumann-Institut für Computing in Jülich (NIC), dem Leibnitz-Rechenzentrum der Bayrischen Akademie der Wissenschaften in München und dem HLRS zum GCS bildet eines der größten und leistungsfähigsten Höchstleistungsrechenzentren in Europa. Finanzielle Unterstützung erhält der Verbund durch das Bundesministerium für Forschung und Bildung (BMBF). Die drei Standorte wechseln sich jeweils mit der Erneuerung ihrer Systeme ab – nachdem in den letzten Jahren Jülich und München neue Supercomputer installiert haben, ist nun wieder Stuttgart an der Reihe.

Page: 1 2

Silicon-Redaktion

Recent Posts

Industrie erwartet durch KI deutlichen Produktivitätsschub

Davon gehen laut der aktuellen Studie „Performance-Treiber 2024“ acht von zehn Industrieunternehmen aus.

4 Tagen ago

HPE knackt mit Supercomputer Aurora erneut die Exascale-Schwelle

„Aurora“ läuft beim Argonne National Laboratory des US-Energieministeriums und hat auf 87 Prozent des Systems…

5 Tagen ago

Exascale-Supercomputer JUPITER setzt Maßstäbe für Energieeffizienz

Europäischer Supercomputer JEDI kommt auf den ersten Platz in der Green500-Liste der energieeffizientesten Supercomputer.

5 Tagen ago

Papierhersteller der digitalen Ära

Data Awakening: Huawei präsentierte beim Innovative Data Infrastructure Forum 2024 in Berlin neue, auf KI…

1 Woche ago

Cyberangriffe bedrohen die Demokratie

Um ihre Verteidigung zu stärken, müssen Staaten und Unternehmen sicherstellen, dass KRITIS-Betreiber nicht nur die…

1 Woche ago

Kritische Infrastruktur: BSI-Zahlen zur Robustheit

Reichen die Sicherheitsvorkehrungen der KRITIS-Betreiber bereits aus? Das BSI liefert dazu Kennzahlen auf einer neuen…

1 Woche ago