Interview: Die Zukunft des Supercomputers

silicon.de: Welche wissenschaftlichen Bereiche werden zukünftig besonders stark mit der Supercomputerforschung umgesetzt werden?

Schoenemeyer: HPC gehört in viele Bereiche, und kreative Wissenschaftler eröffnen ständig neue Felder. An Arbeit und Möglichkeiten der Innovation mangelt es nicht. Ohne HPC würde heute doch kein neues Auto mehr auf die Straße kommen, weil niemand die für die Zulassung notwendigen Crash-Tests bezahlen könnte. In den letzten 10 Jahren haben sich die entsprechenden Codes allerdings auf ein gewisses Maß eingependelt, das hinreichend von Linux-Clustern adressiert werden kann. Auch NEC bietet hier entsprechende Produkte an. Eine eigene Applikationsgruppe bei NEC nimmt sich der Optimierung dieser Codes auf diesen Systemen an. In den nächsten Jahren werden zudem die so genannten gekoppelten Simulationen zunehmen. So werden etwa Modelle zur Strömungssimulation und Modelle zur Strukturanalyse gleichzeitig an einer Problemstellung arbeiten, beispielsweise bei der Konzeption eines Gezeitenkraftwerks. Auch bei der Erdsystemforschung werden immer mehr Prozesse einbezogen, die bisher vernachlässigt werden mussten, da die notwendigen Computerressourcen nicht ausreichten. Wir verfügen auch über umfangreiche Kenntnisse bei Codes, die die Verbrennung in Motoren simulieren. Auch hier steckt noch ein Potenzial, dass weiter genutzt werden kann und wird.

Von besonderem wirtschaftlichem Interesse sind natürlich die Wachstumsbranchen. Die Nanotechnologie ist ein solches Feld, das in seiner Bedeutung als auch in seinen Herausforderungen noch gar nicht richtig eingeschätzt werden kann. Das Feld der Biotechnologie ist weit, und es zeichnet sich hier folgendes ab: Wenn bislang über Anwendungen in der Biotechnologie die Rede war, so ging man von wenigen ‘typischen’ Applikationen aus mit spezifischen, nur für diese Applikationen relevanten Anforderungen von Hardware und Software. Das hat sich in den letzten Jahren gewaltig geändert. Es gibt schon heute auf diesem Gebiet hochgradig diversifizierte Anforderungen, die alle zusammenspielen müssen, was am Ende sogar direkte computerarchitektonische Konsequenzen haben kann. In der Biotechnologie findet man jedenfalls so ziemlich alles, von Datenbanken über Molekulardynamik und sonstige theoretische Chemie bis hin zu Eigenwertberechnungen und sogar Aufgabenstellungen, die gewisse Ähnlichkeiten mit Kryptologie haben. Und dies alles muss am Ende sowohl theoretisch als auch rechnerisch kombiniert werden. Ein wunderbares Feld voller Herausforderungen.

silicon.de: Gibt es eine Entwicklung beziehungsweise Gemeinsamkeiten über alle wissenschaftlichen Bereiche hinweg?

Schoenemeyer: Ja, es gibt Gemeinsamkeiten. Es existieren bestimmte algorithmische Ähnlichkeiten zwischen Codes aus höchst unterschiedlichen Anwendungsgebieten. Dass die Simulation einer Galaxie starke Ähnlichkeit mit Molekularmodellierung haben kann, würde man auf den ersten Blick gar nicht erwarten. Doch die zugrunde liegenden physikalischen Gesetze führen eben zu sehr ähnlichen Gleichungen, und so viele grundlegend verschiedene Prinzipien gibt es nicht. Es gibt gewisse Analysen, die zur Identifikation der so genannten ‘seven Dwarfs’ geführt haben. Das sind typische Basis-Algorithmen, die immer wieder auftauchen. Mittlerweile spricht man schon von ‘thirteen Dwarfs’, aber das entkräftet das Argument nicht, dass zwischen unterschiedlichen Feldern hohe Synergien bestehen.

Von den Entwicklern bei NEC wird diese Tatsache allgemein anerkannt. Das HLRS spielt dabei die Rolle eines Kristallisationspunkts, an dem das Wissen um diese Basis-Algorithmen Forschern aller Richtungen zur Verfügung gestellt wird. So müssen Wissenschaftler, die Neuland betreten und dabei vielleicht mit ihnen unbekannten numerischen Herausforderungen konfrontiert sind, nicht die Räder neu erfinden, die in anderen Gebieten schon längst vollständig beherrscht werden. An dieser Stelle besteht vermutlich noch ein großes Potential für wissenschaftlich und volkswirtschaftlich relevante Synergien, die von Politik und Wirtschaft noch stärker adressiert werden sollten.

silicon.de: Professor Resch vom HLRS sagte im Gespräch mit silicon.de, dass es schwierig sei, die theoretischen Vorstellungen der Wissenschaftler mit den hardwaregetriebenen Vorstellungen der Anwender zusammenzubringen. So wird es Petaflop-Systeme geben, die unheimlich mächtig sind, aber die Frage ist, wie viel kann man davon überhaupt nutzen – das System läuft zwar theoretisch schnell aber praktisch nicht. Wie kann Ihrer Meinung nach dieses Problem gelöst werden?

Schoenemeyer: Professor Resch versucht, die oben genannten Synergien zu nutzen. Dabei trifft er nicht selten auf Leute, die zwar eine interessante Idee, aber vielleicht wenig Erfahrung im HPC-Bereich haben, sowie auf solche, die sich mit HPC in ihrem jeweiligen Umfeld schon seit vielen Jahren beschäftigen und dabei Experten geworden sind. Letztere sind viel eher theoretisch befähigt, aufwendige Rechnungen zu realisieren die sie an die Weltspitze in ihrem jeweiligen Fachgebiet bringen können, während erstere nicht selten einfach an der Umsetzung ihrer Ideen scheitern. Alleine in diesem Spannungsfeld steckt schon viel Potential für unter Umständen kontroverse Diskussionen. Mehr noch, Resch trifft auf Hersteller, die verständlicherweise betriebswirtschaftlich agieren müssen, die aber andererseits Anforderungen von Anwendungen stärker in ihren Produkten berücksichtigen könnten, dieses aber nicht oder nicht immer tun, weil die Entwicklung teuer und der Markt für ein entsprechend angepasstes Produkt zu klein wäre.

So sind es letztlich Visionäre wie Resch, die durch ihren Überblick über viele wissenschaftliche Disziplinen die Möglichkeit besitzen, nicht nur Gemeinsamkeiten in den Anforderungen sehr unterschiedlicher Nutzergruppen zu identifizieren, sondern diese auch der Politik und den Herstellern verständlich zu kommunizieren. Dadurch, dass solche Visionäre Produktentwicklungen und auch politische Rahmenbedingungen beeinflussen, fördern sie wissenschaftlichen Fortschritt.

Jedenfalls hat Resch meines Wissens die Bedeutung der TOP-500-Liste nie sonderlich hoch eingeschätzt. Verständlicherweise, denn nur sehr wenige ausgesuchte Anwendungen aus der Praxis stellen vergleichbare Anforderungen an die Hardware wie diese Liste es tut, und diese Anwendungen sind in Deutschland rar gesät. Es ist wirklich erstaunlich, dass diese Art der Bewertung solch eine Bedeutung erlangen konnte ohne vernünftige ‘Business-Cases’, die sich auf relevante und repräsentative Forschungsaktivitäten in der Praxis stützen.

Page: 1 2 3 4

Silicon-Redaktion

Recent Posts

Industrie erwartet durch KI deutlichen Produktivitätsschub

Davon gehen laut der aktuellen Studie „Performance-Treiber 2024“ acht von zehn Industrieunternehmen aus.

7 Tagen ago

HPE knackt mit Supercomputer Aurora erneut die Exascale-Schwelle

„Aurora“ läuft beim Argonne National Laboratory des US-Energieministeriums und hat auf 87 Prozent des Systems…

1 Woche ago

Exascale-Supercomputer JUPITER setzt Maßstäbe für Energieeffizienz

Europäischer Supercomputer JEDI kommt auf den ersten Platz in der Green500-Liste der energieeffizientesten Supercomputer.

1 Woche ago

Papierhersteller der digitalen Ära

Data Awakening: Huawei präsentierte beim Innovative Data Infrastructure Forum 2024 in Berlin neue, auf KI…

1 Woche ago

Cyberangriffe bedrohen die Demokratie

Um ihre Verteidigung zu stärken, müssen Staaten und Unternehmen sicherstellen, dass KRITIS-Betreiber nicht nur die…

2 Wochen ago

Kritische Infrastruktur: BSI-Zahlen zur Robustheit

Reichen die Sicherheitsvorkehrungen der KRITIS-Betreiber bereits aus? Das BSI liefert dazu Kennzahlen auf einer neuen…

2 Wochen ago