Interview: Die Zukunft des Supercomputers

silicon.de: NEC ist schon seit 1987 im High Performance Computing (HPC) aktiv. Wie betrachten Sie die Entwicklungen der letzten 20 Jahre?

Schoenemeyer: NEC hat bereits 1983 mit dem ersten NEC SX Modell einen sehr leistungsfähigen Vektorrechner auf den Markt gebracht. Übrigens war die treibende Kraft beim Design der SX-2-Serie dieselbe Person, die heute maßgeblich an der Konzeption des nächsten japanischen Höchstleistungsrechners (RIKEN) beteiligt ist: Dr. Tadashi Watanabe. NEC hat in den darauf folgenden Jahren in regelmäßigen Abständen neue Generationen der SX-Serie entwickelt und auch sehr erfolgreich verkauft. Heute stehen über 1000 Vektorssysteme bei NEC-Kunden weltweit.

In vielen Fachgebieten ist die numerische Simulation auch aus finanziellen Gründen nicht mehr wegzudenken. Crash-Simulationen, Strömungssimulationen oder auch die Vorhersage physikalischer Phänomene leisten einen ganz wesentlichen Beitrag zur Schonung von Natur und Umwelt. Deshalb hat sich die numerische Simulation heute als drittes Standbein zwischen der puren Theorie auf der einen und dem Experiment auf der anderen Seite etabliert.

Technisch orientierte sich die Entwicklung des High Performance Computing stark an der Entwicklung der Chip-Technologie, die wiederum maßgeblich von den Anforderungen der Massenmärkte bestimmt war und auch heute noch ist. Problematisch ist, dass Architektur-Trends im Markt häufig eher reaktiv entwickelt werden an Stelle einer aktiv betriebenen, erkenntnis-basierten Entwicklung. Viele HPC-Entwicklungen waren meiner Meinung nach eher dadurch getrieben, in erster Linie einen guten Platz in der TOP-500-Liste zu erzielen.

So sind leider heute die vermeintlich interessantesten Systeme diejenigen, die mit dieser Liste und ihren Messkriterien kompatibel sind und dort ganz oben rangieren. Aus diesem Grund wollen auch viele Hersteller nicht davon abweichen technologische Aspekte in den Vordergrund zu rücken, weil dieses Geschäftsmodell mit der Liste nicht vereinbar und in ihren Augen damit nicht tragfähig wäre.

silicon.de: Wo wird die Supercomputerforschung noch hinführen beziehungsweise wie wird sie sich in den nächsten Jahren weiterentwickeln?

Schoenemeyer: Die kommenden Multi- und Many-Core-Chips sind für viele Anwendungen sicher ein hervorragendes Werkzeug, für andere aber nicht. Auf mittlerweile einigen Konferenzen habe ich erfahrene Nutzer getroffen, die sich besorgt über die Weiterentwicklung ihrer technischen Möglichkeiten äußerten im Hinblick auf ihre bestehenden Programme. Wir gehen davon aus, dass die Anwender in den kommenden Jahren auf künftigen Systemen in etwa die gleiche Rechenleistung erzielen werden wie heute. Sie werden zwar viele Kopien rechnen können, solche Entwicklungen sieht man häufig, aber sie werden ein anspruchsvolleres Projekt nicht schneller abarbeiten können, und der Zeitaufwand mag prohibitiv sein. Deshalb glauben wir, dass zusätzlich zu den Produkten, die auf Standardkomponenten basieren, weitere, auf die hohen Anforderungen speziell abgestimmte Produkte angeboten werden müssen, und dass dafür auch heute schon ein Markt existiert.

Auch wird die technologische Herausforderung zunehmend auf den Nutzer abgewälzt, der sich mit immer komplexeren, in dem Aspekt der Parallelität immer vielschichtigeren Maschinen auseinandersetzen muss, wobei die Entwicklung der Software-Werkzeuge in den letzten 20 Jahre viel zu kurz gekommen ist.

Eines ist aber jetzt schon sichtbar: Datenparallelität als eine mathematisch typische Erscheinung in wissenschaftlichen und Ingenieuranwendungen wird ein wichtiges Mittel sein, um gewisse technologische Hürden, deren Elimination nicht zu erwarten ist, zu bewältigen. Datenparallelität ist aber auch die Grundlage für Vektorisierung. NEC hat dieses Konzept bei der SX-Serie immer schon eingesetzt und sieht deshalb entsprechende Wettbewerbsvorteile heute und auch in Zukunft.

Page: 1 2 3 4

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

3 Tagen ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

3 Tagen ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

3 Tagen ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

4 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

5 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

6 Tagen ago