Interview: Die Zukunft des Supercomputers

silicon.de: NEC ist schon seit 1987 im High Performance Computing (HPC) aktiv. Wie betrachten Sie die Entwicklungen der letzten 20 Jahre?

Schoenemeyer: NEC hat bereits 1983 mit dem ersten NEC SX Modell einen sehr leistungsfähigen Vektorrechner auf den Markt gebracht. Übrigens war die treibende Kraft beim Design der SX-2-Serie dieselbe Person, die heute maßgeblich an der Konzeption des nächsten japanischen Höchstleistungsrechners (RIKEN) beteiligt ist: Dr. Tadashi Watanabe. NEC hat in den darauf folgenden Jahren in regelmäßigen Abständen neue Generationen der SX-Serie entwickelt und auch sehr erfolgreich verkauft. Heute stehen über 1000 Vektorssysteme bei NEC-Kunden weltweit.

In vielen Fachgebieten ist die numerische Simulation auch aus finanziellen Gründen nicht mehr wegzudenken. Crash-Simulationen, Strömungssimulationen oder auch die Vorhersage physikalischer Phänomene leisten einen ganz wesentlichen Beitrag zur Schonung von Natur und Umwelt. Deshalb hat sich die numerische Simulation heute als drittes Standbein zwischen der puren Theorie auf der einen und dem Experiment auf der anderen Seite etabliert.

Technisch orientierte sich die Entwicklung des High Performance Computing stark an der Entwicklung der Chip-Technologie, die wiederum maßgeblich von den Anforderungen der Massenmärkte bestimmt war und auch heute noch ist. Problematisch ist, dass Architektur-Trends im Markt häufig eher reaktiv entwickelt werden an Stelle einer aktiv betriebenen, erkenntnis-basierten Entwicklung. Viele HPC-Entwicklungen waren meiner Meinung nach eher dadurch getrieben, in erster Linie einen guten Platz in der TOP-500-Liste zu erzielen.

So sind leider heute die vermeintlich interessantesten Systeme diejenigen, die mit dieser Liste und ihren Messkriterien kompatibel sind und dort ganz oben rangieren. Aus diesem Grund wollen auch viele Hersteller nicht davon abweichen technologische Aspekte in den Vordergrund zu rücken, weil dieses Geschäftsmodell mit der Liste nicht vereinbar und in ihren Augen damit nicht tragfähig wäre.

silicon.de: Wo wird die Supercomputerforschung noch hinführen beziehungsweise wie wird sie sich in den nächsten Jahren weiterentwickeln?

Schoenemeyer: Die kommenden Multi- und Many-Core-Chips sind für viele Anwendungen sicher ein hervorragendes Werkzeug, für andere aber nicht. Auf mittlerweile einigen Konferenzen habe ich erfahrene Nutzer getroffen, die sich besorgt über die Weiterentwicklung ihrer technischen Möglichkeiten äußerten im Hinblick auf ihre bestehenden Programme. Wir gehen davon aus, dass die Anwender in den kommenden Jahren auf künftigen Systemen in etwa die gleiche Rechenleistung erzielen werden wie heute. Sie werden zwar viele Kopien rechnen können, solche Entwicklungen sieht man häufig, aber sie werden ein anspruchsvolleres Projekt nicht schneller abarbeiten können, und der Zeitaufwand mag prohibitiv sein. Deshalb glauben wir, dass zusätzlich zu den Produkten, die auf Standardkomponenten basieren, weitere, auf die hohen Anforderungen speziell abgestimmte Produkte angeboten werden müssen, und dass dafür auch heute schon ein Markt existiert.

Auch wird die technologische Herausforderung zunehmend auf den Nutzer abgewälzt, der sich mit immer komplexeren, in dem Aspekt der Parallelität immer vielschichtigeren Maschinen auseinandersetzen muss, wobei die Entwicklung der Software-Werkzeuge in den letzten 20 Jahre viel zu kurz gekommen ist.

Eines ist aber jetzt schon sichtbar: Datenparallelität als eine mathematisch typische Erscheinung in wissenschaftlichen und Ingenieuranwendungen wird ein wichtiges Mittel sein, um gewisse technologische Hürden, deren Elimination nicht zu erwarten ist, zu bewältigen. Datenparallelität ist aber auch die Grundlage für Vektorisierung. NEC hat dieses Konzept bei der SX-Serie immer schon eingesetzt und sieht deshalb entsprechende Wettbewerbsvorteile heute und auch in Zukunft.

Page: 1 2 3 4

Silicon-Redaktion

Recent Posts

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

5 Stunden ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

6 Stunden ago

Selbstangriff ist die beste Verteidigung

Mit autonomen Pentests aus der Cloud lassen sich eigene Schwachstelle identifizieren.

1 Tag ago

Prozessautomatisierung im Distributionslager

Die Drogeriekette Rossmann wird ihr neues Zentrallager in Ungarn mit Software von PSI steuern.

1 Tag ago

Wie autonome Fahrzeuge durch Quantencomputing sicherer werden können

Automobilhersteller planen, Quantentechnologie zunehmend auch bei fortschrittlichen Fahrerassistenzsystemen (ADAS) einzusetzen.

2 Tagen ago

Heineken plant Bedarfe mit KI-Lösung von Blue Yonder

Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.

2 Tagen ago