Cray-Rechner verabschieden sich vom parallelen Größenwahn

Supercomputer brauchen Superstrukturen statt “digitaler Muskelmasse”

Die Jagd nach immer stärkeren und immer mehr parallel geschalteten Mikroprozessoren, welche die Leistungsfähigkeit von Supercomputern steigern sollen, will der US-Traditionsbetrieb Cray nicht länger mitmachen. Nach zwei Übernahmen der ursprünglich 1972 gegründeten Firma will das Management um Burton Smith nun wieder zur Idee von Firmengründer Seymour Cray zurückkehren und die Riesenmaschinen mit intelligenter Hardware bestücken, also mehr Gewicht auf  Strukturen und die Architektur legen. Für den Sinneswandel sorgten einerseits der Sieg der japanischen Firma NEC beim diesjährigen Heidelberger Benchmark-Wettbewerb, andererseits neue Aufträge mit klaren Vorgaben von Regierung und Militär.
Die millionenschweren Programme unter dem Namen Advanced Strategic Computing Initiative kamen mehr und mehr ins Kreuzfeuer der Kritik, da die Maschinen auf Basis der Grid-Idee bald an ihre natürlichen Grenzen stoßen würden. Hier, so der Mathematiker und Computerexperte Bruton Smith, wird ja  eine Vielzahl von Rechensystemen zusammengeschaltet, ein Prozess, der nicht unendlich weiterbetrieben werden kann. Der Cray-Chef sagt: “Das Pendel schlägt bereits jetzt zu weit aus.”

Er folgt damit den Bedenken des US-Kongresses. Der Vorsitzende des Wissenschafts-Komitees, Sherwood Boehlert, zweifelt auch daran, dass die US National Sciences Foundation (NSF) noch das notwendige Interesse an der Forschung und Entwicklung von Supercomputern habe. Er sorgt sich um die US-Führerschaft, während die wiederholten Sieger von Heidelberg, NEC,  auf die “rein friedliche Nutzung” ihrer Maschinen bei Wettervorhersage und Technik pochen und die Bewertung aber gleichzeitig als zu einseitig brandmarken.

Auch in der Industrie kam in letzter Zeit vermehrt die Besorgnis auf, dass sich der aktuelle Trend immer mehr in Richtung Grid-Computing bewege – dieser Weg sei zweifelhaft hieß es. Die als “Massively Parallel Porcessing” (MPP) bekannte Technik sei nunmehr ausgereizt. Für bestimmte Anwendungen würden einfach leistungsfähige alleinstehende Computer benötigt. Wenn die Wissenschaftler keinen Zugriff zu den besten Maschinen hätten, werde der gegenwärtige Entwicklungs-Vorsprung der USA aufs Spiel gesetzt, klagte ein Vertreter von Ford. 

Ebenso wie die Hinwendung zu den MPP-Rechnern während des Kalten Kriegs in den 80er Jahren ist aber auch die Rückkehr zu den “Vektor-Supercomputern” aus Seymour Crays ersten Labors von den Auftraggebern getrieben: Die Baupläne mit spezialisierter Hardware, die neben den parallel geschalteten Prozessoren auch deren Verbindungen und die Übertragungstechniken mit einbezieht, werden vom Pentagon gefördert. Und zwar sollen IBM, Sun und Cray austüfteln, wie die nächste Generation von Supercomputern mit Petaflops an Rechenpower noch vor Ende des Jahrzehnts marktreif werden könnte.

Für Smith kein Problem: Er hat laut einem Bericht der New York Times schon lange die alten Akten des 1996 tödlich verunglückten Seymour Cray aus dem Keller geholt. Er spricht von einer “Ineffizienz und Langsamkeit” der parallel geschalteten, gegriddelten Supercomputer. Den unter dem zwischenzeitlichen Besitzer SGI entwickelten Pragmatismus will er nun mit innovativer Hardware kombinieren.

Dabei will der Multithreading-Pionier Smith als innovativer Hardware-Packer fungieren, während er die praktischen Anregungen aus der Zeit der “Beowulf”-Reihe beibehalten will, als Grids aus ganz normalen PCs gebastelt wurden. Er will daher weiterhin im langsam wieder anrollenden Supercomputing-Geschäft bleiben. Die Auftragsbücher füllen sich den einhelligen Meinungen der Industrieexperten zufolge wieder. Smiths Vision: “Ich habe diese Idee, dass das naheliegende Schicksal aller Rechner im Bereich des Supercomputing liegt. Sie sind die einzigen Werkzeuge, die die Kraft des menschlichen Bewusstseins tatsächlich auf eine neue Stufe umsetzen können.”