GPUs revolutionieren das Rechenzentrum

Die Meldung ließ aufhorchen: Nvidia wird einen Grafikprozessor (GPU) speziell für das High Performance Computing (HPC) auf den Markt bringen. Noch mehr ließ aufhorchen, dass ‘Tesla’ die 30-fache Performance der derzeit schnellsten x86-CPU bieten soll. Das käme tatsächlich einer Revolution gleich.

Die neuen Prozessoren sind sowohl als Server- als auch als Workstation-Paket erhältlich – und werden nach Ansicht von Andy Keane, General Manager der Tesla Computing Products bei Nvidia, das Rechenzentrum auf den Kopf stellen.

Die GPU besteht aus 128 parallelen arbeitenden Recheneinheiten, die eine Rechengeschwindigkeit von bis zu 518 Gigaflops erreichen. Die Serverlösung Tesla GPU Computing Server verfügt über bis zu acht Tesla-GPUs. Sie arbeitet also mit über 1000 parallelen Prozessoren und steigert so die Parallel-Performance von Clustern um mehrere Teraflops.

Nvidia hat auch ein “Tesla Deskside Supercomputer” genanntes System im Angebot, das zwei Tesla-GPUs umfasst und sich über einen Industrie-Standard-PCI-Express-Anschluss an PCs und Workstations anbinden lässt. Diese Lösung verwandelt Standard-PCs und -Workstations in Personal-Supercomputer, die nach Angaben von Keane gegenüber silicon.de bis zu 8 Teraflops Rechenpower bieten.

Das Serverpaket soll nach Hersteller-Angaben im November auf den Markt kommen und etwa 12.000 Dollar kosten. Für die Workstation-Serie veranschlagt Nvidia 7500 Dollar und für das Board 1499 Dollar. Die beiden letztgenannten Produkte kommen bereits im August in den Handel.

Nvidia bietet zudem mit CUDA (Compute Unified Device Architecture) eine API und ein SDK, die es Entwicklern erlaubt, C-Sprachen für die Programmierung von Stream-Applikationen zu nutzen. “Stream Computing” ist die üblicherweise angewandte Begrifflichkeit für die Nutzung des Grafikchips für die Berechnung von Algorithmen. “Die Entwickler lieben alles, was sich wie C anfühlt”, berichtet Keane. Nvidia ist aber nicht alleine im Rennen: Das ATI-Pendant zu CUDA heißt CTM (Close to Metal).