Hochleistungsrechner erreichen den Menschen

Ursprünglich von Professor Hans Meuer 1986 in Mannheim für einen kleinen elitären Kreis initiiert, hat sich die Konferenz mit rund 2000 Fachbesuchern aus 50 Ländern zu einer wichtigen Tauschbörse für Neuheiten, Meinungen, Erkenntnissen und Botschaften entwickelt.

Selbst aus Lateinamerika und Südafrika kamen diesmal die Preisträger, die sich einen Award für ihre Rechenleistungen im PetaFlop/s-Bereich (eine Billiarde Rechenoperationen pro Sekunde) abholen konnten. Der Petascale-Bereich ist heute der Standard im High Performance Computing (HPC), und die ersten Experten richten ihren Blick bereits auf den Exa- und sogar Zettascale-Bereich. In diesen luftigen Höhen der Trilliarden Rechenoperationen pro Sekunde wird sich dann endlich das gesamte Weltklima simulieren lassen, hofft die NASA, oder wenigstens eine komplette Zelle, hoffen die Biologen.

Supercomputer werkeln heutzutage überall im Hintergrund, so etwa in der Produktentwicklung: Design, Prototyping usw. “Auf 50 Crashtest-Simulationen kommt nur ein einziger Test mit einem echten Prototypen”, berichtet Uwe Wössner vom Stuttgarter Hochleistungsrechenzentrum (HLRS). “Ausschlaggebend sind dafür einfach die Kosten: Ein Prototyp ist handgemacht, nur einmal verwendbar und daher enorm teuer.” Wohingegen eine Computersimulation nicht nur x-mal wiederholt werden könne, sondern auch sehr viel schneller erstellt und ausgeführt werden könne. “Der Faktor Zeit ist wegen der heutigen schnellen Produktzyklen von höchster Bedeutung”, so Wössner.

Aber auch bei der Visualisierung von Computertomografien leisten Supercomputer gute Arbeit. “So ist etwa die Wartedauer für ein CT-Scanbild von sechs Stunden auf unter eine Minute gesunken”, sagte Intel-Manager Kirk Skaugen. Und weil das so schnell geht, brauche man auch immer weniger Strahlendosen, was die Gesundheit des Patienten schont. Der Patient hat seine vielleicht lebensrettende Diagnose fast schon in Echtzeit.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

1 Tag ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

1 Tag ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

1 Tag ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

2 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

3 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

4 Tagen ago