Hochleistungsrechner erreichen den Menschen

Ursprünglich von Professor Hans Meuer 1986 in Mannheim für einen kleinen elitären Kreis initiiert, hat sich die Konferenz mit rund 2000 Fachbesuchern aus 50 Ländern zu einer wichtigen Tauschbörse für Neuheiten, Meinungen, Erkenntnissen und Botschaften entwickelt.

Selbst aus Lateinamerika und Südafrika kamen diesmal die Preisträger, die sich einen Award für ihre Rechenleistungen im PetaFlop/s-Bereich (eine Billiarde Rechenoperationen pro Sekunde) abholen konnten. Der Petascale-Bereich ist heute der Standard im High Performance Computing (HPC), und die ersten Experten richten ihren Blick bereits auf den Exa- und sogar Zettascale-Bereich. In diesen luftigen Höhen der Trilliarden Rechenoperationen pro Sekunde wird sich dann endlich das gesamte Weltklima simulieren lassen, hofft die NASA, oder wenigstens eine komplette Zelle, hoffen die Biologen.

Supercomputer werkeln heutzutage überall im Hintergrund, so etwa in der Produktentwicklung: Design, Prototyping usw. “Auf 50 Crashtest-Simulationen kommt nur ein einziger Test mit einem echten Prototypen”, berichtet Uwe Wössner vom Stuttgarter Hochleistungsrechenzentrum (HLRS). “Ausschlaggebend sind dafür einfach die Kosten: Ein Prototyp ist handgemacht, nur einmal verwendbar und daher enorm teuer.” Wohingegen eine Computersimulation nicht nur x-mal wiederholt werden könne, sondern auch sehr viel schneller erstellt und ausgeführt werden könne. “Der Faktor Zeit ist wegen der heutigen schnellen Produktzyklen von höchster Bedeutung”, so Wössner.

Aber auch bei der Visualisierung von Computertomografien leisten Supercomputer gute Arbeit. “So ist etwa die Wartedauer für ein CT-Scanbild von sechs Stunden auf unter eine Minute gesunken”, sagte Intel-Manager Kirk Skaugen. Und weil das so schnell geht, brauche man auch immer weniger Strahlendosen, was die Gesundheit des Patienten schont. Der Patient hat seine vielleicht lebensrettende Diagnose fast schon in Echtzeit.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

EU-Staaten segnen Regulierung von KI final ab

AI Act definiert Kennzeichnungspflicht für KI-Nutzer und Content-Ersteller bei Text, Bild und Ton.

7 Stunden ago

eco zum AI Act: Damit das Gesetz Wirkung zeigen kann, ist einheitliche Auslegung unerlässlich

Aufbau von Aufsichtsbehörden auf nationaler und EU-Ebene muss jetzt zügig vorangetrieben werden.

8 Stunden ago

Datenqualität entscheidet über KI-Nutzen

Hochwertige Daten liegen häufig unerkannt in Daten-Pools und warten darauf, mit ausgefeilten Datamanagement-Plattformen gehoben zu…

8 Stunden ago

Gartner: Public-Cloud-Ausgaben steigen auf mehr als 675 Milliarden Dollar

Prognostiziertes jährliches Wachstum von mehr als 20 Prozent wird durch GenKI-fähige Anwendungen in großem Maßstab…

9 Stunden ago

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

4 Tagen ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

4 Tagen ago