Im Mittelpunkt der Dell-Produktpräsentationen stand der speziell für HPC-Anforderungen ausgelegte Server PowerEdge R410. Dell setzt im High Performance Computing auf Standard-basierte Cluster-Technologie. Der R410 ist ein leistungsstarker 1-HE-Rack-Server mit zwei Sockeln und Intel-Xeon-Prozessoren der 5500-Serie. Mit seiner Gehäusetiefe von lediglich 24 Zoll ist er auch optimal für den Einsatz in Rechenzentren mit beschränktem Platzangebot geeignet. Der Schwerpunkt von Dell liegt auf der Entwicklung von IT-Lösungen, die die Komplexität von Rechenzentrums-Infrastrukturen und HPC-Umgebungen reduzieren.

Eine wichtige Rolle spielen die Betriebssysteme im HPC-Bereich. Zwar hat Microsoft gegenüber Linux noch einen verschwindend geringen Marktanteil, doch laut Vince Mendillo, HPC Director Marketing, liegt der Fokus von Microsoft nicht auf der Höchstleistung, sondern auf dem Massenmarkt. Microsofts Argumente für Windows HPC Server haben fünf Supercomputerbesitzer in der neuen Top500 Liste überzeugt – fast 390 Systeme laufen mit Linux. Mit ‘Dawning 5000A’ im Shanghai Supercomputer Center, der den 15. Platz belegt, beweist Microsoft, dass der HPC Server sich auch Spitzengruppe beweisen kann.

Heiß diskutiert wurde auf dem Treffen der Supercompter-Experten auch das Thema ‘Exascale Computing’. Doch bis die Wissenschaftler das Zeitalter des Exascale Computing einläuten, werden wohl noch gut zehn Jahre vergehen. Professor Horst Simon, Associate Laboratory Director for Computing Sciences des renommierten Lawrence Berkeley National Lab, erklärte, dass zwischen dem derzeitigen Stand und dem Exascale Computing noch zu viele technische Unbekannte liegen. “Ein Report der US-Forschungsbehörde DARPA hat im Rahmen einer Exascale-Roadmap Szenarien bei den Komponenten untersucht – wie Dichte der Festplatten, Fortschritte bei den DRAMs, den Verbindungsarchitekturen oder Multicores. Das Ergebnis: Folgen wir dem traditionellen Cluster-Ansatz, wie er beispielsweise durch die Cray XT5 charakterisiert ist, werden wir das Ziel schwerlich erreichen. Die Chance besteht darin, den Technologiepfad mit Low-Power- und integrierten Prozessoren zu beschreiten, wie ihn IBM mit BlueGene eröffnet hat. Aber auch hier muss noch sehr viel Forschung betrieben werden”, führte Simon weiter aus.

Auch bei IBM wird fleißig am Exascale Computing geforscht. “Grundsätzlich sei es schon möglich, solch einen Rechner zu bauen, doch momentan ist das einfach zu teuer und eine gute Energieeffizienz wäre bei einem so riesigen Rechner zum jetzigen Zeitpunkt nicht möglich”, erklärte Torsten Bloth, Linux Cluster Specialist IBM Deep Computing im Gespräch mit silicon.de.

Der Sun-Mitgründer Andy von Bechtolsheim hatte bei seiner Eröffnungsrede auf der Konferenz ein weiten Blick nach vorne geworfen. Er hat auch die Vision von Exaflop-Supercomputer, die tausendmal schneller rechnen als die schnellsten heutigen Supercomputer. Für ihn sei das eine große Herausforderung, die geschätzt bis etwas 2020 durchaus machbar sei. Dabei setzt Bechtolsheim voraus, dass die nächsten zehn Jahre noch das Mooresche Gesetz gilt, demzufolge sich die Transistordichte pro Chip etwa alle zwei Jahre verdoppelt.

Page: 1 2

Silicon-Redaktion

Recent Posts

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

5 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

6 Tagen ago

Studie: KI-Technologie unverzichtbar für zukunftsfähige Paketlogistik

Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.

6 Tagen ago

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

1 Woche ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

1 Woche ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

1 Woche ago