HPC

IT-Trends 2024: Signifikantes Wachstum von Rechenzentren

Teil 3: Wachsender Bedarf an Rechenleistung durch Trends wie KI, HPC und Edge Computing.

4 Monate ago

Top500-Liste: Schnellster europäischer Supercomputer steht in Finnland

Das italienische System Leonardo steigt neu in die Top 10 ein. Das Ranking dominiert weiterhin das einzige Exaflops-System Frontier in…

1 Jahr ago

Intel Max Series: Intel stellt neue Prozessoren für High Performance Computing vor

Die Intel Max Series setzt sich aus Xeon-Prozessoren und Data-Center-GPUs zusammen. Beide unterstützen High Bandwidth Memory.

1 Jahr ago

Samsung kündigt 1,4-Nanometer-Chips für 2027 an

Bis einschließlich 2024 bleibt Samsung bei einem 3-Nanometer-Verfahren. Für 2025 ist ein Produktionsprozess mit 2 Nanometer-Strukturen in Planung.

1 Jahr ago

BullSequana XH3000: Atos kündigt Supercomputer der “Exascale”-Klasse an

Es ist der Nachfolger des vom Forschungszentrum Jülich betriebenen Systems Juwels Booster Module. Laut Atos verfügt der BullSequana XH3000 über…

2 Jahre ago

HPE erhält 2-Milliarden-Dollar-Auftrag von der NSA

Der Geheimdienst kauft eine HPC-Lösung auf Basis von HPE GreenLake. Das System soll bereits im kommenden Jahr den Betrieb aufnehmen.

3 Jahre ago

HPE übernimmt Cray für 1,3 Milliarden Dollar

Hewlett Packard Enterprise (HPE) wird den Supercomputer-Hersteller Cray für rund 1,3 Milliarden US-Dollar zu übernehmen. Durch die Kombination der Teams…

5 Jahre ago

Samsung bringt 800 GByte-SSD für High Performance Computing

Workloads wie künstliche Intelligenz, Big Data oder das Internet der Dinge sollen sich mit dem neuen Samsung Solid State Laufwerk…

6 Jahre ago

Jülicher Rechenzentrum rüstet auf 12 Petaflops auf

Das leistungsfähigste Rechenzentrum in Deutschland wird ab dem zweiten Quartal 2018 im Forschungszentrum in Jülich liegen. Die Rechenleistung kommt von…

6 Jahre ago

Erdölkonzern Eni nimmt schnellsten privaten Supercomputer in Betrieb

Für die Erschließung neuer Erdölvorkommen will die italienische Eni künftig noch stärker auf digitale Lösungen setzen. Grundlage dafür bilden 1600…

6 Jahre ago

Oracle: Cloud-Standort Frankfurt soll Hochverfügbarkeit ermöglichen

Legacy-Anwendungen und unternehmenskritische Lösungen sind heute noch fest in der On-Premise-Welt verankert. Das will Oracle mit einer neuen Cloud-Architektur ändern.…

7 Jahre ago

Intel stellt mit Xeon Scalable neue Server-Prozessoren vor

Xeon Scalable richtet sich an Workloads wie HPC, Analytics, Virtualisierung oder KI. Trotz deutlicher Leistungssteigerung könnten die neuen Intel-Plattformen durch…

7 Jahre ago

Schweizer haben Europas schnellsten Supercomputer

Europaweit hat Deutschland die meisten Systeme. Zwei chinesische Rechner führen nach wie vor die Liste der Top500 an.

7 Jahre ago

HPE weitet The Machine auf 160 Terabyte Arbeitsspeicher aus

Daten, die als gedruckte Bücher fünfmal die Library of Congress füllen würden, kann The Machine in einem Arbeitsgang verarbeiten.

7 Jahre ago

Cray liefert neuen Super-Cluster für künstliche Intelligenz

Mit Hilfe von NVIDA Tesla-Beschlenigern sollen Organisationen schnell in der Lage sein, mit KI-Lösungen zu Ergebnissen zu kommen.

7 Jahre ago

Lenovo zeigt Lösung für Software Defined Storage

Lenovo wagt weitere Schritte im Bereich HPC. Künftig soll es weitere Angebote auf Basis von Ceph und Lustre geben.

7 Jahre ago

HPC: Intel beendet kommerzielle Lustre-Distribution

Der Code der Intel-Distribution wird vollständig an die Open Source Community übergeben. Anwender bekommen eine Migrationshilfe auf das Community-Release.

7 Jahre ago

AWS bringt High Performance Computing in die Cloud

Mit EnginFrame stellt Amazon Web Services jetzt einen neuen Service für High Performance Computing vor. Er basiert auf einem Service…

7 Jahre ago

HPE “The Machine” – speicherorientierte Architektur als Hoffnungsträger

Mit großem Theaterdonner präsentierte HPE auf der Cebit einen ersten Prototypen der speicherzentrierten Systemarchitektur "The Machine", an der das Unternehmen…

7 Jahre ago

HPEs “The Machine” kämpft gegen Alzheimer

Bei der Erforschung von neurodegenerativen Erkrankungen müssen große Mengen an unterschiedlichen Daten verarbeitet werden. Hier soll HPEs neue Rechnerarchitektur ihre…

7 Jahre ago