Mit silicon.de im Large Hadron Collider

“You make it and we break it”, so fasst Wolfgang von Rüden, Leiter des CERN openlap, die IT-Strategie des Forschungszentrums zusammen. Also es geht nicht unbedingt nur ums kaputt machen, doch wollen die Forscher nahe der französischen Grenze ein Maximum aus ihrer Hardware herausholen. “Wir reizen die Rechner bis zum Letzten aus”, fährt von Rüden fort.

Dass man am CERN auch durchaus in der Lage ist, zukunftsweisende Technologien, nicht nur in der Physik sondern auch in der Informatik zu schaffen, weiß man seit der Erfindung des Internet. Derzeit betreibt das CERN openlab das weltweit größte Grid, an das Hunderte von anderen Rechenzentren und Forschungseinrichtungen angebunden sind.

Fotogalerie: Mit Intel im Large Hadron Collider

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Und im eigenen Rechenzentrum laufen mehr als 35.000 Prozessoren auf Hochtouren, um die riesigen Datenmengen aus den Teilchenkollisionen des Large Hadron Colliders (LHC) auswerten zu können. So produziert der weltweit größte Teilchenbeschleuniger bis zu 40 Millionen Bilder pro Sekunde. Um die zu speichern, stellt das Rechenzentrum vor Ort 15 Millionen Gigabytes Disk-Speicher und 34 Millionen Gigabytes Tape-Storage bereit. Mit Optical Fibre mit einer Kapazität von 10 Gigabits Pro Sekunde bindet das CERN 11 weitere große Datenzentren an.

Bei allen Superlativen hat man im Rechenzentrum am CERN auch mit gewissen Problemen und Beschränkungen zu kämpfen. So ist die maximale Stromzufuhr des Rechenzentrums mit Kühlung und Ventilation auf 2,9 MW begrenzt.

Daher haben sich die Architekten dieses Rechenzentrums bei der Auswahl der zugrunde gelegten Architektur vor allem am Stromverbrauch orientiert. “Wir haben auch Intels Atom analysiert”, erklärt Sverre Jarp, CTO des CERN openlab gegenüber silicon.de. “Wir waren zwar von der Leistungsfähigkeit der CPU beeindruckt, aber nicht von der Effizienz.” So würde das Chipset mehr Strom brauchen als die CPU selbst, damit war Atom ausgeschieden.

Nun laufen viele Server mit dem Harpertown-Chip, der auf der Core2-Architektur aufsetzt. Künftig wird auch der Nehalem mit seinen neuen Features und einer neuen Strukturbreite eine große Rolle am CERN spielen.

“Wir sind erst am Anfang des Bedarfs, aber wir haben eine großen Vorteil”, erklärt Jarp weiter. Wir haben Millionen von Events, die wir aber relativ trivial parallelisieren können.” Wäre der LHC bereits wie geplant 2005 an den Start gegangen hätte Jarp mit noch größeren Problemen kämpfen müssen. Die Zeit und die stetig voranschreitende Weiterentwicklung haben jedoch für den Forscher gearbeitet: “Wir können jetzt rund 10 Mal mehr Computer-Power realisieren als 2005.”

Silicon-Redaktion

Recent Posts

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

11 Stunden ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

11 Stunden ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

2 Tagen ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

4 Tagen ago

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

6 Tagen ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

1 Woche ago