“Es ist ein fantastischer Moment, wir können jetzt auf eine neue Ära blicken, in der wir die Ursprünge und die Entwicklung des Universums verstehen können”, sagte LHC-Projektleiter Lyn Evans. Von dem global größten physikalischen Projekt versprechen sich die Forscher neue Erkenntnisse zur Teilchenphysik. Doch wie kann das CERN der Auswertung der aus den Experimenten entstehenden enormen Datenflut Herr werden? Ein einzelnes Rechenzentrum wäre nicht in der Lage, für weltweit mehrere tausend Wissenschaftler ausreichend Kapazitäten zur Auswertung der Messergebnisse und Simulationsdaten bereitzustellen.
Über Hochgeschwindigkeitsleitungen ist das CERN daher mit insgesamt 12 Rechenzentren in mehreren Ländern auf der ganzen Welt vernetzt. Die deutsche Schaltstelle für das schnellste Rechnernetz der Welt – ein Knoten der so genannten Schicht TIER 1 – ist das Forschungszentrum Karlsruhe.
Als Speicherlösung für die enorme Datenmenge setzt das GridKa-Projekt am Steinbuch Centre for Computing (SCC) des Karlsruher Instituts für Technologie auf Speicherprodukte und Lösungen von NEC. Die an den Experimenten beteiligten Forscher in Deutschland profitieren davon, da ihnen so ein schneller Zugriff auf die Daten zur Auswertung der Ergebnisse zur Verfügung steht.
Page: 1 2
"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…
Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…
Mit autonomen Pentests aus der Cloud lassen sich eigene Schwachstelle identifizieren.
Die Drogeriekette Rossmann wird ihr neues Zentrallager in Ungarn mit Software von PSI steuern.
Automobilhersteller planen, Quantentechnologie zunehmend auch bei fortschrittlichen Fahrerassistenzsystemen (ADAS) einzusetzen.
Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.
View Comments
In ca 6 Monaten ist Aufrüsten angesagt
Bei einer Gesamtkapazität von 4500 Terabyte = 4,5 Petabyte und einem erwarteten Datenvolumen von 8.000.000 GB = 8 PB + 4 PB Simulationsdaten macht nach Adam Riese 12 PB Daten pro Jahr, scheint mit die Anlage etwas unterdimensioniert.