“Es ist ein fantastischer Moment, wir können jetzt auf eine neue Ära blicken, in der wir die Ursprünge und die Entwicklung des Universums verstehen können”, sagte LHC-Projektleiter Lyn Evans. Von dem global größten physikalischen Projekt versprechen sich die Forscher neue Erkenntnisse zur Teilchenphysik. Doch wie kann das CERN der Auswertung der aus den Experimenten entstehenden enormen Datenflut Herr werden? Ein einzelnes Rechenzentrum wäre nicht in der Lage, für weltweit mehrere tausend Wissenschaftler ausreichend Kapazitäten zur Auswertung der Messergebnisse und Simulationsdaten bereitzustellen.
Über Hochgeschwindigkeitsleitungen ist das CERN daher mit insgesamt 12 Rechenzentren in mehreren Ländern auf der ganzen Welt vernetzt. Die deutsche Schaltstelle für das schnellste Rechnernetz der Welt – ein Knoten der so genannten Schicht TIER 1 – ist das Forschungszentrum Karlsruhe.
Als Speicherlösung für die enorme Datenmenge setzt das GridKa-Projekt am Steinbuch Centre for Computing (SCC) des Karlsruher Instituts für Technologie auf Speicherprodukte und Lösungen von NEC. Die an den Experimenten beteiligten Forscher in Deutschland profitieren davon, da ihnen so ein schneller Zugriff auf die Daten zur Auswertung der Ergebnisse zur Verfügung steht.
Page: 1 2
Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.
Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…
Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…
Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…
Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…
Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.
View Comments
In ca 6 Monaten ist Aufrüsten angesagt
Bei einer Gesamtkapazität von 4500 Terabyte = 4,5 Petabyte und einem erwarteten Datenvolumen von 8.000.000 GB = 8 PB + 4 PB Simulationsdaten macht nach Adam Riese 12 PB Daten pro Jahr, scheint mit die Anlage etwas unterdimensioniert.