Clustered Storage soll Petaflops-Rechner möglich machen

Seine Firma heißt Panasas und hat bereits den ersten Vertrag in der Tasche. Sie soll für IBMs neuen Auftrags-Supercomputer, Codename ‘Roadrunner’, die Speicher-Cluster bereitstellen.

Da der Rechner im Petaflops-Bereich arbeiten wird (1 Billiarde fließende Rechenoperationen pro Sekunde) ergebe sich bei herkömmlichen Speichern oft ein Flaschenhals. Das will Panasas abschaffen. Gibson treibt bereits seit längerem die Technik dafür zum Standard: Parallel Network File System, PNFS. Dahinter verbirgt sich eine Clusterung, die eine zweite virtuelle Datenstraße anlegt. Hier sollen die Daten in virtueller Weise parallel zu den echten Daten im System noch einmal vorgehalten werden, was den Zugriff beschleunigen und endlich auch die Speicherung eines Supercomputers würdig machen soll.

Die ‘Active Scale 3.0 Storage Cluster’, die IBMs Roadrunner-Team bei Panasas bestellt habe, seien im Input/Output (I/O) deshalb effizienter, weil sie ‘DirectFlow’-Fähigkeiten mitbringen, sagte Gibson. PNFS trenne dabei die Metadaten beim Zugriff und der Speicherung vom Datenstrom und sei allein durch das Anlegen einer zweiten, ebenfalls zweispurigen Daten-Trasse nicht so flaschenhalsanfällig wie die herkömmlichen Systeme mit nur einer Trasse es sind, vor allem an den Head Controllern. Das, verbunden mit der Cluster-Fähigkeit, verteile die Lasten gerade bei hochkomplexen und Performance-kritischen Systemen wie High Performance Computing (HPC) gleichmäßiger.

Außerdem warb Gibson mit der Zuverlässigkeit der Speichertechnik: Im Gegensatz zu einem Storage Area Network oder Network Attached Storage reagiere die PNFS-fähige Cluster-Anwendung gelassener auf Fehler in den Datensätzen. Statt, wie dies bisher oft geschehe, bei einem File System Error ganze Terabytes an Daten zu blockieren oder schlimmstenfalls zu verwerfen, grenze das System den Datensatz mit den problematischen oder unlesbaren Daten einfach aus und halte alle anderen Daten weiterhin vor, so Gibson.

Panasas setzt als einer der wenigen Storage-Spezialisten nahezu komplett auf HPC-Kunden. Einerseits weil es hier viele offene Fragen und vor allem noch keine Spezialspeicher gibt; zum anderen weil Garth Gibson offenbar mit IBM die Ansicht teilt, dass HPC nicht auf die wenigen verkauften Riesensysteme beschränkt bleiben wird und statt dessen nach und nach in die Enterprise-Segmente hineinwächst.

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

1 Tag ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

2 Tagen ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

2 Tagen ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

2 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

3 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

4 Tagen ago