Ölbohrer holen sich IBMs Supercomputing auf Abruf

Management

Millionen sparen und schneller rechnen

Vor gut zwei Monaten hat IBM-Chef Sam Palmisano die “On-Demand”-Losung für seinen Konzern ausgegeben. Jetzt hat er einen ersten Kunden für “Supercomputing auf Abruf” gefunden. PGS Data Processing, eine Sparte des Ölförderspezialisten Petroleum Geo Services, wird die Rechenleistung von Big Blue in Anspruch nehmen. Das Unternehmen hofft, damit jährlich 1,5 Millionen Dollar einzusparen.

Der Kunde könne sich so von hohen Fixkosten befreien, heißt es in einer Mitteilung von IBM. Außerdem könne das Unternehmen die Betriebsverantwortung für die Großrechenanlagen abgeben, die ohnehin schlecht ausgelastet seien oder zeitweise gar ungenutzt blieben.

PGS Data Services will die Rechen-Dienstleistungen von IBM in Anspruch nehmen, um Messdaten aus dem Golf von Mexiko auszuwerten. “Wenn man seismische Daten grafisch aufbereiten will, dann erfordert das auch heute noch die besten Berechnungs-Anwendungen, die man bekommen kann”, erläutert Chris Usher, President bei PGS Data Processing. “Allerdings müssen wir hier trotzdem sehr auf die Kosten schauen.”

Die bestehende IT-Infrastruktur zur Bearbeitung der Messergebnisse wird PGS allerdings beibehalten. Größtenteils ist das ohnehin IBM-Hardware, die mit Linux-Clustern betrieben wird. Zum einen sei sowieso geplant gewesen, die Kapazitäten auszuweiten, erläutert Chris Usher im Gespräch mit silicon.de. Zum anderen werden Unix-Systeme nach und nach ausrangiert. “Auf ein solches Angebot des Supercomputing-on-Demand” haben wir lange gewartet, so Usher, “aber bisher gab es niemanden, der das wirklich auf die Beine gestellt hätte.”

Abgerechnet wird dann tatsächlich nach der Leistung, die in Anspruch genommen wird. PGS Data Service hat sich für die kommenden drei Monate erst einmal auf 384 Dual-Pentium-Knoten festgelegt. “Aber das kann man sicher auch kurzfristig ändern, wenn der Bedarf an Rechenkapazität bei uns plötzlich größer oder sehr viel kleiner werden sollte.”

Ushers Vize John Gillooly spinnt die Auswirkungen noch weiter: “Das On-Demand-Supercomputing kann auch bei neuen Techniken durchaus die kritische Zeit bis zur Markteinführung verkürzen, weil hier oft intensive Rechenoperationen der Hemmschuh sind.” Aus dem Golf von Mexiko werden die Daten der Ölexperten also in Zukunft nach Poughkeepsie im US-Bundesstaat New York geschickt: Dort steht die erste Rent-a-Supercomputer-Anlage; weitere sollen folgen, heißt es bei IBM.

Von Anfang an hatte Palmisano die Kunden für ‘Supercomputing auf Zeit’ bevorzugt in einzelnen Branchen und Wirtschaftssegmenten gesehen: Bei den digitalen Medien, wie zum Beispiel der aufwändigen Animation in Hollywood-Filmen, der Pharma- und Genforschung und eben der Boden- und Lagerstättenerkundung in der Ölindustrie. Allerdings benötigen fast alle Unternehmen dieser Branchen die enormen Kapazitäten eines Supercomputers nur für wenige Wochen im Jahr. Den Rest der Zeit liegen die Millionen-Investitionen praktisch brach.

Silicon meint: Supercomputing wird also tatsächlich zur “Commodity”, also einer Standardversorgung wie Strom und Wasser. Gerade weil es bei den Erforschern der Erdöllagerstätten ausschließlich proprietäre Anwendungen sind, die auf den großen Maschinen die Zahlen kleinhäckseln sollen, fällt es schwer zu glauben, dass das alles gar so reibungslos vonstatten geht. Aber bei den kleineren oder größeren Pannen dürfen wir ja wieder nicht vorbeischauen …