Microsoft: “Hersteller sind wichtige Stützpfeiler”

EnterpriseManagementNetzwerkeProjekteSoftware-Hersteller

silicon.de sprach mit Wolfgang Dreyer, Microsoft Product Solution Manager für High Performance Computing, über die Rolle von Microsoft und die Trends in der Supercomputer-Branche.

silicon.de: Was hat sich gegenüber dem letzten Jahr im Microsoft HPC-Bereich getan?

Dreyer: Im Vergleich zum letzten Jahr hat sich das Infrastruktursystem rund um den Microsoft HPC-Bereich sehr stark weiterentwickelt. Microsoft geht hier einen sehr gezielten Weg mit den Partnern. Wir offerieren unseren Partnern Performance-Labs, wo sie einfach mit den Microsoft-Technikern zusammen ihre Applikation tunen und auf Performance bringen können, so dass wir bei sehr vielen Anwendungen, die wir heute auf den Markt haben und mit neuen Releases, wie zum Beispiel Ansys 12.0 herauskommen können. Teilweise sehen wir damit sogar bessere Performance auf den Windows-Systemen als auf Konkurrenzbetriebssystemen.

silicon.de: Wo gibt es die konkreten Verbesserungen?

Dreyer: Bei der Gesamtleistung der Applikationen. Der Applikationsablauf besteht ja nicht nur aus dem eigentlichen Rechenvorgang, sondern er auch aus dem Vorgang der Datenaufbereitung, der Datenverteilung auf die einzelnen Rechenknoten. Und das sind noch lange nicht alle Einflussgrößen, die hier in die Gesamtlaufzeit eines HPC-Jobs einfließen. Wenn man die Performance vom Anfang bis zum Ende sieht – bis man das Ergebnis hat – haben wir durchaus vergleichbare, teilweise sogar bessere Performance-Werte als andere Betriebssysteme.

silicon.de: Wie sehen die Durchlaufzeiten von Jobs auf einem Microsoft HPC-System aus?

Dreyer: Es ist nicht möglich die Durchlaufzeiten allein zu berechnen – man muss auch die Zeit der Datenaufbereitung betrachten, die die Maschine braucht, um die Daten auf die Rechenknoten zu verteilen. Man darf nicht nur die reine Applikationsrechenzeit sehen. Das Gesamtergebnis ist für den Kunden am Wichtigsten.

silicon.de: Microsoft arbeitet mit unterschiedlichen Institutionen im HPC-Bereich zusammen. Wie gestaltet sich die Zusammenarbeit mit dem Höchstleistungsrechenzentrum Stuttgart(HLRS)?

Dreyer: Akademische Institutionen sind natürlich ein sehr wichtiger Teil der HPC Community. Aus dem Grund weil die akademischen Institutionen auch die Freiheit haben, neue Wege in den Forschungsansätzen zu testen, was bei Industriebetrieben sicher nicht in dem Umfang möglich ist. Der Industriebetrieb geht auf eine standardmäßige Lösung, die erprobt ist und bei der er weiß, dass er seine Ergebnisse bekommt. Gerade die Zusammenarbeit mit dem HLRS bei dem Top500 Projekt war richtungsweisend für uns, weil das der erste große Cluster war, der ohne Harddisk ausgekommen ist. Das heißt, dort gibt es zentrale Bootserver, die ein zentrales Image zur Verfügung stellen, das dann auf den einzelnen Knoten für den laufenden Betrieb adaptiert ist. Und das ist die große Herausforderung, je mehr Knoten man hier hat, umso besser kann man skalieren und die Ladevorgänge dauern nicht zu lange.