Microsoft: “Hersteller sind wichtige Stützpfeiler”

silicon.de: Was hat sich gegenüber dem letzten Jahr im Microsoft HPC-Bereich getan?

Dreyer: Im Vergleich zum letzten Jahr hat sich das Infrastruktursystem rund um den Microsoft HPC-Bereich sehr stark weiterentwickelt. Microsoft geht hier einen sehr gezielten Weg mit den Partnern. Wir offerieren unseren Partnern Performance-Labs, wo sie einfach mit den Microsoft-Technikern zusammen ihre Applikation tunen und auf Performance bringen können, so dass wir bei sehr vielen Anwendungen, die wir heute auf den Markt haben und mit neuen Releases, wie zum Beispiel Ansys 12.0 herauskommen können. Teilweise sehen wir damit sogar bessere Performance auf den Windows-Systemen als auf Konkurrenzbetriebssystemen.

silicon.de: Wo gibt es die konkreten Verbesserungen?

Dreyer: Bei der Gesamtleistung der Applikationen. Der Applikationsablauf besteht ja nicht nur aus dem eigentlichen Rechenvorgang, sondern er auch aus dem Vorgang der Datenaufbereitung, der Datenverteilung auf die einzelnen Rechenknoten. Und das sind noch lange nicht alle Einflussgrößen, die hier in die Gesamtlaufzeit eines HPC-Jobs einfließen. Wenn man die Performance vom Anfang bis zum Ende sieht – bis man das Ergebnis hat – haben wir durchaus vergleichbare, teilweise sogar bessere Performance-Werte als andere Betriebssysteme.

silicon.de: Wie sehen die Durchlaufzeiten von Jobs auf einem Microsoft HPC-System aus?

Dreyer: Es ist nicht möglich die Durchlaufzeiten allein zu berechnen – man muss auch die Zeit der Datenaufbereitung betrachten, die die Maschine braucht, um die Daten auf die Rechenknoten zu verteilen. Man darf nicht nur die reine Applikationsrechenzeit sehen. Das Gesamtergebnis ist für den Kunden am Wichtigsten.

silicon.de: Microsoft arbeitet mit unterschiedlichen Institutionen im HPC-Bereich zusammen. Wie gestaltet sich die Zusammenarbeit mit dem Höchstleistungsrechenzentrum Stuttgart(HLRS)?

Dreyer: Akademische Institutionen sind natürlich ein sehr wichtiger Teil der HPC Community. Aus dem Grund weil die akademischen Institutionen auch die Freiheit haben, neue Wege in den Forschungsansätzen zu testen, was bei Industriebetrieben sicher nicht in dem Umfang möglich ist. Der Industriebetrieb geht auf eine standardmäßige Lösung, die erprobt ist und bei der er weiß, dass er seine Ergebnisse bekommt. Gerade die Zusammenarbeit mit dem HLRS bei dem Top500 Projekt war richtungsweisend für uns, weil das der erste große Cluster war, der ohne Harddisk ausgekommen ist. Das heißt, dort gibt es zentrale Bootserver, die ein zentrales Image zur Verfügung stellen, das dann auf den einzelnen Knoten für den laufenden Betrieb adaptiert ist. Und das ist die große Herausforderung, je mehr Knoten man hier hat, umso besser kann man skalieren und die Ladevorgänge dauern nicht zu lange.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

Selbstangriff ist die beste Verteidigung

Mit autonomen Pentests aus der Cloud lassen sich eigene Schwachstelle identifizieren.

15 Stunden ago

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

18 Stunden ago

Prozessautomatisierung im Distributionslager

Die Drogeriekette Rossmann wird ihr neues Zentrallager in Ungarn mit Software von PSI steuern.

24 Stunden ago

Wie autonome Fahrzeuge durch Quantencomputing sicherer werden können

Automobilhersteller planen, Quantentechnologie zunehmend auch bei fortschrittlichen Fahrerassistenzsystemen (ADAS) einzusetzen.

1 Tag ago

Heineken plant Bedarfe mit KI-Lösung von Blue Yonder

Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.

2 Tagen ago

Industrie erwartet durch KI deutlichen Produktivitätsschub

Davon gehen laut der aktuellen Studie „Performance-Treiber 2024“ acht von zehn Industrieunternehmen aus.

3 Tagen ago