Microsoft: “Hersteller sind wichtige Stützpfeiler”

silicon.de: Was hat sich gegenüber dem letzten Jahr im Microsoft HPC-Bereich getan?

Dreyer: Im Vergleich zum letzten Jahr hat sich das Infrastruktursystem rund um den Microsoft HPC-Bereich sehr stark weiterentwickelt. Microsoft geht hier einen sehr gezielten Weg mit den Partnern. Wir offerieren unseren Partnern Performance-Labs, wo sie einfach mit den Microsoft-Technikern zusammen ihre Applikation tunen und auf Performance bringen können, so dass wir bei sehr vielen Anwendungen, die wir heute auf den Markt haben und mit neuen Releases, wie zum Beispiel Ansys 12.0 herauskommen können. Teilweise sehen wir damit sogar bessere Performance auf den Windows-Systemen als auf Konkurrenzbetriebssystemen.

silicon.de: Wo gibt es die konkreten Verbesserungen?

Dreyer: Bei der Gesamtleistung der Applikationen. Der Applikationsablauf besteht ja nicht nur aus dem eigentlichen Rechenvorgang, sondern er auch aus dem Vorgang der Datenaufbereitung, der Datenverteilung auf die einzelnen Rechenknoten. Und das sind noch lange nicht alle Einflussgrößen, die hier in die Gesamtlaufzeit eines HPC-Jobs einfließen. Wenn man die Performance vom Anfang bis zum Ende sieht – bis man das Ergebnis hat – haben wir durchaus vergleichbare, teilweise sogar bessere Performance-Werte als andere Betriebssysteme.

silicon.de: Wie sehen die Durchlaufzeiten von Jobs auf einem Microsoft HPC-System aus?

Dreyer: Es ist nicht möglich die Durchlaufzeiten allein zu berechnen – man muss auch die Zeit der Datenaufbereitung betrachten, die die Maschine braucht, um die Daten auf die Rechenknoten zu verteilen. Man darf nicht nur die reine Applikationsrechenzeit sehen. Das Gesamtergebnis ist für den Kunden am Wichtigsten.

silicon.de: Microsoft arbeitet mit unterschiedlichen Institutionen im HPC-Bereich zusammen. Wie gestaltet sich die Zusammenarbeit mit dem Höchstleistungsrechenzentrum Stuttgart(HLRS)?

Dreyer: Akademische Institutionen sind natürlich ein sehr wichtiger Teil der HPC Community. Aus dem Grund weil die akademischen Institutionen auch die Freiheit haben, neue Wege in den Forschungsansätzen zu testen, was bei Industriebetrieben sicher nicht in dem Umfang möglich ist. Der Industriebetrieb geht auf eine standardmäßige Lösung, die erprobt ist und bei der er weiß, dass er seine Ergebnisse bekommt. Gerade die Zusammenarbeit mit dem HLRS bei dem Top500 Projekt war richtungsweisend für uns, weil das der erste große Cluster war, der ohne Harddisk ausgekommen ist. Das heißt, dort gibt es zentrale Bootserver, die ein zentrales Image zur Verfügung stellen, das dann auf den einzelnen Knoten für den laufenden Betrieb adaptiert ist. Und das ist die große Herausforderung, je mehr Knoten man hier hat, umso besser kann man skalieren und die Ladevorgänge dauern nicht zu lange.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

6 Stunden ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

7 Stunden ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

8 Stunden ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

1 Tag ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

2 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

3 Tagen ago