Microsoft: “Hersteller sind wichtige Stützpfeiler”

silicon.de: Was hat sich gegenüber dem letzten Jahr im Microsoft HPC-Bereich getan?

Dreyer: Im Vergleich zum letzten Jahr hat sich das Infrastruktursystem rund um den Microsoft HPC-Bereich sehr stark weiterentwickelt. Microsoft geht hier einen sehr gezielten Weg mit den Partnern. Wir offerieren unseren Partnern Performance-Labs, wo sie einfach mit den Microsoft-Technikern zusammen ihre Applikation tunen und auf Performance bringen können, so dass wir bei sehr vielen Anwendungen, die wir heute auf den Markt haben und mit neuen Releases, wie zum Beispiel Ansys 12.0 herauskommen können. Teilweise sehen wir damit sogar bessere Performance auf den Windows-Systemen als auf Konkurrenzbetriebssystemen.

silicon.de: Wo gibt es die konkreten Verbesserungen?

Dreyer: Bei der Gesamtleistung der Applikationen. Der Applikationsablauf besteht ja nicht nur aus dem eigentlichen Rechenvorgang, sondern er auch aus dem Vorgang der Datenaufbereitung, der Datenverteilung auf die einzelnen Rechenknoten. Und das sind noch lange nicht alle Einflussgrößen, die hier in die Gesamtlaufzeit eines HPC-Jobs einfließen. Wenn man die Performance vom Anfang bis zum Ende sieht – bis man das Ergebnis hat – haben wir durchaus vergleichbare, teilweise sogar bessere Performance-Werte als andere Betriebssysteme.

silicon.de: Wie sehen die Durchlaufzeiten von Jobs auf einem Microsoft HPC-System aus?

Dreyer: Es ist nicht möglich die Durchlaufzeiten allein zu berechnen – man muss auch die Zeit der Datenaufbereitung betrachten, die die Maschine braucht, um die Daten auf die Rechenknoten zu verteilen. Man darf nicht nur die reine Applikationsrechenzeit sehen. Das Gesamtergebnis ist für den Kunden am Wichtigsten.

silicon.de: Microsoft arbeitet mit unterschiedlichen Institutionen im HPC-Bereich zusammen. Wie gestaltet sich die Zusammenarbeit mit dem Höchstleistungsrechenzentrum Stuttgart(HLRS)?

Dreyer: Akademische Institutionen sind natürlich ein sehr wichtiger Teil der HPC Community. Aus dem Grund weil die akademischen Institutionen auch die Freiheit haben, neue Wege in den Forschungsansätzen zu testen, was bei Industriebetrieben sicher nicht in dem Umfang möglich ist. Der Industriebetrieb geht auf eine standardmäßige Lösung, die erprobt ist und bei der er weiß, dass er seine Ergebnisse bekommt. Gerade die Zusammenarbeit mit dem HLRS bei dem Top500 Projekt war richtungsweisend für uns, weil das der erste große Cluster war, der ohne Harddisk ausgekommen ist. Das heißt, dort gibt es zentrale Bootserver, die ein zentrales Image zur Verfügung stellen, das dann auf den einzelnen Knoten für den laufenden Betrieb adaptiert ist. Und das ist die große Herausforderung, je mehr Knoten man hier hat, umso besser kann man skalieren und die Ladevorgänge dauern nicht zu lange.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

6 Stunden ago

Studie: KI-Technologie unverzichtbar für zukunftsfähige Paketlogistik

Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.

7 Stunden ago

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

1 Tag ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

1 Tag ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

3 Tagen ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

5 Tagen ago