OVH kündigt erste europäische Cloud-Lösung für Deep Learning und KI an

CloudServer

Das Angebot basiert auf dem kompakten Supercomputer Nvidia DGX-1 V100. OVH wird das System demnächst als Service bereitstellen. Die Nutzung kostet für 48 Stunden 800 Euro.

OVH wird in seinen Rechenzentren den Supercomputer Nvidia DGX-1 in der Ausführung mit Tesla-V100 GPU-Beschleunigern aufstellen und Kunden als “AI-Infrastructure-as-a-Service” zur Miete anbieten. Laut OVH-Website wird die Nutzung für 48 Stunden dann 800 Euro kosten – also 16,66 Euro pro Stunde. Bei der Vorstellung seiner auf Aufgaben im Bereich Künstlicher Intelligenz und Maschinenlernen ausgelegten Appliance im April 2016 nannte Nvidia einen Preis von 129.000 Dollar. Bis der erreicht ist, können Kunden bei OVH also über 658 Stunden oder 274 Tage lang rechnen lassen.

Nvidia DGX-1 (Bild: Nvidia)

Der Nvidia DGX-1 ist ein vorkonfiguriertes und direkt einsatzbereites System mit der Leistung von rund 800 CPUs. Es wurde speziell für Aufgaben im Bereich Künstliche Intelligenz sowie Deep Learning konzipiert. Außerdem wird containerisierte, auf Docker basierende Deep-Learning-Software von Nvidia mit angepassten Frameworks angeboten. Dadurch soll das Training um bis zu 30 Prozent schneller gehen als mit anderer, grafikprozessorbasierter Hardware.

Einsatzgebiete sieht OVH zum Beispiel bei Experimenten und Forschung im Schnittfeld von Big Data und KI. Unternehmen könnten so schnell in Deep Learning einsteigen, ohne sich um die erforderliche IT-Infrastruktur kümmern zu müssen.

“Als europäischer Marktführer im Cloud-Bereich unterstützt OVH Unternehmen bei Ihrer digitalen Transformationen. Künstliche Intelligenz ist eine der größten Chancen, um diesen Wandel zu verwirklichen, stellt jedoch gleichzeitig eine große Herausforderung für die Infrastrukturen dar”, erkärt Germain Masse, Technical Director bei OVH. Mit der Nvidia DGX-1 biete man Kunden eine leistungsstarke KI-Umgebung in Kombination mit den Vorteilen von Cloud-Infrastructure-as-a-Service. “Im Bereich Supercomputing für beschleunigte KI-Analysen ist Nvidia ohne Frage der Maßstab − und deshalb der richtige Partner für uns”, so Masse weiter.

Ausgewähltes Whitepaper

Cloud-Provider-Wahl ist Vertrauenssache

Inzwischen gibt es auch in Deutschland zahlreiche lokalisierte Angebote und Rechenzentren, auf die Anwenderunternehmen bei Cloud-Angeboten zurückgreifen können. Die Ergebnisse einer umfassenden Umfrage zeigen, auf welche Aspekte sie dabei besonders Wert legen.

Diese Woche hatte bereits Microsoft eine Partnerschaft mit dem Supercomputer-Hersteller Cray angekündigt. Das darauf basierende Angebot “Cray in Azure” ist auf Kunden ausgerichtet, die Workloads im Bereich High-Performance-Computing, künstliche Intelligenz, Simulationen und Analytics ausführen wollen, aber keine eigenen Cray-Computer kaufen beziehungsweise unterhalten wollen oder können.

Bereits im August hatte Microsoft zudem die Echtzeit-AI-Plattform Brainwave angekündigt. Sie basiert auf einem System aus zahlreichen Field Programmable Gate Arrays (FPGAs). Damit sollen sich Deep Neural Networks als Hardware-Microservices bereitstellen lassen. Mit Brainwave will Microsoft die Entwicklung von Services mit künstlicher Intelligenz erleichtern. Kunden soll das Angebot im kommenden Jahr zur Verfügung stehen.

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen