OVH kündigt erste europäische Cloud-Lösung für Deep Learning und KI an

OVH wird in seinen Rechenzentren den Supercomputer Nvidia DGX-1 in der Ausführung mit Tesla-V100 GPU-Beschleunigern aufstellen und Kunden als “AI-Infrastructure-as-a-Service” zur Miete anbieten. Laut OVH-Website wird die Nutzung für 48 Stunden dann 800 Euro kosten – also 16,66 Euro pro Stunde. Bei der Vorstellung seiner auf Aufgaben im Bereich Künstlicher Intelligenz und Maschinenlernen ausgelegten Appliance im April 2016 nannte Nvidia einen Preis von 129.000 Dollar. Bis der erreicht ist, können Kunden bei OVH also über 658 Stunden oder 274 Tage lang rechnen lassen.

Nvidia DGX-1 (Bild: Nvidia)

Der Nvidia DGX-1 ist ein vorkonfiguriertes und direkt einsatzbereites System mit der Leistung von rund 800 CPUs. Es wurde speziell für Aufgaben im Bereich Künstliche Intelligenz sowie Deep Learning konzipiert. Außerdem wird containerisierte, auf Docker basierende Deep-Learning-Software von Nvidia mit angepassten Frameworks angeboten. Dadurch soll das Training um bis zu 30 Prozent schneller gehen als mit anderer, grafikprozessorbasierter Hardware.

Einsatzgebiete sieht OVH zum Beispiel bei Experimenten und Forschung im Schnittfeld von Big Data und KI. Unternehmen könnten so schnell in Deep Learning einsteigen, ohne sich um die erforderliche IT-Infrastruktur kümmern zu müssen.

“Als europäischer Marktführer im Cloud-Bereich unterstützt OVH Unternehmen bei Ihrer digitalen Transformationen. Künstliche Intelligenz ist eine der größten Chancen, um diesen Wandel zu verwirklichen, stellt jedoch gleichzeitig eine große Herausforderung für die Infrastrukturen dar”, erkärt Germain Masse, Technical Director bei OVH. Mit der Nvidia DGX-1 biete man Kunden eine leistungsstarke KI-Umgebung in Kombination mit den Vorteilen von Cloud-Infrastructure-as-a-Service. “Im Bereich Supercomputing für beschleunigte KI-Analysen ist Nvidia ohne Frage der Maßstab − und deshalb der richtige Partner für uns”, so Masse weiter.

Diese Woche hatte bereits Microsoft eine Partnerschaft mit dem Supercomputer-Hersteller Cray angekündigt. Das darauf basierende Angebot “Cray in Azure” ist auf Kunden ausgerichtet, die Workloads im Bereich High-Performance-Computing, künstliche Intelligenz, Simulationen und Analytics ausführen wollen, aber keine eigenen Cray-Computer kaufen beziehungsweise unterhalten wollen oder können.

Bereits im August hatte Microsoft zudem die Echtzeit-AI-Plattform Brainwave angekündigt. Sie basiert auf einem System aus zahlreichen Field Programmable Gate Arrays (FPGAs). Damit sollen sich Deep Neural Networks als Hardware-Microservices bereitstellen lassen. Mit Brainwave will Microsoft die Entwicklung von Services mit künstlicher Intelligenz erleichtern. Kunden soll das Angebot im kommenden Jahr zur Verfügung stehen.

Newsletter CLOUD
Interessiert Sie das Thema Cloud-Computing? Dann melden Sie sich jetzt für unseren Newsletter an.