Nervana – Neue Details zu Intels Plattform für Künstliche Intelligenz

Noch in diesem Jahr soll eine vielseitig verwendbare KI-Plattform auf den Markt kommen. Zusammen mit BMW entwickelt Intel bereits erste Projekte rund um das autonome Fahren. Doch auch andere Anwendungen sind mit Nervana möglich, wie Intel-Manager Navenn Rao gegenüber silicon.de erklärt.

Der Markt für künstliche Intelligenz wird bereits in diesem Jahr große Schritte machen. Hier will auch Intel als Chip-Hersteller einen Beitrag leisten. Es hat daher in den zurückliegenden Monaten eine ganze Reihe von Start-ups übernommen, die sich mit Deep Learning und künstlicher Intelligenz beschäftigten, eines dieser Unternehmen ist Nervana, das im August vergangenen Jahres zu Intel kam.

Inzwischen aber scheint Intel vor allem einen großen Teil der eigenen AI-Strategie rund um Nervana aufzubauen, eine Plattform, über die Intel bislang nur leise gesprochen hat. “Nervana ist in erster Linie ein Brand, der sich aus verschiedenen Komponenten wie Software, Hardware und Services zusammensetzt”, erklärt Navenn Rao, Mitgründer und CEO von Nervana und seit der Übernahme durch Intel VP Data Center Group und General Manager für AI-Lösungen.

Naveen Rao, VP Data Center Group, GM Artificial Intelligence Solutions und Gründer und CEO von Nervana Systems. (Bild: Intel)
Naveen Rao, VP Data Center Group, GM Artificial Intelligence Solutions und Gründer und CEO von Nervana Systems. (Bild: Intel)

Laut Intel-Roadmap sollen demnächst erste Systeme bei Kunden zum Einsatz kommen. Einer der ersten Kunden ist BMW , das zusammen mit Intel GO und im Backend mit Nervana am Thema autonomes Fahren arbeitet. Noch in der ersten Hälfte des Jahres 2017 sollen weitere hinzukommen. Wenn alles gut läuft soll dann in der zweiten Hälfte des Jahres diese “Full-Stack-Platform” auch auf den Markt kommen – oder vielleicht doch auch erst 2018, wie Rao einlenkt.

Bevor Nervana von Intel übernommen wurde, gab es den AI-Stack als Hardware aber auch als gehostete Version. Nach wie vor bietet Intel diese Möglichkeit. So können Unternehmen diese Machine und Deep Learning Plattform für ihre Projekte ausprobieren, wie Rao erklärt.

Was Intel aber in den Markt tragen will, sind vollständige Systeme. Denn der Hardware-Part von Nervana ist in erster Linie eine Art Beschleuniger. Auf dieser optimierten Hardware laufen dann verschieden Software-Tools und Werkzeuge. Intel, so erklärt Rao, habe sich dafür entschieden, um den Anwendern einsatzfähige und optimierte Hardware anbieten zu können.

Ausgewähltes Whitepaper

Fünf wichtige Aspekte bei der Auswahl eines Wide Area Networks

Erfolgreiches Netz-Design kann die Produktivität deutlich verbessern und neue Chancen für die digitale Geschäftsentwicklung eröffnen. Ein unzureichend dimensioniertes WAN hemmt dagegen das produktive Arbeiten und führt zu Frustration bei Mitarbeitern, Lieferanten und Kunden. In diesem Whitepaper erfahren Sie, worauf es zu achten gilt.

“Typische Einsatzszenarien gibt es aus meiner Sicht nicht, weil jeder Anwender ganz individuelle Projekte damit umsetzt”, so Rao. Dennoch hätten die Projekte Gemeinsamkeiten. Rao erklärt, dass es vor allem die Daten-Typen sind, die sich gleichen. So werten Anwender derzeit Bilder, Video, Sprache oder Text aus. “Dafür bieten wir bereits Tools und Flow-Designs an”, so Rao. Wenn Anwender damit aber andere Projekte angehen wollen, zum Beispiel bestimmte Finanzdaten auszuwerten, sei eine Programmierung gefragt.

Intel_Nervana_Neural-Networks_Deep-Learning
Schematischer Aufbau der Nervana-Architektur. (Bild: Intel)

Diese kann zum Beispiel über das Deep-Learning-Framework Neon erfolgen, das Intel zusammen mit Nervana übernommen hat. Intel bietet darüber hinaus weitere verschiedene Tools an, die von der Modellierung bis hin zur Implementierung und Optimierung von Modellen reichen und die für Anwender die Umsetzung von Projekten vereinfachen sollen.

Was aber ist speziell an der Hardware?

“Wir haben die Nervana-Hardware vor allem hinsichtlich Deep Learning Workloads entwickelt”, so Rao weiter. “In diesem Bereich sind in erster Linie zwei Operationen häufig im Einsatz: Matrix Multiplikationen und Konvultionen.” So habe Intel, wie in einer GPU sozusagen Hardware gebaut, die genau diese beiden Operationen besonders gut unterstützt.

Des weiteren zeichnet diese Plattform ein sogenannter “True Model Parallelism” aus. Wie Rao erklärt, ist das ein Konzept, das man auch im klassischen High-Performance-Computing findet. Damit können Daten- oder Rechenmodelle auch in verteilten Umgebungen bearbeitet werden, was Ressourcen einspart. Zudem hat in diese Architektur jeder Compute Node ein eigenes Memory-Interface, was ebenfalls in Depp-Lerning-Modellen von Vorteil ist. Die einzelnen Nodes sprechen jedoch nicht direkt den Speicher an. “Die Memory-Verwaltung wird komplett von Software gesteuert”, erklärt Rao.

Nervana ist nicht nur eine Hardware, sondern bildet den gesamten Stack des Deep Learning ab. Neben Lake Crest, einem DL-optimierten Prozessor, bietet Intel auch das Altera-FPGA ARRIA, das für spezielle Anforderungen programmiert werden kann und zusammen mit dem Xeon eingesetzt wird. (Bild: Intel)
Nervana ist nicht nur eine Hardware, sondern bildet den gesamten Stack des Deep Learning ab. Neben Lake Crest, einem DL-optimierten Prozessor, bietet Intel auch das Altera-FPGA ARRIA, das für spezielle Anforderungen programmiert werden kann und zusammen mit dem Xeon eingesetzt wird. (Bild: Intel)

Daneben zeichnen aber noch andere Besonderheiten die Nervana-Famile aus. Die entsprechende Plattform werde Lake Crest sein, die speziell auf Deep-Learning-Projekte gezüchtet wurde und soll laut Intel eine höhere Rechendichte als handelsübliche GPUs haben.

32 GByte stellt der Prozessor als In-Package-Memory zur Verfügung, die über die schnellere DDR-4-Alternative HBM2 angebunden werden. Damit seien auch Geschwindigkeiten von bis zu 8 Terabit pro Sekunde als Zugriffsgeschwindigkeit möglich. Über insgesamt 12 bidirektionale High-Bandwith-Links kann der Chip angesteuert werden.

Intels Ziel: Die Zeit, die nötig ist, um ein System zu Trainieren um den Faktor 100 reduzieren. (Bild: Intel)
Intels Ziel: Die Zeit, die nötig ist, um ein System zu Trainieren um den Faktor 100 reduzieren. (Bild: Intel)

Dadurch sei es möglich, die Performance von Deep Learning Projekten um den Faktor 18 zu beschleunigen. Lake Crest sei damit sehr stark auf den Deep-Learning-Workload hin optimiert. Eine weitere Hardware-Plattform bietet Intel mit dem FPGA ARRIA, der aus der Altera-Übernahme stammt. Weitere AI-Plattformen sind der Xeon Phi, von dem mit “Knight`s Mill” ein Update in der zweiten Jahreshälfte erwartet wird und der Xeon, der laut Rao derzeit als General Purpose Prozessor im Mark wohl der verbreitetste Prozessor für Deep Learning sein dürfte.