- silicon.de - http://www.silicon.de -

HoloLens: Microsoft will mit AI-Koprozessor lokale Datenverarbeitung ermöglichen

In der zweiten Auflage seiner Holographic Processing Unit (HPU) will Microsoft einen Koprozessor für künstliche Intelligenz [1] integrieren. HPU 2.0 soll dann HoloLens 2.0 antreiben und auf dem Gerät analysieren können, was Nutzer sehen und hören. Bislang müssen Daten zur Verarbeitung in die Cloud übertragen werden. Durch die Laufzeiten besteht die Gefahr, dass der Eindruck für den Nutzer leidet.

Die Pläne für den AI-Koprozessor hat Microsoft-Manager Harry Shum auf der diese Woche in Hawaii stattfindenden Fachkonferenz CVPR 2017 [2] angekündigt. Der Koprozessor wird Shum zufolge voll programmierbar und dadurch vielseitig einsetzbar sein. Er soll auf die HoloLens-Batterie zurückgreifen und kontinuierlich zugeschaltet sein. Die aktuelle Version seiner Mixed-Reality-Brille HoloLens verkauft Microsoft seit Oktober 2ß016 auch in Europa [3]. Wann die zweite Auflage auf den Markt kommen wird ist noch unbekannt. Berichten zufolge ist mit ihr jedoch erst 2019 zu rechnen [4].

HoloLens HPU 2.0 (Bild: Microsoft) [5]
HoloLens HPU 2.0 (Bild: Microsoft)

Microsoft arbeitet an Chips für künstliche Intelligenz (KI) in der Cloud schon länger. Die Chip-Entwicklung ist zwar teuer und aufwändig, aber offenbar erforderlich, um bei der raschen Weiterentwicklung in dem Bereich nicht den Anschluss zu verlieren. Auch Google ist diesbezüglich aktiv [6]. Denn wie das Beispiel Watson bei IBM zeigt [7], ist KI alleine noch kein Selbstläufer, sondern muss auch passend vermarktet werden. Zudem ist es komplex und offenbar nicht immer ganz einfach, KI-Komponenten mit anderen Prozessen zu verknüpfen.

Microsoft und Siemens auf der SPS IPC Drives in Nürnberg (Bild: Microsoft via Twitter) [8]
Microsoft und Siemens stellten im Herbst 2016 [9] auf der Messe SPS IPC Drives in Nürnberg auch eine Mixed-Reality-Anwendung auf Basis von Microsoft HoloLens vor, die mit einer Simatic-S7-Steuerung verbunden ist. Dabei visualisiert ein dreidimensionales Modell, der digitale Zwilling des Geräts, dessen Betriebszustand und schreibt über Gestensteuerung Werte zurück (Bild: Microsoft via Twitter)

Daher drängt es sich geradezu auf, programmierbare KI-Chips in den Geräten zu platzieren, um so einen Großteil der Standardaufgaben dort angepasst und schnell abarbeiten zu lassen. Gerade bei Mixed-Reality-Anwendungen dürften zudem Zeitverzögerungen, die sich negativ auf die Darstellung auswirken oder zu Ruckeln oder Einfrieren der dargestellten Inhalte führen, schon bald von den Nutzern nicht mehr akzeptiert werden.

Das sieht auch Analyst Jim McGregor von Tirias Research so. Er erklärt gegenüber Bloomberg [10]: “Bei einem selbstfahrenden Auto hat man nicht die Zeit, um Daten zur Cloud und zurück zu senden, wenn es um eine Entscheidung zur Vermeidung eines Unfalls geht, etwa um das Anfahren eines Menschen.” Die von autonomen Fahrzeugen gelieferte Datenmenge seien zu umfangreich, um sie alle in die Cloud zu senden.

Mehr zum Thema

Virtual und Mixed Reality in der Arbeitswelt

Den Möglichkeiten ist eine Studie von Deloitte, Fraunhofer FIT und Bitkom nachgegangen. Deren Autoren sehen enormes Potenzial, warnen aber auch vor überzogenen Erwartungen. Der eco Verband hält zugleich das Feld Augmented Reality für unterschätzt.

Den AI-Koprozessor ist laut Microsoft [11] ein Beispiel für die neuen Fähigkeiten, die für HoloLens vorbereitet werden. Nachdem sich Microsoft zunächst bei HoloLens nicht richtig entscheiden konnte, ob es eher Verbraucher oder Business-Nutzer ansprechen will, scheint seit Sommer 2016 klar, dass durch die Verlagerung des Schwerpunkt von Augmented Reality [12] zu Mixed Reality – also der Kombination von Augmented Reality und Virtual Reality [13] die Technik mit günstigerer Hardware für ein breiteres Publikum angeboten werden soll. Teil der Strategie ist auch die Mixed-Reality-Plattform Windows Holographic [14]. Sie wird seit dem Creators Update für Windows 10 [15] unterstützt.

[mit Material von Bernd Kling, ZDNet.de [16]]