Snapdragon XR1 : Qualcomm stellt Prozessor für Headsets vor

Die Qualcomm-Partner Vive, Vuzix, Meta und Pico wollen erste Produkte auf Basis des Qualcomm Snapdragon XR1 2019 vorstellen.

Mit dem Snapdragon XR1 stellt Qualcomm seinen ersten für Headsets optimierten Prozessor vor. Die XR1-Plattform verfügt außerdem über spezielle Optimierungen für Augmented Reality (AR)-Erfahrungen mit Funktionen der Künstlichen Intelligenz (KI), die eine bessere Interaktivität, Leistungsaufnahme und thermische Effizienz bieten. Die Qualcomm-Partner Meta, VIVE, Vuzix und Picoare wollen erste Produkte auf Basis des Snapdragon XR1 2019 vorstellen. Die Ankündigung konkreter Produkte steht aber noch aus.

Qualcomm XR1 Platform (Bild: Qualcomm)

XR steht dabei für Extended Reality und beinhaltet die bisher bekannten Techniken Virtual Reality, Augmented Reality und Mixed Reality. Mit dem Snapdragon XR1 sollen Standalone-Headsets und Smartglasses günstiger werden als bisher. Qualcomm stellt bereits Chips her, die sich in eigenständigen VR-Headsets befinden. Sie sind in allen wichtigen VR-Hardwareprodukten enthalten: Oculus Go, Lenovo Mirage Solo und HTC Vive Focus.

Zur Architektur des Snapdragon XR1 hat Qualcomm bislang so gut wie keine Details verraten. Spekuliert wird, dass es sich dabei um einen Snapdragon 821 ohne Modem handelt. Laut Pressemitteilung ermöglicht der Chip die Wiedergabe von Videos mit bis zu einer Auflösung von UHD-4K und 60 Bildern pro Sekunden. Auf der eigenen Webseite zur neuen Plattform ist dagegen nur von 30 fps die Rede.

Coldplay-Konzert steht als VR-Version zur Verfügung (Bild: ZDNet.de)
Das Coldplay-Konzert vom 17. August 2017 in Chicago hatte Samsung für GearVR-Nutzer kostenlos in Virtual Reality übertragen. Die Auflösung aktueller VR-Headsets ist aber noch sehr niedrig, sodass man einzelne Pixel gut erkennen kann (Bild: ZDNet.de).

Die Auflösung bisheriger Lösungen ist meist zu niedrig, um für ein qualitativ hochwertiges Erlebnis zu sorgen. So basiert beispielsweise Samsung Gear VR auf kompatiblen Galaxy-S-Smartphones, die eine maximale Auflösung von 2960 x 1440 Pixel (WQHD+) bieten. Pro Auge sind es im VR-Modus aber nur 1480 x 1440 Pixel, sodass einzelne Bildpunkte eindeutig zu erkennnen sind. Um dieses mit Fliegengitter-Effekt bezeichnetes Manko zu beheben, müsste die Auflösung deutlich höher sein.

Entsprechend forschen die führenden Unternehmen in diesem Bereich an höher aufgelösten Displays. Samsung hat kürzlich auf der Display Week ein 2,43-Zoll-Panel mit einer Auflösung von 3840 × 2160 Pixel mit 120Hz demonstriert und Japan Display, ein Joint Venture von Sony, Toshiba und Hitachi, präsentierte auf der Messe ein LCD-Panel mit einer Auflösung von 2160 × 2432. Auch Google und LG haben ein hochauflösendes Display für VR-Anwendungen gezeigt.

Doch die Erhöhung der Auflösung ist nur eine Seite der Medaille. Die andere liegt an einer optimierten Darstellung der Pixel, damit aktuelle Mobilprozessoren die hohen Datenmengen auch bewältigen können. Hierzu haben Google und LG eine Technik vorgestellt, die sie mit Foveation bezeichnen und die aus zwei Teilen besteht: Foveated Rendering und Foveated Transport. Foveated Rendering ist eine Technik zur Reduzierung der Rendering-Berechnung im Grafikprozessor. Foveated Transport ist eine Technik zur Anordnung der gerenderten Pixeldaten für die Übertragung von der GPU zum Display. Die Anzeigelogik verarbeitet dann die Bilddaten der verschiedenen Regionen, um ein Bild mit der nativen Pixelzahl des Displays zu erzeugen.

Ein konventionelles (unfoveated) Bild wird typischerweise als serialisiertes Raster mit horizontalen und vertikalen Ausblendbereichen gesendet. In einem foveierten System müssen mehrere Regionen mit unterschiedlichen Auflösungen gerendert und übertragen werden. In dem von Google und LG entwickelten System werden die Regionen am Grafikprozessor zu einem einzigen Bildrahmen mit einer nicht standardmäßigen Pixelanzahl zusammengefügt, zusammen mit einigen Bytes Bildmetadaten zur direkten Bildrekonstruktion und Ausblendung von Regionen.