Künstliche Intelligenz: Apple lüpft den Vorhang

ForschungInnovation

Apple hat jetzt erste Einblicke in seine Arbeiten im Bereich künstliche Intelligenz gegeben. Wie Forbes berichtet, geht es in dem von Apple-Forscher Ashish Shrivastava und Mitarbeitern des Start-ups Emotient, das Apple dieses Jahr übernommen hat, verfassten Papier um Verbesserungen beim Training von neuronalen Netzen. Demnach nutzt Apple bei seiner Forschung für maschinelles Lernen synthetische Bilder.

Apple hat jetzt erste Einblicke in seine Arbeiten im Bereich künstliche Intelligenz gegeben. Wie Forbes berichtet, geht es in dem von Apple-Forscher Ashish Shrivastava und Mitarbeitern des Start-ups Emotient, das Apple dieses Jahr übernommen hat, verfassten Papier um Verbesserungen beim Training von neuronalen Netzen.

Demnach nutzt Apple bei seiner Forschung für maschinelles Lernen synthetische Bilder. Mit ihnen kann lassen sich den Apple-Forschern zufolge neuronale Netze effizienter trainieren sein als mit echtem Bildmaterial. Damit arbeitet unter anderem Microsoft, das bereits vor über einem Jahr Einblicke in seine Forschungen zur Erkennung von Gesichtsausdrücken durch KI gegeben hat. Während bei Daten aus der echten Welt Kennzeichnungen und Anmerkungen zu ihrer Bedeutung erst aufwändig hinzugefügt werden müssen, sind die bei synthetischen Bilddateien schon von Haus aus dabei.

Künstliche Intelligenz (Bild:  Shutterstock/agsandrew)

Dafür haben synthetische Daten allerdings oft den Nachteil, dass sie nicht realistisch genug sind. Dadurch besteht Apples KI-Forschern zufolge die Gefahr, dass “das neuronale Netz Details lernt, die es nur in synthetischen Bildern gibt, was zu unzutreffenden Verallgemeinerungen bei echten Bildern führt”. Sie wollen daher die Vorteile beider Verfahren kombinieren, indem sie den Realismus simulierter Bilder mit einer Lernmethode erhöhen, die sie Simulated + Unsupervised Learning (S+U) nennen.

Es handelt sich dabei um eine modifizierte Version des Verfahrens Generative Adversarial Networks (GANs), bei dem zwei neuronale Netze in Konkurrenz zueinander agieren. Damit konnten die Apple-Forschern eigenen Angaben zufolge aus synthetischem Material besonders realistische Bilder erzeugen, die sich deutlich besser für ihre Zwecke eignen.

Nach einem früheren Bericht ist Apple dabei, eine Sparte für Selbstlernsysteme aufzubauen. Die Grundlage soll es mit der Übernahme von Turi geschaffen haben und in Seattle die Einrichtung von Büroräumen für bis zu 2300 Mitarbeiter planen.

Apple kaufte dieses Jahr im Umfeld von maschinellem Lernen und künstlicher Intelligenz bereits mehrmals Technologie und Know-how zu. Zu den Neuzugängen gehört mit Perceptio ein Anbieter von Lösungen für maschinelles Lernen und mit Emotient, dessen Mitarbeiter an dem nun vorgelegten Papier beteiligt waren, sein Start-up, das künstliche Intelligenz verwendet, um Gefühle hinter Gesichtsausdrücken zu bestimmen. Ein Einsatzzweck könnte etwa sein, die Reaktionen von Menschen auf Werbung und Angebote in Ladengeschäften automatisiert einzuschätzen.

Microsoft stellt eine vergleichbare Möglichkeit mit der Emotion API bereits Entwicklern zur Verfügung. Das Fraunhofer-Institut für Graphische Datenverarbeitung IGD hatte Prototypen von Automaten, die zur Erkennung von Gesichstausdrücken in der Lage waren, bereits im Rahmend er CeBIT 2012 vorgestellt. Diese Arbeiten sind aber inzwischen offenbar in ein System zur Optimierung von Grenzkontrollen eingeflossen, wo eher die Gesichtserkennung als die Erkennung von Gesichtsasudrücken im Vordergrund steht.

[mit Material von Bernd Kling, ZDNet.de]

Tipp: Wie gut kennen Sie Apple? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen