Spracherkennung in Second Life integriert

Wie Sprachdialoge in beliebige Anwendungen integriert werden können, zeigt das Fraunhofer IPA in der virtuellen Welt ‘Second Life’. Die Programmierschnittstelle ‘Fraunhofer Voice Control API’ wird wie ein Webservice angesprochen und überträgt dann die Kontrolle über das Sprachdialogsystem an das Anwendungsprogramm.

Zu seinem 50. Jubiläum präsentierte das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA die Fabriksimulation ‘factory of eMotion’ in Second Life. In der dreidimensionalen Umgebung können sich mehrere Benutzer gleichzeitig aufhalten, um etwa logistische Fragestellungen gemeinsam zu erörtern oder Fortbildungen durchzuführen. Die Herausforderung lag vor allem darin, die Steuerungslogik für die Produktion abzubilden – also dem System beizubringen, ein Bauteil auf Maschine A zu produzieren, zu Maschine B zu transportieren und dort zu montieren.

Den Forschern vom Fraunhofer IPA ging das nicht weit genug. Sie integrierten ein Sprachdialogsystem, das es erlaubt, mit Objekten in Second Life über ein Telefon zu interagieren. So servieren Serviceroboter auf der Dachterrasse der factory of eMotion Getränke – bestellt wird per Telefon. Ein anderes Exponat, der Montagestuhl, demonstriert spielerisch die Möglichkeiten zur Sprachsteuerung von Industriemaschinen. Dabei setzt sich der Benutzer auf den Montagestuhl und wählt eine eingeblendete Telefonnummer. Anschließend kann er den Stuhl per Sprache steuern und so Aktionen auslösen.


Quelle: IPA

“Wir wollten damit zeigen, wie einfach und schnell Spracherkennung in bestehende Anwendungen integriert werden kann”, sagt Daniel Wimpff, wissenschaftlicher Mitarbeiter am Fraunhofer IPA. “Die Entwicklung der Demonstratoren beanspruchte nur wenige Tage.” Die virtuelle Fabrikwelt ist öffentlich, so dass sich nach Installation der kostenlosen Client-Software jeder darin umschauen kann. Für die Exponate mit Spracherkennung ist jeweils eine Telefonnummer zum Festnetztarif erreichbar.