Sprachattacken auf Smartphones

Ok, Google: Audio-Befehle können von Hackern missbraucht werden, um Geräte mit Sprachsteuerung zu kapern, warnen Sicherheitsforscher.

Verborgene Sprachbefehle können missbraucht werden, um Smartphones und Smartwatches zu hacken. Geräge wie die Apple Watch, Android Wear oder auch andere, die sich über die Spracheingabe steuern lassen, bergen damit ein erhebliches Sicherheitsrisiko, warnt eine Forschergruppe aus Berkeley und der Georgetown Universität.

Die Forscher konnten zeigen, dass sie bösartige Befehle so verschleiern konnten, dass sie vom Menschen nicht wahr genommen werden. Die Geräte aber sind offenbar sensibel genug, diese nach wie vor aufzunehmen und umzusetzen.

Die Forscher haben dafür Kommandos auf zwei Arten verfremdet: In einem Fall war die Spracheingabe verzerrt und Menschen konnten den Text nach wie vor verstehen. Die betroffenen Geräte aber führten dennoch die Befehle aus. Im zweiten Versuch verwendeten die Forscher zusätzliche Verfremdungseffekte. Diese konnten allerdings nur dann erfolgreich eingesetzt werden, wenn die Forscher die Funktionsweise der Spracherkennung der betreffenden Geräte genau nachvollziehen konnten.

Geräte, die Sprachsteuerung aktiviert haben, können auch Befehle empfangen, die vom Menschen nicht verstanden werden. (Bild: Google)
Geräte, die Sprachsteuerung aktiviert haben, können auch Befehle empfangen, die vom Menschen nicht verstanden werden. (Bild: Google)

Im Ersten Fall konnten praktisch alle Sprach-aktivierten handelsüblichen Android- oder iOS-Geräte überlistet werden. So könnten die Befehle zum Beispiel in Hörweite auf einem öffentlichen Platz ausgeben werden. Aber Hacker könnten ihre Befehle auch zum Beispiel mit einem Video-Spiel oder anderen Audio-Quelle vor einer Entdeckung verschleiern.

“Abhängig vom Gerät, können Angriffe zu Informationsverlust führen und zum Beispiel den Aufenthaltsort des Nutzers auf Twitter posten. Auch Denial of Service, in dem das Gerät auf Flugmodus gestellt wird, seien möglich. Angereifer könnten damit auch andere Attacken einleiten, etwa indem sie eine Webseite mit Drive-By-Download von Malware aufrufen”, so die Forscher in ihrem Report.

Auch wenn bereits frühere Forschungen zeigten, dass sich Sprach-Erkennungssysteme für Angriffe ausnutzen lassen, ohne dass die Besitzer etwas davon mitbekommen, ist der aktuelle Bericht der erste Nachweis, dass sich das auch ohne genaue Kenntnis des angegriffenen Systems durchführen lässt, beteuern die Forscher.

Dadurch zeige sich, dass diese Attacken schon gegen aktuell verwendete Systeme möglich sind, und wenn Hacker weitere Kenntnisse über diese Systeme erlangen, auch noch höher entwickelte Angriffe möglich sind, erklären die Forscher.

Vor allem Google Now scheint sehr gut mit verzerrten Eingaben zurecht zu kommen, was in diesem Fall eine schlechtere Sicherheit bedeutet. Apples Siri hingegen erkenne weniger verzerrte Nachrichten. Die Forscher hatten dann auch ein Screening-System entwickelt, das bösartige Angriffe zu großen Teile ausfiltern konnte.

Nutzer können sich ebenfalls gegen solche Angriffe schützen, indem sie beispielsweise festlegen, dass zunächst eine Authentifizierung über den Fingerabdruck erfolgen muss, bevor das Gerät eine Aktion ausführt. Aber dadurch nivelliert man natürlich auch die Usability-Vorteile einer Spracheingabe.

“Active Schutzmechanismen wie Audio-Chaptchas haben den Vorteil, dass der Nutzer einen Befehl bestätigen muss, bevor ausgeführt wird”, hält das Forscherteam in dem Paper fest. “Leider ziehen solche Schutzmaßnahmen auch große ‘Usability-Kosten nach sich und die aktuelle Generation von Reverse-Turing-Tests sind leicht zu überwinden.”

Praktikabler sei es, die Qualität der Audio-Erkennung herabzustufen. Damit lassen sich normale Audio-Signale ausführen, während unverständliche ausgeblendet werden.

[mit Material von Matthew Broersma, Techweekeurope]