Google forscht im Rahmen von “Project Abacus” daran, wie sich biometrische Daten und andere Informationen nutzen lassen, um bei von Smartphones Passwörter und PINs zu ersetzen. Mit dem von Googles Sparte “Advanced Technology and Projects” betreuten “Project Abacus” werden bereits erste Tests durchgeführt, an denen offenbar auch mehrere Banken beteiligt sind. Grundlage soll eine neue Programmierschnittstelle sein, über die im Hintergrund Sensor- und Nutzerdaten gesammelt werden, anhand der Benutzer eines Smartphones eindeutig identifiziert werden können.
“Wir haben alle ein Telefon, und diese Telefone haben diese ganzen Sensoren. Warum kann es nicht einfach wissen, wer ich bin, damit ich kein Passwort brauche?”, sagte Dan Kaufman, Head of Advanced Technology and Projects bei Google, auf der Entwicklerkonferenz I/O.
Die “Trust” genannte Programmierschnittstelle verwendet Daten wie Standort, Gesichtserkennung und Tastatureingaben, um die Identität des Benutzers zu überprüfen. Werden damit vorgegebene Kriterien erfüllt oder durch die Sammlung mehrerer Daten ein bestimter Schwellenwert überschritten, erhält der Nutzer Zugriff auf die jeweils dafür freigegebenen Anwendungen.
Das setzt allerdings voraus, dass die Trust API im Hintergrund ständig ausgeführt wird. Anwendungen wie Banking-Apps, werden zudem einen höheren “Trust Score” erwarten, als zum Beispiel ein Spiel oder eine Messenger-App, um den Nutzer ohne Eingabe eines Passworts anzumelden.
Wie Kaufman erklärte, arbeite man mit “Project Abacus” auch daran, die für bestimmte Nutzungszenarien heute übliche Zwei-Faktor-Authentifizierung zu ersetzen. Derzeit liefen Tests mit “mehreren großen Finanzinstituten”, so Kaufman. Sollten deren Ergebnisse zufriedenstellend ausfallen, erwartet Kaufman, dass die API noch dieses Jahr für Android-Entwickler zur Verfügung gestellt wird.
Ebenfalls an der Nutzung von Sensordaten als Passwortersatz haben Wissenschaftler des Max-Planck-Instituts für Informatik mit Datenbrillen wie Google Glass gearbeitet. Sie greifen ebenfalls auf Sensoren zu, die in solchen Wearables ohnehin verbaut sind. Im Fall einer Computerbrille sind das etwa Miniatur-Mikrofon und im Fall von Google Glass der “Bone Conduction Speaker”, der in das Gestell in der Nähe des rechten Ohrbügels eingelassen ist und Schallwellen über den Schädelknochen an das Ohr überträgt.
“Da der Schädelknochen individuell unterschiedlich ist, wird dabei das Tonsignal auf eine für jeden Menschen charakteristische Art und Weise verändert. Das aus dem Schädelknochen austretende Tonsignal nutzen wir dann als biometrisches Merkmal”, erklärte Andreas Bulling vom Exzellenzcluster “Multimodal Computing and Interaction” an der Universität des Saarlandes, der auch Leiter des Forschungsprojektes ist, bei der Vorstellung vor Mitte Mai.
[mit Material von Stefan Beiersmann, ZDNet.de]
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
In Multi-Cloud-Umgebungen wird der Ruf nach Transparenz und Kontrolle immer lauter. Wie kommt Ordnung in…
Laut Bitkom steigen die Ausgaben für Künstliche Intelligenz in diesem Jahr um 32 Prozent. Hauptwachstumstreiber…
Für eine intelligentere Bildverarbeitung in der Fabrikautomatisierung: Basler und MVTec werden Teil des Ökosystems von…
Unternehmen ohne Datenmanagement verfügen über keinen wirkungsvollen Schutz vor Krisen und sind erhöhten Gefahr von…
Wipro und NVIDIA wollen Unternehmen des Gesundheitswesens bei Einführung von generativer künstlicher Intelligenz durch KI-gesteuerte…
Die Suche nach Behältern zählt zu den nervigsten Aufgaben in der Intralogistik. Industrieausrüster Bosch will…