Google macht Maschinelles Lernen mit selbstentwickelter “TPU” schneller

Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).

Die Tensor Processing Unit (TPU), die Google in seinen Rechenzentren verwendet, begnügt sich mit weniger Transistoren pro Rechenoperation als andere Prozessoren. Daraus resultiert eine deutlich höhere Leistung pro Watt für Maschinenlernen, was Nutzern letztlich mehr intelligente Ergebnisse in kürzerer Zeit liefert.

Google hat auf seiner Entwicklerkonferenz I/O in Mountain View auch einen Blick hinter die Kulissen seiner Rechenzentren gewährt und präsentierte einen selbstentwickelten Beschleunigerchip für Maschinelles Lernen, der seit über einem Jahr zum Einsatz kommt. Die sogenannte Tensor Processing Unit oder auch TPU genannt, ist für Googles Machine-Learning-System TensorFlow optimiert.

Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).
Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).

Aufgrund des “unglaublich hohen Rechenaufwands” für Maschinelles Lernen habe man mit der Entwicklung des Chips begonnen, so Google-CEO Sundar Pichai in seiner Keynote. Die TPU schaffe eine bis zu zehnmal besser optimierte Leistung pro Watt für Maschinenlernen. Der zuständige Hardware-Ingenieur Norm Jouppi schreibt dazu in einem Blogbeitrag: “Das entspricht in etwa einem Techniksprung von sieben Jahren in die Zukunft (drei Generationen des Mooreschen Gesetzes)”.

Da die TPU nur für Maschinenlernen konzipiert ist, fallen die Anforderungen an die Rechengenauigkeit nicht so hoch aus wie bei anderen Prozessoren. Sie kann dadurch Rechenoperationen mit weniger Transistoren ausführen. Dadurch werden letztlich mehr Rechenoperationen pro Sekunde sowie ausgefeiltere und leistungsfähigere Maschinenlernmodelle möglich, die sich schneller einsetzen lassen. Insgesamt bekommen Anwender so mehr intelligente Ergebnisse in kürzerer Zeit.

Eine Platine mit dem Chip passt in einen herkömmlichen Festplattenschacht in Googles Rechenzentrums-Racks. Google nutzt die Prozessorten etwa für RankBrain und Street View, um bessere Suchresultate respektive eine höhere Genauigkeit bei Maps und Navigation zu erhalten. Auch AlphaGo, das KI-Programm, das ein Duell mit einem der weltweit stärksten Spieler des chinesischen Brettspiels mit 4:1 gewann, wurde auf TPUs berechnet.

Google-CEO Sundar Pichai. (Bild: Google)
Google-CEO Sundar Pichai (Bild: Google)

“Wir innovieren bis hinunter zu Halbleitern, um einzigartige Möglichkeiten für Unternehmen zu schaffen”, erläuterte Greg DeMichelle, leitender Produktmanager für Googles Cloud Platform, bei einer Präsentation im Rahmen der I/O-Konferenz. Dieses Leistungsniveau könne Firmen dabei helfen, “die Bruchstücke an Informationen zu finden, die den Unterschied zwischen einem Geschäftswachstum von 10 Prozent und einem von 50 oder 60 Prozent ausmachen.”

Etwas nüchterner fasste es Google-CEO Pichai in seiner Keynote zusammen: “Wenn Sie Google Cloud Plattform nutzen, erhalten sie nicht nur Zugang zu großartiger Software, die wir intern nutzen, sondern auch zu spezialisierter Hardware, die wir intern entwickelt haben.”

Google hat erst vor rund einem Monat TensorFlow 0.8 verfügbar gemacht und führte mit dem neuen Release der Trainingssoftware für Maschinenlernen auch die Möglichkeit ein, diese auf mehreren Maschinen laufen zu lassen. Dadurch reduziere sich die benötigte Zeit in günstigen Fällen von Wochen auf Stunden, erklärten die Google-Entwickler. Eine weitere wichtige Neuerung war, dass die erstmals im November vergangenen Jahrs vorgestellte und kurz darauf als Open Source verfügbar gemachte Software nun von Entwicklern auch auf ihrer eigenen Hardware genutzt werden kann. Obwohl noch nicht einmal ein halbes Jahr alt, ist TensorFlow im Bereich Maschinenlernen bereits die am häufigsten heruntergeladene Software bei Github und das Projekt, von dem es 2015 die meisten Forks gab.



/

[mit Material von Björn Greif, ZDNet.de]

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.