Categories: Cloud

Google macht Maschinelles Lernen mit selbstentwickelter “TPU” schneller

Google hat auf seiner Entwicklerkonferenz I/O in Mountain View auch einen Blick hinter die Kulissen seiner Rechenzentren gewährt und präsentierte einen selbstentwickelten Beschleunigerchip für Maschinelles Lernen, der seit über einem Jahr zum Einsatz kommt. Die sogenannte Tensor Processing Unit oder auch TPU genannt, ist für Googles Machine-Learning-System TensorFlow optimiert.

Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).

Aufgrund des “unglaublich hohen Rechenaufwands” für Maschinelles Lernen habe man mit der Entwicklung des Chips begonnen, so Google-CEO Sundar Pichai in seiner Keynote. Die TPU schaffe eine bis zu zehnmal besser optimierte Leistung pro Watt für Maschinenlernen. Der zuständige Hardware-Ingenieur Norm Jouppi schreibt dazu in einem Blogbeitrag: “Das entspricht in etwa einem Techniksprung von sieben Jahren in die Zukunft (drei Generationen des Mooreschen Gesetzes)”.

Da die TPU nur für Maschinenlernen konzipiert ist, fallen die Anforderungen an die Rechengenauigkeit nicht so hoch aus wie bei anderen Prozessoren. Sie kann dadurch Rechenoperationen mit weniger Transistoren ausführen. Dadurch werden letztlich mehr Rechenoperationen pro Sekunde sowie ausgefeiltere und leistungsfähigere Maschinenlernmodelle möglich, die sich schneller einsetzen lassen. Insgesamt bekommen Anwender so mehr intelligente Ergebnisse in kürzerer Zeit.

Eine Platine mit dem Chip passt in einen herkömmlichen Festplattenschacht in Googles Rechenzentrums-Racks. Google nutzt die Prozessorten etwa für RankBrain und Street View, um bessere Suchresultate respektive eine höhere Genauigkeit bei Maps und Navigation zu erhalten. Auch AlphaGo, das KI-Programm, das ein Duell mit einem der weltweit stärksten Spieler des chinesischen Brettspiels mit 4:1 gewann, wurde auf TPUs berechnet.

Google-CEO Sundar Pichai (Bild: Google)

“Wir innovieren bis hinunter zu Halbleitern, um einzigartige Möglichkeiten für Unternehmen zu schaffen”, erläuterte Greg DeMichelle, leitender Produktmanager für Googles Cloud Platform, bei einer Präsentation im Rahmen der I/O-Konferenz. Dieses Leistungsniveau könne Firmen dabei helfen, “die Bruchstücke an Informationen zu finden, die den Unterschied zwischen einem Geschäftswachstum von 10 Prozent und einem von 50 oder 60 Prozent ausmachen.”

Etwas nüchterner fasste es Google-CEO Pichai in seiner Keynote zusammen: “Wenn Sie Google Cloud Plattform nutzen, erhalten sie nicht nur Zugang zu großartiger Software, die wir intern nutzen, sondern auch zu spezialisierter Hardware, die wir intern entwickelt haben.”

Google hat erst vor rund einem Monat TensorFlow 0.8 verfügbar gemacht und führte mit dem neuen Release der Trainingssoftware für Maschinenlernen auch die Möglichkeit ein, diese auf mehreren Maschinen laufen zu lassen. Dadurch reduziere sich die benötigte Zeit in günstigen Fällen von Wochen auf Stunden, erklärten die Google-Entwickler. Eine weitere wichtige Neuerung war, dass die erstmals im November vergangenen Jahrs vorgestellte und kurz darauf als Open Source verfügbar gemachte Software nun von Entwicklern auch auf ihrer eigenen Hardware genutzt werden kann. Obwohl noch nicht einmal ein halbes Jahr alt, ist TensorFlow im Bereich Maschinenlernen bereits die am häufigsten heruntergeladene Software bei Github und das Projekt, von dem es 2015 die meisten Forks gab.



/

[mit Material von Björn Greif, ZDNet.de]

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Redaktion

Recent Posts

Blockchain bleibt Nischentechnologie

Unternehmen aus der DACH-Region sehen nur vereinzelt Anwendungsmöglichkeiten für die Blockchain-Technologie.

11 Stunden ago

Branchenspezifische KI-Modelle

SAS bietet einsatzfertige KI-Modelle für konkrete Herausforderungen wie Betrugserkennung und Lieferkettenoptimierung.

16 Stunden ago

Hypershield: Umfassender Schutz von Cloud über Rechenzentrum bis Fabrikhalle

Cisco stellt neuen Ansatz zur umfassenden Absicherung der IT-Infrastruktur vor.

22 Stunden ago

Vernetztes Fahren: Bereitschaft zum Teilen von Daten gering

Deloitte-Studie äußert jedoch Verständnis für die Zurückhaltung der Kunden. Nutzen der Angebote sei hierzulande kaum…

3 Tagen ago

Plattenspiegelung ist keine Backup-Recovery-Strategie

Die Ziele einer Festplattenspiegelung und eines Backups sind unterschiedlich, sagt Sven Richter von Arcserve.

3 Tagen ago

Chaos bei der Umsetzung von NIS-2 droht

Das Damoklesschwert NIS-2 kann daher schneller wirksam werden, als manchem lieb ist, warnt Bernhard Kretschmer…

3 Tagen ago