Googles Plattform für künstliche Intelligenz bekommt Update

ForschungInnovation

Die neue Plattform soll bestimmte Operationen für maschinelles Lernen optimieren. Google hat darüber hinaus noch ehrgeizige Ziele beim Thema künstliche Intelligenz.

Die Tensor Processing Units (TPU) stellt Google jetzt in der zweiten Generation vor. Diese Chips richtet sich an den Einsatz für maschinelles Lernen. Mit den Cloud TPUs (Tensor Processing Units) will Google die Verarbeitung von Algorithmen für maschinelles Lernen beschleunigen. Doch Google will damit nicht nur die eigenen Dienste beschleunigen, sondern über die Google Compute Engine auch als Service für Unternehmen und unabhängige Entwickler verfügbar machen.

“Es ist uns wichtig, diese Fortschritte allen zugute kommen zu lassen – nicht nur den Nutzern von Google-Produkten”, so CEO Sundar Pichai in einem Blog. Pichai stellt große Fortschritte bei komplexen gesellschaftlichen Problemen in Aussicht. Doch derzeit gebe es noch zu viele Barrieren, um auf zahlreiche Fragen eine Antwort zu bekommen. Pinchai bekommt bei dieser Aussage auch Unterstützung von Alexander Linden, Research Vice President von Gartner, der von zahlreichen gescheiterten Projekten rund um Machine Learning berichtet und ebenfalls noch hohe Einstiegshürden sieht.

Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).
Die Tensor Processing Unit (TPU), die Google in seinen Rechenzentren verwendet, begnügt sich mit weniger Transistoren pro Rechenoperation als andere Prozessoren. Daraus resultiert eine deutlich höhere Leistung pro Watt für Maschinenlernen, was Nutzern letztlich mehr intelligente Ergebnisse in kürzerer Zeit liefert. (Bild: Google).

Aktuell so Pinchai sei das Erstellen eines neuronalen Netzes extrem zeitintensiv und bedürfe großer Expertise. Der Internetkonzern will mit neuen Tools und Methoden wie AutoML demonstrieren, dass neuronale Netze ihrerseits neuronale Netze konzipieren können. Künftig könne AutoML Fähigkeiten bekommen, die derzeit nur eine Hand voll Hochschulabsolventen habe. In drei bis fünf Jahren soll es Hunderttausenden von Entwicklern ermöglichen, neuronale Netze für speziellen Anforderungen zu schaffen.

Ein Data Flow Graph in Tensorflow. (Bild: Google)
Ein Data Flow Graph in Tensorflow, Googles Software für künstliche Intelligenz. (Bild: Google)

Als Hardware-Grundlage kommt die Tensor Processing Unit in Googles Rechenzentren zur Beschleunigung von maschinellem Lernen zum Einsatz. Leistungsdaten der Spezial-Chips enthüllte Google erst im letzten Monat. Schon die erste TPU-Generation sorgte demnach für einen gewaltigen Leistungssprung bei Anwendungen mit trainierten neuronalen Netzen.

Ausgewählte Whitepaper

Was CEBP ist und wie es Ihrem Unternehmen helfen kann

Mittelständische Unternehmen haben in der Regel schon erhebliche Summen in CRM- und ERP-Systeme investiert. Zwar wurden damit viele strategische Ziele erreicht, ein wichtiger Aspekt lässt häufig aber immer noch zu wünschen übrig: der Kundenservice. Genau hier verspricht CEBP deutliche Verbesserungen und Effizienzsteigerungen.

Die für künstliche Intelligenz optimierten Chips stehen heute hinter beantworteten Suchanfragen und unterstützen Dienste wie die Bildersuche, Google Photos und die Google-Cloud-Vision-API. Sie sollen auch erhebliche qualitative Verbesserungen von Google Translate im letzten Jahr ermöglicht haben. Nicht zuletzt hätten sie beim Sieg von Googles KI-Programm AlphaGo gegen den weltweit besten Spieler des klassischen asiatischen Brettspiels Go geholfen.

Google-Chef Sundar Pichai sieht mit der Verlagerung von “Mobile first” zu “AI first” auch eine neue Verschiebung im Computing: “Wie schon bei früheren Veränderungen zwingt uns das, unsere Produkte von Grund auf neu zu denken für eine Welt, die eine natürlichere, nahtlosere Interaktion mit Technologie ermöglichen.”

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen