Google Cloud Plattform – Preissenkung und Docker

Weil der neue Google-Cloud-Dienst Container Engine auf Kubernetes basiert, können Unternehmen künftig nicht nur auf der Google Cloud Pattform die Anwendungs-Container von Docker verwenden, sondern diese auch auf den PaaS-Angeboten anderer Anbieter wie Microsoft Azure portieren. Googles Brian Stevens erklärt diesen Schritt damit, dass man jetzt technische Details geklärt habe und nun vermehrt auf Unternehmenskunden zugeht.

Google erklärt die Funktionsweise des Services Container Engine, über den Anwender Docker-Container über Googles Projekt Kubernetes verwalten können. Quelle: Google
Google erklärt die Funktionsweise des Services Container Engine, über den Anwender Docker-Container über Googles Projekt Kubernetes verwalten können. Quelle: Google

Google senkt auf der Konferenz Cloud Platform Live die Preise für die eigenen Cloud-Angebote. Daneben führt Google auch die Docker-Implementierung Container Engine ein.

Mit Container Engine erweitert Google die Cloud Platform um portierbare Docker-Container. Diese können nun schnell in virtuellen Maschinen gestartet werden. Über Andromeda-basierte virtuelle Netzwerke lassen sich diese dann verbinden und untereinander verbinden. Das quelloffene Projekt Docker erfährt derzeit sehr viel Interesse. ist eine offene Entwicklungsplattform, fügt sich also in Googles Open-Source-Engagement ein.

Über das von Google geprägte Projekt Kubernetes läuft Docker nicht nur in den virtuellen Maschinen der Google Compute Engine. Der Managed Service erleichtert das Verschieben von Anwendungen zwischen für die Entwicklung genutzten Rechnern, Systemen im eigenen Rechenzentrum und den Servern eines Public-Cloud-Anbieters. Nach dem auch Anbieter wie VMwareRed Hat und Microsoft Kubernetes unterstützen, sind Anwender bei der Entwicklung von Anwendungen nicht auf die Google-Cloud beschränkt, sondern können diese beliebig verschieben.

Der zuständige Vizepräsident Brian Stevens, selbst erst im September von Red Hat zu Google gewechselt, resümierte, “Generation eins der Public Cloud lief fantastisch”, aber bisher sei es vor allem darum gegangen, Virtuelle Maschinen auf eine fremde Infrastruktur auszulagern. Künftig werde sich Google mehr auf Nutzer als auf Technik fokussieren.

Eine besondere Rolle kommt dabei Cloud Interconnect zu, das Google als Backbone für internetweite Apps und die IT-Architekturen von Unternehmen sieht. Für die Anbindung an das Glasfasernetz gibt es jetzt drei Optionen: direktes Peering mit über 70 Zugangspunkten in 33 Ländern, über einen der sieben Telekommunikationspartner (Verizon, Equinix, IX Reach, Level 3, TATA Communications, Telx und Zayo) oder mit einem virtuellen Tunnel (VPN) durch das öffentliche Internet.

Stevens kommentiert: “Google sind Container keineswegs fremd. Heute wird alles in Container verpackt. Bei Google werden jede Woche bis zu zwei Milliarden Container gestartet.” Docker habe sich hier zum De-facto-Branchenstandard entwickelt.

Die jetzigen Preissenkungen gelten zusätzlich zu den im Oktober um 10 Prozent reduzierten Storage-Preisen. Sie betreffen aus dem Netzwerk ausgehenden Datenverkehr (47 Prozent), BigQuery-Storage (23 Prozent), Persistent Disk Snapshots (79 Prozent), Persistent Disk SSD (48 Prozent) und Cloud SQL (25 Prozent). Google setzt damit das viel beachtete Versprechen seines Cloud-Spezialisten Urs Hölzle von vor einem halben Jahr um, der sagte, Cloud-Preise sollten dem Mooreschen Gesetz folgen.

Zusätzlich gab es erste Hinweise zur Zukunft von Firebase, einem API-Spezialisten, den Google vor einigen Wochen aufgekauft hat. Zum einen sollen zunächst Echtzeit-Abfragen von Firebase-Daten allgemein verfügbar werden und mehr Möglichkeiten erhalten. Mit Trigger wird es zudem bald möglich sein, über externe APIs Aktionen auszulösen, wenn bestimmte Bedingungen erfüllt sind.

Der Google Cloud Debugger für die Fehlersuche in Cloud-Apps ist nun als Beta verfügbar. Damit lassen sich Codezeilen als Watchpoints definieren, also als Haltepunkte im Programm, an denen etwa der Inhalt von Variablen aufgezeichnet wird.

Im Bereich Infrastructure-as-a-Service kommt eine Option für lokale SSDs hinzu. Local SSD ist zunächst ebenfalls als Beta deklariert. Der schnelle Speicher kann als schnelle Lösung für temporäre Daten oder das Backup replizierter Datenbanken genutzt werden. Mit Autoscaler gibt es eine weitere Beta-Funktion, die automatisches Vergrößern und Verkleinern mehrerer Virtueller Maschinen auf einmal ermöglicht, um Trafficspitzen zu begegnen.

Im Bereich App Engine gehen die dieses Jahr schon angekündigten Managed VMs in den Beta-Betrieb über. Zu den Funktionen zählen automatische Skalierung, Integration des Cloud SDK und Unterstützung für Laufzeitumgebungen auf Basis von Docker-Containern.

Außerdem verlängert Google die Verfügbarkeit eines kostenlosen Testzugangs zur Cloud Platform, der 300 Dollar Gratisguthaben verfügbar macht, um gewünschte Funktionen auszuprobieren.

Im Vorfeld der Google-Veranstaltung hatte Canonical schon zertifizierte Ubuntu-Images für die Google-Cloud verfügbar gemacht. Ubuntu sei somit “für jede große Cloud-Plattform” zertifiziert. IT-Abteilungen könnten diese Images verwenden, um beliebig skalierbare Arbeitslasten in die Cloud auszulagern, hieß es. Der Canonical-Support decke auf fünf Jahre hinaus Wartung und Sicherheitsupdates ab.

[mit Material von Florian Kalenda, ZDNet.de]

Tipp: Wie gut kennen Sie sich mit Open Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.