HPE engagiert sich bei Docker, IoT, All-Flash und einer neuen Rechnerarchitektur

Hewlett Packard Enterprise (Bild: ZDNet)

Betont optimistisch gibt sich HPE auf der Hausmesse Discover in Las Vegas. Die Fokussierung Kernthemen im Enterprise-Bereich scheint Früchte zu tragen. Mit neuen Lösungen, neuen Systemen und neuen Partnerschaften will HPE Zukunftsthemen wie IoT oder Docker gestalten.

HPE hat auf der Discover in Las Vegas ein ganzes Paket von Neuerungen angekündigt. Neben einem hyperconvergenten System für das Internet of Things, einer Kooperation mit GE in diesem Bereich, einer Partnerschaft mit dem Container-System Docker, erweitert HPE auch das Helion-Portfolio, kündigt ein neues All-Flash-Array mit der angeblich höchsten Dichte am Markt an, und übergibt schlussendlich die neue Computing-Architektur “The Machine” an die Open-Source-Gemeinde.

Auf den ersten Blick scheinen diese Ankündigungen nebeneinander zu stehen. Doch illustrieren sie, dass HPE nach der Abspaltung des PCs- und Drucker-Bereichs aggressiv daran arbeitet, in den wichtigsten Segmenten des Marktes wieder die erste Geige zu spielen. “Wir konzentrieren uns auf die Marktsegmente in denen wir Nummer eins oder Nummer zwei sind”, erklärt Ulrich Seibold, Vice President Indirekter Vertrieb, SMB und Service Provider, HPE Deutschland in München vor Journalisten.

HPE will sich nur noch auf Bereiche konzentrieren, in denen das Unternehmen im Markt an erster oder zweiter Stelle steht. (Bild: HPE)
HPE will sich nur noch auf Bereiche konzentrieren, in denen das Unternehmen im Markt an erster oder zweiter Stelle steht. (Bild: HPE)

Laut Seibold strebe HPE an, die Nummer 1 bei Private Clouds, Servern und Storage zu sein und bei Networking und Converged Systems gibt sich HPE auch mit einem zweiten Platz zufrieden. Tatsächlich kann in den aktuellen Zahlen von IDC zu diesem Segment zum ersten Mal HPE den bisherigen Marktführer EMC verdrängen, wie lange HPE diesen Rang behaupten kann, ist allerdings fraglich.

"Wir konzentrieren uns auf die Marktsegmente in denen wir Nummer eins oder Nummer zwei sind", erklärt Ulrich Seibold, Vice President indirekter Vertrieb, SMB und Service Provider, HPE Deutschland. (Bild: Martin Schindler)
“Wir konzentrieren uns auf die Marktsegmente in denen wir Nummer eins oder Nummer zwei sind”, erklärt Ulrich Seibold, Vice President Indirekter Vertrieb, SMB und Service Provider, HPE Deutschland. (Bild: Martin Schindler)

Für den Bereich Private Cloud hat HPE jetzt eine Partnerschaft mit Docker angekündigt, die Entwicklung, Vertrieb und Service umfasst. Hauptprodukt dieser neuen Liaison aber sind neue Server und ein neues Infrastrukturportfolio, das für die Container-Technologie Docker optimiert ist.

So wird HPE die Server-Produktfamilien ProLiant, Apollo und Cloudline für Container-Umgebungen fertig konfiguriert ausliefern. Anwender profitieren durch kürzere Einführungszeiten der Docker Engine und Docker Container. Ebenfalls für Docker optimiert sind die Converged- und Composable-Systeme HPE Synergy, HPE BladeSystem und HPE Converged System. Daneben verbindet ein Docker-integriertes Native Volume Plug-in die Storage-Lösung 3PAR StoreServ All-Flash. Auch HPEs Distributed Cloud Networking (DCN) wie auch die Monitoring-Lösung SiteScope und das Systems-Management OneView werden mit Docker integriert.

Durch die Vorbereitung können Anwender Docker auch in hyper-konvergenten Umgebungen einsetzen und Docker damit für DevOps in Virtualisierungs-Clustern einsetzen. Das Interesse der Industrie an Docker ist groß: Bis 2018 sollen mehr als 50 Prozent an neuen Workloads in mindestens einer Stufe ihres Lebenszyklus in Containern implementiert werden, prognostizieren die Marktforscher von Gartner. Doch scheint HPE tatsächlich der erste Server-Hersteller zu sein, der seine Hardware für diese Technologie vorkonfiguriert.

Die Docker-optimierten HPE-Server, darunter HPE ProLiant, HPE Apollo, HPE Cloudline sowie Docker-integrierte Converged- und Composable-Systeme von HPE werden im vierten Quartal 2016 verfügbar sein. Docker-integrierte Lösungen für HPEs Storage-, Networking- und Software-Lösungen sind bereits verfügbar.

“Die standardmäßige Verfügbarkeit von Docker-Technologie auf jedem HPE-Server und den hyperkonvergenten Plattformen von HPE ermöglicht es Unternehmen, die Vorteile der Containerisierung zu nutzen und gleichzeitig ihre Investitionen in bestehenden Systemen und Prozessen zu schützen”, kommentiert Ben Golub, CEO von Docker.

Im Zuge der strategischen Allianz wird HPE Docker Datacenter, die kommerzielle Variante der Container-Technologie, vertreiben und auch entsprechende Support-Programme für Anwender und Channel-Partner anbieten. So soll sichergestellt sein, dass Docker Datacenter nahtlos für containerisierte Anwendungen in der Public Cloud, auf Composable Infrastructure, Hyperconverged Infrastructure, Converged Storage sowie auf Docker-optimierten HPE-Servern funktioniert. Darüber hinaus bietet HPE Technologie-Assessments, Design- und Implementierungs-Dienstleistungen für Docker-Container und Microservices und auch einen übergreifenden Support für Docker- und HPE-Lösungen. Ebenfalls Teil der Allianz sind HPE Referenz-Konfigurationen für Docker Datacenter auf HPE Hyper Converged 380 und die Converged Architecture 700.

Ebenfalls in den Bereich Private Cloud fällt die neue HPE Helion Cloud Suite, über die Anwender die OpenStack-basierte Helion-Plattform auf verschiedenen Plattformen, also On-Premises, in der Cloud, virtualisiert oder in Containern bereitstellen können.

Die HPE Helion Cloud Suite. (Bild: HPE)
Die HPE Helion Cloud Suite. (Bild: HPE)

Anwender können über die Helion Cloud Suite über hybride Cloud-Funktionen in einer einzigen Software-Lösung IT-Services und Anwendungen ausliefern. Die Plattform sorgt mit Automatisierungsfunktionen und verschiedenen Self-Services für beschleunigte Anwendungsentwicklung.

Über das ebenfalls neu vorgestellte Helion Stackato 4.0 liefert HPE eine offene Multi-Cloud-PaaS für die Entwicklung Cloud-nativer Anwendungen. Die neue Version 4.0 von HPE Helion Stackato bietet auf Basis von Cloud Foundry Entwicklern zum Beispiel eine Container-Lösung, die zertifizierte Cloud-Foundry-Services und Workflows für Continuous Integration/Continuous Delivery (CI/CD) umfasst.

HPE Helion Stackato 4.0 ist damit sozusagen das DevOps-Tool, mit dem Entwickler jeden beliebigen Technologie-Stack nutzen können, um skalierbare und einfach einsetzbare Anwendungen zu bauen. Stackato unterstützt zudem ein zentralisiertes Monitoring, Logging, Betriebs-Management, Cloud-Orchestrierung, Big Data Analytics und Compliance sowie eine Multi-Cloud-Steuerungsebene.

Das Helion CloudSystem setzt sich aus den Funktionen der Helion Cloud Suite zusammen, integriert diese jedoch auf integrierter HPE-Hardware mit Server, Storage, Services und Networking. Neu ist die Version 10 von Helion CloudSystem, die jetzt eine tiefe Integration mit OneView 3.0 bietet. Cloud-Ressourcen lassen sich damit automatisch auf Bare-Metal-Infrastrukturen installieren. Physische Server oder virtuelle Cluster können damit als Ressourcen direkt aus der Verwaltungskonsole der HPE Helion Cloud generiert werden. HPE Helion CloudSystem 10 umfasst unter anderem HPE Helion OpenStack 3.0, HPE Cloud Service Automation 4.6 und HPE Helion Stackato 4.0.

HPE Helion Cloud Suite, HPE Helion CloudSystem 10 und HPE Helion Stackato 4.0 sind voraussichtlich in der zweiten Jahreshälfte 2016 verfügbar.

Auch im Bereich IoT will HPE mit einem hyperkonvergentem System antreten. Gleichzeitig kündigt HPE eine strategische Partnerschaft mit GE Digtal an. Neu sind die integrierten IoT-Systeme Edgeline EL1000 und Edgeline EL4000. Diese Systeme erfassen, kontrollieren, verarbeiten und speichern Daten der “Dinge”. Neben einem Systemmanagement bieten sie Hochleistungs-Datenanalyse und ermöglichen dadurch Entscheidungen in Echtzeit.

Johannes Diemer, Manager Industrie 4.0, HPE Deutschland. (Bild: Martin Schindler)
Johannes Diemer, Manager Industrie 4.0, HPE Deutschland. (Bild: Martin Schindler)

“Wir haben Kunden in der Automobilbranche, die generieren täglich 5 bis 20 Petabyte Daten aus Sensoren und Geräten”, erklärt Johannes Diemer, Manager Industrie 4.0, HPE Deutschland. Die neuen Systeme bieten die Möglichkeit, diese Daten schnell zu erheben, zu verarbeiten, zu analysieren. Wichtig ist, dass die aus den Daten generierten Entscheidungen aber in Echtzeit gefällt und zurückgemeldet werden. Weil diese Auswertungs- und Entscheidungsprozesse aufgrund der hohen Latenzen aber nicht in der Cloud oder in einem entfernten Rechenzentrum vorgenommen werden können, müssen sie vor Ort, etwa in einem Offshore-Windpark oder einer Ölförderplattform ausgewertet werden.”

Um Echtzeitanalysen und Machine Learning in solchen Szenarien anwenden zu können, bietet HPE die Analytics-Plattform HPE Vertica auf Edgeline EL4000,. Damit ist auch Predictive Analytics möglich. Die beiden IoT-Geräte sind für den Einsatz in ruppigen Umgebungen ausgelegt und kommen mit Vibrationen, Stößen und extremen Temperaturschwankungen zurecht.

Den grün umrandeten Bereich unter Compute sollen die beiden neuen EdgeLine-Server adressieren. (Bild: HPE)
Den grün umrandeten Bereich unter Compute sollen die beiden neuen Edgeline-Server adressieren. (Bild: HPE)

Um die Datenübertragung zum Rechenzentrum abzusichern, unterstützen EL1000 und EL4000 den VPN-Client Virtual Intranet Access von Aruba. Das automatisierte, berührungslose und sichere VPN kann somit in hochsensiblen IoT-Anwendungen zum Einsatz kommen. Aruba ClearPass kann zudem automatisch neue IoT-Geräte identifizieren, Sicherheitsrichtlinien anwenden und diese Richtlinien mit anderen Sicherheitssystemen, etwa einem Mobile Device Management, abgleichen.

“Im IoT-Markt kommt derzeit kein Hersteller ohne Partner aus”, so Diemer weiter. Daher habe HPE nun mit GE Digital eine Partnerschaft geschlossen. GE entwickelt die IoT-PaaS-Lösung Predix. Im Zuge der Vereinbarung wird HPE bevorzugter Partner für Speicher- und Server-Infrastruktur für die Predix-Cloud-Technologie. Zudem werde HPE GE Digital bei Design, Implementierung und Roll-out der Predix-Plattform unterstützen.

Nachdem Konkurrent IBM zu Beginn des Jahres ein neues IoT-Zentrum in München angekündigt hat, startet HPE nun den HPE IoT Transformation Workshop und eröffnet vier IoT Innovation Labs. In dem Transformation Workshop können Anwender zusammen mit Experten von Intel und HPE IoT-Projekte planen und entwickeln. Die IoT Innovation Labs befinden sich in den HPE-Standorten in Houston, Genf, Bangalore und Singapur.

Eine weitere wichtige Ankündigung ist das All-Flash-Array HPE 3PAR-StoreServ-Floash-Portfolio mit der laut HPE weltweit größten Kapazitätsdichte. HPE kündigt jetzt den Support von 3D NAND Solid State Drives (SSDs) mit 7,68 TByte oder 15,36 TByte im gesamten 3PAR-StoreServ-Portfolio an. Damit bietet HPE 3PAR StoreServ nun bis zu 24 Petabytes nutzbare SSD-Kapazität in einem System.

Die Entwickler von HPE konnten in den vergangenen 24 Monate die Flash-Dichte um den Faktor 16 steigern. Gleichzeitig sinken die Kosten pro nutzbaren Gigabyte um 40 Prozent. Neu- und Bestandskunden haben die Wahl zwischen verschiedenen Typen und Größen von SSD-Laufwerken, um die Flexibilität der Verteilung zu optimieren. Die Unterstützung für die SSDs mit großer Kapazität wird zum einen durch das 3PAR Adaptive Sparing ermöglicht. Diese patentierte 3PAR-Technologie stellt sicher, dass alle SSDs, unabhängig von der Kapazität mit einer 5-fach höheren Lebensdauer genutzt werden können. 3PAR Express Layout ist eine weitere Technologie, die gleichzeitigen Zugriff von den 3PAR-Speicherreglern auf die SSDs ermöglicht, um einen höheren Durchsatz zu erreichen.

Das 3PAR StoreServ All-Flash-Array soll die mit 24 Petabyte die höchste SSD-Dichte am Markt liefern. (Bild: HPE)
Das 3PAR StoreServ All-Flash-Array soll die mit 24 Petabyte die höchste SSD-Dichte am Markt liefern. (Bild: HPE)

Wie bereits erwähnt, liefert HPE für 3PAR StoreServ auch ein Docker-integriertes Volumen-Plugin. Der in die Docker-Engine integrierte Treiber bietet die Möglichkeit zur dauerhaften Speicherung von Containern und die Verwendung von Flash-optimierten 3PAR-StoreServ-Arrays als dem zugrunde liegenden Speicher für virtualisierte oder Bare-Metal-Container-Implementierungen, basierend auf Docker.

Mit dieser Integration können containerisierte Anwendungen auch Features wie Datenverschlüsselung, Servicequalität, Snapshots, Replikation und Deduplizierung nutzen. Das Docker-Integrated Volume Plugin für HPEs 3PAR-StoreServ-Speicherlösungen wird noch im Juni über die GitHub-Webseite von HPE Storage erhältlich sein. 7.68 TB SSDs sind ab dem 6. Juni weltweit ab 20.748 US-Dollar verfügbar, 15.36 TB SSDs werden im 2. Quartal 2016 ab 40.000 US-Dollar erhältlich sein.

Im Bereich Computing übergibt HP Hewlett Packard Enterprise die neue Rechner-Architektur “The Machine” an die Community. HPE will damit nicht einfach einen neuen Server anbieten, sondern hat sich das Ziel gesetzt, in einem Forschungsprojekt eine neue Computing-Architektur zu entwickeln.

“Wir wollen damit weg von einem Prozessor-zentrischen Modell, hin zum Memory-Driven-Computing”, so Said Zahedani, Leiter Hybrid IT, Hewlett Packard Enterprise Deutschland. “Wir rechnen künftig um die Daten herum, wenn man so will”, so Zahedani weiter. HPE nennt dieses Konzept auch Fluid Computing, bei dem sozusagen Memory, Network und CPU zu einer Komponente werden. HPE hatte vor zwei Jahren auf der Discover zum ersten Mal dieses Konzept vorgestellt, das unter anderem auf Memristoren basiert.

Eine Memory-Driven-Compute-Architektur entwickelt HPE derzeit mit Hilfe der Community in dem Forschungsprojekt "The Machine". (Bild: HPE)
Eine Memory-Driven-Compute-Architektur entwickelt HPE derzeit mit Hilfe der Community in dem Forschungsprojekt “The Machine”. (Bild: HPE)

Jetzt gibt HPE neue Entwicklertools unter einer Open-Source-Lizenz frei, wie zum Beispiel eine Engine für Data Unification Services, oder ein fehlertolerantes Programmierungsmodell für Nicht-Volatiles Memory. Eine Fabric Attached Memory Emulation, soll es Anwendern erlauben, die neuen Paradigmen von “The Machine” kennen zu lernen.

HPE plant, in den nächsten Monaten den Code weiter zu verbessern und die Entwicklungen aus der Community in Linux zu implementieren, um dann erste Anwendungen darauf demonstrieren zu können.