Red Hats Big-Data-Pläne

Es wird keine eigene Hadoop-Distribution von Red Hat geben. Dennoch hat der Linux-Marktführer große Pläne mit Big Data.

Red Hat will die Integration mit Hadoop vorantreiben, wie das Unternehmen mitteilt. Red Hat wird darüber hinaus das Hadoop-Plug-in der Community von Apache Hadoop zur Verfügung stellen, um aus Red Hat Storage ein zu Hadoop kompatibles und voll unterstütztes Dateisystem zu machen.

Der führende Linux-Distributor plant “ein verlässliches Netz von Partnern aus dem Ökosystem und der Enterprise-Integration schaffen, um den Enterprise-Kunden umfassende Big-Data-Lösungen zu bieten”. Er setzt dabei insbesondere auf eine Hybrid-Cloud-Strategie und stellt als Vorteil heraus, dass Projekte nach einer Entwicklungsphase in der Public Cloud in die Private Cloud wechseln können.

 

 

Nach den Plänen von Red Hat soll “eine offene Hybrid-Cloud-Umgebung den Unternehmen erlauben, Workloads von der Public Cloud in ihre Private Cloud zu verlagern, ohne ihre Anwendungen erneut anpassen zu müssen.” Red Hat engagiere sich zudem aktiv in der Open-Cloud-Community durch Projekte wie OpenStack oder das eigene OpenShift Origin.

Red hat will Big-Data-Funktionalitäten in das gesamte Produktportfolio einbeziehen. In der Infrastruktur betrifft das Red Hat Enterprise Linux (RHEL) und Red Hat Storage mit dem verteilte Dateisystem GlusterFS. Das Hadoop-Plug-in für Red Hat Storage stellt eine neue Speicheroption für den unternehmensweiten Hadoop-Einsatz bereit, ohne auf API-Kompatibilität und lokalen Datenzugriff zu verzichten. Red Hat Storage soll außerdem mit Red Hat Enterprise Virtualization 3.1 harmonieren. Für den Zugriff auf Big Data bietet Red Hat seine Open-Source-Middleware JBoss an. Es will mit führenden Software- und Hardwareanbietern im Bereich Big Data zusammenarbeiten, um Interoperabilität zu garantieren.

[mit Material von Bernd Kling, ZDNet.com]

Tipp: Wie gut kennen Sie sich mit Open-Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de