Otto Neuer

ist VP Sales EMEA Central bei Talend.

Big DataData & Storage

Big Data im Wandel: So verändert Open Source den Markt

Vor allem im Bereich Big Data ist Open Source dominierend. Otto Neuer von Talend stellt sich im silicon.de-Blog die Frage, wie lagen hier proprietäre Lösungen hier noch eine Chance haben werden.

Anbieter von herstellergebundener Software werden über kurz oder lang schlecht damit beraten sein, an veralteten Softwareanwendungen festzuhalten. Die Bedürfnisse der Kunden ändern sich und um diese besser sowie flexibler zu bedienen, helfen Open-Source-Lösungen. Der Quelltext kann öffentlich eingesehen, geändert und genutzt werden. Des Weiteren sind die Programme mit unterschiedlichen Produkten kombinierbar.

So baut das aktuell wichtigste Programmiergerüst Hadoop wesentlich auf Open-Source-Code auf. Es bestimmt das architektonische Muster einer Software und ist deshalb für ihre Entwicklung essentiell. Dabei ist es zweitrangig, welche Software programmiert wird ‑ egal ob beispielsweise Datenintegrationssoftware oder Spracherkennungssoftware.

Nutzenabwägung

Es stellt sich die Frage, wie lange veraltete Anwendungssoftware noch auf dem Markt bestehen wird, auch wenn es gute Gründe für Softwareentwickler und Anwender gibt, diese Systeme zu behalten. Die Anbieter solch klassischen Lösungen verfügen häufig über ein Portfolio an bewährten Produkten, zuverlässigen Technologien und auf ihrem Gebiet erfahrenen Entwicklerteams. Solche Lösungen sind immer noch ideal für Unternehmen, deren Arbeitsabläufe sich in Zukunft nicht verändern werden.

(Bild: Shutterstock/Mark Carrel)
Die Big-Data-Welt braucht Flexibilität – und genau die ist eine der Stärken von Open Source (Bild: Shutterstock/Mark Carrel)

Schwierig wird es, wenn Unternehmen neue Projekte planen und sich die Anforderungen an die Software ändern. Ein unflexibles Modell kann für Firmen erhebliche Kosten verursachen. Denn wer zusätzliche Funktionen für seine Datenintegrationssoftware braucht, muss regelmäßig investieren, um neue Lizenzen zu erwerben und die Software anzupassen. Abgesehen vom Kostenfaktor ist das starre Grundgerüst veralteter Software technisch meist schwierig zu aktualisieren – und solche Fälle kommen in der Big-Data-Welt oft vor. Datenintegration beispielsweise funktioniert nach dem ETL-Prozess: Der Extraktion, Transformation und dem Laden der Daten.

Zunächst müssen die wichtigen Informationen aus unterschiedlichen Quellen gewonnen, in das Schema und das Format der Zieldatenbank transformiert und dort hinein geladen werden. Aber tagtäglich kommen neue Quellformate von Daten hinzu. Anwender veralteter Softwareplattformen stehen deswegen häufig vor großen Herausforderungen, diese neuen Formate zu erkennen.

Flexible Open-Source-Lösungen auf Lizenzbasis bieten hierbei Unternehmen viele Vorteile, die aus technischer Sicht auf dem neuesten Stand sein möchten. Beim Abonnementmodell können die Kunden jedes Jahr neu entscheiden, ob sie mehr, weniger oder die gleiche Anzahl von Lizenzen benötigen und ob der Funktionsumfang erweitert oder reduziert werden soll.

Mehr Innovation durch Teamwork

Während sich bei Anbietern von herstellergebundener Software ein einziges Entwicklerteam mit innovativen Features beschäftigt, sieht es im Open-Source-Bereich anders aus. Die Arbeit der Apache Software Foundation ist ein gutes Beispiel, wie sich flexibel anpassbare Software entwickeln und handhaben lässt. Die Apache Software Foundation ist eine Gemeinschaft von Spezialisten, die an Open-Source-Softwareprojekten arbeiten. Bei jedem Projekt sind mehrere Entwicklerteams eingebunden, was für mehr Innovation und Kreativität sorgt. Unternehmen, die sich für Open Source entscheiden, profitieren von diesem gemeinschaftlichen Fortschritt und von der schnellen Umsetzung neuer Lösungen.

Open Source First?

Die Chancen stehen gut, dass Open-Source-Software bald zum Standard wird – und es gibt bereits erste Anzeichen dafür. Open Source ist die Triebfeder für neue Technologien wie Apache Spark, ein Programmiergerüst für Cluster Computing. Cluster Computing beschreibt einen Rechnerverbund, der die Rechenkapazität und die Verfügbarkeit von Daten erhöht. Auch das neuere, von der Apache Foundation entwickelte, Spark Streaming basiert beispielsweise auf Open Source.

Damit lassen sich fortlaufend Datenströme verarbeiten. Während solche Projekte für Open-Source-Anbieter leicht zu unterstützen sind, stellen sie traditionelle Anbieter vor große Herausforderungen. Die Entwicklungsintervalle sind bei Open-Source-Software kürzer als bei veralteten Softwareanwendungen. Updates sind schnell entwickelt und ermöglichen Nutzern, sofort auf neue Gegebenheiten optimal zu reagieren. Immer mehr Unternehmen sind von dem neuen Ansatz überzeugt und setzen in Zukunft auf eine “Open-Source-First”-Strategie.