Otto Neuer

ist VP Sales EMEA Central bei Talend.

Händisches Codieren – neue Grenzen durch Big Data

Die wachsende Flut an Daten stellt auch Entwickler vor neue Herausforderungen. Otto Neuer von Talend sieht zwei Möglichkeiten manuelles Codieren oder der Einsatz von Standard-Lösungen.

Unternehmen müssen sich in Zeiten von Big Data immer häufiger damit auseinandersetzen, welche Maßnahmen sie ergreifen können oder wollen, um der Datenflut Herr zu werden. Meistens haben sie zwei Optionen: Sich für manuelles Codieren oder eine Standardlösung entscheiden. Unternehmen, die in-house entwickeln, können vielleicht kurzfristig Kosten einsparen, jedoch setzen sie sich langfristig einem höheren Risiko aus.

Es gibt immer wieder Unternehmen, die sich in der heutigen Zeit für das manuelle Codieren entscheiden. Viele wissen nicht, dass es für Ihre Bedürfnisse schlüsselfertige Lösungen auf dem Markt gibt und gehen gleichzeitig davon aus, dass für Big-Data-Projekte nur Daten in ein Hadoop-Cluster eingespeist werden müssen. Doch Big-Data-Prozesse sind komplexer. Firmen, die sich für manuelles Codieren entscheiden, können bis zu 20 Prozent gegenüber einer Fertiglösung einsparen, indem sie beispielsweise eine dedizierte lokale Infrastruktur für die Erfassung und Analyse von Big Data entwickeln. Jedoch zieht laut Gartner eine solche Vorgehensweise Wartungskosten nach sich, die um 200 Prozent höher liegen können, als anfangs angenommen. Viele Integrationsprojekte, die sich mittlerweile in der Produktion befinden, haben gezeigt, welche Grenzen dem benutzerdefinierten Codieren gesetzt sind. Deswegen setzen sich Unternehmen, die in-house entwickeln, auch Risiken auf drei verschiedenen Ebenen aus: der betrieblichen, der strategischen und der wirtschaftlichen.

Mit einer sich rasant ändernden Technologie Schritt halten

Hadoop ist ein Open-Source-Framework, für das keine Lizenzgebühren anfallen. Es mag aus Kostengründen naheliegend sein, die Technologie zu erwerben und intern zur Entwicklung einer Infrastruktur einzusetzen. In Wirklichkeit kann diese Strategie nicht funktionieren, da sich Big-Data-Ökosysteme ständig verändern. Das Erneuerungstempo von Technologieplattformen ist und bleibt hoch, denn es orientiert sich am Änderungsbedarf in den Unternehmen. In nur wenigen Jahren verlief der Weg von MapReduce über Storm bis zu Spark – und Apex steht schon in den Startlöchern.

Die Innovationsgeschwindigkeit des Big-Data-Ökosystems stellt in Sachen Anwendungswartung wie auch für die Nutzer dieser Technologien eine noch nie dagewesene Herausforderung dar. Wenn die für Erfassung, Anreicherung und Verwaltung der Daten eingerichtete Infrastruktur nicht nachhaltig ist und sich weder als wartungs- noch als upgradefreundlich erweist, sind Projekte, die auf diese Infrastruktur angewiesen sind, gefährdet. Denn früher oder später werden sie aufgrund von Veralterung oder hohen Wartungskosten fallen gelassen.

Zudem werden Themen wie Data-Governance und -management durch die Verbreitung von Datenquellen noch komplexer. Eine Vorgehensweise ohne geeignete Ausstattung wird bestenfalls zäh und zeitaufwändig, schlimmstenfalls jedoch vollkommen unmöglich sein. Sicherheit, Data-Governance, Datenqualität, Tests sowie die Beachtung gesetzlicher Vorschriften – all dies sind Bereiche, die mit einer Paketlösung abgedeckt werden können. Diese sind ganz gezielt für die häufigsten Anwendungsfälle innerhalb von Unternehmen entwickelt und von Anfang bis Ende unter den entsprechenden Gesichtspunkten durchdacht worden.

Weitere wirtschaftliche und strategische Risiken

Wartungskosten steigen, wenn die Zahl manuell codierter Projekte zunimmt – das hat sich immer wieder bestätigt. Hinzu kommt, dass dem Entwicklungsteam nun auch Wartungs- und Upgrade-Aufgaben übertragen werden, statt es mit gewinnbringenden neuen Projekten zu beauftragen. Ein wesentlicher Vorteil von Paketlösungen ist, dass sie flexibel und agil sind. Verzichten Unternehmen darauf, dann müssen neue Projekte entweder neue Entwickler einstellen oder sie auslagern – und all das kostet Geld. Zudem macht manuelles Codieren Unternehmen abhängig von qualifizierten Fachleuten, die sich mit dieser Form der Datenverarbeitung auskennen.

Behalten Sie die Projektgröße im Auge

Solange Projekte unkompliziert und spezifisch sind und nicht allzu viel Wartung benötigen, kann das manuelle Entwickeln durchaus eine Option sein. Wenn aber aufgrund der Projektgröße zahlreiche Spezialisten angeheuert werden müssen, fährt es sich in der Regel mit Fertiglösungen besser: Damit bekommen Nutzer eine anwenderfreundliche, für geschäftliche Benutzer maßgeschneiderte grafische Programmierumgebung, die Möglichkeit der Wiederverwendung vorhandener Codes sowie die Unterstützung durch den Anbieter bei der Einrichtung.