Burning Platforms – Wie Altsysteme den Anschluss nicht verpassen

Wenn die Betriebskosten für alte Mainframe-Plattformen aus dem Ruder laufen, steht der Systemwechsel ins Haus. Doch was tun mit den Alt-Anwendungen?

Die Parkbank, die früher mal eine Aludose war, gibt es in der IT-Welt nicht. Jeder IT-Leiter weiß, dass die Rechnersysteme ein Verfallsdatum haben. Und wer seine betagten Computer nicht im Griff hat, bekommt Ärger. Das wollte Günter Bodner, CIO des ICS Competence Center von Bertelsmann in Wien, auf jeden Fall vermeiden. Nachdem immer häufiger Performance-Probleme mit den IBM-Großrechnern auftraten musste er handeln: “Die Instandhaltungs- und Wartungskosten der alten Plattform sind überproportional gestiegen”, erinnert sich Bodner, “wir standen vor der Schicksalsfrage: Migrieren oder neu entwickeln?”
Burning Platforms sind in Großkonzernen keine Seltenheit. Betagte Legacy-Systeme gibt es beinahe in jedem Rechenzentrum. “In den Mainframes stecken sehr hohe Investitionen”, weiß Migrationsspezialist Ernst Schierholz, Geschäftsführer der Travert GmbH in Frankfurt/Oder, “deshalb überlegt jeder sehr genau, ob er überhaupt umsteigt.” Häufig sträuben sich IT-Verantwortliche dagegen, die altgedienten Computerboliden einfach vom Netz zu nehmen und weniger bewährte Rechentechnik einzusetzen. Mancher Administrator schwört im kaufmännischen Umfeld gar auf die alten Cobol-Programme oder Assembler-Code, selbst wenn der Modernisierungsdruck durch Internet, Desktop Computing und neue Softwarearchitekturen wächst: “Viele Anwendungen laufen auch nach 20 Jahren noch sehr stabil”, betont Schierholz.

Auch im Wiener ICS-Rechenzentrum sahen sich die Planer schnell mit Grundsatzfragen konfrontiert: Intel-Server mit Windows oder Modernisierung der alten MVS-Rechner, neue IBM-Rechner aus der iSeries-Familie oder eine Java-Plattform mit Sun-Workstations. Besonders brannte den Verantwortlichen die Entscheidung unter den Nägeln, was mit den rund 2900 selbstentwickelten Anwendungen passieren sollte. Eine Neuprogrammierung auf Java-Basis, so rechnete eine Expertise des Institut für Informatik der Uni Klagenfurth vor, würde 15 Mannjahre (etwa 500.000 Euro) Entwickleraufwand verschlingen. Hinzu kämen neue Hardware und Softwarelizenzen, so dass das gesamte Investitionsvolumen bei mehr als vier Millionen Euro lag.

Modernisierungsdruck bei knappen Budgets

Solche Kostenblöcke sind in Zeiten knapper IT-Budgets kein Pappenstiel. Doch beliebig weit von sich schieben kann man Migrationsentscheidungen nicht. Einer Gartner-Studie zufolge können marode IT-Systeme zum Bremsklotz für Geschäftsabläufe werden, die im Extremfall sogar die Arbeit der Gesamtorganisation beeinträchtigen. Eine richtige Fallgrube öffnet sich laut Marktforschungsunternehmen Gartner, wenn allzu lang an Symptomen herumgedoktert wird. “Die ständige Beseitigung von Schwachstellen kann wesentlich mehr Geld verschlingen, als die rechtzeitige Migration auf eine leistungsfähigere System- und Anwendungsumgebung”, warnt Gartner Research Director Mark Raskino.

Diese Überlegungen spiegeln sich in einem gut durchkalkulierten Return of Investment (ROI) und bei den Total Costs of Ownership (TCO) wieder. Die Migrationsstrategen im Wiener Rechenzentrum hatten es vor Projektbeginn Schwarz auf Weiß: Die Einführung der Standardsoftware R/3 von SAP bei rund 50-prozentigem Customizing-Anteil würde fast sieben Millionen Euro kosten, die Runderneuerung der IBM-Großrechner 3,6 Millionen Euro, die Migration auf die IBM-Midrange-Plattform AS/400 3,0 Millionen Euro und die Anschaffung und Programmierung von Windows-Servern einschließlich PC-Clients lediglich 1,2 Millionen Euro.

Die Rechnungen am grünen Tisch sind zwar mit allerlei Unwägbarkeiten behaftet, aber die Konzernspitze entschied sich für die Serverlösung unter Windows. Und damit kein Wildwuchs bei den Kosten entsteht, schloss der Geldgeber eine Neuprogrammierung der 2900 Applikationen – darunter ein E-Mail-Orderingsystem sowie die gesamte betriebswirtschaftliche Abwicklung des Club-Business von Bertelsmann mit weltweit 2,5 Millionen Kunden und einem Jahresumsatz von 145 Millionen Euro – kategorisch aus. Stattdessen sollte Bodner und seine Mannen innerhalb von sechs Monaten die Kernel-Software mit mehr als einer Million Codezeilen eins-zu-eins auf die neue Plattform portieren.

SAP nicht immer Schlüssellösung

Einfacher gesagt als getan. Die jahrelang gepflegte Anwendungslandschaft ist purer Cobol-Code und die in Software abgebildete Geschäftslogik entzieht sich jeder Standardisierung. Ein Grund mehr für die Absage an SAP R/3. Die Module der Walldorfer hätten laut Bodner das gesamte Bestell- und Fakturierungswesen im Rechenzentrum auf neue Beine gestellt. Mehrere Entwicklerteams müssten sich intensiv mit der Umstellung von bewährten Host-Dialogen und Ablauffunktionen in die R/3-Welt mit ihren vorgefertigten Arbeitsschemata befassen. “Die Einführung kommt wegen dem hohen Customizing-Anteil einer Neuprogrammierung gleich”, sagt Bodner.

Die Entwickler ließen sich nicht von den schöngefärbten Nachrichten aus den Marketingabteilungen beeindrucken und portierten stattdessen die alten Cobol-Anwendungen auf neue Intel-Server und Desktops. “Wir mussten keine Cobol-Programmierer aus dem Ruhestand holen”, witzelt Bodner. Das Migrationsprojekt beim ICS Competence Center ging dank leistungsfähiger Entwicklungswerkzeuge ohne große Blessuren über die Bühne.

Zahlreiche Softwareschmieden wie Liant Software, Micro Focus, Acucorp oder Parkware Software haben die Cobol-Programmierumgebung weiterentwickelt. Selbst vor Web-basierten Services oder Online-Anwendungen oder dem Microsoft Framework .Net macht der Oldie eine gute Figur. “Da gibt es keine Kinderkrankheiten mehr”, schwört Bernhard Görlitz, Leiter der Deutschlandniederlassung von Micro Focus, “Cobol ist in hohem Maße portierbar und skalierbar.”

Fortschritt mit Bewährtem

Zur Vermeidung von bösen Überraschungen empfiehlt Berater Schierholz, nicht vorbehaltlos den Lockrufen moderner Java-Gurus zu folgen. Die Cobol-Anwendungen gehören in vielen Großsystemen keineswegs zum alten Eisen. Etwa 200 Milliarden Zeilen Code, so schätzt Schierholz, gibt es heute noch weltweit und jährlich kommen weitere fünf Milliarden neue Zeilen hinzu. Gartner führt das auf Stärken im kaufmännischen Bereich zurück. Die Programmiersprache sei sehr gut auf betriebswirtschaftliche Anwendungen zugeschnitten, heißt es in einer Untersuchung der Marktforscher.

Während Manager am liebsten Wachstum programmieren, geht es der Informatikerzunft um zukunftssichere Algorithmen und Entwicklungsumgebungen. Als Fortschritt gepriesen werden gekapselte Programmkomponenten, die sich beliebig recyceln und wie Legobausteine mittels Bridges zusammensetzen lassen. Auch Cobol hat längst nichts mehr mit der Lochkartenzeit zu tun. Laut Aussage von Micro Focus lässt sich Cobol-Code ohne weiteres mit Java-Umgebungen oder .Net verbinden und unter diesen Plattformen weiter pflegen.

Nicht alles, was Programmierer in den letzten 30 Jahren auf die Beine gestellt haben, ist bei Computernutzern und Systemadministratoren auf Gegenliebe gestoßen. Vor allem schufen die Codierprofis im Laufe der Zeit eine heterogene Systemlandschaft, deren Innenleben von Jahr zu Jahr komplexer und unübersichtlicher wird. Kein Wunder, dass längst totgesagte Programmiertechniken munter weiterleben. In Kürze will Micro Focus den ersten Applikations-Server auf Basis des altgedienten Cobol-Maschinencodes auf den Markt bringen. Ein Ende des Streits um die beste Plattform mit der richtigen Anwendung ist noch längst nicht in Sicht.