Teradata: HANA ist ein unrealistisches Konzept

Teradata hat sich auf seiner diesjährigen Partnerkonferenz sehr kritisch gegenüber SAPs All-in-Memory Philosophie geäußert. “Alle Daten im Speicher zu halten, ist kein tragfähiges Konzept”, sagt Terladata-CTO Stephen Brobst in einem Gespräch mit silicon.de.

"Für ERP-Systeme mag eine All-in-Memory-Lösung vielleicht sinnvoll sein, aber ... " Teradata-CEO Mike Köhler auf der Teradata-Partner-Konferenz in Dallas, die vom 22. bis 24 Oktober statt fand.
“Für ERP-Systeme mag eine All-in-Memory-Lösung vielleicht sinnvoll sein, aber … ” Teradata-CEO Mike Köhler auf der Teradata-Partner-Konferenz in Dallas, die vom 22. bis 24 Oktober statt fand. Quelle: Harald Weiss

Teradata CEO Mike Koehler, formulierte es ein weniger konzilianter, teilte aber in der Sache die Einschätzung von Brobst. “Für ERP-Systeme mag eine All-in-Memory-Lösung vielleicht sinnvoll sein, doch unsere Systeme dienen der Analyse von großen und divergierenden Datenbeständen aus sehr unterschiedlichen Quellen, und hierbei gelten andere Gesetzmäßigkeiten”, lautet sein Einwand gegenüber SAPs Parade-System.

Brobst erläuterte dann, woraus diese Gesetzmäßigkeiten bestehen, beziehungsweise, wo es Gemeinsamkeiten gibt. Übereinstimmung herrscht bei den Zugriffszeiten, die bei einem Hauptspeicher um Faktoren günstiger sind, als bei jedem Plattenzugriff.

Auch bestätigte Brobst das landläufige Argument, dass nämlich der Hauptspeicher immer billiger wird. Doch seiner Ansicht nach geht dieser Effekt schnell wieder verloren, da das zu bearbeitende Datenvolumen schneller ansteigt, als der Preis für Speicherchips sinkt.

Außerdem würden auch die Preise für Plattenspeicher immer noch fallen, sodass sich der Preisabstand wenig verändert. “Der Storagebedarf steigt exponentiell an, während sich die RAM-Preise nur langsam nach unten bewegen”, lautet sein Hauptargument gegenüber Systemen wie SAPs HANA.

Stattdessen setzt man bei Teradata auf ein sehr fein abgestuftes Storage-Tiering, bei dem zwar auch immer mehr Daten im Hauptspeicher gehalten werden – aber bei weitem nicht alle. “90 Prozent des Input-Outputs einer CPU betreffen nur 20 Prozent der Daten, es reicht also völlig aus, wenn man nur diesen Teil In-Memory hält”, so Brobst weiter.

Deshalb würde deren neue Datawarehouse-Appliance 2750 ein automatisches Tiering durchführen, bei dem nur die wichtigsten Daten im Hauptspeicher gehalten werden. Neben den klaren Kostenvorteilen bedeutet eine solche Lösung auch, dass keinerlei Änderungen an den Anwendungsprogrammen erforderlich sind.

Scott Gnau, President der Teradata Labs, arbeitet zwar auch mit In-Memory, doch nur "heiße" Daten, die häufig  gebraucht werden, kommen in den Arbeitsspeicher. Das spart Ressourcen. Quelle: Harald Weiss
Scott Gnau, President der Teradata Labs, arbeitet zwar auch mit In-Memory, doch nur “heiße” Daten, die häufig gebraucht werden, kommen in den Arbeitsspeicher. Das spart Ressourcen. Quelle: Harald Weiss

Gerade die Notwendigkeit der Softwareumstellung, ist ein immer wieder vorgebrachtes Argument gegenüber SAPs HANA-System. Soweit hört sich die von Brobst vorgetragene Teradata-Philosophie sehr plausibel an.

Doch das Kernproblem der Teradata-Lösung ist, dass die wichtigsten 20 Prozent der Daten nicht statisch sind und sich dynamisch ändern. Das bedeutet, dass man mit großer Geschwindigkeit und völlig automatisch identifizieren muss, welche Daten als nächstes benötigt werden.

“Es stimmt schon, dass das Memory-Management bei diesem Tiering nicht trivial ist, denn historische Abläufe sind nur bedingt geeignet, um die Zukunft der nächsten Datenanforderung vorherzusagen”, bestätigt Brobst.

Teradata setzt hierzu einen selbst entwickelten “Intelligent Memory Manager” ein, der eine Art Prognosemodell darstellt – sozusagen selbst angewandte Predictive Analytics für das Speichermanagement. Damit erreicht Teradatas neue Appliance, die Teradata Data Warehouse Appliance 2750, eigenen Angaben zufolge eine dreimal bessere Performance als das Vorgängermodell, die 2690.