Teradata bringt Active Data Warehouse in die Cloud

Hermann Wimmer. Quelle: silicon.de.

“Das ist Teradatas Antwort auf das Thema Cloud Computing”, so Europachef Hermann Wimmer während der Eröffnungsrede auf der Teradata Universe in Dublin. “Es geht um elastische Performance on Demand, wodurch den Firmen bei Bedarf flexibel zusätzliche Kapazität zur Verfügung steht.”

Konkret geht es dabei um bis zu 20 Prozent, die aufgestockt und nach dem “Pay-per-Use-Prinzip” abgerechnet werden können. Das soll auch die Bindung der Kunden an das ADW verstärken. “Wir wollen verhindern, dass Anwenderfirmen, Daten aus dem Data Warehouse herunterladen und damit Datamarts bauen”, so Wimmer.

Das neue Angebot wird ausschließlich als Private-Cloud-Lösung zur Verfügung stehen. “Der Bedarf unserer Kunden an Cloud-Angeboten ist hoch”, begründet das Teradata-CTO Stephen Brobst. “Aber sie wollen die Cloud-Lösung im Haus behalten, sowohl aus Gründen der Sicherheit als auch der Wirtschaftlichkeit. Die meisten sind in der Lage, die notwenige Infrastruktur kosteneffizient intern zur Verfügung zu stellen, eine Public-Cloud-Lösung macht hier auch wirtschaftlich keinen Sinn.”

Stephen Brobst. Quelle: silicon.de

Hinzu kommen oft die Sicherheitsbedenken, die mit nahezu jedem Cloud-Projekt einhergehen, doch in diesem Umfeld sind sie besonders stark. 21 Prozent der neuen Teradata-Kunden aus dem vergangenen Jahr kommen aus dem Marktsegment “Financial Services”, 42 Prozent aus dem boomenden Healthcare-Sektor. Die Daten, die solche Unternehmen im Data Warehouse ablegen, sind größtenteils hochsensibel, der Schritt in die Public Cloud steht nicht zur Debatte.

Dass die vorhandenen Ressourcen dennoch optimal ausgeschöpft werden, ist laut Teradata einer der größten “Schmerzpunkte der CIOs”.

ADW Private Cloud will das durch die komplette Virtualisierung der Processing- und Storage-Umgebung erreichen. Die Analyse-Ressourcen stehen laut Teradata je nach Bedarf dynamisch und in Echtzeit zur Verfügung, um die notwenige Elastizität zu gewährleisten. Das System sei über verschiedene Ebenen hinweg skalierbar, etwa im Hinblick auf die Anzahl der Nutzer und Analyseanfragen sowie auf das Datenvolumen. Die Skalierbarkeit der Daten wird bis zu einem Volumen von 92 Petabyte unterstützt.

Woher diese Flut kommt macht, das Teradata-Management in Dublin wiederholt einhellig deutlich: Daten aus Sensoren, die in immer mehr Produkten und Services zum Einsatz kommen, müssen sinnvoll ausgewertet und weiterverarbeitet werden. Social-Media-Plattformen sind längst Business-relevant. “Wer nicht zuhört, was Kunden in diesen Kanälen über ein Unternehmen sagen, wird auf der Verliererseite stehen”, so Wimmer vor den rund 1000 Konferenzteilnehmern. “Aus ‘Business Intelligence’ wird ‘Costumer Intelligence'”.

Redaktion

Recent Posts

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

22 Stunden ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

2 Tagen ago

Studie: KI-Technologie unverzichtbar für zukunftsfähige Paketlogistik

Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.

2 Tagen ago

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

3 Tagen ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

3 Tagen ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

5 Tagen ago