IBM drängt bei Big Data und Analytics in die erste Reihe

Auch IBM will einen Beitrag leisten, wenn es darum geht, das neue ‘Rohöl’, also Daten, zu fördern. Software-Anbieter wie Oracle, SAP oder Microsoft konzentrieren sich schon länger auf das Thema Big Data und Analytics. Jetzt stellt auch IBM eine umfangreiche Palette Produkten, Lösungen und Dienstleistungen vor.

IOD_Welcome
IBM Information on Demand 2013 Las Vegas. Quelle: Harald Weiss

IBM ist sicherlich nicht das erste und auch nicht das einzige Unternehmen, das derzeit auf das Thema Big Data aufspringt. Dennoch sieht Big Blue ein wichtiges Unterscheidungsmerkmal: Die umfangreiche Beratungskompetenz von IBM Global Business Services. So, davon ist man bei Big Blue überzeugt, können man jedem Unternehmen optimale Lösungen anbieten.

“Big Data ist das moderne Rohöl, doch es muss erst noch verfeinert werden, bevor es genutzt werden kann. Unsere branchenspezifischen Experten wissen genau, welche Verarbeitungsprozesse im Einzelfall die bestmöglichen Ergebnisse liefern”, sagte IBMs Middleware-Chef Robert LeBlanc in seiner Eröffnungsrede auf der jüngsten IOD-Veranstaltung in Las Vegas (Information on Demand).

Dabei legen die IBM-Consultants bei ihren Konzepten und Empfehlungen größten Wert darauf, dass sie nicht nur IBM-Produkte im Auge haben. Doch in Zukunft können sie im Bereich Big Data immer mehr IBM-Produkte und -Services empfehlen, denn auf der IOD gab es einen ganzen Strauß an entsprechenden Neuankündigungen. Besonders interessant ist IBMs neues Cloud-Angebot. So ist der “BLU Beschleuniger für die Cloud” ein DB2-basiertes “Datawarehouse-as-a-Service” (DWaaS), das mit der bereits im April angekündigten In-Memory-Technologie besonders schnell ist.

Robert LeBlanc, IBM Middleware-Chef sieht vor allem in der großen Beratungskompetenz von IBM ein wichtiges Alleinstellungsmerkmal bei Big Data und Analytics. Quelle: Harald Weiss.
Robert LeBlanc, IBM Middleware-Chef sieht vor allem in der großen Beratungskompetenz von IBM ein wichtiges Alleinstellungsmerkmal bei Big Data und Analytics. Quelle: Harald Weiss.

Dabei setzt auch IBM auf eine hierarchische Datenspeicherung, bei der nicht alle Daten In-Memory gehalten werden. Im Mittelpunkt steht dabei eine besonders effiziente Datenkompression. Laut IBM lassen sich mit BLU zehn Terabytes auf ein Terabyte zusammenquetschen, die dann in den Hauptspeicher geladen werden. Mit Hilfe von geschickten Datenauswahlverfahren (Data Skipping) lässt sich das dann nochmals auf nur noch zehn Gigabytes komprimieren. Das alles zusammen führt dann zu Verarbeitungsgeschwindigkeiten, die 25-mal höher sind als bislang.

In den Bereich Big Data gehören auch zwei neue Anwendungs-Umgebungen für Hadoop, die auf InfoSphere aufsetzen. Für europäische Kunden dürfte vor allem “Privacy for Hadoop” interessant sein. Dabei handelt es sich um eine Software, die alle Datenaktivitäten in einem Hadoop-Cluster überwacht und den Zugriff auf sensitive, personenbezogene Daten gemäß voreingestellten Regeln kontrolliert. Alle Zugriffe auf die als sensitiv eingestuften Daten werden protokolliert und untypische Zugriffs-Muster lösen einen Alarm aus – und zwar auch dann, wenn es sich dabei um zugriffsberechtigte Personen handelt.

Ein weiteres neues Tool ist das “Governance Dashboard”, das nicht nur für Hadoop, sondern für eine Vielzahl an unterschiedlichen Datenquellen genutzt werden kann. Damit lassen sich für alle Datenbestände Nutzungs- und Kontrollregeln vorgeben und anpassen. Das neue Dashboard lässt sich mit vielen bestehenden Sicherheits- und Datenschutz-Tools verbinden, sodass hier eine einheitliche Konsole für die gesamte Datenintegrität zur Verfügung steht.

Außerdem verwies IBM in diesem Zusammenhang nochmals auf das neue PureData-System für Hadoop, das bereits im September vorgestellt wurde. Diese neue Hadoop-Appliance ist laut IBM viermal schneller als vergleichbare “Standard-Hadoop-Implementationen”, wie die von Cloudera oder Hortonworks.

Information on Demand IBM 2013. Las Vegas. Quelle: Harald Weiss

Bei allen Analytics-Anwendungen nutzt IBM jetzt verstärkt seine Erfahrungen aus dem Watson-Projekt. Neben dem Ausbau der bisherigen Watson-Appliance im Gesundheitswesen – die im nächsten Jahr die schriftliche Prüfung eines Assistenz-Arztes ablegen will – werden Teile davon in andere Anwendungen transferiert. So stellte IBM das neue Abfragesystem Neo vor, bei dem in natürlicher Sprache wahlfreie Abfragen an einen vorgegebenen Datenbestand gerichtet werden können. Neo verwendet hierzu eine Vielzahl an vordefinierten Datenbanken, die das System automatisch so aufbereitet, dass entsprechende Suchabfragen schnell möglich sind. Die Ausgabe der Abfragen erfolgt dann weitestgehend in grafischer Form.

Außerdem wird Watson jetzt mit einer Vielzahl an APIs ausgestattet, sodass auch Drittanbieter ihre eigen System mit Watson kombinieren können. IBM verspricht sich sehr viel vom zukünftigen Watson-Geschäft. In zwei Jahren soll dieses intelligente System rund 1,5 Prozent vom Gesamtumsatz einbringen und bis 2018 soll dieser Anteil sogar auf 10 Prozent ansteigen.