IBM drängt bei Big Data und Analytics in die erste Reihe

IBM Information on Demand 2013 Las Vegas. Quelle: Harald Weiss

IBM ist sicherlich nicht das erste und auch nicht das einzige Unternehmen, das derzeit auf das Thema Big Data aufspringt. Dennoch sieht Big Blue ein wichtiges Unterscheidungsmerkmal: Die umfangreiche Beratungskompetenz von IBM Global Business Services. So, davon ist man bei Big Blue überzeugt, können man jedem Unternehmen optimale Lösungen anbieten.

“Big Data ist das moderne Rohöl, doch es muss erst noch verfeinert werden, bevor es genutzt werden kann. Unsere branchenspezifischen Experten wissen genau, welche Verarbeitungsprozesse im Einzelfall die bestmöglichen Ergebnisse liefern”, sagte IBMs Middleware-Chef Robert LeBlanc in seiner Eröffnungsrede auf der jüngsten IOD-Veranstaltung in Las Vegas (Information on Demand).

Dabei legen die IBM-Consultants bei ihren Konzepten und Empfehlungen größten Wert darauf, dass sie nicht nur IBM-Produkte im Auge haben. Doch in Zukunft können sie im Bereich Big Data immer mehr IBM-Produkte und -Services empfehlen, denn auf der IOD gab es einen ganzen Strauß an entsprechenden Neuankündigungen. Besonders interessant ist IBMs neues Cloud-Angebot. So ist der “BLU Beschleuniger für die Cloud” ein DB2-basiertes “Datawarehouse-as-a-Service” (DWaaS), das mit der bereits im April angekündigten In-Memory-Technologie besonders schnell ist.

Robert LeBlanc, IBM Middleware-Chef sieht vor allem in der großen Beratungskompetenz von IBM ein wichtiges Alleinstellungsmerkmal bei Big Data und Analytics. Quelle: Harald Weiss.

Dabei setzt auch IBM auf eine hierarchische Datenspeicherung, bei der nicht alle Daten In-Memory gehalten werden. Im Mittelpunkt steht dabei eine besonders effiziente Datenkompression. Laut IBM lassen sich mit BLU zehn Terabytes auf ein Terabyte zusammenquetschen, die dann in den Hauptspeicher geladen werden. Mit Hilfe von geschickten Datenauswahlverfahren (Data Skipping) lässt sich das dann nochmals auf nur noch zehn Gigabytes komprimieren. Das alles zusammen führt dann zu Verarbeitungsgeschwindigkeiten, die 25-mal höher sind als bislang.

In den Bereich Big Data gehören auch zwei neue Anwendungs-Umgebungen für Hadoop, die auf InfoSphere aufsetzen. Für europäische Kunden dürfte vor allem “Privacy for Hadoop” interessant sein. Dabei handelt es sich um eine Software, die alle Datenaktivitäten in einem Hadoop-Cluster überwacht und den Zugriff auf sensitive, personenbezogene Daten gemäß voreingestellten Regeln kontrolliert. Alle Zugriffe auf die als sensitiv eingestuften Daten werden protokolliert und untypische Zugriffs-Muster lösen einen Alarm aus – und zwar auch dann, wenn es sich dabei um zugriffsberechtigte Personen handelt.

Ein weiteres neues Tool ist das “Governance Dashboard”, das nicht nur für Hadoop, sondern für eine Vielzahl an unterschiedlichen Datenquellen genutzt werden kann. Damit lassen sich für alle Datenbestände Nutzungs- und Kontrollregeln vorgeben und anpassen. Das neue Dashboard lässt sich mit vielen bestehenden Sicherheits- und Datenschutz-Tools verbinden, sodass hier eine einheitliche Konsole für die gesamte Datenintegrität zur Verfügung steht.

Außerdem verwies IBM in diesem Zusammenhang nochmals auf das neue PureData-System für Hadoop, das bereits im September vorgestellt wurde. Diese neue Hadoop-Appliance ist laut IBM viermal schneller als vergleichbare “Standard-Hadoop-Implementationen”, wie die von Cloudera oder Hortonworks.

Bei allen Analytics-Anwendungen nutzt IBM jetzt verstärkt seine Erfahrungen aus dem Watson-Projekt. Neben dem Ausbau der bisherigen Watson-Appliance im Gesundheitswesen – die im nächsten Jahr die schriftliche Prüfung eines Assistenz-Arztes ablegen will – werden Teile davon in andere Anwendungen transferiert. So stellte IBM das neue Abfragesystem Neo vor, bei dem in natürlicher Sprache wahlfreie Abfragen an einen vorgegebenen Datenbestand gerichtet werden können. Neo verwendet hierzu eine Vielzahl an vordefinierten Datenbanken, die das System automatisch so aufbereitet, dass entsprechende Suchabfragen schnell möglich sind. Die Ausgabe der Abfragen erfolgt dann weitestgehend in grafischer Form.

Außerdem wird Watson jetzt mit einer Vielzahl an APIs ausgestattet, sodass auch Drittanbieter ihre eigen System mit Watson kombinieren können. IBM verspricht sich sehr viel vom zukünftigen Watson-Geschäft. In zwei Jahren soll dieses intelligente System rund 1,5 Prozent vom Gesamtumsatz einbringen und bis 2018 soll dieser Anteil sogar auf 10 Prozent ansteigen.

Redaktion

Recent Posts

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

1 Stunde ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

2 Stunden ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

23 Stunden ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

2 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

3 Tagen ago

Studie: KI-Technologie unverzichtbar für zukunftsfähige Paketlogistik

Mit KI können Unternehmen der Paketbranche Prozesse optimieren, Kosten einsparen und sich zukunftssicher aufstellen.

3 Tagen ago