Categories: Data

In-Memory mit geringer Verbreitung in Unternehmen

Die Verbreitung von In-Memory-Datenbanken bei Unternehmen ist noch ausbaufähig. Derzeit, so eine Studie des unabhängigen IT-Dienstleisters Sopra Steria Consulting, würden etwa ein Drittel aller Unternehmen diese Technologie nutzen.

Durch den Einsatz von In-Memory können Daten im Arbeitsspeicher gehalten werden. Dadurch werden Analysen deutlich schneller. Derzeit plane etwas mehr als die Hälfte aller Unternehmen den Einsatz von In-Memory, so die Studie “In-Memory-Analytics”, in der hundert IT-Entscheider aus Unternehmen ab 500 Mitarbeitern befragt worden sind.

Unternehmen, die große Datenvolumen von hundert Terabyte und mehr verarbeiten müssen, setzen derzeit auf In-Memory. Hier sind es etwa 50 Prozent der Unternehmen. Vor allem Finanzdienstleister mit 44 Prozent und Industrieunternehmen mit 43 Prozent setzen diese Technologie ein.

Hinsichtlich Unternehmensgröße führen Organisationen mit zwischen 1.000 bis 5.000 Mitarbeitern die die Statistik mit knapp 60 Prozent an.

Ein weiteres Ergebnis der Befragung ist, dass Anwender In Memory häufiger in Form von Datenbanken einsetzen und als In-Memory-Analytics. In-Memory-Analytics greifen auf bestehende Datenbanken zu und werten diese aus. Damit lassen sich auch große und polystrukturierte Datenmengen in Echtzeit speichern und auswerten.

“Aufgabe der IT-Entscheider ist es nun, In-Memory-Datenbanken in Richtung Analytics weiterzuentwickeln”, weiß Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting. “Dafür sollten Unternehmen auch eine fachbereichsübergreifende Initiative oder Task Force initiieren, welche unternehmensindividuelle Anwendungsfälle entwickelt. Die IT ist technisch der Enabler, der Erfolg wird allerdings erst über die passenden analytischen Anwendungsfälle hergestellt.”

Dass es aber für die meisten Unternehmen nicht gerade einfach ist, entsprechende Technologien einzusetzen und auch gewinnbringend auszuwerten, zeigt Sopra Steria in einer weiteren Studie.

So sei der Einsatz von analytischen Plattformen – also auf In-Memory-Computing basierende Big-Data-Lösungen für nahezu alle Unternehmen (96 Prozent) eine größere Herausforderung.

Die wichtigsten Probleme sollen laut Umfrage fachliche Hürden sein. Und Experten-Mangel gibt es bei technischen Fragen wie auch bei der Auswertung der Daten. Ein weiteres weit verbreitetes Problem sei auch die Integration in die bestehende IT-Infrastruktur. Diese treten besonders deutlich bei Unternehmen zu tage, die 100 Terabyte oder mehr verarbeiten müssen.

Neben dem vielbeschworenen Fachkräftemangel kämpfen IT-Entscheider häufig auch mit mangelnder Investitionsbereitschaft der Unternehmensleitung.

Nachdem in vielen Fällen der Wert der Informationen, Daten und Analysemöglichkeiten in der Geschäftsleitung zu gering geschätzt wird, fehlt häufig auch die Bereitschaft, entsprechende Investitionen zu tätigen.

Redaktion

Recent Posts

Quantencomputer: Globaler Wettlauf um technologische Führung

Das Wettrennen ist eröffnet. Europa, China und die USA kämpfen um die technologische Führung.

14 Stunden ago

T-Systems baut Maut-System im Elsass

Dank Anbindung an europäische Standard-Technologie sollen Logistiker das System länderübergreifend nutzen können.

2 Tagen ago

ZEISS Microscopy: Update Manager strafft Prozesse und erhöht Sicherheit

Über nahtlose Verbindungen zu IoT-Plattformen wie ThingWorx, Azure IoT, AWS IoT und Mender.io die Mikroskop-Software…

2 Tagen ago

TotalEnergies transformiert Asset Management

IFS-Lösung soll das strategische Rückgrat des Energieriesen vervollständigen und sich in das globale ERP von…

3 Tagen ago

Notwendige Symbiose: Wie der GenKI-Trend den Bedarf an KI-Clouds vorantreibt

KI definiert die Anforderungen an Cloud-Infrastrukturen neu, was sich tiefgreifend auf Unternehmen, Cloud-Anbieter und gesamte…

3 Tagen ago

KI beantwortet Fragen rund um den EU AI Act

Leitlinien der EU-Kommission werfen viele Fragen auf, besonders für Unternehmen, die sicherstellen müssen, dass ihre…

3 Tagen ago