Categories: Data

In-Memory mit geringer Verbreitung in Unternehmen

Die Verbreitung von In-Memory-Datenbanken bei Unternehmen ist noch ausbaufähig. Derzeit, so eine Studie des unabhängigen IT-Dienstleisters Sopra Steria Consulting, würden etwa ein Drittel aller Unternehmen diese Technologie nutzen.

Durch den Einsatz von In-Memory können Daten im Arbeitsspeicher gehalten werden. Dadurch werden Analysen deutlich schneller. Derzeit plane etwas mehr als die Hälfte aller Unternehmen den Einsatz von In-Memory, so die Studie “In-Memory-Analytics”, in der hundert IT-Entscheider aus Unternehmen ab 500 Mitarbeitern befragt worden sind.

Unternehmen, die große Datenvolumen von hundert Terabyte und mehr verarbeiten müssen, setzen derzeit auf In-Memory. Hier sind es etwa 50 Prozent der Unternehmen. Vor allem Finanzdienstleister mit 44 Prozent und Industrieunternehmen mit 43 Prozent setzen diese Technologie ein.

Hinsichtlich Unternehmensgröße führen Organisationen mit zwischen 1.000 bis 5.000 Mitarbeitern die die Statistik mit knapp 60 Prozent an.

Ein weiteres Ergebnis der Befragung ist, dass Anwender In Memory häufiger in Form von Datenbanken einsetzen und als In-Memory-Analytics. In-Memory-Analytics greifen auf bestehende Datenbanken zu und werten diese aus. Damit lassen sich auch große und polystrukturierte Datenmengen in Echtzeit speichern und auswerten.

“Aufgabe der IT-Entscheider ist es nun, In-Memory-Datenbanken in Richtung Analytics weiterzuentwickeln”, weiß Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting. “Dafür sollten Unternehmen auch eine fachbereichsübergreifende Initiative oder Task Force initiieren, welche unternehmensindividuelle Anwendungsfälle entwickelt. Die IT ist technisch der Enabler, der Erfolg wird allerdings erst über die passenden analytischen Anwendungsfälle hergestellt.”

Dass es aber für die meisten Unternehmen nicht gerade einfach ist, entsprechende Technologien einzusetzen und auch gewinnbringend auszuwerten, zeigt Sopra Steria in einer weiteren Studie.

So sei der Einsatz von analytischen Plattformen – also auf In-Memory-Computing basierende Big-Data-Lösungen für nahezu alle Unternehmen (96 Prozent) eine größere Herausforderung.

Die wichtigsten Probleme sollen laut Umfrage fachliche Hürden sein. Und Experten-Mangel gibt es bei technischen Fragen wie auch bei der Auswertung der Daten. Ein weiteres weit verbreitetes Problem sei auch die Integration in die bestehende IT-Infrastruktur. Diese treten besonders deutlich bei Unternehmen zu tage, die 100 Terabyte oder mehr verarbeiten müssen.

Neben dem vielbeschworenen Fachkräftemangel kämpfen IT-Entscheider häufig auch mit mangelnder Investitionsbereitschaft der Unternehmensleitung.

Nachdem in vielen Fällen der Wert der Informationen, Daten und Analysemöglichkeiten in der Geschäftsleitung zu gering geschätzt wird, fehlt häufig auch die Bereitschaft, entsprechende Investitionen zu tätigen.

Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

21 Stunden ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

22 Stunden ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

23 Stunden ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

2 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

3 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

4 Tagen ago