Categories: Data

In-Memory mit geringer Verbreitung in Unternehmen

Die Verbreitung von In-Memory-Datenbanken bei Unternehmen ist noch ausbaufähig. Derzeit, so eine Studie des unabhängigen IT-Dienstleisters Sopra Steria Consulting, würden etwa ein Drittel aller Unternehmen diese Technologie nutzen.

Durch den Einsatz von In-Memory können Daten im Arbeitsspeicher gehalten werden. Dadurch werden Analysen deutlich schneller. Derzeit plane etwas mehr als die Hälfte aller Unternehmen den Einsatz von In-Memory, so die Studie “In-Memory-Analytics”, in der hundert IT-Entscheider aus Unternehmen ab 500 Mitarbeitern befragt worden sind.

Unternehmen, die große Datenvolumen von hundert Terabyte und mehr verarbeiten müssen, setzen derzeit auf In-Memory. Hier sind es etwa 50 Prozent der Unternehmen. Vor allem Finanzdienstleister mit 44 Prozent und Industrieunternehmen mit 43 Prozent setzen diese Technologie ein.

Hinsichtlich Unternehmensgröße führen Organisationen mit zwischen 1.000 bis 5.000 Mitarbeitern die die Statistik mit knapp 60 Prozent an.

Ein weiteres Ergebnis der Befragung ist, dass Anwender In Memory häufiger in Form von Datenbanken einsetzen und als In-Memory-Analytics. In-Memory-Analytics greifen auf bestehende Datenbanken zu und werten diese aus. Damit lassen sich auch große und polystrukturierte Datenmengen in Echtzeit speichern und auswerten.

“Aufgabe der IT-Entscheider ist es nun, In-Memory-Datenbanken in Richtung Analytics weiterzuentwickeln”, weiß Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting. “Dafür sollten Unternehmen auch eine fachbereichsübergreifende Initiative oder Task Force initiieren, welche unternehmensindividuelle Anwendungsfälle entwickelt. Die IT ist technisch der Enabler, der Erfolg wird allerdings erst über die passenden analytischen Anwendungsfälle hergestellt.”

Dass es aber für die meisten Unternehmen nicht gerade einfach ist, entsprechende Technologien einzusetzen und auch gewinnbringend auszuwerten, zeigt Sopra Steria in einer weiteren Studie.

So sei der Einsatz von analytischen Plattformen – also auf In-Memory-Computing basierende Big-Data-Lösungen für nahezu alle Unternehmen (96 Prozent) eine größere Herausforderung.

Die wichtigsten Probleme sollen laut Umfrage fachliche Hürden sein. Und Experten-Mangel gibt es bei technischen Fragen wie auch bei der Auswertung der Daten. Ein weiteres weit verbreitetes Problem sei auch die Integration in die bestehende IT-Infrastruktur. Diese treten besonders deutlich bei Unternehmen zu tage, die 100 Terabyte oder mehr verarbeiten müssen.

Neben dem vielbeschworenen Fachkräftemangel kämpfen IT-Entscheider häufig auch mit mangelnder Investitionsbereitschaft der Unternehmensleitung.

Nachdem in vielen Fällen der Wert der Informationen, Daten und Analysemöglichkeiten in der Geschäftsleitung zu gering geschätzt wird, fehlt häufig auch die Bereitschaft, entsprechende Investitionen zu tätigen.

Redaktion

Recent Posts

Kritische Infrastruktur: BSI-Zahlen zur Robustheit

Reichen die Sicherheitsvorkehrungen der KRITIS-Betreiber bereits aus? Das BSI liefert dazu Kennzahlen auf einer neuen…

5 Stunden ago

Automotive: Phishing-Angriffe auf jedes zweite Unternehmen

Laut Kaspersky ist Schadsoftware die zweithäufigste Bedrohung. Angriffe auf vernetzte Fahrzeuge folgen erst mit Abstand.

6 Stunden ago

Chinesischer Großauftrag für Infineon

Der deutsche Chipproduzent beliefert Xiaomi mit Siliziumkarbid-Leistungsmodulen (SiC), Mikrocontrollern und Gate-Treibern.

7 Stunden ago

Neue E-Health-Lösung für Parkinson-Patienten

Fraunhofer-Forschende arbeiten an einer Webplattform, die die Lebensqualität von Menschen mit Parkinson verbessern soll.

2 Tagen ago

Axel Springer und Microsoft vertiefen Partnerschaft

Mit gemeinsamen Angeboten in den Bereichen Vermarktung, KI, Content und Cloud will man "unabhängigen Journalismus…

2 Tagen ago

Keine Angst vor Phishing

Bereits seit einigen Jahren führt die RGF Staffing Germany Schulungen durch, um die eigenen Mitarbeiter…

2 Tagen ago