In-Memory: “Im ersten Moment hört sich das revolutionär an”

Stefan Jensen ist Director Presales für die Region DACH bei dem Business-Intelligence-Spezialisten QlikTech.


silicon.de: Neben SAP gilt QlikTech als einer der Pioniere des In-Memory-Computing. Seit einiger Zeit pflegt QlikTech eine Partnerschaft mit Teradata. Was kann Ihre Lösung jetzt, was im Vorfeld nicht möglich war?

Jensen: Unser Ziel war es, unsere Big-Data-Strategie zu erweitern und Kunden damit noch mehr Möglichkeiten bei der Analyse von großen Datenmengen zu eröffnen. Natürlich spielt die Partnerschaft mit einem etablierten Anbieter wie Teradata dabei eine wichtige Rolle. Der ganze Sinn der Sache erschließt sich allerdings erst, wenn man sie im Zusammenhang mit der zum selben Zeitpunkt vorgestellten QlikView Direct-Discovery-Technologie sieht. Mit Hilfe von Direct Discovery lassen sich Daten, die bereits In-Memory geladen sind, gemeinsam mit Big Data aus anderen Quellen analysieren. Da viele unserer Kunden Teradata im Einsatz haben, bot es sich an, die neue Technologie bereits von vornherein für den gemeinsamen Einsatz zu optimieren.

silicon.de: Lassen sich so also In-Memory-Daten mit Informationen in “anderen” Systemen (nicht In-Memory) kombiniert abfragen oder verknüpfen?

Jensen: Ganz genau. Wir bezeichnen das als einen hybriden Ansatz zur Datenanalyse: Anwender können auf Daten zugreifen, die In-Memory gespeichert sind, so wie sie das von QlikView seit jeher gewohnt sind. Gleichzeitig können sie dieselbe Abfrage in derselben QlikView-Anwendung aber auch an eine große Datenbank senden. Teradata ist da nur eine Möglichkeit. Der Vorteil liegt ganz klar auf der Hand: Der hybride Ansatz macht es überflüssig, Datensilos vorab konsolidieren zu müssen. Auch komplizierte ETL-Prozesse fallen Weg. So sparen Firmen enorm viel Zeit.

silicon.de: Lassen sich so Sachverhalte sichtbar machen, die vorher nicht analysierbar waren?

Jensen: Durchaus! Nutzern erschließen sich diverse neue Datenquellen, zu denen sie vorher keinen direkten Zugang hatten. Wo die Daten liegen, spielt dabei keine Rolle. Egal ob das Unternehmen sie in Datenbanken oder In-Memory liegen hat, ob sie im firmeneigenen SAP-System vorgehalten werden oder es sich um Daten aus sozialen Netzwerken wie Facebook handelt. Wenn Anwender bei ihren Analysen noch weiter skalieren und in die Tiefe gehen möchten, ist das möglich – und zwar weiterhin ohne große Unterstützung der IT. Das heißt ganz konkret: Die für QlikView so charakteristische assoziative Suche hört nicht auf bei den Daten, die In-Memory geladen sind. Nutzer können nun parallel auch Big Data assoziativ durchsuchen, Daten auswählen, nach Verbindungen suchen – alles in der gleichen QlikView App.

Und genau diese assoziative Suche in Verbindung mit großen Datenbergen ist die Besonderheit. Schließlich geht es ja nicht darum, Big Data zu analysieren, nur weil ein Unternehmen Zugriff auf immens viele Daten hat und sich praktisch dazu verpflichtet fühlt, irgendetwas mit diesen anzustellen. Vielmehr geht es darum, relevante Daten zu finden und Informationen herauszufiltern, die miteinander in Beziehung stehen. Kurz gesagt: Mit Hilfe von Direct Discovery lassen sich noch komplexere Abfragemöglichkeiten realisieren, ohne dass die Benutzerfreundlichkeit der Lösung darunter leidet.

silicon.de: Wenn man den Performance-Vorsprung durch In-Memory Glauben schenken darf, kommen dann die Abfragen nicht ins Straucheln. Bremsen die herkömmlich gespeicherten Daten nicht die Abfragen aus, die im Arbeitsspeicher gehalten werden?

Jensen: Das stimmt, die Abfrage ist nicht ganz so schnell. Doch einerseits fällt der Unterschied nicht wirklich ins Gewicht – vor allem wenn man bedenkt, wie langsam Analyseabfragen sind, die zum Beispiel direkt gegen Hadoop gehen. Andererseits muss man sich vor Augen führen, in welchen Szenarien der QlikView-Direct-Discovery-Ansatz am meisten Sinn macht. Es gibt nach wie vor viele Situationen, in denen es Kunden reicht, Daten zu analysieren, die sie im Speicher haben. Dies liegt natürlich auch an der enormen Kapazität, die die Lösungen bieten.

Aber: Im Zeitalter von Big Data gibt es immer öfter Fälle, in denen das Datenvolumen schlicht doch zu groß ist, um es In-Memory zu laden. Dann wollen die Anwender Abfragen natürlich gerne direkt an große Datenbanken senden und zwar mit Hilfe der assoziativen Suche. Genau für diese Szenarien bietet sich der hybride Analyseansatz an. Die Unterschiede in der Performance sind in diesen Fällen eher zweitrangig.

silicon.de: Nun ist ja Teradata einer der Datenbankanbieter, die bei Anwendern etabliert und häufig installiert sind. Warum kommt die Kooperation zwischen Teradata und QlikTech erst jetzt?

Jensen: Für einen Anbieter in der BI-Branche ist eine Partnerschaft mit Teradata reizvoll. Wie Sie schon sagen: Teradata ist als Datenbankanbieter sehr etabliert. Auch viele QlikTech Kunden nutzen dieses System. Uns war es allerdings wichtig, erst gewisse technologische Voraussetzungen auf unserer Seite zu schaffen, damit gemeinsame Kunden bestmöglich von der Partnerschaft profitieren. Mit der QlikView Direct-Discovery-Technologie haben wir die dazu notwendige Entwicklung gemacht. Der logische Schluss war dann natürlich die neue Technologie und unsere Partnerschaft mit Teradata zeitgleich voranzutreiben.

silicon.de: QlikTech nutzt In-Memory bereits seit Jahren für BI und Direct Discovery. Vor einigen Wochen hat SAP angekündigt, mit der Business Suite auch ein transaktionales System auf die Basis einer In-Memory-Technologie zu heben, und damit für Aufsehen gesorgt. Was bedeutet das für einen BI-Spezialisten wie QlikTech?

Jensen: Im ersten Moment hört sich das natürlich revolutionär an. Aber warten wir erst einmal ab, wie sich die neue SAP-Lösung in der Praxis bewährt. Denn es geht ja nicht nur darum, die Verbindung mit In-Memory herzustellen. Das lässt sich mit QlikView praktisch schon immer realisieren, weil es keine Rolle spielt, auf welches System es zugreift. Wir haben viele Kunden, die sich in einem SAP-Umfeld bewegen. Für QlikView on Top entscheiden die sich aber nicht nur wegen In-Memory, sondern auch weil die Lösung eine schnelle und überaus flexible App-Entwicklung ermöglicht, sich durch kurze Implementierungszeiten auszeichnet und vor allem eine ausgeklügelte Self-Service-Funktionalität bietet. Ein Paradebeispiel ist der Heiztechnikspezialist Vaillant. Das Unternehmen hatte bereits auf SAP Hana umgestellt, brauchte allerdings ein flexibles Frontend für die Erstellung von Applikationen. Die perfekte Lösung für diesen Kunden war es, SAP Hana mit QlikView zu verbinden. Denn diese Kombination entspricht genau den Erwartungen in Bezug auf die wichtigsten Parameter für den Kunden: Performance und Flexibilität.

silicon.de: Viele Anbieter haben sich auf das Thema Big Data eingeschossen. Wie aber sehen das Anwenderunternehmen? Ist es wirklich ein brennendes Thema für sie?

Jensen: Das Interesse am Thema ‘Big Data’ ist derzeit immens: Viele unserer Kunden – egal ob große Konzerne, oder klassischer deutscher Mittelstand – nutzen ihre riesigen Datenberge bereits. Sie speichern unterschiedliche Daten und ziehen diese für erfolgskritische Analysen heran. Dabei hat jede Branche ihre ganz eigenen Anforderungen an Big-Data-Projekte. Im Finanzsektor stehen natürlich Analysen in den Bereichen Risikokontrolle und Compliance ganz oben auf der Liste. Für den Handel hingegen sind es meist die Marketing- und Sales-Abteilungen, für die Big Data eine wahre Goldgrube an Informationen darstellen. Idealerweise sind Mitarbeiter mit Hilfe ihren Analyseergebnisse dann in der Lage, neue Umsatzchancen zu entdecken und bisher nicht lösbare Probleme aus der Welt zu schaffen.

silicon.de: Wie können die Anwender davon profitieren?

Jensen: Wenn Sie sich den Anwender in der einzelnen Fachabteilung anschauen, profitiert dieser ganz klar vom Self-Service-Ansatz von QlikView – und dies nun eben verstärkt auch mit großen Datenmengen. Viele andere Big-Data-Systeme sind vor allem darauf ausgelegt, Datenberge zu verarbeiten, nicht aber darauf, die Daten auch zu analysieren. QlikView hingegen ermöglicht dem Nutzer in seinem Arbeitsalltag Zugang zu genau den Daten, die für ihn relevant sind. Nehmen Sie folgendes Beispiel.

Unser Kunde King.com, ein Anbieter von Online-Spielen, hat jeden Tag mit 1,6 Milliarden Datenreihen zu tun. Etwa 200 Millionen dieser Datenreihen wertet das Unternehmen täglich aus – und zwar genau die Daten, die der Firma zum Beispiel in einer Marketingkampagne wichtig sind. Basierend auf Analysen, etwa der Browser-Aktivität oder der Interaktivität zwischen den Spielern in einem Game, ließ sich der ROI der Marketing-Kampagnen enorm verbessern.

Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

1 Tag ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

1 Tag ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

1 Tag ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

2 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

3 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

4 Tagen ago