Mit Hunk ermöglicht Splunk Datenanalyse in Hadoop

Splunk Hunk

Mit Hunk können Anwender von Hadoop künftig Daten mit den auf Maschinen-Daten spezialisierten Analyse-Tools von Splunk auswerten.

Mit neuen Technologien wie Virtual Index macht Splunk mit dem neuen Produkt Hunk Maschinendaten auch in Hadoop-Cloustern analysierbar. Quelle: Splunk
Mit neuen Technologien wie Virtual Index macht Splunk mit dem neuen Produkt Hunk Maschinendaten auch in Hadoop-Cloustern analysierbar. Quelle: Splunk

Das Unternehmen Splunk, das hinter der gleichnamigen Lösung für die Analyse von Maschinendaten steht, stellt jetzt mit Hunk ein Tool vor, mit dem sich auch Daten auswerten und visualisieren lassen, die in Hadoop-Clustern gespeichert sind.

Hunk ist ab sofort verfügbar. In einer unlimitierten auf 60 begrenzten Testversion können sich Interessierte davon überzeugen, ob Hunk das Versprechen einlöst, die Analyse von historischen Big-Data-Clustern nutzerfreundlicher zu machen.

Mit Hunk soll bei der Hadoop-Analyse zum Beispiel der Schritt eines Extract, Transform, Load (ETL) überflüssig werden. Hunk nutzt dafür unter anderem die zum Patent angemeldeten Virtual Index-Technologie.

Zudem sollen sich unstrukturierte oder polystrukturierte Daten in Hadoop mit Hunk auch ohne Programmierkenntnisse auswerten lassen. Auch feste Schemas oder kostspielige Anfragen sollen mit Hunk wegfallen, dafür sorge das “Schema-on-Fly”-Konzept des Herstellers.

“Mit Hunk transformieren wir die Analyse von Hadoop-Daten im Unternehmenskontext, indem wir langwierige Entwicklungszyklen durch eine Software ersetzen, die innerhalb weniger Stunden implementiert wird und erste Ergebnisse bringt”, versichert Sanjay Mehta, VP Product Marketing bei Splunk. Laut Splunk genüge ein einfacher Verweis von Hunk zu dem betreffenden Hadoop-Cluster, um sofort mit der Datenexploration beginnen zu können.

Bei der Datenspeicherung in Hadoop stoßen Unternehmen häufiger auf das Problem, dass Daten nicht mehr verschoben werden können oder traditionelle Analysetechnologien für die Verarbeitung von Hadoop-Rohdaten auf starre Schemata angewiesen sind, so Mehta weiter. Und hier setze Hunk an.

“Splunk hat als einer der Ersten Unternehmen die Bedeutung von Maschinendaten erkannt und einen darauf ausgerichteten Analytics Stack entwickelt. Die Stärken sind die quasi in Echtzeit arbeitenden Schnittstellen und die Verarbeitung von Zeitreihendaten mit flexiblen Schemata“, erklärt Curt Monash, President von Monash Research und Herausgeber von DBMS 2. Mit Hunk mache Splunk diese Analysetools auch für Maschinendaten nutzbar, die in Hadoop gespeichert sind.

Hunk wird seit Juni von etwa 100 Beta-Testern geprüft. Es ist in Apache Hadoop und in zahlreichen Distributionen wie Cloudera, Hortonworks, IBM, MapR oder Pivotal lauffähig. Hunk unterstützt auch Data Models und das Pivot Interface, das Splunk mit Splunk Enterprise 6 zu Beginn des Monats eingeführt hat.

Hunk verfügt für Entwickler auch über ein Web-Framework und verschieden Software Development Kits etwa für C#, Java, JavaScript, Python, PHP und Ruby. Die Visualisierungen lassen sich in Rollenspezifische Dashboards übersetzen und können praktisch auf jedem Endgerät konsumiert werden.

In den USA ist Hunk für 2500 Dollar pro Hadoop-Node verfügbar. Anwender müssen mindestens zehn Nodes lizenzieren. Außerhalb der USA variieren die Preise, wie das Unternehmen mitteilt.

 

Lesen Sie auch : Splunk überwacht AWS-Clouds