Categories: Data

Talend bringt Sandkasten für Big Data

Talend hat eine vorkonfigurierte virtuelle Umgebung vorgestellt, über die Anwender aktuellen Big-Data-Technologien ausprobieren können. Das “Big Data Sandbox” gennante Angebot ist eine grafische Umgebung, die es über intuitive Technologien wie Drag-and-drop ermöglicht, Integrationsworkflows zu erstellen.

Vorkonfigurierte Big-Data-Praxisfälle und ein “Kochbuch” mit detaillierten Anleitungen ermöglichen es auch weniger erfahrenen Entwicklern, Hadoop in maximal 20 Minuten einsatzbereit zu haben, verspricht der Anbieter. Eine kostenlose Testversion gib es hier.

Die Talend Big Data Sandbox erlaubt ein schnelles Workflowmanagement für Big-Data-Technologien. (Bild: Talend)

Die Sandbox lasse sich mit geringen Konfigurationsaufwand installieren. Durch die neue Docker-Technologie können Nutzer Parallelvergleiche von Hadoop-Distributionsplattformen in Echtzeit durchführen und die geeignetste Plattform für die vorhandene Umgebung ermitteln. Die Import- und Exportfunktionen von Docker ermöglichen Entwicklerteams zudem eine einfachere Zusammenarbeit, die gemeinsame Verwendung von Prototypen für Anwendungsfälle sowie das Erforschen der Fähigkeiten von Datenbanktechnologien wie NoSQL.

Die Sandbox lässt sich laut Hersteller schnell und einfach konfigurieren und installieren. (Bild: Talend)

Die Talend Big Data Sandbox erlaubt Entwicklern das intuitive Testen von Big-Data-Technologien, bevor diese in der bestehenden Infrastruktur implementiert werden. Durch Experimentieren in dieser virtuellen Umgebung können IT-Manager Budgets kalkulieren, geeignete Mitarbeiter ermitteln und Rollout-Zeiten schätzen. So soll der geschäftliche Nutzen eines Big-Data-Projekts für das Unternehmen mit möglichst geringer Betriebseinschränkung erzielt werden können.

Die Big Data Sandbox erlaubt die Echtzeitanalyse von Daten aus mehreren Streamingquellen, personalisierte Echtzeit-Angebotsempfehlungen auf Grundlage des Kundenverhaltens, und eine Anwendung für die Clickstream-Analyse. Anwender können schnell die Aktivitäten auf einer Heatmap visualisieren und so den Web-Traffic zu Analysieren. Der IT-Betrieb lässt sich über Apache-Weblogs nachvollziehen. Über eine ETL-Konsolidierung (Extract, Transform, Load) können auch komplexe Workloads beschleunigt werden.

“Die meisten Unternehmen besitzen nur einen limitierten Pool an qualifizierten Entwicklern und finden es daher schwierig, ihre Big-Data-Expertise auszubauen oder die Vorteile von Hadoop für sich zu nutzen”, erklärt Ashley Stirrup, CMO bei Talend. “Unsere Big Data Sandbox hilft, diese Herausforderungen zu überwinden: Damit können sich Java-Entwickler schnell mit Hadoop vertraut machen.”

Redaktion

Recent Posts

EM 2024: Fußballfest für Cyberangriffe

Kurz vor der Fußball-Europameisterschaft in Deutschland nehmen die Cyberbedrohungen für Sportfans zu, warnt Marco Eggerling…

1 Tag ago

CRM: Die Qual der Wahl

Software für das Customer Relationship Management muss passgenau ausgewählt und im Praxistest an das einzelne…

2 Tagen ago

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

5 Tagen ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

5 Tagen ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

5 Tagen ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

6 Tagen ago