Categories: Data

CeBIT: Wettstreit der Hochgeschwindigkeits-Datenbanken

Mit einem neuen SGI-Superrechner mit 240 Prozessorkernen und 12 Terabyte Arbeitsspeicher wollen die jungen Forscher des Hasso-Plattner-Institutes die Leistungsfähigkeiten von NUMA-Architekturen vergleichen. NUMA steht für Non-Uniform Memory Access. Dabei verfügt jeder Prozess über einen direkt zugeordneten Speicher und kann anderen Prozessen indirekten Zugriff auf den Speicherort gewähren. Damit entfällt ein zentrales Speichermanagement und im Ergebnis bieten diese NUMA-Architekturen sehr hohe Leistungsfähigkeit. Ein Problem dabei aber ist, dass verschiedene Bereiche unterschiedlich schnell angebunden werden können.

Mit dem SGI UV300H wollen die Wissenschaftler weitere Forschungsarbeiten im Bereich der so genannten NUMA-Architekturen (Non-Uniform Memory Access) durchführen. “Unsere Forschungen an effizienteren Systemen für betriebswirtschaftliche Analysen und Simulationen profitieren vor allem von der besonders großen Arbeitsspeicherkapazität”, erläutert Dr. Matthias Uflacker den Vorteil der neuen Ausstattung. Dadurch sei es möglich, das Verhalten der Systeme selbst bei höchsten Anforderungen zu testen.

Die Forscher des Hasso Plattner Institutes Dr. Matthias Uflacker (Mitte), Carsten Meyer (links), Christian Schwarz (rechts) vergleichen mit Hilfe eines SGI UV300H die Leistungsfähigkeiten verschiedener NUMA-Datenbanken miteinander. (Bild: obs/HPI Hasso-Plattner-Institut/KAY HERSCHELMANN)

Eines der Forschungsprojekte, für die der neue Hochleistungsrechner angeschafft wurde, heißt “Load Simulator”. Mit dieser Simulationssoftware können verschiedene Strategien zur Datenhaltung im Hauptspeicher miteinander verglichen werden. Anwenderunternehmen können damit ermitteln, welche Lösung für sie am günstigsten ist. “Wir haben damit ein interaktives Werkzeug geschaffen, um Schlüsseleigenschaften verschiedener Datenbank-Konfigurationen vergleichen zu können”, so Uflacker weiter.

Die unter Prof. Hasso Plattner entwickelte Lösung simuliert den Fall, dass tausende Benutzer gleichzeitig Daten eingeben und analysieren. Simultan wird dann diese Arbeitsbelastung auf der gewünschten Rechner-Konfigurationen ausgeführt. Verschiedene Sensoren geben dann verschiedene Leistungskennziffern zurück, wie etwa Menge, Durchsatz und Bearbeitungszeit von Datenbankanfragen sowie Gesamtauslastung der zentralen Recheneinheiten.

Mit “Load Simulator” vergleichen die Wissenschaftler auf der CeBIT in Halle 9, Stand D44  aber auch die Leistungsfähigkeit eines einzigen Hochleistungsrechners, in dem sämtliche Daten im Arbeitsspeicher gehalten werden, mit einem Verbund von mehreren kleineren Servern.

Die Forscher können in ihrem Forschungslabors am HPI auf Hardware und Software zurückgreifen, die teilweise noch nicht am Markt verfügbar oder im normalen Hochschulbereich in der Regel nicht zu finanzieren sind, wie etwa ein 64-Wege-Server mit 2 TB Hauptspeicher, oder ein Computercluster mit 1000 Kernen. Auch Wissenschaftler, die nicht am HPI ihren Sitz haben, können auf diese Infrastruktur zugreifen.

Auf der CeBIT präsentiert das HPI darüber hinaus auch eine Simulationssoftware für Business-Entscheider, die damit beispielsweise die Auswirkung etwa von fallenden Rohstoffpreisen simulieren können. Daneben stellt das HPI auch eine Lösung vor, die Entscheidern Echtzeitdaten liefern soll. Mit einer Software, die Videos zu Comic-Animationen abstrahiert, sorgt das renommierte Institut auch für Unterhaltung.

Redaktion

Recent Posts

EU steht vor Schicksalsfrage beim Datenschutz

Mit einer neuen Initiative versuchen die USA bereits zum dritten Mal ein Datenaustauschabkommen mit der…

48 Minuten ago

Credential-Stuffing-Angriff auf PayPal verunsichert

Wie sicher sind mein Geld und meine Daten in der digitalen Welt, wenn so etwas…

1 Stunde ago

Kommentar: Ransomware-Gruppen unter Druck

Immer weniger Unternehmen können und wollen das geforderte Lösegeld der Ransomware-Angreifer bezahlen, sagt Chris Dobrec…

2 Stunden ago

Marc Fischer leitet Deutschland-Geschäft von HPE

Er folgt ab 1.2.2023 auf Johannes Koch, der die Leitung der neu geschaffenen HPE-Region Zentraleuropa…

2 Stunden ago

Junge Beschäftigte glauben: ChatGPT verdoppelt Produktivität

ChatGPT-Studie zeigt: 26 Prozent der Arbeitgeber im IT-Sektor planen, ihre Teams zu verkleinern.

3 Stunden ago

Ein Interview mit Chat GPT zu KI und Cybersecurity

Chat GPT rät: "Notfallpläne sollten vorbereitet sein und die Mitarbeiter sollten geschult werden, um auf…

2 Tagen ago