CeBIT: Wettstreit der Hochgeschwindigkeits-Datenbanken

Data & StorageDatenbank

Auf der CeBIT wollen Studenten des Hasso Plattner Institutes mit einem Hochleistungsrechner die schnellsten Datenbanken für ein Unternehmen ermitteln.

Mit einem neuen SGI-Superrechner mit 240 Prozessorkernen und 12 Terabyte Arbeitsspeicher wollen die jungen Forscher des Hasso-Plattner-Institutes die Leistungsfähigkeiten von NUMA-Architekturen vergleichen. NUMA steht für Non-Uniform Memory Access. Dabei verfügt jeder Prozess über einen direkt zugeordneten Speicher und kann anderen Prozessen indirekten Zugriff auf den Speicherort gewähren. Damit entfällt ein zentrales Speichermanagement und im Ergebnis bieten diese NUMA-Architekturen sehr hohe Leistungsfähigkeit. Ein Problem dabei aber ist, dass verschiedene Bereiche unterschiedlich schnell angebunden werden können.

Mit dem SGI UV300H wollen die Wissenschaftler weitere Forschungsarbeiten im Bereich der so genannten NUMA-Architekturen (Non-Uniform Memory Access) durchführen. “Unsere Forschungen an effizienteren Systemen für betriebswirtschaftliche Analysen und Simulationen profitieren vor allem von der besonders großen Arbeitsspeicherkapazität”, erläutert Dr. Matthias Uflacker den Vorteil der neuen Ausstattung. Dadurch sei es möglich, das Verhalten der Systeme selbst bei höchsten Anforderungen zu testen.

Der Load Simulator des HPI. (Bild: HPI/Herschelmann)
Die Forscher des Hasso Plattner Institutes Dr. Matthias Uflacker (Mitte), Carsten Meyer (links), Christian Schwarz (rechts) vergleichen mit Hilfe eines SGI UV300H die Leistungsfähigkeiten verschiedener NUMA-Datenbanken miteinander. (Bild: obs/HPI Hasso-Plattner-Institut/KAY HERSCHELMANN)

Eines der Forschungsprojekte, für die der neue Hochleistungsrechner angeschafft wurde, heißt “Load Simulator”. Mit dieser Simulationssoftware können verschiedene Strategien zur Datenhaltung im Hauptspeicher miteinander verglichen werden. Anwenderunternehmen können damit ermitteln, welche Lösung für sie am günstigsten ist. “Wir haben damit ein interaktives Werkzeug geschaffen, um Schlüsseleigenschaften verschiedener Datenbank-Konfigurationen vergleichen zu können”, so Uflacker weiter.

Die unter Prof. Hasso Plattner entwickelte Lösung simuliert den Fall, dass tausende Benutzer gleichzeitig Daten eingeben und analysieren. Simultan wird dann diese Arbeitsbelastung auf der gewünschten Rechner-Konfigurationen ausgeführt. Verschiedene Sensoren geben dann verschiedene Leistungskennziffern zurück, wie etwa Menge, Durchsatz und Bearbeitungszeit von Datenbankanfragen sowie Gesamtauslastung der zentralen Recheneinheiten.

Mit “Load Simulator” vergleichen die Wissenschaftler auf der CeBIT in Halle 9, Stand D44  aber auch die Leistungsfähigkeit eines einzigen Hochleistungsrechners, in dem sämtliche Daten im Arbeitsspeicher gehalten werden, mit einem Verbund von mehreren kleineren Servern.

Die Forscher können in ihrem Forschungslabors am HPI auf Hardware und Software zurückgreifen, die teilweise noch nicht am Markt verfügbar oder im normalen Hochschulbereich in der Regel nicht zu finanzieren sind, wie etwa ein 64-Wege-Server mit 2 TB Hauptspeicher, oder ein Computercluster mit 1000 Kernen. Auch Wissenschaftler, die nicht am HPI ihren Sitz haben, können auf diese Infrastruktur zugreifen.

Auf der CeBIT präsentiert das HPI darüber hinaus auch eine Simulationssoftware für Business-Entscheider, die damit beispielsweise die Auswirkung etwa von fallenden Rohstoffpreisen simulieren können. Daneben stellt das HPI auch eine Lösung vor, die Entscheidern Echtzeitdaten liefern soll. Mit einer Software, die Videos zu Comic-Animationen abstrahiert, sorgt das renommierte Institut auch für Unterhaltung.

 

 

digital_artist_1020x420

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen