Storage Grids: Baukastenprinzip ohne Ende

EnterpriseNetzwerke

Logische Weiterentwicklung oder neues Konzept? Storage Grids verzichten auf Grenzen und beanspruchen Attribute wie skalierbar, schnell und simpel.

Fragt man Hersteller nach ‘Storage Grids’, beginnen die meisten damit, eine Bienenwabe zu zeichnen. Diese, nur bildlich gesprochen, sechseckigen Bausteine  massenhaft aneinander gereiht bedeuten die Zukunft der Speicherwelt, wird erklärt. Was sich dahinter verbirgt ist aber auf den ersten Blick so wenig einsehbar wie ein von außen betrachtetes Wespennest.
Ein zweiter Blick: Nach dem ganzen Wirbel um ILM (Information Lifecycle Management) und Compliance hatten die Anwender eigentlich auf ein wenig Ruhe gehofft. Sie werden sich in Zukunft aber schon wieder an etwas Neues gewöhnen müssen. Während ILM auf höherer Ebene versucht, die Datenmassen geordnet abzulegen, ackert der Untergrund und soll genügend Speicherreserven und – wo nötig – hohe Performance bereitstellen. Die neue Basis heißt Storage Grid.

Sie hat erst einmal nichts mit Grid Computing zu tun, auch das ist ein neuer Ansatz in der Netzwerkwelt. Definitionen wie ‘dynamische Ressourcen’ und ‘wechselnde Identitäten’ von so genannten ‘Cells’ oder Knoten klingen noch eher visionär als realistisch. Erste Töne der Zukunftsmusik sind dennoch schon zu hören.

Die Vision

Sollte die Vision Wirklichkeit werden, dann könnte das Storage Grid ein grenzenloses Speichergebilde sein, skalierbar ohne Ende, heterogen und intelligent dazu. Bleibt man im Bild, so besitzt jede Wabe (bei Hewlett-Packard heißen sie ‘Smart Cells’, bei anderen wie Network Appliance ‘Nodes’ oder ‘Knoten’) einen eigenen Prozessor für I/O-Prozesse, einen Cache und einen Communication Link, um sich mit den anderen Waben zu verständigen. Außerdem wäre es keine Speicherlösung, besäße sie nicht auch Festplatten in verschiedenen Ausprägungen wie zum Beispiel WORM (Write Once Read Many).

Diese Waben oder Zellen sind extrem flexibel in allen Belangen. Eigentlich sind sie arm dran, denn selbst wenn sie sich an eine Identität gewöhnt haben kann es sein, dass sie eine andere annehmen müssen. Welchen Dienst sie in der Grid-Struktur verrichten, entscheidet der Admin nach der Auslastung der Ressourcen oder besser noch definierte Policies, die entsprechende Automatismen auslösen. Beispielsweise ist eine Zelle oder ein Zellenverbund heute für Video-on-Demand verantwortlich. Das bedeutet eine hohe Performance, großer Buffer und viel Speicherplatz. Morgen wird im Archiv mehr Speicherkapazität benötigt. Die gleiche Zelle, die gestern noch für On-Demand zuständig war, hält morgen Daten aus dem Archiv vor. Vielleicht war die Zelle dazu ohnehin schon etwas älter und ist bei hoch verfügbaren Applikationen nicht mehr so zuverlässig gewesen. Archivierungsfunktionen sind weniger kritisch. Dafür arbeitet sie noch gut genug und muss nicht ganz ausrangiert werden. On-the-fly wechseln die Charakteristika: weniger hohen Durchsatz, keine Hochverfügbarkeit mehr und eine andere Speicherwertigkeit.

Dieses Szenario ist durchaus denkbar und für den IT-Verwalter im Idealfall kein Grund, panisch zu werden. Die passende Management-Software wechselt gleich mit oder der Knoten lädt sich selbstständig aus dem Internet die entsprechende Software herunter.

Die Zelle kann jeden Dienst ausführen, sei es File-basiert als NAS-System, Block-Storage wie er im dedizierten Speichernetz SAN eingesetzt wird, oder als Compliance-Komponente, die im Zeitalter von ILM Bedeutung bekommt. Mit der jeweiligen Funktion ändert sich auch die Durchsatzrate. Sie passt sich ebenfalls immer den jeweiligen Anwendungen an.

Der große Vorteil: Nix ist fix

Das gesamte Konzept steht und fällt mit der Dynamik und Flexibilität der Struktur. Die ständige Bewegung macht nach Ansicht der Hersteller, die sich mit Storage Grids beschäftigen, den großen Vorteil aus. Die vernetzten Subsysteme haben keinerlei Fixpunkt. Weder sind sie einem bestimmten Server zugewiesen, noch arbeiten sie als immer gleich bleibende Speicherkomponente. Für den Anwender erschließt sich nicht, woher er die Daten bezieht oder wohin er sie speichert. Er sieht einen einzigen Pool, unabhängig davon, ob die Struktur aus 10 oder 100 Zellen besteht. Kommen neue hinzu – bei HP werden sie derzeit paarweise verkauft, immer in einem Sechserpack – ändert sich für den Nutzer nichts und das gleiche gilt für den Admin.

Tim Nolte, NSS Storage Software Business Manager bei HP, schwärmt von der Grenzenlosigkeit des Konzepts. “Sie können Tausende von Smart Cells hinzufügen, es macht keinen Unterschied.” Die Hardware ist immer dieselbe, lediglich die Software ändert sich und der Prozessor passt den Informationstransfer der jeweiligen Funktion an. Neben der Kapazität spielt auch die Performance eine wichtige Rolle. Sie ist ebenso skalierbar wie die Kapazität, was an der gesteigerten Rechenleistung liegt, die mit jedem neuen Knoten und dem eigenen Prozessor wächst.

Noch ein entscheidender Pluspunkt fällt den Herstellern sofort ein: die Infrastruktur wird bis zum letzten Atemzug und bis in die hinterste Ecke ausgenutzt. Keine Reserve liegt länger brach, Schnelligkeit wird an der Stelle gewährleistet, an der sie gebraucht wird. Solche Attribute werden als Wertsteigerung angesehen und, was noch viel wichtiger ist, sie generieren weniger Kosten. Inzwischen ist man zu der Erkenntnis gelangt, statt fette Maschinen ins Rechenzentrum zu stellen, lieber die Infrastruktur zu vergrößern. Das bedeutet, mit mehr kostengünstigen Rechnern zu arbeiten, die sich die Arbeit teilen und – da ist es wieder – flexibel sind.

HP will laut Nolte Intel-basierte ProLiant-Server im Grid platzieren. “Die sind ‘general purpose’, also allzwecktauglich, und werden tausendfach produziert, was den Preis drückt”, so der HP-Manager. Bei Network Appliance setzt man auf Blade-Server-Farmen, kostengünstige schlanke Kisten, die weniger Platz im Rack wegnehmen, wenig Energie verbrauchen und nur intern verkabelt sein müssen. Nach außen wird der Datentransfer gebündelt über von mehreren Blades genutzte Kabel abgewickelt. 

Willkommen in der Realität

Der Vision folgt die Wirklichkeit – und die ist von der Vision noch sehr weit entfernt. Es ist wie mit allem in der IT: Schon Jahre vorher organisieren Hersteller die Zukunft im Kopf. So war es auffällig mit Voice-over-IP (VoIP) und so ist es mit Storage Grids. Auch wenn sich so mancher anschickt und schon von ersten Erfolgen bei Storage Grids spricht, ist es doch mehr noch ein Pilotprojekt, das irgendwann Einzug in Unternehmen halten kann. Angepeilt ist das Jahr 2007, dann könnten erste Teile der Storage-Grid-Struktur umgesetzt sein. “Man muss auch ein bisschen auf die Anwender schauen”, erklärt Nolte. User hörten so oft von neuen Techniken. “Zuerst sind sie skeptisch und warten ab, bis der Hype abgeflaut ist. In ein paar Jahren nehmen sie es ernst und beginnen, sich damit auseinander zu setzen.”

Ansätze gibt es allemal. Network Appliance hat sich mit dem Kauf von Spinnaker den Grundstein gelegt. Deren Lösung ‘Spin-FS’ virtualisiert die Speicherressourcen und erlaubt das File-Sharing über Hunderte von geografisch verteilten Storage Servern. Netapp verfügt zudem über eine Unified-Storage-Architektur, die nach Aussage von Manfred Buchmann, Technical Strategic Partnership Manager bei Netapp, heute eine Virtualisierung erlaube, die “SAN und NAS vereint, da beide Strukturen ohne Partitionierung auf den gleichen Festplatten liegen.” Jeder Storage-Grid-Baustein habe so Zugriff auf sowohl NAS- als auch SAN-Daten.

Den richtigen Schliff, so der Tenor bei HP, soll dem Storage Grid erst das ‘Reference Information Storage System’ (RISS) geben. RISS ist die Idee von HP und gemeint ist damit eine Archivierungsplattform, die Information ihrem Inhalt nach indexiert und in den so genannten ‘Smart Cells’ ablegt. Je mehr Daten anfallen, um so mehr Zellen kann der Admin hinzufügen. Die Management-Ebene akzeptiert die Neulinge automatisch. Eine Suchfunktion durchkämmt die Zellen nach der gewünschten Information. Das geht schnell und soll präzise funktionieren. “Derzeit schaffen wir es, 67 TByte in fünf Sekunden zu durchsuchen”, so HP-Mann Nolte, “weil alles gleichzeitig durchforstet wird.” Ein wenig Vision steckt auch hier noch drin, denn RISS kümmert sich aktuell ausschließlich um die Mailserver. HP habe zunächst den Fokus daraufgelegt, “weil das der Kunde so will”.

Nennenswert hat sich auch Red Hat bei Storage Grids ins Gespräch gebracht. Die Akquisition von Sistina soll den Distributor bei Linux-basierten Speicher-Grids nach vorne bringen.

Zwischen Wunsch und Wirklichkeit: ein Graben voller Probleme

Wie die Begriffe vermuten lassen, klafft bei der Storage-Grid-Struktur eine riesengroße Lücke zwischen Vision und Realität. Ein System, das alle gespeicherten Daten erkennt, egal wo und auf welcher Lösung sie abgelegt sind, ist auch im SAN bisher nicht realisiert. Nahezu alle Infrastrukturen sind proprietär, das heißt, sie stammen von einem Hersteller. Im dedizierten Speichernetz beginnt man mit Hilfe von Partnerschaften und dank dem Management-Standard SMI-S, den die Storage-Vereinigung SNIA vor etwa anderthalb Jahren verabschiedet hat, heterogene Umgebungen zu etablieren. Das gelingt teilweise schon gut. Trotzdem ist man noch weit von einer herstellerunabhängigen und Speicherarchitektur übergreifenden Infrastruktur entfernt. Buchmann gibt zu, dass es hier noch viel Arbeit gibt, aber er ist sich sicher, “dass wir mit dem nächsten Data-ONTAP-Release durch virtuelle Datencontainer einen großen Schritt nach vorne machen.” ONTAP ist ein Betriebssystem, das gemischte SAN- und NAS-Workloads bedient.

Arndt Müller, Product Marketing Manager für Storage Produkte bei Sun Microsystems, glaubt, dass es noch länger dauern wird, bis sich in diesem Bereich Standards etabliert haben. Die SNIA werde das genau unter die Lupe nehmen. “Da wird es noch Probleme geben”, so Müller. Sun selbst redet bei seinen Lösungen noch nicht von Komponenten für ein Speicher-Grid; “auch wenn man unser StorEdge 5920 sicherlich schon für eine solche Struktur verwenden könnte.”

Das Problembewusstsein für die neue Speicherwelt wird sich in nächster Zukunft vermutlich erst formen müssen, was nicht zuletzt daran liegen mag, dass der Begriff ‘Storage Grids’ nicht einheitlich definiert wird. Für Nolte ist das Konzept etwas völlig anderes als ein SAN und hat nichts mit dem ‘logischen nächsten Schritt’ zu tun. Manfred Buchmann von Netapps dagegen hält Storage Grids für eine “evolutionäre Weiterentwicklung”. Wie man es dreht und wendet: Das Grid nutzt die vorhandenen Reserven noch besser aus, ob mit dem Vorläufer SAN oder ohne.

Einig sind sich aber alle dahingehend, Storage Grids nicht mit Grid Computing gleichzusetzen. Letzteres ist eine reine Erweiterung von Rechenleistung, die durch zusätzlich verbundene Rechner erreicht wird. Buchmann: “Am Ende wird es ein Storage Grid  und ein Grid Computing geben.” Die Speicherseite werde dann die Netzwerkseite mit Daten beliefern. Vor Herstellern und Anwendern liegt noch ein weiter Weg.