Thin Provisioning spielt mit den Träumen der Storage Admins

Eine neue Speicherzuweisungstechnik hat Produktreife erlangt. Während die Hersteller ”dünn ist in” auf ihre Fahnen schreiben, raten erste Kunden und Kenner in den USA schon zur Vorsicht.

Storage Manager brauchen keine Kristallkugel

Anbieter wie Pillar Data Systems oder 3Par haben sich ganz auf die neue Technik konzentriert. 3Par schmückt sich aktuell mit 250 Kunden weltweit und 450 installierten Systemen. Das 1999 von Sun-Ingenieuren gegründete Unternehmen ist zwar noch nicht am Thin-Provisioning-Marktführer Pillar vorbeigezogen, betrachtet sich aber auch nicht mehr als Anfänger. “Das Problem liegt darin, dass sich Speicher-Management nur sehr zäh und langsam ändert; es wird heute immer noch so gemacht wie vor Jahren, als ob der Storage Manager zugleich ein Hellseher sein müsste – ist er aber nicht. Und die Storage-Verwaltung sollte sich an diesen Realitäten orientieren”, sagte Michael Speck, Country Manager Germany bei 3Par.

Speck, der ehemalige Deutschlandchef von Hitachi Data Systems, will diese “gigantische Verschwendung von Ressourcen, die nicht nur durch Storage Networking allein adressiert werden kann” von der Wurzel her anpacken. “Bei einer Investition von 1 Milliarde Dollar in Speicherplatten sind oft etwa 750.000 Dollar verloren, und das wird auch noch einkalkuliert”, erboste er sich. Die übermäßige Zuweisung von Speicherplatz sei ein Problem der Vergangenheit und daher verständlich. Die Zukunft aber müsse anders aussehen. “Indem zu viel Speicher von vornherein reserviert wird, umgehen die Admins natürlich künftige Probleme, die auftauchen würden, wenn nachträglich ein neues Provisioning vorgenommen werden müsste. Dieser Bereich kann oft nicht mit der ursprünglichen Einheit verknüpft werden, die Zahl der möglichen Fehlerquellen in der täglichen Arbeit kann schnell ins Unendliche wachsen, zu den Mehrkosten solcher Speicherung kommt die Frustration der Storage Manager und der Anwender”, sagte Speck.

Die Lösungen von 3Par versprechen Abhilfe. Dort soll eine Zuweisung rein nach den geschriebenen Daten vorgenommen werden – statt der Allokation und Dedizierung der Speicherung nach den vorher geschätzten Volumina. Dabei werden, wie gehabt, die Bereiche festgelegt, die von einer bestimmten Anwendung genutzt werden können. Mit dem Unterschied, dass sie, durch die Architektur der Lösung bedingt, nicht aus der Summe der Storage-Bereiche herausgelöst und isoliert werden. Sie werden also nicht von vornherein, sondern erst dann dem Zugriff anderer Anwendungen entzogen, wenn eine Schreibaktivität den Platz tatsächlich einfordert. Der Rest der zugewiesenen Bereiche steht anderen Anwendungen weiterhin zur Verfügung. Bei Überschreiten einer gewissen Grenze erhöht die automatisierte, zuvor eingestellte Storage-Verwaltung ohne Zutun des Admins die Kapazität.

Speichern im Rahmen der physischen Grenzen

“Die wenigsten Unternehmen kaufen ein Storage-System und lassen es dann einfach durchlaufen. Die Systeme werden im Gegenteil sehr häufig angefasst. Methoden wie Utility Storage müssen heute dafür sorgen, dass mit jeder beliebigen Datenstruktur optimal umgegangen werden kann. Die Lösung heißt da Virtualisierung. Dabei ist die Zuweisung aber gewissermaßen selbst virtualisiert. Die Allokation ist nicht mehr hart verdrahtet, sondern flexibel – unsere Enterprise-Kunden sparen damit ein Vermögen ein. Thin Provisioning wird auch bei Banken nachgefragt, die lange nicht mehr so schwerfällig sind wie ihr Ruf, weshalb sie zu unserer größten Kundengruppe zählen”, sagte er.

Dabei teile Thin Provisioning die Bereiche in möglichst viele Platten ein – je mehr Platten, desto linearer skalierbar, desto größer die Einsparung. So das Credo der Anbieter. Schließlich kann die Technologie auch bei der Storage-Konsolidierung helfen. Die Möglichkeit, mehr einzelne Volumina im Speichersystem zu schaffen erlaubt es auch, mehr Server an ein Storage-System zu hängen. “Die physische Größe der Speichersysteme wird dabei natürlich nicht vergrößert”, meinte Speck.