Thin Provisioning spielt mit den Träumen der Storage Admins

Eine neue Speicherzuweisungstechnik hat Produktreife erlangt. Während die Hersteller ”dünn ist in” auf ihre Fahnen schreiben, raten erste Kunden und Kenner in den USA schon zur Vorsicht.

Thin Provisioning will eine altes Problem der Speicherverwaltung lösen: Im Alltag werden für eine Applikation in einem Bereich (etwa in einer Abteilung oder einem Team) beispielsweise 100 GB an Speicherkapazität benötigt. Um den Bedürfnissen zu genügen und künftiges Wachstum von Anfang an mit einzuplanen, wird allerdings oft die fünffache Kapazität alloziert, also zugewiesen. Und hier fangen die Probleme bisheriger Speicherung an: Die zugewiesenen Bereiche stehen – genutzt oder nicht – ausschließlich dem Team zur Verfügung, dem sie zugewiesen sind. Je nach insgesamt verfügbarer Kapazität fallen die brachliegenden Speicherbereiche für den Rest des Unternehmens schneller oder langsamer ins Gewicht.

Das Problem ist schon seit Jahren bekannt. Bereits im Jahr 2003 sprachen in einer Umfrage der Storage-Dienstleistungsfirma Glasshouse – einem IBM-, Hitachi-Data-Systems- und EMC-Partner – Befragte aus Mittelstand und Großunternehmen von dem leidigen Thema der nicht genutzten Storage-Ressourcen. Schon damals war den Befragten bewusst, dass der Hase dort im Pfeffer liegt, wo zu viel alloziert wird. Wie das Problem zu umgehen sein könnte, darauf wussten weder die Anwender noch die Industrie eine plausible Antwort. Eine genauere Analyse von insgesamt 750 Host-Systemen bei Kunden zeichnete demnach folgendes Bild: Durchschnittlich 75 Prozent der theoretisch verfügbaren Ressourcen war verfügbar und zugewiesen, davon wiederum waren 36 Prozent überhaupt nicht anzusteuern – wegen Allokationsproblemen.

Insgesamt nutzen demnach die befragten Kunden des US-Unternehmens durchschnittlich nur 39 Prozent ihrer tatsächlich einsetzbaren Speicherkapazitäten. “Ein typischer Host hat also beispielsweise 500 GB an externer Speicherkapazität gebucht, 375 GB davon sind in Volume Groups aufgeteilt, 240 GB in File-Systemen und effektiv werden typischerweise bei diesem Verhältnis nur 93 GB tatsächlich genutzt”, hieß es in der Studie.

Im Jahr 2005 wurde die Frage nach der Verteilung der Speicher-Ressourcen noch einmal gestellt und genauer untersucht. Das Marktforschungsunternehmen Enterprise Strategy Group zeigte das Ausmaß der übermäßigen Allozierung, die sich seit 2003 nicht viel geändert hatte, deutlich. Jetzt, zwei Jahre nach der Glasshouse-Befragung, konnte der wirtschaftliche Schaden bereits erahnt werden. 2005 hat die Marktforschungsfirma herausgefunden, dass 30 Prozent der Befragten vor dem Problem stehen, dass sie binnen eines Jahres in neue Kapazitäten investieren müssen. Und das, obwohl die vorhandenen Kapazitäten nur zum Teil ausgelastet sind.

Als Begründung gaben diese an, dass sie nicht in der Lage seien, die Speicherzuweisung so zu verändern, dass wieder Platz frei wird; sie verfügten nicht über die Mittel, die brachliegenden Speicher zu nutzen. Die vorsichtshalber zu groß zugewiesenen Speicherbereiche stünden schließlich nicht bereit. Außerdem könnten sie im nachhinein oft nur sehr schwer oder gar nicht geteilt oder wieder verkleinert werden, um die Speicherung den Realitäten anzupassen. Dem steht die hohe Aufmerksamkeit der Unternehmen gegenüber, wenn es darum geht, teure Ressourcen zu begrenzen. Die Verschwendung von Ressourcen, wie sie durch überflüssige Allozierung geschehen kann, ist weitestgehend undenkbar. Sie dürfen nicht brachliegen, das ist demnach bereits im Jahr 2005 eine Sorge der Befragten, ein Brachliegen auch. Hier setzt nun das Konzept ‘Thin Provisioning’ an, das verspricht, die Speicherung endlich an den Bedürfnissen entlang zu gestalten.