Speicherverwaltung als Service: Noch eine Kunst für sich

EnterpriseNetzwerke

Erst entrümpeln, dann planen

Die Umschreibung “policy-basiertes Service-Level-Management im SAN” ist ein Kunstbegriff. Diesmal kommt er aus der Storage-Branche, kreiert, um eine ebenso undurchschaubare wie simple Idee zu benennen: Weil zu viel teurer Speicherplatz im Unternehmen ungenutzt ist, sollen Management-Lösungen selbstständig brach liegende Reserven aufspüren und anderweitig einsetzen können. Das spart Kapazitäten und bläst vor allem das ohnehin knapp bemessene IT-Budget weniger auf. Aber wäre es wirklich so einfach, dann wäre die Lösung bereits viel weiter verbreitet, jeder wäre scharf darauf: ein Verwaltungsinstrument, das um alle Speicherressourcen im Storage Area Network (SAN) weiß, kritische Auslastungen erkennt, freien Speicher findet und automatisch neu allokiert. Und das auf der Basis von Service-Verträgen, sogenannten SLAs. Wie gesagt: ganz so einfach ist es nicht.

Virtualisierung ist das A und O

Frank Bunn, Marketing Manager beim Software-Hersteller Veritas spricht eines der Probleme an: “Erst muss das SAN regelrecht entrümpelt werden. Das schafft schon mal Platz und dann kann man mit der Kapazitätsplanung beginnen.” Aufgelöste, aber noch aktive Mail-Accounts oder überflüssige und redundante Daten seien Reservenkiller.

“Manche Files werden x-fach gespiegelt und rückgesichert, obwohl sie lange niemand verändert hat oder jemals wieder braucht,” berichtet auch Peter Kriegelstein, Business Development Manager beim Software-Hersteller Computer Associates (CA) aus seiner Erfahrung.

Das Hauptproblem liegt seiner Ansicht nach dennoch woanders. “Statt immer neue Platten hinzu zu kaufen muss das SAN virtualisiert werden”, so Bunn. Ständig die Kapazitäten aufzustocken sei häufig gar nicht nötig. Tatsächlich blieben viele Reserven ungenutzt, weil sie bestimmten Anwendungen zugewiesen seien und nicht an anderer Stelle zum Einsatz kommen könnten. Also gelte es, die grundsätzlich statische Speicherarchitektur auszutricksen. Und das Zauberwort dafür heißt: Virtualisierung.

Dies bedeutet konkret, Speicherplatten, die rein physisch verschiedenen Speicherkomponenten wie Datenbanken oder Exchange-Servern zugewiesen sind, logisch allen Applikationen zugänglich zu machen. So kann beispielsweise eine Datenbank bei starker Auslastung auf zusätzliche Platten speichern, die eigentlich nicht zu ihren Kapazitäten zählen.

Umgekehrt kann sie eigene Reserven bei geringerer Auslastung anderen Anwendungen temporär zur Verfügung stellen. Virtualisieren, Ressourcen managen sowie Allokationsprozesse automatisieren, das sollen die Software-Produkte lösen, von denen mittlerweile eine ganze Reihe auf dem Markt sind. CA, EMC, Fujitsu-Softek, Sun oder Veritas verfügen über solche SAN- oder Ressource-Manager.

Mit SLAs fängt alles an

Gerade der Automatisierungsgedanke ist redlich, er erleichtert dem Administrator das Management der Speicherumgebung. Doch geht nichts ohne vordefinierte Regeln (Policies). Die liefert die Service-Level-Vereinbarung (SLA). Policies definieren, heißt nichts anderes als Schwellenwerte markieren. SLAs sind meist Verträge zwischen der IT-Abteilung und einer Fachabteilung (Personal, Finanzen etc.). Gemeinsam werden Werte festgelegt wie Zugriffszeiten, Backup-Fenster, Performance-Leistungen, Ausfallsicherheit oder die Verfügbarkeit der Daten.

SLAs können aber auch zwischen einem Unternehmen und einem Outsourcing-Anbieter geschlossen werden. So bieten IBM oder Hewlett-Packard entsprechende Dienste an. Eine Variante ist, dass die Daten physisch im Unternehmen verbleiben und lediglich von dem externen Anbieter verwaltet werden. Alternativ lagern die Daten in einem Rechenzentrum außerhalb des Werksgeländes und werden dort von einem Storage-Service-Provider (SSP) aus der Ferne administriert.

Die Technik ist die Crux

Mit diesen Regeln werden die Software-Tools gefüttert. Sie platzieren nun sogenannte Agenten – das sind ebenfalls kleine Software-Programme – an verschiedenen Stellen, zum Beispiel am Datenbank-Server. Dort werden die in den SLAs definierten Filterregeln angewendet. Sie überwachen ihren Speicherbereich und vergleichen in regelmäßigen Abständen den Ist- mit dem Sollwert. Bei Erreichen eines festgelegten Schwellenwertes berichten sie an das Management-Tool, das dann entsprechend handelt und den Overload ausgleicht.

“Ist beispielsweise definiert, dass die Datenbank nie mehr als zu 95 Prozent ausgelastet sein soll, dann weist die Software bei dieser Peak-Situation automatisch weiteren virtuellen Speicherplatz zu, damit die Anwendungen auf der Datenbank nicht kollabieren”, umschreibt Bunn den Vorgang. Man spricht von Provisioning, dem zur Verfügung stellen zusätzlichen Speicherplatzes. Denn: “Schließlich will man vorher wissen, wenn der Speicher voll ist”, fasst Kriegelstein von CA zusammen.

Das Schwierige bei solchen Prozessen ist wiederum die Speicherarchitektur. Der Veritas-Mann Bunn weiß, warum: “Die Management-Software muss sich durch allen Ebenen, Anwendungen, Servern und Switches eines Speichernetzes kämpfen und beispielsweise Sicherheitshindernisse überwinden, bis der Datenbank-Server den neuen Speicherplatz erkannt und integriert hat.” Rund 15 Ebenen hat die Lösung vor sich, bis der Vorgang abgeschlossen ist.

Und das ist noch nicht alles. “Kritische Applikationen verlangen Speicherplatz erster Güte – das heißt, solche Platten, die durchsatzstark und hochverfügbar sind”, erklärt Malte Rademacher, Regional Marketing Direktor beim Speicherspezialisten EMC. Die Software muss also auch hier intelligent sein und entsprechende Ressourcen finden.

“Wir wollten schon weiter sein”

Wie es laufen soll, wissen die Hersteller also schon. “Wenn alles glatt geht, dann beschreiben wir den Laborbetrieb”, so Bunn ein klein wenig ironisch. In der Tat gibt es noch “Pain-Points”, wie sich Rademacher ausdrückt. Eine Stelle bereitet bekanntermaßen die meisten Schmerzen: heterogene Speicherumgebungen. “Weil die ganze Kette umgesetzt werden muss und jedes Glied, sprich: jeder Server, jede Anwendung, jeder Switch seine Eigenheiten hat, ist es sehr schwierig, ein Ende-zu-Ende-Management hinzubekommen”, ergänzt er.

Der Hype um policy-basiertes Speichermanagement eilt den Lösungen demnach voraus. Wohl ein Grund, warum heute noch wenige Unternehmen auf die Management-Lösung setzen. “Wir wollten schon weiter sein”, meint Frank Bunn und zielt auf die Verbreitung der Veritas-Produkte. Allerdings zwinge der Markt die Hersteller zu schnellem Handeln und noch bevor die Lösungen wirklich reif seien, müssten sie wegen des Wettbewerbs schon zum Verkauf stehen. “Es fehlen noch Standards. Die Interoperabilitätstests dauern länger, sind aber die Grundvoraussetzung für ein funktionierendes SAN”, fügt er hinzu.

Noch bewerben die vorrangig Hersteller große Unternehmen. Der Mittelstand interessiert sich noch nicht so für die Technologie, lautet das einhellige Credo. “Hier machen die Lösungen wenig Sinn, weil weniger Daten gespeichert werden müssen und die Storage-Umgebungen folglich kleiner sind”, erläutert Peter Kriegelstein. Verfügen mittelständische Unternehmen aber über mehrere Server und verschiedene Speichermedien, dann werde die Sache wieder spannend, ergänzt er. Frank Bunn verdeutlicht grundsätzlich, dass zurzeit der Hype größer ist, als die Realität: “Im nächstes Jahr wird die regelbasierte Speicherinfrastruktur erst wirklich ein Thema sein.”