Categories: NetzwerkeUnternehmen

IBM gründet eine Familie namens Virtualisierung

Die Familie soll ihre Heimat in der SAN-Landschaft haben und mit anderen Gemeindemitgliedern zusammenarbeiten – um im Bild zu bleiben. Was so harmonisch klingt hat aber auch seine Stolpersteine zu überwinden.

Als erstes stellt IBM den TotalStorage SAN-Volume-Controller (SVC) vor. Die Virtualisierungs-Engine klemmt sich als Schnittstelle zwischen lokales Netz (LAN) und Speichernetz (SAN) und kreiert sogenannte Storage-Pools. Das bedeutet, dass nicht jeweils spezieller Speicherplatz einem Server zugewiesen ist, der nur dort Daten der jeweiligen Anwendung ablegen kann, sondern es existiert ein einziger virtueller Speicherplatz. Der SVC kontrolliert, wo welche Ressourcen gebraucht werden und lokalisiert sie entsprechend. Ob die Speichersubsysteme Platten sind oder Bänder spielt keine Rolle.

Der Controller soll vor allem die Verwaltung der Speicherlandschaft vereinfachen und brach liegende Storage-Reserven besser nutzen. Denn häufig ist Speicherplatz einem Server zugewiesen, der aber im Moment weniger Platz braucht als ein anderer Server, der kurz vor der Überlastung steht. Mit dem SVC sollen diese Speicherinseln aufgelöst werden.

Problematisch ist aber, dass der gesamte Verkehr vom LAN über die Engine zum SAN laufen muss. Ein Engpass ist da vorprogrammiert. IBM verteidigt an dieser Stelle seine Lösung mit der Clustertechnologie, das heißt, der SVC basiert auf x-Series-Servern und davon können gleich mehrere den Verkehr abwickeln. “Außerdem verfügt jede Node über 4 GB Cache”, gab Thomas Frey, Vertriebsbeauftragter Software Storage, im Gespräch mit silicon.de zu bedenken.

Das Inband-Virtualisierungs-Tool hat sich vier weitere Kernpunkte auf die Fahne geschrieben: die Vermeidung von geplanten Ausfallzeiten für Wartung oder Backups, da alle Prozesse im laufenden Betrieb erledigt werden können, ein einheitliches und zentralisiertes Management der Storage-Ressourcen und damit eine optimierte Reservenauslastung sowie erweiterte Copy-Dienste zwischen verschiedenen Speicherkomponenten. Im ersten Release ab Juli wird der SVC die hauseigene FastT-Reihe unterstützen. Später soll die Lösung herstellerunabhängig arbeiten können mit Produkten von Hitachi Data System (HDS), aber auch EMC.

Ebenfalls präsentieren will IBM den SAN Integration Server. Die hauptsächlich für den Mittelstand entwickelte Integrationslösung kommt als eine Box auf den Markt, die die Virtualisierungstechnologie, Fibre-Channel- und RAID-Technik vereint. Der Server ist vor-, aber nicht festkonfiguriert und soll in der ersten Version, die für August dieses Jahres geplant ist, bis zu 100 TByte Storage-Kapazität auf maximal 42 Hosts verwalten können.

Und da ist da noch die oben angekündigte schwere Geburt. Seit langem angekündigt, aber immer noch nicht reif: der Storage Tank. Der Name klingt nach Kraft, aber das SAN-Filesystem bleibt ein Hungerhaken. Seine Aufgabe ist es, als spezialisiertes Dateiensystem für Speicherumgebungen zu agieren, das die Intelligenz von den Servern nimmt und sie ins Speichernetz übergibt. So sind die Metadaten der Files allen Applikationen zugänglich. Das soll vor allem das regelbasierte Storage- und Server Management ermöglichen. Aber genau bei diesem Punkt hinkt die Lösung.

Policy-basiert ist ein feiner Ansatz, Daten dort zu speichern, wo es ihrem Status entspricht. Das heißt, wichtige Dokumente lagern auf hochverfügbaren Speichern, weniger wichtige und selten benutzte Daten kommen beispielsweise auf die Bänder. Es ist aber noch nicht klar, wer wie die Regeln aufstellt, ob der Anwender jeweils selbst definieren muss – bei jedem Dokument – welchen Status es hat. Oder, was wahrscheinlich ist, Serviceklassen nach möglicherweise bestimmten Attributen im Dateinamen vom Administrator definiert werden, A für kritische Daten, B für weniger wichtig und so weiter. “Das ist zugegebenermaßen noch nicht zu Ende gedacht”, gibt Frey zu.

Jetzt ist aber erst einmal der SVC dran. Preise für die Engine werden erst im Juli bekannt gegeben. “Der SVC ist der erste Schritt in Richtung on-Demand-Lösung für den gesamten Storage-Bereich“, erklärte denn auch Richard Hermann von IBM SSG Networking Storage Sales gegenüber silicon.de. Das ist das erklärte Ziel bei Big Blue. Die Roadmap steht bis 2003+. Das Plus ist dann on-Demand.

Silicon-Redaktion

Recent Posts

Kubernetes in Cloud-Umgebungen

Ein elementarer Bestandteil einer effektiven Cloud-Strategie ist nach erfolgter Implementierung die künftige Verwaltung des Dienstes.

2 Tagen ago

Aras erweitert seine PLM-Plattform

Die Neuerungen sollen den Digital Thread, die Low-Code-Entwicklung, die Visualisierung komplexer Baugruppen und das Lieferantenmanagement…

3 Tagen ago

Manufacturing-X: Zurückhaltung überwiegt

Eine Bitkom-Umfrage attestiert der Datenraum-Initiative des Bundes hohe Bekanntheit in der Industrie. Doch noch ist…

3 Tagen ago

Ransomware „Marke Eigenbau“

Ransomware-as-a-Service ist ein lukratives Geschäft und in den Händen professionell organisierter Gruppen. Jetzt können Kriminelle…

3 Tagen ago

Bad Bots: Risikofaktor mit hohen Folgekosten

Bad Bots richten nicht nur wirtschaftlichen Schaden an. Laut dem Bad Bot Report von Imperva…

4 Tagen ago

IT-Verantwortliche setzen auf KI-Hosting in Europa

Studie von OVHcloud verdeutlicht Stellenwert von Datenresidenz und Datensouveränität bei KI-Anwendungen.

5 Tagen ago