Categories: NetzwerkeUnternehmen

Speichertrends II: Virtualisierung macht Firmen-IT flexibler

Der Markt für Speichersysteme boomt seit Jahren. Die Vielfalt an Konzepten ist kaum mehr zu überschauen. Unter dem Schlagwort ‘Virtualisierung’ wollen die Anbieter nun das Management der Datenspeicher nicht nur vereinfachen, sondern auch durch mehr Flexibilität effizienter gestalten.
Bei Speichervirtualisierung geht es im Kern darum, dafür zu sorgen, dass Datenspeicher auch unterschiedlicher Hersteller sich verhalten wie ein großer Speicher. Auf diese Weise reduziert sich theoretisch die Verwaltung aller im Unternehmen eingesetzten Speichersysteme, so genannter Arrays, auf ein einziges.

Eine erste Stufe der Virtualisierung stellt bereits die Einführung eines SANs selbst dar. Dabei werden die zu speichernden Daten mit Glasfaserleitung vom Server über Switches in die Speichernetze eingespeist. Deren Verwaltung geschieht weitgehend unabhängig von den operativen Netzen. Nach einer Beispielrechnung von Forrester Research halbieren SANs die Speicherkosten gegenüber klassischen, direkt im oder am Server angebrachte Speichersysteme. Besonders drastisch sind die Einsparungen beim Personal (65 Prozent).

Üblicherweise sind mit Virtualisierung Verfahren gemeint, die es erlauben, Platten physikalisch so zu organisieren, dass sie den Servern wie ein einziger großer Speicher erscheinen, dessen Ressourcen sich den Anwendungen je nach Bedarf zuweisen lassen. Ziel ist es, diese Zuweisung irgendwann einmal vollständig zu automatisieren. So weit ist die Technik jedoch noch nicht. Noch muss der Speicher von Hand vom Administrator freigegeben und dann in einem zweiten Schritt über das Betriebssystem für das benötigte Dateisystem formatiert werden.

Silos haben auch Vorteile

Bislang wurden wichtige Anwendungen wie etwa die betriebswirtschaftliche Software in so genannten Silos organisiert, bei denen jede Applikation ihren eigenen Speicher hat, der in aller Regel viel Platz verschwendet, weil er auf Höchstlast ausgelegt werden muss. Außerdem ist es erforderlich, diese Silos separat zu warten. Dennoch haben sie Vorteile. Bei Ausfällen von Plattenspeichern ist immer nur die dazugehörige Anwendung betroffen.

Bei virtualisierten Speichersystemen dagegen kann ein Defekt alle darauf zugreifenden Applikationen in Mitleidenschaft ziehen. Dagegen schützen sich die Administratoren, indem sie Raid-Level einrichten, bei denen Daten physikalisch so auf mehrere Platten verteilt werden, dass sie sich bei einem Ausfall von den noch funktionierenden Systemen rekonstruieren lassen. Auch das Raid-Verfahren lässt sich als eine Virtualisierungsstufe auffassen, da die Anwendung nichts von der komplexen Datenverteilung innerhalb des Systems zu wissen braucht. Die Steuerung übernimmt der vom Administrator justierte Raid-Controller.

Raid-Verfahren haben jedoch ihre Grenzen, so dass es ratsam ist, den Speicherplatz in so genannte Disk Groups aufzuteilen. Insbesondere bei Datenbanken sollten die Log-Files und die Datenbank selbst in unterschiedlichen Gruppen liegen, so dass beim Ausfall einer Gruppe der Inhalt aus der jeweils anderen rekonstruiert werden kann. Solche virtualisieten Speichersyteme lassen sich auch miteinander verbinden. Solange so ein Array-Verbund von nur einem Hersteller stammt, lässt er sich dann auch wie ein Speicher verwalten. Als unverträglich erweisen sich insbesondere Mainframe-Systeme und solche aus der Unix- beziehungsweise Windows-Welt.

Wenn Infrastrukturen fusionieren

Immer öfter kommt es jedoch vor, dass etwa bei Firmenfusionen oder der Konsoliderung in Konzernen ganze SANs untereinander verbunden werden sollen. In solchen Fällen wird die Steuerung der Arrays von einem dritten System übernommen. Hewlett-Packard beschreibt diesen Vorgang als ein Außerkraftsetzen der herstellerspezifischen Controller, durch ein System, das bei HP ‘Casa’ heißt. Es kennt wie vorher die Management-Software der Arrays die physikalischen Platten und ihren Aufenthaltsort, gaukelt den Servern aber vor, es gäbe nur einen riesigen unternehmensweiten Speicher. Ein analoges System entwickelt die IBM unter der Bezeichnung ‘Total Storage Virtualisation’.

Beide Systeme ziehen eine Trennschicht zwischen physikalischem Speicher und Anwendungen ein. Durch ihre Vermittlung geht zwar etwas Leistung verloren, dafür aber wird es im Prinzip möglich, alle Speicher im Unternehmen einzubinden und Redundanzen zu eliminieren. Im Gegensatz zur Array-Virtualisierung können zudem Fremdsysteme eingebunden werden.

Das Virtualisierungskonzept bleibt nicht auf Speicher beschränkt. Es gehört zu dem generellen Trend der IT-Industrie, Anwendungen und Ressourcen voneinander zu trennen, um so die Unternehmen in die Lage zu versetzen ihre Ressourcen, gleichgültig ob Speicher, Bandbreite oder Rechenleistung, flexibel an veränderte Geschäftsbedingungen anpassen zu können.

Silicon-Redaktion

Recent Posts

Microsoft Teams in der öffentlichen Verwaltung

Land Niedersachsen schließt datenschutzrechtliche Vereinbarung mit Microsoft zur Nutzung von Teams ab.

16 Stunden ago

Diebstahlsicherung mit KI

Ein Großteil der Inventurdifferenzen im deutschen Einzelhandel wird durch Ladendiebstähle verursacht.

17 Stunden ago

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

3 Tagen ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

5 Tagen ago

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

6 Tagen ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

1 Woche ago