Categories: DataManagementStorage

Die Storage-Systeme der nächsten Generation

Diese bieten eine höhere Flexibilität, ein besseres Management, eine höhere Performance und Skalierbarkeit sowie eine bessere Auslastung. Sie verfügen über mehr Schichten (Tiers) und auch so genannte Auto-Tiering-Fähigkeiten, sind kostengünstiger, verbrauchen weniger Strom und haben einen geringeren Platzbedarf. Außerdem sind im Laufe der nächsten zehn Jahre schnelle Verbesserungen der dazugehörigen Hard- und Software-Komponenten zu erwarten. IT-Entscheider sollten erkennen, in welche Richtung diese Angebote gehen und analysieren, wie sie die Storage-Planungen ihres Unternehmens entsprechend anpassen können. Anhand von Pilotprojekten können dann mögliche Anbieter und Lösungen getestet werden.

Business-Imperative

    Die Speichersysteme der nächsten Generation sind deutlich wirtschaftlicher als die heutigen Systeme, die sie ersetzen. Sie verfügen über Features wie Auto-Tiering, Cache, Autoskalierung, Storage Ressourcenmanagement und Thin Provisioning. Mit dieser neuen Generation können Anwender ihre Datenbanken ausbauen, ohne dass die Support-Kosten entsprechend in die Höhe gehen. Es gilt, die Kosten und Nutzen einer Migration auf Lösungen der nächsten Generation zu analysieren und herauszufinden, ob und an welcher Stelle man diese Angebote am besten einsetzen könnte. Im nächsten Schritt müssen Initiativen aufgesetzt werden, um die Storage-Systeme der nächsten Generation in die Rechenzentrumsarchitektur zu integrieren.
    Die Anwender können davon ausgehen, dass die Preise für Storage bis zum Ende des Jahrzehnts um durchschnittlich ca. 15 Prozent jährlich zurückgehen und die Speicherdichte um über 30 Prozent pro Jahr zunimmt. Innerhalb eines Jahrzehnt passt dann also Speicher, der bislang 1.260 qm Platzbedarf hatte, auf gerade einmal einen Quadratmeter, und das bei sehr niedrigen Kosten. Der Stromverbrauch pro Terabyte wird ebenso rasant sinken. Dieser Rückgang wird allerdings durch die zunehmenden Kapazitätsbedarfe, die im zweistelligen Bereich steigen, wieder wettgemacht. IT-Entscheider müssen sich für diesen schnellen Wandel rüsten und eine Refresh-Strategie entwickeln, die die unternehmensweite Speicherauslastung optimiert.

Im Laufe der letzten Jahre haben die Storage-Anbieter, Storage-Systeme mit Hardware und Software der nächsten Generation angekündigt und auch auf den Markt gebracht. Manche haben diese Lösungen als Ersatz für die vorhandenen Storage Arrays angepriesen, andere haben sie als Appliances, Big-Data-Lösungen oder Cloud-Storage-Plattformen vermarket. So mancher IT-Manager hat vielleicht gar nicht wahrgenommen, worum es sich da wirklich handelt, da diese Lösungen bei vielen Anbietern die vorhandenen Produktlinien nicht vollständig ersetzten. Oft können diese Arrays nicht nur in neuen Umgebungen eingesetzt werden, sondern können auch den bereits vorhandenen Storage-Betrieb dramatisch verbessern.

So sieht die nächste Generation aus

Beim Storage geht es nicht mehr um schnelle, leistungsfähige SAS-Laufwerke versus langsamere, billigere SATA-Laufwerke und Bänder, sondern um Effizienz, Flash Cache, mehrere Storage-Schichten (Tiers), Produktivität und auf die Workload abgestimmte Speicher. Die Experton Group hat für die Speicherlösungen der nächsten Generation sechs Ebenen identifiziert (von der niedrigsten Latenz und Server-Proximität bis zu den langsamsten Arrays in einer Storage-Hierarchie).

  • PCIe Cache
  • Network Cache Appliance
  • Solid State Disk (SSD) Laufwerke
  • Hochleistungsfähige SAS-Laufwerke
  • Langsamere SAS- bzw. SATA-Laufwerke
  • (virtual)Tape und Archiv
  • Neben ihrer Leistungsfähigkeit verfügen diese Speichergeräte über neue Features wie einen höheren Automatisierungsgrad, Auto-Tiering, Cloning, Clustering, Komprimierung, Deduplizierung, eine hohe Skalierbarkeit, Load Balancing (Lastverteilung), Optimierung, regelbasiertes Management, Proximität von Server und Daten, Benutzerfreundlichkeit, Thin Provisioning und virtuelle Pools. Hinzu kommt, dass die Gesamtbetriebskosten dieser neuen Storage Arrays niedriger sind als bei traditionellen Speichersystemen.

    Die Zukunft

    Mit zunehmendem Datenvolumen steigt auch die Nachfrage nach diesen neuen Storage-Plattformmodellen. Die Anwender suchen nach Lösungen, die die Lücken schließen zwischen der Zunahme der Speicherbedarfe einerseits und den relativ konstanten Storage-Budget andererseits. Angesichts der schnell zunehmenden Kapazitäten und des abnehmenden Platzbedarfes und Stromverbrauchs müssen Refresh-Strategien entwickelt werden, mit deren Hilfe man von den Vorteilen der Plattformen der nächsten Generation frühzeitig profitieren kann.

    Refresh-Modell

    Wie Experton-Group-Untersuchungen ergeben haben, sollten Unternehmen angesichts der schnellen Veränderungen ihre Storage-Systeme alle 36 Monate austauschen. Nach Meinung der Experton Group ist ein Drei-Jahres-Zyklus vorzuziehen, es gibt allerdings durchaus vernünftige Gründe, die auch für einen Vierjahres-Zyklus sprechen. Über diesen Zeitrahmen hinaus kann die Weiterbenutzung von Storage-Plattformen aber aus betrieblicher Sicht nicht mehr verargumentiert werden. Es ist ein Standard-Refresh-Modell für die gesamte Rechenzentrums-Hardware erforderlich, um eine Überalterung der Ausstattung zu vermeiden und gleichzeitig die Effizienz, Produktivität und technische Aktualität zu verbessern. Bei einem Drei-Jahres-Zyklus kann ein Plan zur kontinuierlichen Aufrüstung und Transformierung der Storage-Plattformen erstellt werden, wobei jedes Jahr ein Drittel der Systeme entsprechend aufgerüstet wird. Angesichts der jährlich erzielten Verbesserungen und Fortschritte sollte es einfacher sein, einen entsprechenden Business Case auf Basis dieser Angebote der nächsten Generation zu rechnen.

    Zusammenfassung

    Der digitale Wildwuchs hört nicht auf; im Gegenteil: Angesichts der explosionsartigen Zunahme an so genannten “Big Data”, Analysewerkzeugen und Business Intelligence, des Internets und des Mobile Computings wird die Datenhaltung immer exzessiver. Hinzu kommt die Möglichkeit, Daten, egal wo sie generiert werden, auszusondern und weiterzuverarbeiten. Das senkt die Menge an Informationen, die Speicherplatz benötigen oder über das Netzwerk transportiert werden müssen, enorm. Dieses Thema wird auf den Prioritätenlisten mit der Zeit ganz nach oben rücken. IT-Verantwortliche müssen also eine langfristige, schlüssige Storage-Strategie aufsetzen und so bald wie möglich damit anfangen, diese Strategie auch konsistent in die Praxis umzusetzen.

    Fazit

    Es steht zu erwarten, dass die Anbieter mit einer ganzen Reihe von Speicherlösungen der nächsten Generation aufwarten, die darauf abzielen, den Personalbedarf zu verringern, problemlos höchste Leistungsfähigkeit und Skalierbarkeit zu bieten, eine schnellere Wertschöpfung zu erreichen und die Betriebskosten zu senken. Die unternehmensweiten Speicherkapazitäten steigen weiterhin um ca. 25 Prozent oder mehr pro Jahr. Ohne geeignete Storage-Lösungen der nächsten Generation schießen die Kosten für die riesigen Datenmengen in die Höhe und die Zeitfenster für Sicherungen verschwinden zusehends. Es gilt, sich in Zusammenarbeit mit den strategischen Storage-Partnern mit den Lösungsangeboten der nächsten Generation vertraut zu machen und im Rahmen von Pilotprojekten herauszufinden, wie die Ansätze der einzelnen Anbieter zur Unternehmensausrichtung passen und welcher Partner für den Transformationsprozess in Frage kommt.

    Hinweis: Lesen Sie Artikel von silicon.de ab sofort auch in Google Currents. Jetzt abonnieren.

    Redaktion

    Recent Posts

    Blockchain bleibt Nischentechnologie

    Unternehmen aus der DACH-Region sehen nur vereinzelt Anwendungsmöglichkeiten für die Blockchain-Technologie.

    6 Stunden ago

    Branchenspezifische KI-Modelle

    SAS bietet einsatzfertige KI-Modelle für konkrete Herausforderungen wie Betrugserkennung und Lieferkettenoptimierung.

    10 Stunden ago

    Hypershield: Umfassender Schutz von Cloud über Rechenzentrum bis Fabrikhalle

    Cisco stellt neuen Ansatz zur umfassenden Absicherung der IT-Infrastruktur vor.

    17 Stunden ago

    Vernetztes Fahren: Bereitschaft zum Teilen von Daten gering

    Deloitte-Studie äußert jedoch Verständnis für die Zurückhaltung der Kunden. Nutzen der Angebote sei hierzulande kaum…

    2 Tagen ago

    Plattenspiegelung ist keine Backup-Recovery-Strategie

    Die Ziele einer Festplattenspiegelung und eines Backups sind unterschiedlich, sagt Sven Richter von Arcserve.

    3 Tagen ago

    Chaos bei der Umsetzung von NIS-2 droht

    Das Damoklesschwert NIS-2 kann daher schneller wirksam werden, als manchem lieb ist, warnt Bernhard Kretschmer…

    3 Tagen ago