Fünf Sünden der Virtualisierung

“Bei Virtualisierungsprojekten sollte man mindestens genauso umfassend vorgehen, wie bei sonstigen Projekten, und zwar auf allen Ebenen”, so Christian Botta, Leiter Business Unit Virtualisierung bei Consol. “Interne Anforderungen und konkrete Ziele sollten geklärt werden, die beteiligten Personen involviert und ein Proof of Concept erarbeitet werden. Dabei kann man sich Virtualisierungslösungen und -konzepte von Lösungs-Partnern demonstrieren und erklären lassen. Das erspart Erfahrungen, die bereits andernorts gemacht wurden.” Laut Botta sollten diese fünf Sünden vermieden werden:

Unterschätzung der Storage Performance

Der Bereich Storage wird bei Virtualisierungsprojekten oft ausgeblendet, zumindest jedoch unterschätzt. Ein Storage-System an zentraler Stelle und unter falschen Gesichtspunkten konzipiert, wird schnell zum limitierenden Faktor einer gesamten virtuellen Umgebung, wenn zeitgleich viele virtuelle Maschinen um den Zugriff konkurrieren.

Gezielte Überlegungen und Investitionen in adäquate Hardware helfen, die erforderliche Performance zu garantieren. IT-Verantwortliche sollten sich insbesondere über die Zugriffsmuster ihrer virtuellen Umgebungen im Klaren sein. Bei den in aller Regel verteilten Zugriffsmustern (Random-I/O) sind weder die sequentielle Übertragungsleistung noch die Kapazität von Festplatten ausschlaggebend, sondern die Anzahl möglicher Input/Output Operations (IO) pro Sekunde.

Generell empfehlen sich umdrehungsstarke SAS/FC-Platten in Kombination mit RAID10. SATA-Platten in RAID5-Verbünden sind preislich günstig, erfüllen aber selten die Anforderungen, die an virtuelle Umgebungen gestellt werden. Ausnahmen sind Performance-unkritische Systeme oder Systeme mit stark sequentiellen Lesezugriffen.

Unklarheit über interne Verrechnung und Arbeitsabläufe

Ein weit verbreiteter Irrglaube bei der Einführung von Virtualisierung ist, dass die IT danach kaum Geld kostet. Gerade dieser Irrglaube kann zur Kostenfalle werden. Virtuelle Systeme kosten weiterhin Geld: Leistungsstarke physikalische Server müssen beschafft, Personal geschult und eventuell neu eingestellt werden. In der IT-Abteilung ist das nötige Bewusstsein meist vorhanden. Der vorauseilende Ruf der Virtualisierung macht es jedoch oft schwer, dieses Bewusstsein auch im Rest des Unternehmens zu verankern.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

Heineken plant Bedarfe mit KI-Lösung von Blue Yonder

Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.

5 Stunden ago

Industrie erwartet durch KI deutlichen Produktivitätsschub

Davon gehen laut der aktuellen Studie „Performance-Treiber 2024“ acht von zehn Industrieunternehmen aus.

1 Tag ago

HPE knackt mit Supercomputer Aurora erneut die Exascale-Schwelle

„Aurora“ läuft beim Argonne National Laboratory des US-Energieministeriums und hat auf 87 Prozent des Systems…

2 Tagen ago

Exascale-Supercomputer JUPITER setzt Maßstäbe für Energieeffizienz

Europäischer Supercomputer JEDI kommt auf den ersten Platz in der Green500-Liste der energieeffizientesten Supercomputer.

2 Tagen ago

Papierhersteller der digitalen Ära

Data Awakening: Huawei präsentierte beim Innovative Data Infrastructure Forum 2024 in Berlin neue, auf KI…

4 Tagen ago

Cyberangriffe bedrohen die Demokratie

Um ihre Verteidigung zu stärken, müssen Staaten und Unternehmen sicherstellen, dass KRITIS-Betreiber nicht nur die…

6 Tagen ago