Jürgen Strate, Leiter Vertrieb und Consulting des IBM-Geschäftsbereichs Site and Facilities Services, skizzierte Herausforderungen an die Infrastruktur von Rechenzentren. Strate ist IBM-Vertreter im Bitkom-Arbeitskreis Rechenzentrum und Infrastruktur und hat an dessen Leitfaden Energieeffizienz im Rechenzentrum mitgearbeitet.


Jürgen Strate,
Bild: IBM

Laut Strate werden die Anforderungen an die Sicherheit und die Verfügbarkeit von Rechenzentren weiter steigen. Künftig werde man auch im Mittelstand den Aufbau von parallelen Standorten erleben – nicht mehr nur bei Banken und Versicherungen. Viele Unternehmen seien auf diesen Ausbau nicht vorbereitet, so Strate. Sie verfügten zwar über eine ausgefeilte IT-Strategie, die Rechenzentrumsstrategie sei dagegen “eher dünn”. Daraus folge, dass die Unternehmen ihre Rechenzentrumsstrategie erweitern müssten – insbesondere in Richtung Sicherheit und Verfügbarkeit.

In den vergangenen Jahren habe die Branche eine steigende Nachfrage nach Speicher und Rechenkapazität verzeichnet. “Diese Entwicklung wird sich fortsetzen und sie wird sich drastisch verschärfen.” Schon heute würden nur wenige Rechenzentren in Deutschland diesen Anforderungen gerecht und “in Zukunft werden es noch weniger sein”. Zwar habe die Branche die Technologien optimiert, aber dies werde durch das überproportionale Wachstum der Nachfrage nach Speicher und Rechenkapazität wieder kompensiert.

Als weiteren Trend machte Strate eine Tendenz zur Zentralisierung und Konsolidierung der Rechenzentren aus: “Das Risiko dezentraler Strukturen ist zu hoch.” IBM habe eine solche Konsolidierung hinter sich. “Vor zehn Jahren hatten wir noch 160 bis 170 Standorte. Heute sind es zwölf.”

Das Thema Energieeffizienz sei heute so bedeutend wie nie zuvor. Strate: “Und das wird mindestens so bleiben.” Wahrscheinlich werde die Bedeutung von Energieeffizienz jedoch noch wachsen. “Vor fünf Jahren hat kein Mensch über Kaltgang-Warmgang-Einhausungen gesprochen.” Heute würde diese in viele Data Center eingebaut.

In den kommenden Jahren werde es in Sachen Energieeffizienz weitere Änderungen geben. So habe der Branchenverband The Green Grid die Kennziffern PUE (Power Usage Efficiency) und CUE (Carbon Usage Effectiveness) vorgestellt. In vielen Rechenzentren liege der PUE-Wert derzeit bei 2.0. “1.3 ist sehr gut, 3.0 ist sehr ineffizient.” Für die Zukunft glaube er, dass die Bedeutung des PUE-Wertes zugunsten des CUE-Wertes zurückgehen werde, so Strate.

Laut Strate kann ein Rechenzentrum bei einer Lufttemperatur von 24 Grad Celsius effizient betrieben werden. “Es gibt keinen Grund für eine Lufteintrittstemperatur von 20 bis 21 Grad.” Eine Temperatur von 24 Grad spare Energie für die Kühlung, ohne den Betrieb des Rechenzentrums negativ zu beeinflussen.

Die Zukunft könnte demnach auch der Warmwasserkühlung gehören, wie sie IBM und die ETH Zürich seit Mai 2010 im Projekt Aquasar erproben. Dabei wird ein Supercomputer an der ETH Zürich anstelle von Luft mit heißem Wasser gekühlt und gibt die abgeführte Wärme an die Gebäudeheizung weiter. Im Dezember 2010 hatte das Münchner Leibniz-Rechenzentrum ‘SuperMUC’ geordert, einen IBM-Supercomputer mit Heißwasserkühlung.

Laut Wolfgang Goretzki, Product Marketing Manager bei Emerson Network Power, wird in den kommenden Jahren ‘Data Center Infrastructure Management’ (DCIM) immer wichtiger. DCIM ist eine Meta-Plattform für das gemeinsame Management kritischer Systeme der IT und der Anlagen. DCIM sei ab 2014 Mainstream, zitierte Goretzki den Marktforscher Gartner. Emerson Network Power arbeite an einer entsprechenden Lösung, der Trellis-Plattform. Diese befinde sich gerade im Alpha-Stadium, gelange im Herbst in das Beta-Stadium und sei ab Dezember 2011 offiziell erhältlich.

Silicon-Redaktion

Recent Posts

EU-Staaten segnen Regulierung von KI final ab

AI Act definiert Kennzeichnungspflicht für KI-Nutzer und Content-Ersteller bei Text, Bild und Ton.

4 Stunden ago

eco zum AI Act: Damit das Gesetz Wirkung zeigen kann, ist einheitliche Auslegung unerlässlich

Aufbau von Aufsichtsbehörden auf nationaler und EU-Ebene muss jetzt zügig vorangetrieben werden.

5 Stunden ago

Datenqualität entscheidet über KI-Nutzen

Hochwertige Daten liegen häufig unerkannt in Daten-Pools und warten darauf, mit ausgefeilten Datamanagement-Plattformen gehoben zu…

5 Stunden ago

Gartner: Public-Cloud-Ausgaben steigen auf mehr als 675 Milliarden Dollar

Prognostiziertes jährliches Wachstum von mehr als 20 Prozent wird durch GenKI-fähige Anwendungen in großem Maßstab…

6 Stunden ago

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

4 Tagen ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

4 Tagen ago