Categories: Digitalisierung

IT-Trends 2024: Signifikantes Wachstum von Rechenzentren

Mit immer neuen Anwendungen für verschiedene Arbeits- und Lebensbereiche wächst auch in Deutschland die Datenflut und damit der Bedarf an Rechenleistung. Sowohl Hyperscaler wie Google, AWS, und Microsoft, als auch Unternehmenskunden werden in den nächsten Jahren verstärkt Rechenzentrumskapazitäten nachfragen.

KI, HPC und Edge Computing erfordern zusätzlich Kapazitäten

Angeheizt wird der Kapazitätsbedarf vor allem durch die Nachfrage nach KI-Anwendungen. Allerdings erfordern sie ein hohes Maß an Sicherheit und Datensouveränität. Immer mehr Unternehmen planen daher entsprechende Kapazitäten in Deutschland, um die Risiken zu reduzieren.

Zudem setzt sich der Trend zum High-Performance-Computing (HPC) unvermindert fort. Die leistungshungrigen Anwendungen kommen bereits in vielen Unternehmen quer durch alle Branchen zum Einsatz. Nachdem die HPC-Kapazitäten seit Jahren in die nordischen Länder abwandern, gibt es mittlerweile starke Bestrebungen, in Deutschland wieder mehr aufzubauen.

Ein weiterer wichtiger Trend ist Edge Computing. Nach Jahren wachsender Formate mit bis zu dreistelligen MW-Kapazitäten nehmen auch kleinere Edge-Deployments zu. Vielerorts entstehen Konzepte für dezentralisierte und integrierte städtische Standorte, einschließlich kleinerer Rechenzentren. Allerdings fehlen bisher dafür noch die Betreiber.

Neue Kühltechnologien und Konzepte für die Energieerzeugung

Die Rechenzentrumsbranche reagiert auf den steigenden Kapazitätsbedarf mit innovativen Technologien und Konzepten. So werden Lösungen für die Flüssigkeitskühlung schon seit Jahren intensiv diskutiert. Durch den Einsatz von direkter Chipkühlung oder Immersionskühlung lassen sich die Temperaturen in Rechenzentren senken und auf diese Weise durch ein geändertes Design die Baukosten reduzieren. Bei einer direkten Chipkühlung steigt die Temperatur der Abwärme. Bei der Flüssigkeitskühlung ist zudem die Wärmeübertragung an die Fernwärme effizienter, da bei der Energieentnahme aus flüssigen Medien wesentlich weniger Energie verlorengeht als bei der Gewinnung aus der erwärmten Luft.

Die Technologie ist bereits ausgereift, es fehlt allerdings noch an Akzeptanz von Seiten der Cloud-Anbieter und Hyperscaler, um als „state-of-the-art“ anerkannt zu werden. In Anbetracht der jüngsten Entwicklungen und politischen Zielvorgaben ist aber zu erwarten, dass sich die die Flüssigkühlung mittelfristig durchsetzen wird.

„Die Offenheit für neue Technologien und neue Wege der Energieerzeugung ist enorm wichtig für innovative Entwickler und Betreiber von Rechenzentren“, sagt Christian Kallenbach von NDC-GARBE Data Centers Europe. „Zu den momentan meist diskutierten Alternativen zählt die mit Wasserstoff betriebene Brennstoffzelle.“

Energieeffizienzgesetz: Herausforderung oder Chance?

Vor diesem Hintergrund ist das Potenzial für die deutsche Rechenzentrumsbranche enorm. Allerdings gibt es auch nicht zu unterschätzende Hürden. So bergen die Verschärfung der gesetzlichen Vorschriften sowie technologische Barrieren die Gefahr, dass sich der Schwerpunkt für die weitere Expansion auf andere europäische Länder verlagert.

Vor allem das geplante Energieeffizienzgesetz (EnEfG) ist eine Herausforderung für alle Akteure der Branche. Denn sie verpflichtet die Betreiber von Rechenzentren, ihre überschüssige Wärme an externe Abnehmer zu liefern – allen voran Kommunen und Fernwärmeversorger. Letztendlich müssen alle Betreiber die gleichen Dekarbonisierungsziele erreichen. Und eine erfolgreiche Abwärmenutzung ist nur möglich, wenn die Beteiligten reibungslos zusammenarbeiten. Bislang praktizieren allerdings nur wenige die Wiederverwendung von Abwärme oder planen dies. Denn die Zweifel an der Machbarkeit der vorgegebenen Quoten sind groß. In den Ballungsgebieten werden bereits erste Projekte mit Fernwärmeversorgung umgesetzt. Bei älteren hochkalorischen Fernwärmenetzen besteht jedoch nur ein begrenztes Interesse, sich an Rechenzentren mit niedrigkalorischer Überschusswärme anzuschließen.

Das EnEfG gibt ein PUE-Ziel (Power Usage Effectiveness) von 1,2 vor. Dieser Wert beschreibt, wie effizient ein Rechenzentrum Energie nutzt. Das PUE-Ziel betrifft alle Rechenzentren, die nach dem 1. Juli 2026 in Betrieb gehen – darunter viele Projekte, die sich derzeit in der Endphase der Planung befinden. Diese müssen unter Umständen umgestaltet werden, um dem EnEfG zu entsprechen.

Es fehlen Flächen und Netzkapazitäten

Weitere Hürden bei der Entwicklung neuer Projekte sind die Knappheit von passenden Grundstücken und erneuerbaren Energien sowie fehlende Netzkapazitäten in den Top-Tier-Regionen. Dadurch kann die Planung künftiger Kapazitäten nur mittel- bis langfristig erfolgen. Da die Wartezeit für verfügbaren Strom teilweise mehr als zehn Jahre beträgt, werden zunehmend alternative Energielösungen in Mikronetzen gefördert. Es kommt darauf an, sich rechtzeitig Kapazitäten zu sichern, um neue Rechenzentren bauen zu können.

Damit dies gelingt, braucht es mehr Markttransparenz sowie eine vertrauensvolle Zusammenarbeit mit den Entscheidungsträgern in den Kommunen, mahnt Kallenbach: „Nur wenn Städte und Gemeinden die Chance sehen, zukunftsorientierte Unternehmen anzuziehen und sich mit kreativen digitalen Konzepten zu positionieren, werden sie auch Flächen für neue Rechenzentren bereitzustellen. Es ist daher wichtig, sie von den Vorteilen zu überzeugen, die ein Rechenzentrum vor Ort bietet: niedrige Latenzzeiten und dadurch ein hohes Maß an Verfügbarkeit und Schnelligkeit – also genau das, was geschäftskritische Anwendungen erfordern.“

Verliert Deutschland im Rechenzentrumsmarkt?

Trotz der genannten Einschränkungen hält es Kallenbach für unwahrscheinlich, dass Deutschland seine globale Rolle und sein attraktives Umfeld im Rechenzentrumsmarkt verlieren wird. „Zwar besteht die Gefahr, dass die Hyperscaler ihre Prioritäten auf europäische Länder mit weniger Regulierung und mehr verfügbaren Ressourcen verlagern und damit das Tempo der Digitalisierung hierzulande drosseln. Angesichts des enormen Bedarfs an Virtualisierung, Automatisierung, Kommunikation, HPC sowie KI, eingebettet in sichere Strukturen, ist aber davon auszugehen, dass die Nachfrage nach Rechenzentrumskapazitäten das Marktwachstum weiter antreiben wird.“

Derzeit sind Rechenzentrumsprojekte mit Hunderten von MW in den besonders gefragten Städten Frankfurt und Berlin in der Entwicklung – vorrangig für die Hyperscaler oder in ihrem Auftrag. Auch an Tier-2-Standorten wie Düsseldorf, Hamburg, Nürnberg und München sind weitere neue Projekte geplant, hauptsächlich von Unternehmensanwendern und Colocation-Anbietern. Und diese künftigen Kapazitäten werden sich auf die bestehenden Rechenzentren auswirken.

Roger Homrich

Recent Posts

KI als Pairing-Partner in der Software-Entwicklung

Pair Programming ist eine verbreitete Methode in der Softwareentwicklung mit vielen positiven Effekten, erklärt Daniel…

2 Tagen ago

Confare #ImpactChallenge 2024 – jetzt einreichen und nominieren

Mit der #ImpactChallenge holt die IT-Plattform Confare IT-Verantwortliche auf die Bühne, die einen besonderen Impact…

2 Tagen ago

Ransomware: Zahlen oder nicht zahlen?

Sollen Unternehmen mit den Ransomware-Angreifern verhandeln und das geforderte Lösegeld zahlen?

2 Tagen ago

KI-gestützter Cobot automatisiert Sichtprüfung

Die manuelle Qualitätsprüfung von Industrieprodukten ist ermüdend und strengt an.  Eine neue Fraunhofer-Lösung will Abhilfe…

3 Tagen ago

Digitalisierungsberufe: Bis 2027 fehlen 128.000 Fachkräfte

Studie des Instituts der deutschen Wirtschaft (IW) zeigt, in welchen Digitalisierungsberufen bis 2027 die meisten…

3 Tagen ago

Angriffe auf Automobilbranche nehmen zu

Digitalisierung und Vernetzung der Fahrzeuge, Elektromobilität und autonomes Fahren bieten zahlreiche Angriffspunkte.

3 Tagen ago