Volker Marschner

ist Security Consultant bei Cisco Security und kennt die aktuellen Sicherheitsrisiken.

Container-Technologien – Zwischen Flexibilität und Risiko

Container erobern die Rechenzentren, doch durch diese neue Technologie kommen auch neue Sicherheitsrisiken in die Rechenzentren, warnt Volker Marschner von Cisco Security.

Ob Desktop, Server oder ganze Infrastrukturen: Die Virtualisierung bei Software und Hardware schreitet in Unternehmen stetig voran. Inzwischen werden diese virtualisierten Strukturen im Zuge des Cloud Computing zunehmend zu Service-Providern ausgelagert, um Kosten zu sparen, das Management und die eigene Infrastruktur zu verschlanken sowie eine höhere Skalierbarkeit, Flexibilität und Ausfallsicherheit zu erhalten. Da so auch sensible Daten an Dienstleister gelangen und per se nicht mehr innerhalb der eigenen Serverstruktur des Unternehmens lagern, müssen sich die Unternehmen auf deren Security-Strategien verlassen. Verstärkt wird dieser Trend durch die Container-Technologie.

Sprechen wir über Container …

Container-Technologien sind ein Pendant zu der klassischen virtuellen Maschine (VM). Sie basieren auf Software-Paketen, die praktisch auf jeder Umgebung laufen können, ohne dass ihr Code verändert werden muss. So schaffen sie eine stabile Umgebung für Anwendungen, die zum Beispiel vom eigenen Rechenzentrum in die Private oder Public Cloud migriert werden sollen.

Sicherheitskonzpt (Shutterstock.com/everything possible)

Bei der herkömmlichen Virtualisierung besteht das Paket aus einer virtuellen Maschine, das Betriebssystem und Applikation enthält. So laufen auf einem physischen Server mit drei virtuellen Maschinen neben einem Hypervisor drei getrennte Systeme. Im Gegensatz dazu läuft auf einem Server mit drei containerisierten Anwendungen nur ein Betriebssystem. Daher benötigen Container deutlich weniger Kapazitäten als virtuelle Maschinen. Zudem starten containerisierte Applikationen praktisch sofort, während virtuelle Maschinen einige Minuten benötigen. Und Container erlauben eine Aufteilung komplexer Applikationen in kleine und einfacher handhabbare Module, den Microservices. Da diese deutlich leichter handhabbar sind als große, monolithische Applikationen, lassen sich damit neue Funktionen deutlich schneller entwickeln, testen und für den produktiven Betrieb einsetzen.

… und deren Gefahrenpotenzial

Diese Vorteile und die deutlich höhere Effizienz wird jedoch mit einem Nachteil erkauft: einer potenziell größeren Sicherheitsgefahr. Denn auf Servern, die zum Beispiel acht virtuelle Maschinen bewältigen, lassen sich nun bis zu 48 Container nutzen. Das bedeutet jedoch, dass die Ausnutzung einer Sicherheitslücke in der Container-Software – etwa in der bekanntesten und am häufigsten genutzten Lösung Docker – rein rechnerisch schon deutlich mehr Schaden anrichten kann.

Tipp der Redaktion

EU-Datenschutzgrundverordnung (DSGVO)

Im Mai 2018 endet die Übergangsfrist für die neue EU-Datenschutzverordnung. Welche Neuerungen sie bringt, was passiert, wenn sich Firmen nicht daran halten und wie sich Unternehmen vorbereiten können, erfahren Sie im Special auf silicon.de.

Diese Gefahr ist durchaus real. So hat der Cisco 2017 Midyear Cybersecurity Report festgestellt, dass mehr als 1.000 Instanzen von Docker im Internet “weit offen” für Angriffe sind. Die meisten davon befinden sich in den USA, China Frankreich und Deutschland. Bei 245 dieser Instanzen waren jeweils mehr als 4GB RAM zugeordnet – mehr als genügend Kapazität für Malware. Zusätzlich können Container komplette Server-Konfigurationen enthalten. Sind anfällige Instanzen von Docker im Rechenzentrum vorhanden, können Cyberkriminelle deutlich komplexere und leistungsfähigere Malware einführen, als dies bislang möglich war. Dies reicht möglicherweise bis zu einem eigenen Rack an schädlichen Servern innerhalb des Data Centers eines Unternehmens.

Injektion direkt ins Unternehmens-Herz

Doch die Gefahr ist noch größer als der rein rechnerische Effekt. Denn Container-Instanzen sind in der Regel ein integraler Bestandteil der Rechenzentrums-Systeme. So müssen Schadprogramme, die Docker-Schwachstellen ausnutzen, nicht die herkömmliche Grenze zwischen Nutzer und Server überwinden. Sie finden sozusagen direkt den Weg in das Herz des Unternehmens. Damit werden die Hürden, die bislang das Eindringen von Malware in die Kernanwendungen verhinderten, deutlich reduziert.

Daher müssen Entwickler und IT-Manager alle bestehenden Docker-Instanzen im eigenen Rechenzentrum prüfen und absichern sowie beim Cloud-Provider testen. Dazu sollten die Service Provider eng mit der Unternehmens-IT zusammenarbeiten. Zudem sind Best Practices zu entwickeln, um keine neuen Sicherheitslücken entstehen zu lassen. Dabei bleiben die grundlegenden Handlungsempfehlungen weitgehend identisch mit den traditionellen Maßnahmen: Patchen, Zugriffe reduzieren und die Nutzung überwachen.