Cloud 2.0

CloudUncategorized

Cisco hat ein neues Buzzword: Nach der “Cloud” kommt jetzt der “Fog”. In den bisherigen Cloud-Konzepten liefern “dumme” Sensoren Daten in die Cloud und die schickt Befehle an ‘dumme’ Empfänger. Ciscos neuer Ansatz ‘Fog’ soll das jetzt reformieren; kein Zweifel: “Fog-Computing” hat das Potential zu “Cloud 2.0”.

Oliver Tuszik, Vice President, Cisco Germany, will über das konzept Fog-Computing die Netze entlasten. (Bild: Cisco)
Oliver Tuszik, Vice President, Cisco Germany, will über das konzept Fog-Computing die Netze entlasten. (Bild: Cisco)

Die Euphorie über Industrie 4.0 und Cloud-Computing ist einer gewissen Nachdenklichkeit gewichen. Denn Probleme mit der Bandbreite im Internet, mit der Sicherheit und der Zentralisierung der Informationstechnologie in einigen wenigen Rechenzentren führen zu neuen Diskussionen. Etwa im Rahmen der Cisco Connect 2014 in Berlin. Anscheinend ist die Industrie besorgt und Maschinenbauer und Netzwerktechniker rätseln, wie die Anwendungen in den Rechenzentren Geräte, Maschinen, Roboter, Autos oder Smartphones zuverlässig steuern können. Vor allem dann, wenn die Datenströme aus Milliarden Dingen die Netzwerke überlasten.

Cloud und Industrie 4.0 gehen bisher Hand in Hand. Anwendungen steuern ganze Maschinenhallen aus einem einzelnen Rechenzentrum. Das steht möglicherweise tausende Kilometer entfernt und ist über möglichst viel Glasfaserkabelstrecken mit der Produktion verbunden. Was für ein Angriffsziel für kriminelle Hacker! Mit nur einem Angriff können sie eine ganze Fabrik stilllegen, einem ganzen Landstrich den Strom abstellen oder einer Stadt die Wasserversorgung kappen.

Prof. Dr. Manfred Hauswirth, Institutsleiter, Fraunhofer FOKUS und TU Berlin unterstreicht dann auch, dass es aus Sicht der Industrie einen “Single Point of Failure” gäbe – dies sei ein großer Fehler innerhalb der Cloud-Konzepte. “Wenn ein Angreifer die Cloud erfolgreich attackiert, legt er alles lahm.” Und deshalb sei die Cloud eben nicht zielführend, die Verantwortlichen seien gezwungen umzudenken. “Wir sollten uns Gedanken machen über die Möglichkeiten lokaler Intelligenz. Es geht um Entscheidungen, die lokal getroffen werden.” Aufgabe des Rechenzentrums sei es dann Daten zu filtern und nur die Daten transportieren zu lassen, die die Maschinen tatsächlich brauchen.

“Dabei ist der Transport immer auf die jeweilige Domain bezogen. Aus IT-Sicht heißt das, es wird sehr flexible Lösungen geben. Für die Perspektive der Maschinenbauer bedeutet dies, dass die Ingenieure genau beschreiben, welches Wissen und welche Daten eine Maschine an einer bestimmten Domain braucht.”

Mit Linux auf Routern und Switchen will Ciso die Datenflut im Internet der Dinge aufhalten. Bei diesem Konzept spricht Cisco vom Fog Computing. Quelle: Cisco
Mit Linux auf Routern und Switchen will Ciso die Datenflut im Internet der Dinge aufhalten. Bei diesem Konzept spricht Cisco vom Fog Computing. Nun braucht der Hersteller nur noch mehr Entwickler, die Anwendungen für Cisco-Technologien entwerfen. (Quelle: Cisco)

Dirk Sommerfeld, CTO und CFO Azeti Networks unterstützt diese Sichtweise. “Die digitale Intelligenz muss auf den einzelnen Maschinen und Geräten sein. Nehmen Sie an, es gibt in einer Produktionshalle einen Wasserschaden – dann wird die Cloud eine Pumpe anschalten. Außer natürlich die Verbindung über die Datennetze ist weg. Dann schaltet die Cloud die Pumpe entweder nicht ein oder nicht mehr aus. Eine lokale Steuerung könnte diese Risiken ausschließen.”

Grundsätzlich sei dies eines der großen Probleme bei Industrie 4.0 – breche die Verbindung zum Rechenzentrum ab, könnten die Verantwortlichen ihre Maschinen nicht mehr steuern. “Es ist keine Frage – eine Anlage über das Internet zu steuern oder zu schalten ist großartig”, bekräftigt Sommerfeld. “Aber was die Anlagen brauchen ist eine Abschaltregel innerhalb der Maschinen.” Seit mehreren Jahren versuche er dieses Thema anzusprechen; inzwischen werde es akut.

Oliver Tuszik, Vice President, Cisco Germany schlägt als Lösungsansatz das Fog-Computing vor. “Im Moment werden alle Daten in die Cloud geschickt. Wir sehen hier das Problem, dass dies riesige Datenströme sind, deren Transport eben auch mit einem gewaltigen Sicherheitsproblem verbunden ist.”

Im “Fog”-Konzept seien Maschinen, Geräte und alle Arten von Devices tatsächlich wieder kleine Computer mit eigenem Betriebssystem. Dies sorge dafür, dass ein großer Teil der Datenverarbeitung wieder vor Ort – also lokal an den Maschinen – stattfinde. Er habe die Hoffnung, auf diese Weise “das Problem der Verfügbarkeit und auch das Problem des Datenschutzes zu lösen.” Denn wenn die Daten nie aus dem Device herauskommen, werde “sich auch niemand Gedanken machen, dass jemand an die Daten heran kommt.”