Drei wichtige Komponenten für KI-gestützte Cybersicherheit

Es ist Zeit, einen nüchternen Blick auf das Veränderungspotenzial durch KI zu werfen und neue Anforderungen an die Cybersicherheit zu betrachten, sagt Sam Curry von Zscaler.

Bisher war der Allgemeinheit die künstliche Intelligenz im Zusammenhang mit Schach ein Begriff. Garry Kasparov, Schachweltmeister von 1985 bis 2000, berichtete einmal über seine Erfahrungswerte zum ersten Mal gegen Deep Blue, den schachspielenden Supercomputer von IBM zu verlieren. Das Gefühl, von einem Computer geschlagen worden zu sein, war im ersten Moment niederschmetternd. Allerdings sammelte er sich und konnte den Computer in einem neuen Match besiegen. In weiteren Spielen war er in der Lage, anfangs öfter zu gewinnen als zu verlieren. Doch mit mehr und mehr gespielten Matches änderte sich seine Gewinnquote erneut und er verlor öfter, als er gewann, bis schließlich Deep Blue regelmäßig als Sieger aus den Partien hervorging. 

Intelligent, aber nicht kreativ

Dieses Beispiel zeigt, dass Menschen, die von KI unterstützt werden, einen Vorteil gegenüber anderen haben. KI kann als Werkzeugkasten betrachtet werden, der größtenteils aus maschinellem Lernen und LLMs besteht. Ähnliche Modelle und Technologien werden seit mehr als einem Jahrzehnt auf überschaubare Probleme wie der Erkennung von neuartiger Malware oder Betrug angewendet. Doch durch den kometenhaften Aufstieg der KI in mannigfachen Bereichen steht fest, dass die Cybersicherheit heute einem grundlegenden Wandel unterworfen ist.

Daniel Miessler, Gründer von Unsupervised Learning, kam zu der Erkenntnis, dass die KI bisher zwar über Intelligenz, aber noch nicht über eigenes kreatives Denken verfügt und damit nicht die Initiative ergreifen kann oder Empfindungsvermögen besitzt. Und das ist entscheidend, um die Ängste und Übertreibungen vor einer Weltherrschaft der KI zu zerstreuen. Wir leben noch nicht in einem Zeitalter, in dem Silizium-Chips ohne den Menschen auskommen. Demnach muss der Mensch die Schnittstelle zwischen der KI und Cybersicherheit bilden.

Wer KI ablehnt, wird irrelevant

Die meisten Unternehmen stehen mit der KI derzeit vor einem ähnlichen Dilemma wie bei der Einführung von Instant Messaging, Suchmaschinen und Cloud Computing: Sie müssen sich anpassen oder laufen Gefahr, gegenüber Konkurrenten, die schneller den disruptiven technologischen Vorteil für sich nutzen ins Hintertreffen zu geraten. Übertragen auf die KI bedeutet das, dass Unternehmen die KI nicht einfach ablehnen können, wenn sie relevant bleiben wollen. Wie bei anderen Technologien kann der erste Schritt darin bestehen, private Instanzen von LLMs zu schaffen. Gleichzeitig werden parallel Prozesse ablaufen, in denen sich öffentliche KI-Anbieter vergleichbar mit dem Wandel der öffentlichen Cloud-Anbieter in der Vergangenheit an die Marktanforderungen anpassen.

Dabei kann von der Cloud-Revolution gelernt werden. Ähnlich wie bei dem schrittweisen Siegeszug der Cloud kann das für die KI bedeuten, dass sich private, öffentliche oder hybride Modelle zeitgleich entwickeln werden. Ähnliche Fragestellungen hinsichtlich des Datenschutzes, des geistigen Eigentums und der Governance werden sich demnach für die KI auftun. Hinzu kommen allerdings KI-spezifische Herausforderungen hinsichtlich der sozialen Gerechtigkeit. Datensätze könnten durch Vorurteile oder Einflussnahme bei der Erfassung verzerrt werden oder Modelle unter weitergegebenen Verzerrungen leiden – indem sie zum Beispiel lediglich widerspiegeln, was aufbauend auf der Art der Fragestellung eingekippt wurde –, oder die Ergebnisse können zu unvorhersehbaren Konsequenzen führen. In diesem Zusammenhang sind folgende Punkte zu berücksichtigen:

Kontrollgremium für ethische Nutzung
Die Nutzung von KI muss reguliert und auf korrekte und ethische Nutzung hin überprüft werden. Diese Forderung ist vergleichbar mit anderen Branchen, in denen dieForschung und Nutzung reguliert sind wie beispielsweise das Gesundheitswesen hinsichtlich der Krebsforschung.

Kontrolle der Datenbeschaffung
Bei der Datenbeschaffung müssen Fragen des Urheberrechts, aber auch des Datenschutzes berücksichtigt werden. Auch wenn die Daten durch ein „Inferral“ wieder identifiziert werden können, ist die Anonymisierung wichtig, ebenso wie ein Ausschluss von Data Poisoning, also wenn falsche Daten zum Einsatz kommen, oder Sabotage.

Zugangskontrolle
Der Zugang zu KI-Systemen sollte nur zu bestimmten Forschungszwecken und nur durch eindeutig identifizierte und überwachte Personen und Systeme erfolgen, um eine nachträgliche Rechenschaftspflicht zu gewährleisten. Diese Kontrollfunktion muss die Pflege, den Abgleich und die Wartung der Daten umfassen.

Spezifische und allgemeine Ergebnisse
Der Output sollte für einen spezifischen, geschäftsbezogenen Zweck und eine spezifische Anwendung bestimmt sein und es sollte keine allgemeine Abfrage oder kein offener API-Zugang erlaubt sein. Es sei denn, die Agenten, die diese API nutzen, werden in ähnlicher Weise kontrolliert und verwaltet.

Rolle der KI-Sicherheit
Unternehmen sollten einen speziellen KI-Sicherheits- und Datenschutzbeauftragten ernennen. Zum Aufgabenbereich zählen Angriffe, bei denen es um Umgehung, Inferenz, Überwachung auf Unzurechnungsfähigkeit (das heißt Halluzinationen, Lügen, Einbildung usw.), funktionale Extraktion und langfristige Privatsphäre und Manipulation geht. Darüber hinaus überprüfen sie Verträge, arbeiten mit Rechtsexperten zusammen und haben eine Schnittstelle zu den Teams, die mit KI-Toolkits arbeiten.

KI in der Cyberverteidigung

Es gibt jedoch auch Anwendungsbereiche von KI in der Cybersicherheit selbst. Hier wird das KI-unterstützte menschliche Paradigma zu einer wichtigen Überlegung in der Gestaltung zukünftiger Sicherheitsservices. Die Anwendungsmöglichkeiten sind vielfältig. In einem ersten Schritt bietet es sich an, Routineaufgaben von der Abfrage über Skripte bis hin zur Integration und wiederholten Analysen in der Cybersicherheit an die KI auszulagern. In der Durchführung solch umfangreicher und wiederholter Aufgaben liegt die Stärke und der Geschwindigkeitsvorteil der KI gegenüber dem Menschen.

Das menschliche Gehirn zeichnet sich durch Kreativität, Inspiration und Dinge aus, die ein Silizium-Gehirn nicht kann: logisches Denken, Einfühlungsvermögen zeigen und Initiative ergreifen. Das größte Potenzial für den Einsatz von KI in der Cyberabwehr liegt in der Prozesseffizienz, der Extrapolation von Datensätzen, der Eliminierung von Routineaufgaben etc. Die Gefahr einer unzuverlässigen Abstraktion sollte bei der Auswahl dieser Aufgaben vermieden werden, das heißt der Mensch sollte immer die Kontrolle behalten, was die Maschine für ihn übernimmt. Als Beispiel hierfür kann ein Incidence Response-Prozess dienen, der dabei helfen kann, die nächsten Schritte eines Angreifers vorherzusagen. Sicherheitsanalysten werden dabei unterstützt, schneller zu lernen und die Effizienz der Mensch-Maschine-Schnittstelle durch einen Co-Pilot-Ansatz (nicht Autopiloten) zu verbessern. Unternehmen müssen jedoch sicherstellen, dass diejenigen, die Unterstützung bei der Reaktion auf Zwischenfälle erhalten, auch verstehen, was ihnen vorgeschlagen wird, so dass sie Vorschläge gegebenenfalls ablehnen und aufbauend auf eigener Kreativität korrigieren können.

KI im Einsatz bei den Angreifern

Angreifer setzen auf KI-Tools, deshalb ist es an der Zeit, die Sicherheit umzugestalten. Genauso wenig wie Unternehmen KI nicht ignorieren dürfen, weil sie sonst von ihren Konkurrenten überrannt werden, müssen sie ihre Cybersicherheit transformieren, um Angreifern nicht zu unterliegen. Das bedeutet, dass die Mitglieder der Sicherheits-Architekturgruppen den bereits erwähnten KI-Prüfungsausschüssen der Unternehmen beitreten und eine Vorreiterrolle bei der Einführung von KI-Tools übernehmen müssen. Die folgenden Überlegungen helfen in der offensiven Gestaltung der Sicherheit mit Hilfe von KI:

  • Einrichten von Red Teams, die vergleichbare AI-Tools wie die Angreifer einsetzen
  • Blue Teams können die AI-Tools für Vorfälle einsetzen
  • GRC sollte ebenfalls AI-Tools nutzen, um bei dem Transfer und der Interpretation von Sprache in Richtlinien mehr Effizienz zu erlangen
  • Datenschutz-Teams helfen AI-Tools, um die tatsächlichen Wege der Daten zu verstehen
  • Identity & Access hilft AI bei der Umsetzung von Zero Trust um ihre spezifischen Ansprüche so nahe wie möglich in Echtzeit umzusetzen
  • AI-Anwendungen sind für die Umsetzung von Täuschungsmanövern unabdingbar, die „Negative Trust“ in Infrastrukturen einbauen, um die Gegner in die Irre zu führen

Fazit

Unternehmen sollten akzeptieren, dass der Einsatz von KI die Menschen in die Lage versetzt, ihren Geschäftsbetrieb sicher und zukunftsorientiert zu gestalten. Sie wird keine Dominanz über den Menschen herbeiführen. Der Einsatz von KI-Toolkits lässt sich nicht aufhalten, da Konkurrenten und Angreifer sie gleichermaßen nutzen. Das eigentliche Problem besteht darin, wie die richtigen Rahmenbedingungen und Richtlinien für den Erfolg geschaffen werden können. Kurzfristig werden vor allem die Angreifer besser darin werden, ihre Phishing- und Malware-Angriffe zu entwickeln. Langfristig jedoch werden die Anwendungen zur Verteidigung nachziehen.

 

Sam Curry

ist VP & CISO bei Zscaler.