Report: Wie sich KI-Dienste schon heute kontrollieren lassen

Vorgaben für Künstliche Intelligenz (KI) müssen sich durchsetzen lassen. Wie aber kontrolliert man eine KI? Werkzeuge dafür gibt es bereits.

Nicht nur Datenschützer fordern Leitlinien für KI

Drei Viertel der Bundesbürgerinnen und Bundesbürger sehen Künstliche Intelligenz als Chance, so eine Umfrage des Digitalverbands Bitkom. Eine breite Mehrheit (88 Prozent) wünscht sich aber zugleich, dass KI-Software in Deutschland besonders gründlich geprüft und erst nach Zulassung in Geräten genutzt werden darf. Ein Drittel (34 Prozent) fordert zugleich, dass KI in bestimmten Anwendungsbereichen verboten werden sollte. „Wir brauchen Leitlinien für den Einsatz von KI. Diese Leitlinien müssen so ausgestaltet werden, dass der Nutzen von KI maximiert und Risiken minimiert werden“, so der damalige Bitkom-Präsident Berg.

Leitlinien für KI fordern nicht nur die Nutzenden oder die Wirtschaftsverbände, auch der Datenschutz sieht Risiken in einer unkontrollierten KI. „Problematisch ist, dass bei vielen der Systeme der Algorithmus, der die Entscheidungen trifft, eine Black-Box ist“, so Landesdatenschutzbeauftragter Prof. Dr. Dieter Kugelmann. „Wer den Algorithmus entwickelt und kontrolliert, der bestimmt die Ergebnisse. Hier kann es schnell zu tendenziösen oder falschen Ergebnissen, politischen Beeinflussungen oder rassistischen Diskriminierungen kommen. Transparenz der Algorithmen und die Möglichkeit, die Systeme durch unabhängige Dritte überprüfen zu lassen, sind daher das A und O, bevor man entsprechende KI-Systeme beispielsweise im Bereich des staatlichen Handelns einführt.“

Selbstschutz und Selbstzertifizierung von KI-Systemen reichen nicht

„Bei der Überprüfung von KI-Systemen besteht Nachbesserungsbedarf“, meint auch Johannes Kröhnert, Leiter Büro Brüssel des TÜV-Verbands, mit Blick auf den kommenden AI Act der EU. „Hier setzt der EU-Gesetzgeber sehr stark auf das Instrument der Eigenerklärung der Anbieter. Gerade von Hochrisikosystemen können jedoch große Gefahren ausgehen, sowohl für Leib und Leben als auch für die Grundrechte der Nutzerinnen und Nutzer (Sicherheit, Privatsphäre) oder die Umwelt. Anstelle einer Selbsterklärung braucht es eine umfassende Nachweispflicht einschließlich einer Überprüfung von unabhängigen Stellen.“

Um einen Missbrauch und eine Manipulation von und durch KI-Funktionen zu verhindern, haben verschiedene KI-Dienste bereits einen Selbstschutz. So verfügen Dienste wie ChatGPT über bestimmte Filter, die als kritisch eingestufte Eingaben (Prompts) erkennen und ablehnen sollen. Dazu gehört zum Beispiel, dass die explizite Frage nach der Erstellung einer Phishing-Mail abgelehnt wird.

Der Azure OpenAI Service zum Beispiel umfasst ein Inhaltsfiltersystem, indem sowohl die Eingabeaufforderung als auch die Vervollständigung durch ein Ensemble von Klassifizierungsmodellen ausgeführt wird, das darauf abzielt, die Ausgabe schädlicher Inhalte zu erkennen und zu verhindern. Das Inhaltsfiltersystem erkennt bestimmte Kategorien potenziell schädlicher Inhalte sowohl in Eingabeeingabeaufforderungen als auch in Ausgabeabschlüssen und ergreift entsprechende Maßnahmen, so Microsoft.

Doch wie kann ein Anwenderunternehmen selbst entsprechende Kontrollen und Filter etablieren, um unerwünschte KI-Prozesse zu verhindern und Missbrauchsversuche zu blockieren?

Entwicklung eigener KI-Filter oder Einsatz von Spezialwerkzeugen

Zum einen können Nutzende von einem Dienst wie ChatGPT selbst Content-Filter bearbeiten und definieren. Mit entsprechenden Moderationsfunktionen und Filter können Eingaben und Ausgaben verhindert werden, die gegen die Nutzungsbedingungen von OpenAI verstoßen oder bei angepassten Filtern auch gegen eigene Richtlinien.

Die Entwicklung zum Beispiel von Malware und Phishing-Mails soll so verhindert werden. Es zeigt sich jedoch, dass seitens der Internetkriminellen bereits Filter umgangen wurden, also die Richtlinien durchbrochen wurden, indem nicht direkt eine Ransomware angefragt wurde, sondern etwas, das letztlich die Funktionen eines solchen Erpresservirus besitzt, aber in der Anfrage an die KI anders umschrieben wurde.

Ein Beispiel aus dem Check Point Research (CPR) Team: CPR-Forscher haben im Februar 2023 einen Fall von Cyberkriminellen entdeckt, die ChatGPT nutzten, um den Code einer Infostealer-Malware aus dem Jahr 2019 zu „verbessern“. Auch wenn der Code nicht kompliziert oder schwierig zu erstellen ist, hat ChatGPT den Code des Infostealers verbessert, trotz der Filter, die OpenAI einsetzt, so die Forschenden.

Nicht zuletzt deshalb ist es für Unternehmen, die KI-Dienste verwenden wollen, interessant, auch andere Werkzeuge nutzen zu können, um eine KI und deren Verwendung zu kontrollieren, nicht nur den Selbstschutz, den eine KI womöglich mitbringt.

Zusätzliche Kontrolle über KI-Funktionen im Unternehmen

„Generative KI stellt einen Wendepunkt der Technologie dar, und diejenigen Organisationen mit einer großen Menge an relevanten Unternehmensdaten verfügen, können das KI-Potenzial schon heute einsetzen“, sagte Jay Chaudhry, CEO, Chairman und Gründer von Zscaler.

Dazu müssen Unternehmen aber verhindern können, dass gegen rechtliche, vertragliche und interne KI-Vorgaben verstoßen wird. Dazu gehört es, den Abfluss vertraulicher Informationen zu verhindern. Möglich macht dies zum Beispiel Data Protection for AI (als Teil von Zscaler Data Loss Prevention), es verhindert laut Anbieter potenzielle Datenlecks. Dies schließt Aufforderungen zu generativen KI-Abfragen und den Output öffentlich verfügbarer KI-Anwendungen zu Sicherheits- und Prüfzwecken in ihrer eigenen Umgebung ein.

Ein weiteres Prüfwerkzeug für KI-Dienste ist AITotal, ein Risikobewertungssystem für die große, steigende Zahl von KI-Anwendungen, das das Risikoprofil und die Datenschutzrichtlinien von Anwendungen berücksichtigt.

Das dritte Beispiel, auch von Zscaler, ist AI Visibility & Access Control, das speziell auf die Überwachung der Nutzung von KI-Anwendungen zugeschnitten ist, so der Anbieter. Diese Lösung bietet demnach die Möglichkeit, unterschiedliche Richtlinien für verschiedene Benutzergruppen zu erstellen, um ihnen eine präzise Kontrolle über den Zugriff auf KI-Anwendungen zu ermöglichen.

Diese Lösungsbeispiele machen deutlich: Neben der wichtigen Diskussion über die notwendigen Vorgaben und Richtlinien für KI gibt es bereits Werkzeuge, um entsprechende Richtlinien auch innerhalb von Unternehmen durchzusetzen. Eine wichtige Entwicklung, um die KI-Nutzung in Unternehmen besser steuern und KI-Risiken möglichst eindämmen zu können.