Categories: ForschungInnovationKI

Cyberagentur will maschinelles Lernen sicher machen

In den vergangenen Jahren hat sich das Maschinelle Lernen (ML) in verschiedenen Ausprägungen angesichts stetig steigender Performance und zunehmender Vielseitigkeit zu einem maßgeblichen Analysewerkzeug für immer größere und komplexere Datenmodelle entwickelt. Beispiel: die Bildererkennung beim autonomen Fahren. Schon unscheinbare Änderungen an Verkehrsschildern können zu einer Fehlfunktion des Fahralgorithmus führen. Die Erforschung beweisbarer Sicherheit und deren Grenzen sowie inhärente Robustheit gegenüber solchen Angriffen steht dabei noch am Anfang.

Unerwartete Eingaben können zu katastrophalen Ergebnissen führen

Größte Schwachstellen des maschinellen Lernens sind die große Abhängigkeit von Trainingsdaten und die Intransparenz der trainierten Modelle. Dadurch führen unerwartete Eingaben mitunter zu unvorhergesehenen und schwer nachvollziehbaren – und im Einzelfall möglicherweise katastrophalen – Ergebnissen. Ein weiteres Beispiel findet sich in der aktuellen Diskussion um KI-Chatbots. Mittels manipulierter Befehle – Prompt Injection – können Sprachmodelle nachweislich zu unbeabsichtigten und potenziell folgenschweren Aussagen verleitet werden.

Vor diesem Hintergrund wurde das neue Forschungsvorhaben von den Wissenschaftlern der Cyberagentur entwickelt. „Ziel ist die Erforschung und Entwicklung neuer, potenziell bahnbrechender Ansätze zur Steigerung der Robustheit und Sicherheit verschiedener KI-Ansätze in den Domänen der inneren und äußeren Sicherheit“, erklärt Daniel Gille, Projektleiter und Leiter „Sicherheit durch KI und Sicherheit für KI“ in der Cyberagentur, den Ansatz der Ausschreibung des Forschungsprojektes.

Antworten im oft vernachlässigten Themenbereich KI-Sicherheit

Für den fünf Phasen umfassenden Projektwettbewerb wurden fünf wesentliche Forschungsschwerpunkte herausgestellt: Datenabsicherung, Modellverifikation, Systemeinbettung, Hybridmodelle aus neuronalen und symbolischen Komponenten sowie Ende-zu-Ende-Verifikation. „Wir möchten Antworten auf einige der ungelösten Fragen im oft vernachlässigten Themenbereich Sicherheit für KI finden“, sagt Daniel Gille. „Diese sind beispielsweise: Wie und in welchem Umfang können Sicherheits- und Robustheitseigenschaften für spezifische Anwendungsdomänen und Systeme nachgewiesen werden? Wo liegen die Grenzen einer Nachweisbarkeit und wie lassen sich Systeme mit wünschenswerten Sicherheitseigenschaften als Prototyp realisieren?“

„Gerade im Kontext der inneren und äußeren Sicherheit sowie bei kritischen Infrastrukturen ist für uns die Nachweisbarkeit von Sicherheit und Robustheit von neuronalen KI-Systemen gegenüber gezielten Angriffen und manipulativen Inputs von entscheidender Bedeutung“, betont Projektleiter Gille. Hier möchte die Cyberagentur angesichts der geopolitischen Situation mit staatlichen und nichtstaatlichen Akteuren, die technisch versiert und am neuesten wissenschaftlichen Stand orientiert sind, wirksame Forschung stimulieren. Die im Fokus stehenden Systeme und Infrastrukturen werden zukünftig direkte Auswirkungen auf das Leben einer potenziell großen Anzahl von Menschen haben. Ein Maximum an Sicherheit beim Einsatz von Maschinellem Lernen ist in diesen Domänen daher unabdingbar. „Das kann momentan nicht gewährleistet werden“, erläutert Dr. Gille noch einmal den Hintergrund der Ausschreibung. „Die geplante Beauftragung soll dabei helfen, die wissenschaftlichen Grundlagen für dieses anzustrebende Maximum an Cybersicherheit von KI-Systemen zu schaffen und auszubauen.“

Parallele Beauftragung mehrerer Bieter

In den fünf Jahren Projektlaufzeit soll sowohl Grundlagenforschung stattfinden als auch Prototypen entstehen. Um innovative Ansätze entlang der fünf Forschungsschwerpunkte für ein breites Spektrum an möglichen Zukunftsanwendungen zu realisieren, plant die Cyberagentur die parallele Beauftragung mehrerer Bieter bzw. Bietergemeinschaften. Im Rahmen des geplanten „Wettbewerbs der Ideen“ sollen die Ergebnisse phasenweise evaluiert und das Teilnehmerfeld schrittweise verkleinert werden. Der überzeugendste Ansatz verbleibt bis zum Abschluss der letzten Phase im Wettbewerb. Dort erhalten die Teilnehmer die Möglichkeit, entwickelte Artefakte im Rahmen einer realistischen Testumgebung zu erproben und evaluieren. Angebote abgeben können alle akademischen und außeruniversitären Forschungseinrichtungen, Industrieunternehmen und Startups.

Die Ausschreibung wurde im Supplement zum Amtsblatt der Europäischen Union mit der Vergabenummer 2023/S 070-206022 veröffentlicht.

Roger Homrich

Recent Posts

Bahn lässt Robo-Hund auf Graffitis los

In München läuft ein vierbeiniger Roboter durch die Abstellanlagen der S-Bahn und meldet Auffälligkeiten an…

1 Tag ago

Positiver ROI ist das beste Argument für KI-Projekte

2023 war das Jahr des Experimentierens mit KI. 2024 zieht KI in den Arbeitsalltag ein,…

1 Tag ago

Industrie 4.0-Adaption: China fast immer in der Pole Position

Laut Umfrage nutzen 94% der chinesischen Fertigungsunternehmen KI-basierte Lösungen. In der DACH-Region liegt der Vergleichswert…

2 Tagen ago

Cybersicherheit: Deutsche Autobauer fahren hinterher

Laut Kaspersky-Umfrage hat kaum jeder zehnte den neuen UN-Standard WP.29 implementiert. Weiterer 28% haben noch…

2 Tagen ago

BSI warnt vor kritischen Schwachstellen in Microsoft Exchange Server

Rund 17.000 Exchange-Server-Installation in Deutschland gelten als stark gefährdet. Sie werden entweder nicht mehr von…

2 Tagen ago

Porsche eBike Performance setzt auf KI-gestützte Software

Die Porsche-Tochter hat mit Automatisierungsfunktionen und Bots in Freshservice den IT-Service automatisiert und skaliert.

3 Tagen ago