“KI wird die Cybersicherheit maßgeblich prägen – für Verteidiger und Angreifer”

APT-Gruppen verbreiten KI-Modelle mit verborgenen Backdoors, warnt Waldemar Bergstreiser von Kaspersky im Interview.

Herr Bergstreiser, KI wird zunehmend von Cyberkriminellen genutzt. Wie schätzen Sie die aktuelle Situation in Deutschland ein?

Waldemar Bergstreiser: KI hat in der Cybersicherheit einiges verändert – sowohl für Angreifer, Unternehmen als auch für Sicherheitsanbieter. Unsere aktuelle Studie zeigt, dass mehr als die Hälfte der Unternehmen in Deutschland verzeichnen einen Anstieg von Cyberangriffen. Dabei gehen 37 Prozent davon aus, dass ein Großteil dieser Angriffe durch KI-Technologien unterstützt wurde und 69 Prozent äußern Bedenken hinsichtlich des Einsatzes von KI durch Cyberkriminelle . Obwohl das Bewusstsein für die Bedrohungen zunimmt, sind viele Unternehmen nach wie vor nicht ausreichend vorbereitet. Daher beabsichtigen viele, ihre Cybersicherheitsstrategien zu überdenken und proaktive, ganzheitliche Lösungen zu implementieren.

Wie nutzen Cyberkriminelle KI und welche potenziellen Bedrohungen könnten sich aus künftigen Entwicklungen ergeben?

Waldemar Bergstreiser: Cyberkriminelle nutzen KI vor allem für Phishing und Deepfakes, allerdings auch für technisch tiefgreifendere Methoden. Sie setzen KI ein, um Sicherheitsvorkehrungen zu analysieren, Schwachstellen zu identifizieren und gezielt zu umgehen. Beispiele sind Firewalls oder Intrusion-Detection-Systeme (IDS), deren Verhalten durch KI-Algorithmen analysiert wird. Auf Basis der gewonnenen Informationen passen die Angreifer ihre Methoden an, um unerkannt zu bleiben. Diese Technologie ermöglicht es auch, Sicherheitslücken in Anwendungen oder Betriebssystemen automatisiert aufzuspüren und zu nutzen, um Zugriff auf sensible Daten zu erhalten.

Dabei hilft Automatisierung den Cyberkriminellen?

Waldemar Bergstreiser: KI-gestützte Angriffe erlauben es Angreifern, Attacken in großem Maßstab und ohne menschliche Intervention durchzuführen. Zum Beispiel optimiert KI Brute-Force-Angriffe, indem sie Muster in Passwortdatenbanken analysiert und gezielte Strategien entwickelt, um Systeme effizient zu kompromittieren. Ebenso steigert KI die Effektivität von Distributed-Denial-of-Service-(DDoS)-Angriffen, indem Ressourcen optimal koordiniert und Abwehrmechanismen gezielt überlistet werden.

Eine besonders gefährliche Entwicklung stellt dabei auch KI-basierte Malware dar. Diese Schadprogramme analysieren Abwehrmechanismen in Echtzeit und passen ihre Angriffsstrategien dynamisch an, um unentdeckt zu bleiben. Polymorphe Engines verändern den Malware-Code kontinuierlich, ohne die Funktionalität zu beeinträchtigen, um Sicherheitssoftware zu umgehen. Zusätzlich kann KI bestehende Malware modifizieren oder Nutzerverhalten simulieren, wodurch die Erkennung durch automatisierte Systeme erschwert wird. Aktuell sind viele dieser Ansätze zwar noch eher theoretisch oder in der Forschung angesiedelt, aber die potenziellen Risiken sind erheblich.

Wie sieht es mit Deep Fakes aus?

Waldemar Bergstreiser: Deepfake-Angriffe stellen nochmal ein besonderes Risiko dar, da diese darauf abzielen, das Vertrauen in ein Unternehmen zu untergraben. Wenn Kunden oder Geschäftspartner manipulierte Inhalte für echt halten, kann das die Reputation dauerhaft schädigen. Unternehmen in Deutschland verzeichneten im vergangenen Jahr durchschnittlich 13 Sicherheitsvorfälle, die durchschnittlich Kosten in Höhe von rund 1,02 Millionen Euro verursachten . 

Was erwartet uns noch in Bezug auf KI auf Angreifer-Seite?

Waldemar Bergstreiser: KI wird die Cybersicherheit weiterhin maßgeblich prägen – sowohl für Verteidiger als auch für Angreifer. Auf der Angreiferseite zeigt sich dies in den Prognosen unserer Experten für 2025 besonders deutlich: Sie gehen davon aus, dass APT-Gruppen KI-Modelle mit verborgenen Backdoors verbreiten werden. Hierbei würden Open-Source-KI-Modelle und -Datensätze kompromittiert, um schädlichen Code einzuschleusen oder schwer erkennbare Verzerrungen zu erzeugen, die später weit verbreitet werden könnten.

Darüber hinaus erwarten sie, dass Large Language Models (LLMs) künftig verstärkt für die automatisierte Schwachstellenerkennung, Aufklärung und die Erstellung von Schadcode eingesetzt werden. Zusätzlich dürfte der Einsatz von Deepfake-Technologien zunehmen, um Personen täuschend echt nachzuahmen und so noch gezieltere Social-Engineering-Angriffe durchzuführen. Dies könnte beispielsweise durch realistisch wirkende Nachrichten oder Videos geschehen, die darauf abzielen, Mitarbeiter zu manipulieren oder zu einer Preisgabe sensibler Informationen zu verleiten.

Gibt es einen Weg, sich zu schützen?

Waldemar Bergstreiser: Der besteht aus einem Zusammenspiel von Technologien, menschlicher Expertise und Schulungen bestehen. Dazu gehören Next-Gen-Lösungen, die Bedrohungen in Echtzeit erkennen. Deepfake-Detektoren und KI-gestützte Anomalieerkennung sind hier besonders wertvoll, da sie helfen, ungewöhnliche Muster frühzeitig festzustellen.

Ein Zero-Trust-Sicherheitsmodell hilft, den Schaden bei erfolgreichen Angriffen durch begrenzten Zugriffsrechte zu minimieren. Durch regelmäßige Schulungen lernen Mitarbeitende Bedrohungen wie Phishing oder Deepfake-Angriffe zu erkennen und zu wissen, wie sie in verdächtigen Situationen richtig reagieren.

Unternehmen sollten auch digitale Signaturen einsetzen, um die Authentizität von Audio- und Videoinhalten sicherzustellen. Diese Signaturen funktionieren ähnlich wie SSL-Zertifikate und können automatisiert im Hintergrund geprüft werden. Aber Technologie allein reicht nicht. Menschen müssen geschult sein und aufmerksam bleiben, um verdächtige Inhalte zu identifizieren und Lücken zu schließen. Und nicht zuletzt ist ein klarer Notfallplan unverzichtbar. 

Waldemar Bergstreiser

ist General Manager DACH bei Kaspersky.