Beim Einsatz von LLMs haben Cyberkriminelle drei Möglichkeiten. Der erste Ansatz ist, ein benutzerdefiniertes LLM zu entwickeln, was technisches Fachwissen und Ressourcen erfordert. Derzeit ist das Entwickeln einer allgemein für bösartige Zwecke geeigneten LLM, die etwa beim Programmieren von Malware unterstützt, jedoch noch unwahrscheinlich.

Die wirkliche und aktuell realistische Gefahr liegt in LLMs als effiziente Hilfsmittel für Betrug. Ein solcher pragmatische Einsatz entspricht eher der Arbeitsweise der Cyberkriminellen: Diese suchen in der Regel unkomplizierte, wiederholbare und skalierbare Playbooks als Vorlage für ihre Angriffe. Sie sind zudem wenig geneigt, zu viel Geld und Ressourcen in aufwändige, von KI-Tools abhängige Systeme zu investieren, welche dann nach einer Änderung dieser schnellebigen Werkzeuge nicht mehr funktionieren. Ein in Monaten entwickeltes und von ChatGPT abhängiges komplexes System kann durch wenige Zeilen veränderten Codes lahmgelegt werden. Zu hoch ist daher das Risiko, dass der Wert der aufwändigen Investition im Nu verloren ist.

Jailbreak regulärer LLMs

Die zweite Möglichkeit besteht darin, reguläre LLMs zu jailbreaken. Dies erfordert allerdings Fachkenntnisse im Prompt-Engineering, was weniger technisch versierte Angreifer, die am meisten von LLMs profitieren würden, von der Nutzung ausschließt.

Die dritte Möglichkeit ist der Einsatz benutzerdefinierter Versionen von ChatGPT, die sich für bestimmte Zwecke erstellen lassen. Der GPT Builder von OpenAI bietet eine Plattform, mit der Benutzer ChatGPT für bestimmte Aufgaben anpassen können, ohne selbst programmieren zu müssen.

Qualität von ChatGPT Malware-Code

In diesem Zusammenhang stehen die Möglichkeiten von KI-generierter Malware und die damit verbundenen Folgen für die Cybersicherheit zurzeit intensiv in der Diskussion. Zwar kann man mit ChatGPT Malware-Code generieren, doch ist dieser nicht von besserer Qualität als das, was bereits als Massenware verfügbar ist. Das macht ihn für erfahrene Malware-Autoren, denen öffentliche Code-Repositories wie GitHub besseren Schadcode bieten, weniger attraktiv.

Was LLMs wirklich von älteren Machine-Learning-Modellen unterscheidet, sind ihre bemerkenswerten Fähigkeiten, natürliche Sprache zu verarbeiten und zu generieren. Dadurch kann generative KI den Cyberkriminellen ihr Handwerk erleichtern, insbesondere bei Social-Engineering-Angriffen und bei der Analyse großer Datenmengen zur Informationsbeschaffung.

Für das Verfassen betrügerischer Nachrichten senkt der Einsatz von LLM-gestützten Chatbots zum Beispiel Sprachbarrieren der Angreifer spürbar. Dadurch können Hacker anspruchsvollere Angriffe auf eine größere Anzahl von Adressaten ausweiten und die Glaubwürdigkeit von Phishing-Nachrichten erhöhen. LLMs unterstützen Kriminelle nicht nur hinsichtlich sprachlicher Aspekte wie Orthografie, Grammatik und korrekter Formulierungen in Fremdsprachen, sondern auch auf inhaltlicher Ebene wie der Gebrauch passender Branchenbegriffe, Insider-Akronyme oder aktueller Ereignisse, die Einfluss auf potenzielle Opfer haben.

Cyberkriminelle können generative KI in mehreren Bereichen für ihre Zwecke einsetzen.

Optimierte BEC-Angriffen

Mithilfe von LLMs können Angreifer etwa Kommunikationsstil, Terminologie und Insiderwissen von Vorgesetzten leicht und täuschend echt reproduzieren, indem sie deren früheren Konversationen in ihre Modelle einspeisen. Aktuell ist daher mit einem Anstieg von Business-Email-Compromise (BEC)-Angriffen auf Unternehmen aller Größen zu rechnen.

Plausiblere Betrugsversuche

Beim Vorschussbetrug bringen Kriminelle ihre Opfer unter Vorspielen falscher Tatsachen dazu, Gelder vorzustrecken. Im Rahmen des Gesprächs mit dem Opfer liefern die Täter häufig Gründe und Informationen, die allein schon mit dem gesunden Menschenverstand den falschen Urheber verraten können. LLM-Chatbots ermöglichen es Cyberkriminellen, die Glaubwürdigkeit ihrer Betrugsversuche zu erhöhen.

Skalierbarkeit hochentwickelter Angriffe

LLMs haben das Potenzial, die Einstiegshürde für hochentwickelte Angriffe, die viel Zeit, Mühe und Investitionen erfordern, erheblich zu senken, so dass sie für ein breiteres Spektrum an Kriminellen interessant sind. Dies vergrößert nicht nur den Pool potenzieller Angreifer, sondern es ermöglicht auch bereits erfahrenen Hackern, hochentwickelte Angriffe häufiger auszuführen.

Ransomware-Rechner

LLMs können, vergleichbar mit Tools wie Crunchbase, Angreifer beim Sammeln von Informationen über Unternehmen unterstützen. Sie bieten nicht nur Übersichten zu Hintergrund und Finanzstatus eines Unternehmens, sondern analysieren zusätzlich die neuesten Nachrichten in der Presse, inklusive Fusionen und Übernahmen. Eine der praktischsten und am einfachsten monetarisierbaren Einsatzmöglichkeiten von LLMs für Cyberkriminelle ist die KI-gesteuerte Sichtung und Analyse großer Datenmengen und damit einhergehend die Identifikation lukrativer Ziele. Ransomware-as-a-Service (RaaS)-Gruppen verfügen häufig über spezielle Open-Source-Intelligence-(OSINT)-Teams, die eine realistische Lösegeldforderung evaluieren und festlegen. Durch die intelligente Auswahl von Organisationen mit dem höchsten Druckpotenzial könnten Ransomware-Gruppen ihre Quote geleisteter Lösegelder maximieren.

Analyse öffentlicher Datenlecks

Die von LLMs generierten maßgeschneiderten Nachrichten lassen sich dafür verwenden, überzeugende Spear-Phishing-Angriffe zu entwickeln, indem die Cyberkriminellen Informationen aus bekannt gewordenen Datenlecks oder Unternehmenswebsites nutzen. Diese Automatisierung vergrößert den Umfang potenzieller Ziele und erhöht zugleich die Authentizität der bösartigen Kommunikation.

Bewerten exfiltrierter Daten

Schließlich können Cyberkriminelle LLMs nutzen, um Daten zu sichten, die sie bei Unternehmen erbeutet haben. Durch ihre Fähigkeit, natürliche Sprache zu verarbeiten, können die Modelle sensible Informationen in den gestohlenen Daten kategorisieren und identifizieren. Denn Terabytes von Daten zu stehlen, ist eine Sache. Daraus die Informationen gezielt zu extrahieren oder unverfügbar zu machen, die effektiv ein hohes Lösegeld generieren oder sich gut verkaufen lassen, steht auf dem nächsten Blatt.

Unternehmen sollten daher ihre grundlegenden Sicherheitsmaßnahmen stärken und einen mehrschichtigen Sicherheitsansatz verfolgen. KI-gestützte Sicherheitstechnologien, die unter anderem dafür entwickelt wurden, Social-Engineering-Angriffe zu erkennen, können zudem unterstützen, mittels fortschrittlicher natürlicher Sprachverarbeitung (NLP) die typischen Warnzeichen von Betrugsversuchen zu entdecken und die Gefahr im Keim abzuwehren.

Martin Zugec

ist Technical Solutions Director bei Bitdefender.

Roger Homrich

Recent Posts

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

2 Tagen ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

2 Tagen ago

Selbstangriff ist die beste Verteidigung

Mit autonomen Pentests aus der Cloud lassen sich eigene Schwachstelle identifizieren.

3 Tagen ago

Prozessautomatisierung im Distributionslager

Die Drogeriekette Rossmann wird ihr neues Zentrallager in Ungarn mit Software von PSI steuern.

3 Tagen ago

Wie autonome Fahrzeuge durch Quantencomputing sicherer werden können

Automobilhersteller planen, Quantentechnologie zunehmend auch bei fortschrittlichen Fahrerassistenzsystemen (ADAS) einzusetzen.

3 Tagen ago

Heineken plant Bedarfe mit KI-Lösung von Blue Yonder

Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.

4 Tagen ago