Categories: Gastbeitrag

ChatGPT und die Zukunft der IT-Security

Die Software ChatGPT von Open AI schlägt hohe Wellen und wird von manchen mit dem Erscheinen der Suchmaschine Google verglichen. Der Chatbot beantwortet mit Hilfe von KI sehr eloquent unterschiedlichste Fragen, schreibt Vorträge, Gedichte und vieles mehr. Daher sollte es niemand überraschen, dass Kriminelle – wie immer bei neuen Technologien — bereits darüber nachdenken, wie sie diese Fähigkeiten für ihre Zwecke nutzen können. Nun, wie gefährlich ist das für die IT-Security, und wie gut sind wir darauf vorbereitet?

Eine gemeinsame Studie von Europol, Unicri und Trend Micro hat dies untersucht. Für die Open AI-Software kämen diesen Ergebnissen zufolge noch besser erzeugte Social Engineering-Mittel wie Phishing oder BEC infrage. Aktuell haben auch weitere Sicherheitsforscher mit der derzeit gehypten KI erzeugte Betrüger-Mails untersucht und bedrohliche Ergebnisse erhalten. Auch scheinen die Kriminellen bereits in Untergrundforen über Wege zu diskutieren, ChatGPT ins Dark Web zu bringen.

Die Rolle von ChatGPT

Klar ist, ChatGPT hat nicht die Rolle der legendären „Büchse der Pandora“ inne, die nun geöffnet wurde, sondern stellt lediglich die erste Stufe einer vorhersehbaren Entwicklung dar, die früher oder später dazu führen wird, dass KI in der Cyberkriminalität verwendet wird. Für die Macher von Open AI mag die Veröffentlichung der vorläufige Höhepunkt einer langen Entwicklung sein, für die IT aber beginnt damit die Reise erst.

ChatGPT zeigt neue Möglichkeiten und wird verschiedene Andere zu Ähnlichem inspirieren. Die dahinterstehende Technologie wird für eine breite Öffentlichkeit verfügbar sein und als Baustein größerer Lösungen kostengünstig und sinnvoll eingesetzt werden. Eine für die IT übliche und auch positive Entwicklung. Die Rückseite der Medaille ist, dass auch Kriminelle darauf zugreifen werden und die Technik effizient nutzen können.

Phishing/Angriffsmails

Phishing-Mails gehören zum Standardprogramm der meisten Angriffsvarianten, um einen ersten Ansatzpunkt für weitere kriminelle Aktivitäten zu schaffen. Und das ist oft gar nicht so einfach. Deshalb gibt es auch einen eigenen Dienstleistungssektor im digitalen Untergrund, der so genanntes „Access-as-a-Service“ mit guter Qualität bietet — eine Frage des Preises, mehr nicht. Das Problem der Kriminellen ist, dass sowohl Technik als auch menschliche Intuition in der Lage ist, Attacken abzufangen, weshalb sie entweder in Masse (milliardenfach) gestartet werden oder, unter hohem Aufwand, mit menschlicher Interaktion.

KI zur Steigerung der Effektivität klingt für diese Tätergruppe sehr verlockend. Der aktuelle Stand der Technik mit ChatGPT kann dabei unterstützen, Mails glaubwürdiger zu formulieren. Es entfallen die häufig in Sicherheitsschulungen genannten Ausdrucks- und Rechtschreibfehler, und neue Inhalte können schneller generiert werden, so dass die Mails „attraktiver“ erscheinen.

Aber „bessere“ Phishing-Mails sind nicht die Sorgen, die Sicherheitsforscher beschäftigen, wenn sie über den Einsatz von KI im Rahmen von Access-as-a-Service nachdenken. Vielmehr befürchtet man, dass es gelingen könnte, eine KI so zu erstellen, dass sie in der Lage ist, eine interessante Kommunikation mit einem Opfer zu führen und damit den aktuell enormen Aufwand bei gezielten Angriffen zu reduzieren. Gelingt dies, sind künftige Phishing-Mails nicht mehr von echter Geschäftskommunikation zu unterscheiden. Die Opfer werden dann mit persönlichen Angriffen konfrontiert, in welche z.B. über soziale Medien verfügbares Wissen integriert ist. Die Angriffsvariante Emotet hat bereits vorgeführt, welche Effekte dies haben kann, indem sie ihre Angriffsmail als Antwort auf eine zuvor vom Opfer tatsächlich versendete Mail schrieb, zum Glück noch ohne KI-Unterstützung – mit generisch erzeugten Inhalten. Dynamite Phishing, wie diese Methode bezeichnet wird, erwies sich bereits jetzt als äußerst effektiv.

Scams

Die Fortschritte der KI in den letzten Jahren sind vor allem bezüglich Sprache und zwischenmenschliche Kommunikation zu beobachten. Das Besondere an ChatGPT ist auch, dass die Software nicht nur Bestehendes verwendet, sondern für Menschen interessante, neue Inhalte generiert. Damit liegt die Vermutung nahe, dass sie in diesem Bereich von Cyberkriminellen eingesetzt wird. Zwischenmenschliche Kommunikation gibt es bei allen Scam-Varianten. Im Unternehmensbereich ist dies z.B. die Methode Business E-Mail Compromise (BEC), bei der einem Mitarbeiter vorgegaukelt wird, er kommuniziere mit seinem Chef oder einem wichtigen Kunden. Und auch im privaten Bereich gibt es verschiedenste Varianten, wie diverse Romance Scams oder den berüchtigten „Prinzen aus Nigeria“. Kurz, das Opfer wird in einer direkten, häufig längeren Kommunikation überzeugt, am Ende unbedacht Geld an den Täter zu überweisen. Mit den aktuellen Möglichkeiten von ChatGPT dürften Mails kulturell optimiert werden, etwa mit Poesie.

Allerdings ist es auch hier eher die weitere Ausbaustufe, die Sorge bereitet. Das Erste, was fallen dürfte, sind Sprachbarrieren. Schon heute ist die KI auch in Deutsch erhältlich. Bisherige Übersetzungsmöglichkeiten können Wörter oder Sätze eindeutschen, aber nur schlecht den kulturellen Hintergrund einer Person übertünchen. Eine KI kann dies übernehmen. Schon heute gibt es verwandte Techniken im Bereich Deep Fakes, die es erlauben, die Gesichter von Menschen in Echtzeit auszutauschen und damit eine Identifikation über Video zu erschweren.

Darüber hinaus gibt es viele erprobte Betrugsschemata. Eine KI kann deshalb leicht mit erfolgreichen Fällen trainiert werden und daraus lernen, wie man Menschen am besten überzeugt. Täter können damit nicht nur ihre Effizienz steigern, sondern auch die Anzahl an Opfer, die sie parallel angreifen. Aber eine auf Betrug spezialisierte KI kann noch zu ganz anderen Einsatzszenarien führen, die wir heute noch gar nicht abschätzen können.

Malware-Erstellung

Die ChatGPT kann auch Software/Code entwickeln und debuggen. Daher gibt es die theoretische Möglichkeit, auch Malware zu erzeugen. In Proof-of-Concept-Versuchen wurde dies bereits nachgewiesen. Zwar passen die Entwickler von Open AI ihre Policies regelmäßig an, um das zu verhindern, dennoch gibt es immer wieder Beispiele, wie es dennoch funktioniert.

Noch gibt es Hürden: Der erstellte Code funktioniert zwar, fordert aber eine genaue Beschreibung durch den Anfrager. Auch wird darüber diskutiert, dass durch die KI erzeugter Code derzeit gerade bei der Softwareentwicklung noch nicht überzeugt. ChatGPT dürfte entschlossenen Cyberkriminellen deshalb heute tatsächlich noch relativ wenig nutzen. Allerdings ist auch hier die Ausbaustufe absehbar. Es ist klar, dass über kurz oder lang Angriffssoftware durch KI geschrieben wird. Damit wird beispielsweise der Zeitraum zwischen Entdeckung einer Schwachstelle, Patch derselben und Cyberangriff darauf, auf wenige Minuten reduziert — und das sogar für technisch eher unbegabte Kriminelle. All das sind aber bekannte Herausforderungen, für die es im Bereich der Security Lösungen gibt. Schon jetzt ist die Branche mit täglich mehr als 300.000 neuen bösartigen Dateien pro Tag konfrontiert. Wir sprechen von Zero Days und wenigen Stunden Zeit, und längst hat auch bei uns die KI die Arbeit übernommen, vor allem Unbekanntes an der Art des Vorgehens zu identifizieren.

Fazit

ChatGPT hat diese Entwicklung nicht angestoßen, sondern lediglich der Öffentlichkeit demonstriert, was in wissenschaftlichen Kreisen schon längst diskutiert wird. Man kann davon ausgehen, dass der Einsatz von KI vor allem bei der Erstinfektion eine Rolle spielen wird. Hier konkurriert Access-as-a-Service um Kunden, und die KI kann enorme Aufwände minimieren oder den Erfolg von Massenangriffen verbessern. Noch mehr als früher müssen in der Konsequenz Unternehmen davon ausgehen, dass es Angreifer schaffen werden, ihre primären Verteidigungsmechanismen auszuhebeln.

Richard Werner

Business Consultant bei Trend Micro

Roger Homrich

Recent Posts

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

21 Stunden ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

3 Tagen ago

Zero Trust bei Kranich Solar

Absicherung der IT-Infrastruktur erfolgt über die Zero Trust Exchange-Plattform von Zscaler.

3 Tagen ago

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen…

4 Tagen ago

Sicherheit für vernetzte, medizinische Geräte

Medizingeräte Hersteller Tuttnauer schützt Gerätesoftware mit IoT-Sicherheitslösung.

4 Tagen ago

Blockchain bleibt Nischentechnologie

Unternehmen aus der DACH-Region sehen nur vereinzelt Anwendungsmöglichkeiten für die Blockchain-Technologie.

4 Tagen ago