IT-Trends 2024: Cybersecurity steht ganz im Zeichen von generativer KI

Angreifer und Verteidiger nutzen die Vorteile von GenAI bereits in vollen Zügen. Aber das Ende der Fahnenstange ist laut Cyberreason hier noch lange nicht erreicht.

Ransomware goes local

Der Prozentsatz der Unternehmen weltweit, die erfolgreich mit Ransomware angegriffen wurden, ist mit 89 Prozent fast gesättigt. Die Angreifer müssen also neue Ziele finden. KI-Chatbots wie ChatGPT ermöglichen es jedem, in jeder beliebigen Sprache gut zu kommunizieren. Daher ist damit zu rechnen, dass sich Angriffe stärker über die englische Sprache hinaus ausbreiten und die größten Auswirkungen in nicht englischsprachigen Ländern zu verzeichnen sind. KI-Chatbots beschleunigen diesen Trend.

Anstieg personalisierter Angriffe

Bisher ermöglichten KI-Chatbots jedem, schnell öffentlich zugängliche Informationen zu sammeln und zusammenzufassen. Dies basierte jedoch auf Legacy-Daten. ChatGPT 4.0 erleichtert den Zugang zu Live-Internetinformationen über APIs. So wird es immer einfacher, ein persönliches Profil zu erstellen und KI-Chatbots zur dynamischen Erstellung personalisierter Mitteilungen zu nutzen. Damit gehen immer mehr personalisierte Angriffe einher. Vor allem ein Anstieg von Whaling-Angriffen sowie auf die Versorgungs- und Kommunikationsströme dieser Ziele ist zu erwarten.

Unterschätzung der Risiken von KI-Systemen

2019 wurde die KI-basierte Sicherheits-Engine eines Sicherheitsanbieters von Angreifern ausgenutzt. Sie lernten, wie sie das Scoring, das hinter der KI-Fähigkeit stand, austricksen konnten. So wurde etwas, das als bösartig bekannt war, für gutartig gehalten. Da KI-Systeme immer komplexer und häufiger eingesetzt werden, wird die Suche nach Exploits und Schwachstellen in den immer wichtiger werdenden KI-gesteuerten Unternehmenssystemen an Bedeutung gewinnen. Ein spezieller Bereich, der hier stärker unter die Lupe genommen werden wird, sind synthetische Benutzer. Dazu zählen beispielsweise autonome Accounts, die oft eine Brücke zwischen KI und Anwendungen von Drittanbietern oder KI und KI-Anwendungen bilden.

Datenschutzgesetze kommen auf den Prüfstand

KI-Tools, die die Generierung von Inhalten aus dem Scraping von Daten ermöglichen, um ein umfassendes Profil von Personen zu erstellen, stellen uns vor neue Herausforderungen in Bezug auf die Frage, wie viele Daten aggregiert werden können und wer dafür verantwortlich ist: das Tool, das sie aggregiert, oder die Person, die das Tool nutzt? Kurzfristig ist mit vermehrten Anträgen auf das Recht auf Vergessenwerden zu rechnen. Aber Unternehmen werden sich verstärkt um die öffentlich einsehbaren personenbezogenen Daten ihrer Mitarbeiter kümmern und genauer prüfen müssen, welche Daten sie besitzen und ob KI-Tools auf diese Daten zugreifen können. Längerfristig ist daher mit weiteren Überarbeitungen der Datenschutzgesetze zu rechnen.

Neue Herausforderungen beim Identitätsmanagement

In den letzten Jahren hat die explosionsartige Zunahme von SaaS-Tools die Unternehmen vor die Herausforderung gestellt, Single-Sign-On-Lösungen effektiv zu nutzen. Mit der Möglichkeit, öffentliche Informationen mit Hilfe von Gen AI-Tools auszulesen, ergeben sich nun zwei zusätzliche Probleme: Erstens müssen wir damit rechnen, dass dieses Daten-Scraping zusammen mit Tools zum Brute-Forcing von Passwörtern genutzt wird, um beispielsweise mit dem Namen von Haustieren oder Familienmitgliedern Passwörter leichter zu knacken. Passwortsicherheit wird also wichtiger denn je.

Gleichzeitig erhöht sich mit generativen KI-Tools die Möglichkeit, Mitarbeitern vorzugaukeln, dass sie ein Gespräch mit einem vertrauenswürdigen Kollegen oder einer dritten Partei führen. Denn sie stellen einen realen Kontext her. Aus diesem Grund müssen wir künftig weitere Methoden zur Überprüfung der Identität einer Person einsetzen. Multi-Faktor-Authentifizierung in den Grenzbereichen des Unternehmens wird zur absoluten Notwendigkeit.

Der Fachkräftemangel macht ergebnisorientierte Sicherheitsservices populär

Die Zahl der im Bereich Cybersecurity tätigen Personen ist weltweit zwar um etwa 13 Prozent gestiegen (ISC2-Cybersecurity-Workforce-Studie 2023). Dennoch ist mehr als eine von zwei Stellen unbesetzt, weil der Bedarf zugenommen hat. Dies stellt die Unternehmen vor die Herausforderung, ihre Mitarbeiter besser einzusetzen und ihnen mit ergebnisorientierten Dienstleistungen und entsprechender Technologie unter die Arme zu greifen. Jetzt rückt die Frage in den Vordergrund: Wie viel kann und sollte ausgelagert werden?

Synthetische Benutzerkonten als neue Schwachstelle

In dem Maße, in dem generative KI in Geschäftsanwendungen Einzug hält, wird die Verwendung synthetischer Benutzerkonten zum Testen und Überwachen sowie zum dynamischen Abfragen und Austauschen von Daten zwischen Funktionen zunehmen. Häufig werden diese Konten zum Testen von Funktionen eingerichtet und nach ihrer Einrichtung schlichtweg vergessen. Da sie aber in der Regel viele Berechtigungen haben, werden sie schnell zur Schwachstelle.

Die Sicherheit von nicht Cloud-fähigen Systemen gewinnt an Bedeutung

Insbesondere viele kritischen Systeme sind nicht Cloud-fähig, aber aufgrund ihres kritischen Charakters bei Angreifern hoch im Kurs. Kein Wunder also, dass sie ins Visier genommen werden und allzu oft auch als Kollateralschaden von allgemeineren Angriffen betroffen sind. Denn geschlossene oder Offline-Netzwerke sind nicht immer zu 100 Prozent offline. Angesichts neuer Vorschriften wie der NIS2-Richtlinie der EU, die sich auf kritische Geschäftssysteme und die zugehörige Lieferkette konzentrieren, müssen Unternehmen Sicherheitslösungen prüfen und finden, die für den Betrieb in vollständig offline geschalteten Umgebungen konzipiert und geeignet sind.

 

Lesen Sie auch : Sicher in die KI-Ära