Categories: KIStudie

Gartner: Ein Drittel der Unternehmen nutzen oder implementieren Tools für Sicherheit von KI-Anwendungen

Für die Umfrage hat Gartner Anfang April 2023 150 IT- und Informationssicherheits-Führungskräften in Unternehmen der eigenen Peer-Community-Umfrage befragt, in denen GenAI oder generative Modelle im Einsatz sind, deren Einsatz geplant ist oder erforscht wird.

“IT-, Sicherheits- und Risikomanagement-Verantwortliche müssen neben der Implementierung von Sicherheitstools auch die Unterstützung einer unternehmensweiten Strategie für KI TRiSM (Vertrauens-, Risiko- und Sicherheitsmanagement) in Betracht ziehen”, so Avivah Litan, Analyst bei Gartner. “AI TRiSM verwaltet Daten- und Prozessflüsse zwischen Nutzern und Unternehmen, die generative KI-Grundlagenmodelle hosten, und muss kontinuierlich erfolgen, um eine Organisation zu schützen.”

Für GenAI-Sicherheit ist die IT verantwortlich

Während 93 Prozent der befragten IT- und Sicherheitsverantwortlichen angaben, dass sie zumindest in gewissem Maße an den GenAI-Sicherheits- und Risiko-Managementmaßnahmen  ihres Unternehmens beteiligt sind, gaben nur ein Viertel an, dass sie die Verantwortung dafür tragen.

Von den Befragten, die nicht die Verantwortung für die GenAI-Sicherheit und/oder das Risikomanagement tragen, gaben 44 Prozent an, dass die letztendliche Verantwortung für die GenAI-Sicherheit bei der IT liegt. Für 20 Prozent der Befragten liegt die Verantwortung bei den Abteilungen für Governance, Risiko und Compliance ihres Unternehmens.

Top-of-Mind-Risiken

Die mit GenAI verbundenen Risiken sind erheblich, kontinuierlich und werden sich ständig weiterentwickeln. Die Umfrageteilnehmer gaben an, dass unerwünschte Ergebnisse und unsicherer Code zu den Risiken gehören, die ihnen beim Einsatz von GenAI am meisten auffallen. 57 Prozent der Befragten sind besorgt über das Durchsickern von Geheimnissen in KI-generiertem Code und 58 Prozent sind besorgt über falsche oder verzerrte Ergebnisse.

“Unternehmen, die das KI-Risiko nicht im Griff haben, werden erleben, dass ihre Modelle nicht wie beabsichtigt funktionieren und im schlimmsten Fall Menschen- oder Sachschäden verursachen können”, so Litan. “Dies führt zu Sicherheitsmängeln, finanziellen und Reputationsverlusten und zur Schädigung von Personen durch falsche, manipulierte, unethische oder voreingenommene Ergebnisse. KI-Fehlleistungen können auch dazu führen, dass Unternehmen schlechte Geschäftsentscheidungen treffen.”

Roger Homrich

Recent Posts

IT-Trends 2024: Signifikantes Wachstum von Rechenzentren

Teil 3: Wachsender Bedarf an Rechenleistung durch Trends wie KI, HPC und Edge Computing.

18 Stunden ago

Umstellung auf S/4HANA: Struktur für den Modernisierungsprozess

SAP-Modernisierung ist komplex, dauert in der Regel mehrere Jahre und birgt etliche Fallstricke und Risiken,…

2 Tagen ago

Welche Rolle spielt Software bei den CO2-Emissionen?

Das Bewusstsein für die von Rechenzentren verursachten Treibhausgase steigt, aber die Frage, wie „grün“ Software…

2 Tagen ago

Deutscher KI-Markt wächst 2023 um ein Drittel

Bitkom: 2024 sollen die Ausgaben erneut um 30 Prozent auf dann 8,2 Milliarden Euro steigen.

2 Tagen ago

IT-Trends 2024: KI-basiertes Wettrüsten geht in die nächste Runde

Teil 2: KI und Automatisierung liefern Angreifern wie Verteidigern entscheidende Sprungbretter für ein erfolgreiches Vorgehen,…

3 Tagen ago

Der Feind aus dem Inneren

Der menschliche Faktor ist das größte Risiko für jede Organisation, ob als externer Gegner oder…

3 Tagen ago