KI-Regulierung: Selbstverantwortung statt Fremdgestaltung

Denn hoch auf der Risiko-Liste stehen etwa die „Halluzinationen“ von Sprachmodellen oder die Verstärkung unbewusster Vorurteile durch unausgewogene Trainingsdaten. Hier ist menschliches Prüfen daher unabdingbar, denn blindes Vertrauen in die KI kann fatale Folgen haben. Und Unternehmen können es sich heute weniger denn je erlauben, negativ aufzufallen.

Unternehmen stehen unter Beobachtung

In den vergangenen Jahren haben viele Unternehmen Technik zum Nachteil von Verbrauchern und Unternehmenskunden ausgenutzt. So beeinflusste beispielsweise die ehemalige Beratung Cambridge Analytica den US-Wahlkampf 2016, indem sie anhand von Facebook-Daten hochdetaillierte Persönlichkeitsprofile erstellte und auswertete. Auch der „Diesel-Skandal“ fällt in diese Kategorie. Hier bauten VW und weitere Autohersteller eine illegale Abschaltvorrichtung in ihre Fahrzeuge ein, die im Teststand erheblich geringere Abgaswerte als im realen Fahrbetrieb aufwies.

Einheitliche Standards für KI-Anbieter setzen

Diese Umstände haben Verbraucher misstrauisch gemacht, wie eine kürzlich durchgeführte repräsentative Umfrage im Auftrag von Thoughtworks zeigt: Nach den Erfahrungen der Befragten in Deutschland können oder wollen sich Unternehmen nicht in einem angemessenen Umfang selbst regulieren. Daher halten 84 Prozent eine KI-Regulierung für sinnvoll. Mehr als die Hälfte der Befragten in Deutschland geht sogar davon aus, dass Unternehmen selbst eine gut gemachte Gesetzgebung umgehen würden. Sie befürchten insbesondere, dass Unternehmen ihre Daten unzureichend vor Cyberangriffen und -verletzungen schützen oder unerlaubt an Dritte weitergeben. Eine Regulierung hat deshalb zur Aufgabe, einheitliche Standards zu setzen und KI-Anbieter sowie -Nutzende zur Einhaltung zu verpflichten.

EU AI Act: Nachbesserungen erforderlich

Genau diese Eigenschaft sehen wir bei dem derzeitigen Entwurf des EU AI Acts noch nicht im notwendigen Maß berücksichtigt. Die aktuellen Regeln fußen auf dem technischen Stand von Ende 2022. Im letzten Jahr hat sich die Technologie allerdings so stark weiterentwickelt, dass hier eine erhebliche Lücke entsteht. Zudem fehlt bisher eine eindeutige Definition dessen, was unter die zu regulierende KI fällt – auch im AI Act. Die Medizintechnik könnte hier als Vorbild dienen: Für technische Geräte gibt es eine Reihe von Normen. Sie definieren, unter welchen Voraussetzungen ein technisches Gerät als „Medizintechnik“ gilt. Ein ähnliches Herangehen ist auch für eine effektive KI-Regulierung sinnvoll.

Tempo aufnehmen

Solange es in dieser Hinsicht noch Ungewissheit gibt, sollten Unternehmen, die KI einsetzen, und solche, die KI entwickeln und anbieten, versuchen, das Verbrauchervertrauen eigenständig zurückzugewinnen. Denn generell sehen die Menschen großes Potenzial in GenAI: In der bereits erwähnten Studie äußerten 83 Prozent der Befragten aus Deutschland die Meinung, dass Unternehmen mithilfe von Gen AI innovativer werden und die Kundenerfahrung verbessern können. Unternehmen sind deshalb gut beraten, rechtzeitig zu agieren. Dazu gehört einerseits, so früh wie möglich den Umgang mit KI transparent zu dokumentieren und offenzulegen, und andererseits, interne Standards für einen verantwortungsbewussten Umgang mit Technologie zu etablieren.

Das lohnt sich in doppelter Hinsicht, denn zum Einen können Unternehmen mit diesem Ansatz die Verbraucher eher für sich gewinnen. 85 Prozent der Studienteilnehmer in Deutschland würden eher bei einem Unternehmen kaufen, das für einen transparenten und fairen Umgang mit GenAI steht. Darüber hinaus bereiten sich solche Unternehmen bereits durch interne Standards auf einen verantwortungsvollen Umgang mit KI vor.

Vertrauen als strategischer Vorteil

Die Politik unternimmt erste Schritte in Richtung Regulierung und versucht, Innovation und Vorsichtsmaßnahmen auszubalancieren. Doch die aktuellen Vorgaben bedürfen noch Optimierungen, um ihren Zweck zu erfüllen. Andernfalls sind sie zum Geltungsdatum bereits überholt und ungeeignet, um Klarheit und Sicherheit zu schaffen.

Technologieverantwortliche sollten sicherstellen, dass Unternehmen ihre Verantwortung zur Eindämmung von KI-Risiken wahrnehmen. Das ist nicht nur aus ethischer, sondern auch aus wirtschaftlicher Sicht empfehlenswert. Denn: Wenn sie diese Aufgabe anderen überlassen, entgeht ihnen ein klarer Wettbewerbsvorteil durch ein transparentes und selbstregulierendes Verhalten.

Zeit zu handeln

Es gibt in dieser Hinsicht bereits einige positive Entwicklungen. Beispielsweise bilden sich immer mehr Initiativen, Forschungsgruppen und Gremien mit dem Ziel, eine verantwortungsvollere KI zu entwickeln. Die UN hat etwa bereits einen Leitfaden für einen verantwortungsbewussten Umgang mit Technologie vorgelegt und frei verfügbar öffentlich zugänglich gemacht. Es wird sich zeigen, ob Technologieunternehmen aus der Vergangenheit gelernt haben und ein verantwortungsbewusstes Handeln aufweisen. Interne KI-Standards einzuführen, zu testen und zu etablieren, ist nun das Gebot der Stunde.

Erik Dörnenburg

ist Software Engineer und  CTO Europe bei Thoughtworks.

Roger Homrich

Recent Posts

Organisationsstruktur beeinflusst Cybersicherheit

Auf Basis einer Umfrage untersucht Sophos drei Organisationsszenarien und beurteilt deren Wirkung auf Cybercrime-Abwehr.

16 Stunden ago

Malware im März: Remcos löst CloudEyE ab

Neue Methode zur Verbreitung des Remote Access Trojaners (RAT) Remcos steht in Deutschland auf Platz…

17 Stunden ago

Künstliche Intelligenz in der Industrie 4.0: Chancen und Risiken

Maßnahmen zur Cyber-Sicherheit müssen sich darauf konzentrieren, KI-Systeme vor Angriffen zu schütze, sagt Thomas Boele…

2 Tagen ago

KI macht WordPress sicherer

WordPress ist die Nummer Eins für Webseiten-Software, scheint aber im Fokus von Hackern zu stehen.

2 Tagen ago

IBM sieht Europa im Auge des Cybersturms

Kein anderer Kontinent verzeichne ähnlich viele Angriffe auf seine IT-Systeme. Besonders ernst sei die Lage…

2 Tagen ago

REWE-Geschäftsführer bekommt digitalen Zwilling

Als Avatar soll Chief Digital Information Officer Robert Zores neuen Mitarbeitenden beim Onboarding helfen.

3 Tagen ago