Categories: GastbeitragKI

Unregulierter Einsatz von KI ist gefährlich für die globale Gesellschaft

Generative KI ist wie eine Bombe in unseren Alltag eingeschlagen. Als OpenAIs ChatGPT für die Allgemeinheit zur Nutzung freigegeben wurde, ging ein spürbarer Ruck durch die globale Gesellschaft. Keine Applikation in der Geschichte erfreute sich eines derart schnellen Wachstums seiner Nutzerzahlen. Fünf Tage nach Veröffentlichung verzeichnete der Chatbot bereits eine Million registrierter Nutzer; nach einem Monat wurde die 100-Millionen-Marke geknackt. Rekord!

Doch die ungehaltene Begeisterung der fabelhaften Erzeugnisse generativer KI-Applikationen wurde bald durch die Sorgen um deren Auswirkungen auf unsere Gesellschaft getrübt. Der unkritische Umgang mit zum Teil halluzinierten Outputs ist ebenso bedenklich, wie die Fragen hinsichtlich der disruptiven Qualitäten für das Bildungssystem, der Gefahr kostenlos skalierbarer Desinformationskampagnen, niedrigschwelligem Zugang zu Malware-Code und schließlich auch bezüglich Compliance und Urheberrecht sind bislang noch ungelöst und werden unsere Gesellschaft noch lange Zeit beschäftigen.

Was nun? Regulieren und Experten involvieren

Italien war das erste Land, welches Konsequenzen aus der Gefahr einer unregulierten Implementation mächtiger KI-Applikationen gezogen hat. Es hat Ende März 2023 kurzerhand die Reißleine gezogen und ChatGPT verboten und dies mit Bedenken hinsichtlich Daten- sowie Jugendschutz begründet. Das italienische Verbot wurde mittlerweile – unter Auflagen – wieder zurückgezogen.

Wobei die eingängliche Behauptung nicht vollkommen korrekt ist. Italien war tatsächlich nicht das erste Land, das den Zugang seiner Bevölkerung zu ChatGPT durch Verbote eingeschränkt hat; das nämlich war China. Der Grund dafür liegt auf der Hand: Ein autokratisch regiertes Land kann es sich nicht leisten, seiner Bevölkerung uneingeschränkten Zugang zu einer so wirkmächtigen und ungefilterten Informationsquelle zu gewähren. Auch die eigenen Entwicklungsbestrebungen in Form des von Baidu entwickelten Ernie Bot werden durch die strikte Informationskontrolle in China stark beeinträchtigt.

Was lernen wir also aus diesen zwei Negativbeispielen gescheiterter regulatorischer Ansätze? Denn eines ist klar: Wir müssen KI-Entwicklung und -Anwendung regulieren. Ein „weiter so“ im Geiste des bisherigen Laissez-Faire Ansatzes unserer Gesetzgeber ist ein Spiel mit dem Feuer. Wenn nicht einmal die führenden KI-Entwickler bei OpenAI und Google nachvollziehen können – oder nicht preisgeben wollen –, wie die Outputs ihrer generativen KI-Modelle im Detail zustande kommen, sollten wir dies als Warnsignal begreifen.

Schadenspotenzial beherrschen, bahnbrechende Verbesserungen realisieren

Es liegt nun an den Gesetzgebern, die Weichen der Regulierung richtig einzustellen, damit das immense Schadenspotenzial generativer KI-Modelle beherrscht und das ebenso große Potenzial für bahnbrechende Verbesserungen für Wissenschaft, Wirtschaft und die gesamte globale Gesellschaft realisiert werden kann. Doch um den regulatorischen Prozess in Gang zu bringen, bevor wir katastrophalen und möglicherweise irreversiblen Schaden durch ungezügelte Weiterentwicklung mächtiger KI-Modelle verursachen – wie dies von namhaften Bedenkenträgern befürchtet und in ihrem offenen Plädoyer für ein KI-Moratorium ausgesprochen wird – müssen sich die politischen Entscheidungsträger mit den führenden Experten zusammensetzen.

Anfang Mai reihte sich nun auch Geoffrey Hinton, ein Pionier der Forschungsbereiche der  künstlichen neuronalen Netze sowie Deep Learning, in die prominente Liste der KI-Mahner. Der 75-jährige britisch-kanadische Kognitionspsychologe leistete einen entscheidenden Beitrag für die Entwicklung der heute im Einsatz befindlichen KI-Architektur, der ihm den Spitznamen „KI-Pate“ beschert hat. Rückblickend bereut er die wegweisenden Weichenstellungen, die nicht zuletzt durch seine Arbeit ermöglicht wurden.

Wie viele andere KI-Experten ist auch er von der enormen Geschwindigkeit der KI-Entwicklung überrascht worden. Er macht sich sorgen, dass die sogenannte Artificial General Intelligence (AGI) – also eine künstliche Intelligenz, die in allen Belangen dem Menschen überlegen ist – früher Realität werden könnte, als prognostiziert. Er sieht zwar die unermesslichen Vorteile, die aus einer solchen AGI für die Menschheit geschöpft werden können, befürchtet aber, dass der Sicherheitsgedanke dem Wettrennen um den technischen Fortschritt geopfert wird.

Diese Einschätzung ist umso besorgniserregender, wenn man bedenkt, dass selbst führende Akteure der KI-Entwicklung nicht nachvollziehen können, was sich im Innern ihrer KI-Modelle genau abspielt.

Ähnlich wie bei der Corona-Pandemie gilt es, sich ein umfassendes Verständnis der Materie anzueignen, um daraus die richtigen Schlüsse zu ziehen und passgenaue Gesetzgebungen zu verabschieden. Doch das Thema KI-Entwicklung ist ungleich komplexer und von Natur aus undurchsichtiger als die vergleichsweise simple Mechanik der Verbreitung von Viren. Denn wie bereits gesagt, verstehen selbst die Entwickler der potentesten KI-Systeme nicht genau, was sich im Inneren ihrer Modelle abspielt. Bevor also irgendwelche fehlgeleiteten und ineffektiven Regeln erlassen, oder wie im Fall von Italien ein reflexartiges Verbot ausgesprochen wird, müssen wir im ersten Schritt die Mehrung unseres Verständnisses fokussieren.

Interpretability- und Alignment-Forschung mit Hochdruck fördern

Die KI-Entwicklung und -Forschung leidet unter einem fundamentalen Missstand: Die technologische Entwicklung wird durch immense Investitionen und die Mitarbeit einer Vielzahl der schlauesten Köpfe dieses Planeten vorangetrieben. In den Augen der Investoren und Entwickler geht es um nichts weniger als um die größte Wurst der Menschheitsgeschichte. Das Versprechen schier unbegrenzter, automatisierter Wertschöpfung, Quantensprüngen in der Wissenschaft und der daraus resultierende Wohlstandsgewinn für die gesamte Menschheit sind der Preis, dem die gesamte Tech-Welt derzeit nacheifert.

Gleichzeitig beschäftigen sich weltweit lediglich eine Handvoll Forscher mit den Sicherheits-Disziplinen der Künstlichen Intelligenz. Diese wären zum einen die Interpretability, die sich mit der Erarbeitung eines tiefgehenden Verständnisses beschäftigt, wie die jeweiligen Outputs der verschiedenen KI-Modelle zustande kommen. Nur mit Hilfe dieses Verständnisses kann man künftiges Verhalten der KI prognostizieren und schädliche Ergebnisse prophylaktisch abwenden.
Die zweite, auf der Interpretability aufbauende Disziplin der KI-Sicherheit, ist die Alignment-Forschung. Diese hat zum Ziel, gegenwärtige (schwache) und zukünftige (starke) KI-Modelle und -Agenten mit den zentralen und fundamentalen Werten der Menschheit auszustatten und diese in ihre Essenz zu verankern. Man kann sich das – vereinfacht gesagt – in etwa so vorstellen, wie Asimovs Grundgesetze der Robotik:

  1. Niemals einem Menschen Schaden zufügen und ihn unter allen Umständen vor Schaden bewahren
  2. Stets die Befehle der Menschen befolgen, außer dies verstößt gegen Regel Nummer eins
  3. Stets die eigenen Existenz beschützen, außer dies verstößt gegen Regel Nummer eins oder zwei

Nun sind diese Regeln zwar als Basis für die Formulierung einer Alignment-Regulierung für KI-Agenten als guter Denkansatz zu gebrauchen; allein werden sie jedoch nicht ausreichen, um zukünftige, mächtige und autonom handelnde KI-Agenten nachhaltig und robust gegen alle möglichen zukünftigen Konstellationen sicher zu machen. Die Materie ist dafür viel zu komplex und die Freiheitsgrade für Fehlinterpretationen schier unendlich.

Noch haben wir Zeit – Wir sollten sie nutzen

In Anbetracht des aktuellen Forschungsstands sind wir noch nicht so weit, dass wir einen unmittelbaren Kontrollverlust befürchten müssen. Doch die negativen Auswirkungen des unregulierten KI-Einsatzes sind bereits heute spürbar. Ganze Branchen drohen von der Automatisierung kognitiver Arbeit aufgefressen zu werden, liberale Gesellschaften mit unzureichender Medienkompetenz drohen KI-generierten Desinformationskampagnen zum Opfer zu fallen, Terroristen könnten mit Hilfe ungezügelter KI-Anwendungen an chemische oder biologische Waffen gelangen. Die Liste aller vorstellbaren Gefahren, die durch unregulierten Einsatz von KI-Applikationen drohen ist lang – sehr lang sogar.

Wir müssen unsere Gesetzgeber daher schnellstmöglich von der Dringlichkeit einer wirkungsvollen und intelligenten Regulierung überzeugen. Noch haben wir Zeit – wir sollten sie nutzen.

—————————————————–

Rishi Garrod ist AVP Technical Account Management, Northern Europe bei Tanium

Roger Homrich

Recent Posts

Bahn lässt Robo-Hund auf Graffitis los

In München läuft ein vierbeiniger Roboter durch die Abstellanlagen der S-Bahn und meldet Auffälligkeiten an…

1 Tag ago

Positiver ROI ist das beste Argument für KI-Projekte

2023 war das Jahr des Experimentierens mit KI. 2024 zieht KI in den Arbeitsalltag ein,…

1 Tag ago

Industrie 4.0-Adaption: China fast immer in der Pole Position

Laut Umfrage nutzen 94% der chinesischen Fertigungsunternehmen KI-basierte Lösungen. In der DACH-Region liegt der Vergleichswert…

2 Tagen ago

Cybersicherheit: Deutsche Autobauer fahren hinterher

Laut Kaspersky-Umfrage hat kaum jeder zehnte den neuen UN-Standard WP.29 implementiert. Weiterer 28% haben noch…

2 Tagen ago

BSI warnt vor kritischen Schwachstellen in Microsoft Exchange Server

Rund 17.000 Exchange-Server-Installation in Deutschland gelten als stark gefährdet. Sie werden entweder nicht mehr von…

2 Tagen ago

Porsche eBike Performance setzt auf KI-gestützte Software

Die Porsche-Tochter hat mit Automatisierungsfunktionen und Bots in Freshservice den IT-Service automatisiert und skaliert.

3 Tagen ago