Categories: GastbeitragKI

Von der überprüfbaren KI zur Rechenschaftspflicht

Der rasche Wechsel in der Führung bei OpenAI Ende 2023 spiegelt das Spannungsfeld wider, in dem sich generative KI befindet. Einerseits gibt es einen enormen Hype um mögliche Anwendungen, wobei die Unternehmen oft blindlings der neuesten Modeerscheinung hinterherlaufen. Andererseits wirft das volatile Verhalten von ChatGPT Bedenken hinsichtlich der Robustheit, Fairness, Ethik, Zuverlässigkeit, Angemessenheit und Kontrollierbarkeit dieser Systeme auf.

Trotz dieser Unwägbarkeiten steigt das Interesse an allgemeiner KI in der Tech-Industrie und in kommerziellen Organisationen, während in der Öffentlichkeit das Misstrauen wächst – insbesondere angesichts der Fehler, die beim Einsatz generativer KI-Technologie veröffentlicht wurden. Vor diesem Hintergrund sollten Unternehmen, die KI im Jahr 2024 einführen oder deren Anwendung verbessern möchten, einen besonnenen Ansatz wählen und sich auf den operativen Einsatz von KI im Alltag konzentrieren.

Vertrauen in KI auf historischem Tiefstand

Die Entwicklungen aus dem Jahr 2023 unterstreichen die Bedeutung eines verantwortungsvollen Umgangs mit Künstlicher Intelligenz, der AI-Act der EU wird dies sogar vorschreiben. Während der technologische Fortschritt von KI eine bemerkenswerte Dynamik zeigt, wachsen zugleich auch Bedenken und Unsicherheiten, weil Erfahrung, die Governance der KI-Modelle und Nutzungsrichtlinien fehlen. Eine Analyse zeigt den Mangel an eindeutigen Vorgaben, die daraus resultierenden Konsequenzen sowie berechtigte Sorgen bei der Implementierung von KI-Tools in Unternehmen. Infolgedessen ist die Forderung nach Transparenz in den Vordergrund gerückt – sowohl aus regulatorischer als auch aus Verbraucherperspektive. Denn das Vertrauen in KI ist aktuell auf einem historischen Tiefstand.

Die Etablierung von Transparenz in KI-Systemen ist für Unternehmen daher von essenzieller Bedeutung, um das mangelnde Verständnis sowie Unklarheiten hinsichtlich zugrundeliegender Prozesse und Algorithmen zu beseitigen. So ist die Nachvollziehbarkeit der Entscheidungsfindung von KI-Modellen nicht länger optional, sondern eine zentrale Anforderung. Es ist wichtig zu verstehen, dass Transparenz nicht bei allen KI- und maschinellen Lernalgorithmen möglich ist. Unternehmen, die einen verantwortungsvollen Einsatz von KI und Transparenz gewährleisten wollen, müssen daher die richtigen Algorithmen auswählen.

Generative KI-Anwendungen bieten keine Transparenz

Verifizierbare KI bietet eine Lösung, um diese Transparenz zu gewährleisten und die erforderliche Rechenschaftspflicht zu ermöglichen – insbesondere bei Entscheidungen mit großer Tragweite, bei denen dies eine Pflicht darstellt. Dies beginnt mit dem richtigen Algorithmus für maschinelles Lernen wie interpretierbaren neuronalen Netzen und endet mit der Einsicht, dass generative KI-Anwendungen keine Transparenz bieten. Unternehmen sind nicht transparent, wenn sie den von ihnen verwendeten “7-Milliarden-Parameter-Transformator” weitergeben. Vielmehr muss genau gezeigt werden, welche Daten zur Erstellung verwendet wurden, wie Verzerrungen behandelt und Ergebnisse berechnet werden, und zwar deterministisch. Unternehmen müssen den Mantel der Undurchsichtigkeit, der die „Blackbox-KI“ oft umgibt, lüften und Stakeholdern fundierte Einblicke in das Verhalten der Modelle geben.

Transparenz spielt im Kontext der KI-Governance eine zentrale Rolle. Die Forderung nach mehr Klarheit und Offenheit wird die Implementierung robuster Rahmenwerke für die Steuerung von KI beschleunigen. Rechenschaftspflicht ist dabei nicht mehr nur ein nachgelagerter Aspekt, sondern eine zentrale Anforderung von Anfang an. Unternehmen, die sich frühzeitig für den Einsatz nachweislich verifizierbarer Künstlicher Intelligenz entscheiden, werden das Vertrauen von Anwendern, regulierenden Behörden und der breiten Öffentlichkeit erlangen.

Der Mensch im Mittelpunkt der KI-Adoption

Künstliche Intelligenz sollte als Ergänzung zu menschlichen Fähigkeiten verstanden werden, keinesfalls als Ersatz dafür. Daher ist es entscheidend, dass die Partnerschaft zwischen Mensch und KI ebenso Gewicht erhält wie ethische Überlegungen bei der Entscheidungsfindung. Unternehmen sollten ihre Mitarbeitenden dazu befähigen, KI-Entscheidungen zu steuern und dabei die Einhaltung ethischer Standards, wie Fairness, Transparenz und Rechenschaftspflicht zu gewährleisten.

In diesem Zusammenhang ist die entsprechende Schulung der Mitarbeitenden eine Notwendigkeit für Unternehmen, insbesondere wenn KI in Geschäftsprozesse integriert wird. Arbeitnehmer müssen die KI-Tools, die sie nutzen, grundlegend verstehen, hinterfragen und diese validieren. Unternehmen, die sich darauf konzentrieren, neue Wege der Zusammenarbeit zu finden, – mit Künstlicher Intelligenz als Werkzeug und nicht als Zauberstab – werden von Skepsis und Validierung, die für Human-in-the-Loop-Prozesse bei der Verwendung von KI unerlässlich sind, profitieren. Auf diese Weise lassen sich weitaus bessere, ethisch korrekte und verantwortungsvollere Ergebnisse erzielen. Die Investition in menschliche Fähigkeiten, wie beispielsweise kritisches Denken, kreative Problemlösungskompetenz und soziale Intelligenz, zusammen mit der Implementierung von KI als Werkzeug gewährleistet ein harmonisches Verhältnis beider Seiten.

Small-Scale AI im Fokus

Im Wettlauf um die besten KI-Lösungen sollten Unternehmen nicht vergessen, dass Größe nicht immer das Wichtigste ist. Kompakte KI-Systeme sind oftmals genauso leistungsstark und effektiv wie ihre größeren Geschwister – und das bei geringeren Kosten und niedrigerer Komplexität. Die Entwicklung und Implementierung von Big-Scale-KI-Modellen wie ChatGPT ist kostspielig und erfordert eine hohe Rechenleistung und keine Einschränkung beim Einsatz in kundenrelevanten Szenarien.

Kompaktere Modelle zeichnen sich oft dadurch aus, dass sie besser erklärbar sind und von Unternehmen, die praktische, zuverlässige und ethische Ergebnisse erzielen wollen, von Grund auf neu entwickelt werden können. Unternehmen, die darauf bedacht sind, Verbrauchern nicht zu schaden, setzen Erklärbarkeit an die erste Stelle und Vorhersagekraft an die zweite und Sie profitieren von den Vorteilen kompakter KI-Modelle wie die volle Kontrolle über das Design der Entwicklungsdaten, über die Auswahl der Algorithmen und objektive Funktionen.

Generative KI: Pragmatische Evolution

Wenn es um generative KI geht, gilt es, weniger dramatisch, aber mehr pragmatisch an die Sache heranzugehen und Erwartungen strategisch auszurichten. Anstatt sensationelle Durchbrüche zu erwarten, sollten sich Unternehmen auf einfachere Anwendungen konzentrieren, die mit KI-Einsatz praktische, reale Vorteile erzielen. Dazu zählen die Steigerung der Produktivität, die Automatisierung repetitiver Aufgaben oder die Verbesserung der Entscheidungsfindung. Der Schlüssel liegt dabei in der Balance zwischen Kreativität, Praxisnähe sowie der ständigen Auseinandersetzung mit möglichen Schäden, der Ungewissheit und der Ethik, die mit dem Einsatz einer nicht transparenten Technologie einhergehen.

Dieser Ansatz ermöglicht die effektive Integration von KI-Systemen in den Betriebsablauf und schafft einen Mehrwert für Unternehmen, während gleichzeitig das Vertrauen in den Einsatz von KI erhalten bleibt. Zudem ist es ratsam, ethische Leitlinien für den Einsatz generativer KI zu etablieren, wenn deren Einsatz als akzeptabel erachtet wird, um den langfristigen Erfolg zu sichern. Sie sollen auch verhindern, dass generative KI in Bereiche vordringt, die am besten durch traditionelle KI und verantwortungsvolle KI-Prinzipien abgedeckt werden. Indem Aspekte wie Fairness, Transparenz und die Minderung von Bias Berücksichtigung finden, lassen sich das Vertrauen der Anwender stärken und ungewollte Konsequenzen vermeiden.

Chancen liegen auf der Hand

Firmen, die Künstliche Intelligenz sorgfältig und verantwortungsbewusst in ihre Geschäftsprozesse integrieren, können signifikante Vorteile erzielen. Durch aktives Risikomanagement im Kontext der KI-Anwendung transformieren sie sich von passiven Beobachtern zu führenden Akteuren ihrer Branche. Das gilt vor allem für Organisationen, die Verantwortung, praktische Umsetzbarkeit sowie den Fokus auf den Menschen als Kernwerte betrachten. Das Befolgen der Grundsätze einer verantwortungsvollen KI bildet die Grundlage für ein nachhaltiges Wachstum und kontinuierliche Innovation.

Dr. Scott Zoldi

ist Chief Analytics Officer des auf Analytik spezialisierten Softwareunternehmens FICO.

Roger Homrich

Recent Posts

Podcast: Zero Trust zum Schutz von IT- und OT-Infrastruktur

"Das Grundprinzip der Zero Trust Architektur hat sich bis heute nicht geändert, ist aber relevanter…

22 Stunden ago

Malware April 2024: Aufstieg des Multi-Plattform-Trojaners „Androxgh0st“

Androxgh0st zielt auf Windows-, Mac- und Linux-Plattformen ab und breitet sich rasant aus. In Deutschland…

23 Stunden ago

Selbstangriff ist die beste Verteidigung

Mit autonomen Pentests aus der Cloud lassen sich eigene Schwachstelle identifizieren.

2 Tagen ago

Prozessautomatisierung im Distributionslager

Die Drogeriekette Rossmann wird ihr neues Zentrallager in Ungarn mit Software von PSI steuern.

2 Tagen ago

Wie autonome Fahrzeuge durch Quantencomputing sicherer werden können

Automobilhersteller planen, Quantentechnologie zunehmend auch bei fortschrittlichen Fahrerassistenzsystemen (ADAS) einzusetzen.

3 Tagen ago

Heineken plant Bedarfe mit KI-Lösung von Blue Yonder

Blue Yonder soll mehr Nachhaltigkeit entlang der Lieferkette der internationale Brauerei ermöglichen.

3 Tagen ago