KI-Agenten: Unternehmen müssen auf zentrale Governance setzen

Unkontrollierte KI-Agenten können zum Sicherheitsrisiko werden. Eine aktuelle Studie warnt vor einem Governance-Gap.
KI-Agenten halten zunehmend Einzug in den Unternehmensalltag – mit der Fähigkeit, Workflows zu automatisieren und Entscheidungen zu treffen. Doch eine aktuelle Studie von SailPoint warnt vor einem Missverhältnis: Fast alle Unternehmen planen den verstärkten Einsatz solcher Agenten – gleichzeitig warnen sie selbst vor Risiken wie fehlender Nachvollziehbarkeit, unkontrollierten Daten-Zugriffen und mangelnder Kontrolle über Agenten-Verhalten. Die Zahlen verdeutlichen das Dilemma: 98 Prozent der Organisationen wollen KI-Agenten künftig einsetzen, während 96 Prozent sie als potenzielles Sicherheitsrisiko einstufen. Obwohl zwei Drittel der Unternehmen Schwierigkeiten mit Kontrolle und Transparenz erkennen, haben nur rund ein Drittel formale Governance-Strukturen etabliert.
Zersplitterte Architektur, greifbare Risiken
In vielen Organisationen entstehen Agenten dezentral – oft initiiert von einzelnen Teams ohne zentrale Koordination. Das führt zu unstrukturierten Architekturen und variierender Qualität. Laut SailPoint-Studie berichten vier von fünf IT-Abteilungen von unerwünschten Aktionen durch Agenten – etwa unautorisierte Datenabfragen oder fehlerhafte Prozesse. In einem von vier Fällen kam es sogar zu Credential-Leaks. Diese Entwicklung erinnert an die unkontrollierte IT-Nutzung der frühen Cloud-Ära, bei der Abteilungen eigenmächtig Services implementierten und dabei erhebliche Sicherheitslücken schufen.
Diese Entwicklung erinnert an die unkontrollierte IT-Nutzung der frühen Cloud-Ära, bei der Abteilungen eigenmächtig Services implementierten und dabei erhebliche Sicherheitslücken schufen. Um solche Risiken systematisch zu vermeiden, benötigen Unternehmen zentrale Infrastrukturen, die Agenten-Entwicklung, Datenzugriff und Betrieb einheitlich koordinieren. Plattformbasierte Ansätze – wie ein flexibler Platform-Layer – ermöglichen eine konsistente Orchestrierung von Agenten über verschiedene Teams hinweg. Sie schaffen verbindliche Standards für Entwicklung, Freigabe und Monitoring und bieten zugleich die nötige Offenheit, um unterschiedliche Tools, Modelle und Datenquellen technologieagnostisch einzubinden.
Erfolg beginnt beim Geschäftsnutzen
Angesichts dieser Risiken wird deutlich, dass erfolgreiche KI-Initiativen nicht von der Technologie her gedacht werden dürfen, sondern vom konkreten Geschäftsnutzen ausgehen müssen. Unternehmen, die diesen Ansatz verfolgen, nutzen KI etwa doppelt so häufig strategisch wie ihre Wettbewerber. Erfolgreiche Organisationen starten mit konkreten Anwendungsfällen und einem klar umrissenen Pilotprojekt, das später iterativ ausgerollt wird. Besonders wichtig erweist sich dabei die Einbindung der Fachbereiche und ein gemeinsames Verständnis von Erfolg.
Datenqualität als fundamentale Voraussetzung
Die Basis jeder erfolgreichen KI-Implementation liegt in der Datenqualität. Studien zeigen, dass rund 80 Prozent der Projektzeit bei KI-Initiativen auf Datenvorbereitung und Qualitätssicherung entfallen. Diese Statistik verdeutlicht, dass Datenqualität keine technische Nebensache darstellt, sondern den zentralen Erfolgsfaktor bildet. Unternehmen benötigen deshalb eine technische Infrastruktur, die heterogene Datenquellen integrieren kann – unter durchgehender Berücksichtigung von Sicherheit, Nachvollziehbarkeit und Governance-Anforderungen.
Flexibilität statt technologische Festlegung
Die rasante technologische Entwicklung bei KI stellt Unternehmen vor strategische Entscheidungen. Die Frage, ob in aktuelle Tools investiert oder auf die nächste Generation gewartet werden soll, führt zu einer wichtigen Erkenntnis: Die Antwort liegt nicht im Tool selbst, sondern in der organisatorischen Fähigkeit, sich flexibel auf neue Entwicklungen einzustellen. Hybride IT-Architekturen, die strukturierte und unstrukturierte Datenquellen zusammenführen – ob aus Cloud-, On-Premises- oder Legacy-Systemen – schaffen die notwendige technologische Offenheit für zukünftige Innovationen.
Governance als messbarer Effizienzhebel
Governance erweist sich dabei nicht nur als Kontrollinstrument, sondern schafft messbaren wirtschaftlichen Mehrwert. Organisationen, die zentrale Governance-Strukturen eingeführt haben, konnten ihre Infrastrukturkosten um fast 40 Prozent senken. Im Gegensatz dazu stiegen bei Unternehmen ohne klare Kontrollmechanismen die Kosten jährlich um etwa 30 Prozent. Neben der direkten Kosteneffizienz gewinnt auch die strategische Planbarkeit an Bedeutung: Organisationen, die heute systematische Agenten-Governance etablieren, sind morgen besser auf regulatorische Anforderungen wie den EU AI Act vorbereitet.
Fazit: Governance wird zum Wettbewerbsfaktor
Die aktuelle Studienlage zeigt eine klare Entwicklung: KI-Agenten werden sich in Unternehmen durchsetzen – die Frage ist nur, ob kontrolliert oder chaotisch. Während die Technologie bereits verfügbar ist, entscheidet die Governance-Strategie über Erfolg oder Risiko. Unternehmen, die jetzt systematische Kontrollstrukturen aufbauen, verschaffen sich einen entscheidenden Vorsprung gegenüber jenen, die auf adhoc Lösungen setzen. Die Zahlen sprechen eine deutliche Sprache: Wer Governance als Kostenfaktor betrachtet, übersieht die 40-prozentigen Einsparungen, die strukturierte Ansätze ermöglichen. In einer Zeit, in der regulatorische Anforderungen zunehmen und Cyberrisiken steigen, wird zentrale KI-Governance vom Nice-to-have zum Must-have.
Christian Deponte
ist VP und GM Central Europe bei Dataiku.