
Vom Cyberrisiko zum Liquiditätsrisiko: Steuerung agentischer Automatisierung

Von Kevin Bailey
Chief Information Officer & Chief Information Security OfficerShare
Finanzverantwortliche betreten eine neue Phase der Automatisierung. Systeme empfehlen nicht mehr nur den nächsten Schritt. Sie führen ihn aus. Agentische Tools können Entwürfe erstellen, abgleichen, aktualisieren und Workflows über den gesamten Anwendungsstack hinweg anstoßen. Der Gewinn: schnellere Zykluszeiten, weniger Übergaben und weniger manuelle Arbeit.
Doch das Risiko wächst mit. Wenn der „Akteur" in Ihrem Prozess eine Software ist, die mit Maschinengeschwindigkeit arbeitet, hören Kontrolllücken auf, nur lästig zu sein – sie werden teuer. Das Risiko ist nicht nur ein Sicherheitsvorfall. Es ist ein Liquiditätsrisiko, also nicht autorisierte, nicht nachvollziehbare Aktionen, die finanzielle Ergebnisse verändern können.
Ein aktuelles Beispiel aus dem breiteren KI-Ökosystem verdeutlicht das Muster. Sicherheitsforscher stellten fest, dass eine Social-Media-Plattform für KI-Agenten private Daten und große Mengen an Zugangsdaten offenlegte aufgrund grundlegender Zugriffskontrollfehler. Noch wichtiger: Sie ermöglichte nicht autorisierte Schreibzugriffe, die Live-Inhalte ändern konnten. Reuters wies auch auf das Fehlen einer Identitätsverifizierung hin, was bedeutete, dass unklar war, welche „Akteure" echte Agenten waren und welche Menschen, die über Skripte posteten. Sie müssen sich nicht für diese spezifische Plattform interessieren, um die Lektion zu verstehen. Während Agenten sich verbreiten, erweitert sich der Identitätsperimeter schneller, als die meisten Organisationen ihn absichern können.
Wenn wir agentische KI-Plattformen bewerten, ob für uns selbst oder für Kunden, stellen wir immer dieselben grundlegenden Fragen. Wie verwaltet diese Lösung den Lebenszyklus nicht-menschlicher Identitäten? Auf welche Daten können diese Identitäten zugreifen, und wie wird dieser Zugriff eingegrenzt, protokolliert und gesteuert? Das sind keine hypothetischen Bedenken. Das sind Designanforderungen. Als wir TAI, Kyribas vertrauenswürdige agentische KI, entwickelten, haben wir diese Fragen zuerst beantwortet. TAI übernimmt Ihre rollenbasierten Zugriffskontrollen, erzwingt bei jeder Aktion das Prinzip der geringsten Rechte und stellt sicher, dass Agenten nur sehen und tun können, wozu Sie autorisiert sind. Keine Abkürzungen. Keine Black Boxes. In der Finanzwelt ist Vertrauen der Ausgangspunkt.
Für CFOs ist dies kein zukünftiges Problem. Es ist ein Governance-Problem, das an denselben Stellen auftaucht, an denen CFOs bereits unter Druck stehen: Automatisierungs-ROI, Kapitaleffizienz, Liquiditätsperformance und Kontrollsicherheit unter Prüfung durch Vorstand und Aufsichtsbehörden.
Ein neuer Identitätsperimeter entsteht – und er berührt Geld
Im letzten Jahrzehnt wurden die meisten Kontrollprogramme um einen vertrauten Perimeter herum aufgebaut: Mitarbeiter, Endgeräte und Anwendungen. Agentische Automatisierung verändert die Form dieses Perimeters. Die „Akteure" in Ihrer Umgebung umfassen jetzt Agenten, Tokens, Automatisierungszugangsdaten, Konnektoren und Dienstkonten. Viele von ihnen arbeiten kontinuierlich, nicht nur während der Geschäftszeiten.
Das ist wichtig, weil CFO-Organisationen zunehmend an Ergebnissen gemessen werden, die von vertrauenswürdigen, zeitnahen Finanzoperationen abhängen. Liquiditätstransparenz. Prognosegenauigkeit. Working-Capital-Disziplin. Effiziente Ausführung. Wenn agentische Automatisierung ohne Finance-Grade-Kontrollen eingeführt wird, ist das Risiko nicht nur technischer Natur. Es ist messbar in der Performance.
Wenn Automatisierung die Kapitaleffizienz verbessern soll, muss sie dies tun, ohne neue Ausnahmevolumina, Nacharbeiten oder Kontrollausfälle einzuführen. Sonst bricht die Rechnung hinter dem ROI zusammen. Sie verlieren nicht nur Zeit. Sie verlieren das Vertrauen in den Prozess und die Fähigkeit, Automatisierung über das gesamte Finanz-Betriebsmodell hinweg zu skalieren.
In der Finanzwelt schlägt Integrität Vertraulichkeit
Vertraulichkeit ist wichtig. Aber in der Finanzwelt ist Integrität existenziell. Ein Datenleck ist schädlich. Eine nicht autorisierte Änderung kann katastrophal sein.
Deshalb sollte nicht autorisierter Schreibzugriff das Detail sein, bei dem Finanzteams aufhorchen. Wenn ein Agent oder jemand, der sich als Agent ausgibt, die Eingaben ändern kann, denen nachgelagerte Prozesse vertrauen, erhalten Sie gültig aussehende Ausgaben, die falsch sind. Falsche Eingaben können sich auf Cash-Forecasting, Liquiditätsentscheidungen, Zahlungsausführung, Abstimmungen und Abschlussergebnisse auswirken. Sie schaffen auch ein Problem zweiter Ordnung. Teams verbringen Zeit damit, zu beweisen, was passiert ist, anstatt die Performance zu verbessern.
Aus meiner Erfahrung als Berater von Führungskräften bei der digitalen Transformation sind die Teams, die Automatisierung erfolgreich skalieren, nicht diejenigen mit der ausgefeiltesten KI. Es sind diejenigen, die zwei Fragen beantworten können. Wenn das schiefgeht, können wir beweisen, was passiert ist und wer verantwortlich ist? Und können wir Aufsichtsbehörden und Vorstand demonstrieren, dass wir wissen, welche Daten diese Systeme berührt haben? Organisationen, die Governance und Privacy by Design überspringen, landen in einem Zyklus, den ich wiederholt sehe. Sie implementieren, stoßen auf einen Kontroll- oder Compliance-Fehler, ziehen sich zurück und bauen Vertrauen wieder auf. Dieser Zyklus ist teuer und blockiert jede andere Priorität.
Deshalb haben wir TAI mit Governance und Privacy by Design entwickelt: vollständige Audit-Trails, transparente Reasoning-Schritte, Human-in-the-Loop-Genehmigungen für sensible Aktionen und Daten, die niemals Ihre vertrauenswürdige Umgebung verlassen. Die Teams, die KI erfolgreich skalieren, überspringen diese Kontrollen nicht. Sie integrieren sie von Tag eins. Mit TAI hat Kyriba dies zum Standard gemacht, nicht zu einem Add-on.
Integritätsfehler lassen sich eindeutig CFO-Risikobereichen zuordnen:
Lieferanten- und Zahlungsempfängeranlage und -änderungen
Erstellung und Freigabe von Zahlungsvorschlägen
Workflows für Bankkontoänderungen
Abstimmungen und Ausnahmebehandlung
Kontrollnachweise und Audit-Readiness
Die unbequeme Wahrheit ist, dass Integritätsfehler schwerer zu erkennen sein können als Datendiebstahl. Ein gestohlener Datensatz ist ein diskretes Ereignis. Ein kompromittierter Workflow kann still ablaufen und saubere Logs produzieren, die einen wie geplant ausgeführten Prozess widerspiegeln. Das Problem ist, dass das Design der falschen Identität, dem falschen Token oder dem falschen Konnektor vertraut hat.
Die Frage, die Finance weiter stellen wird: Wer ist verantwortlich?
Finanzkontrollen basieren darauf, drei Fragen mit Sicherheit zu beantworten:
Wer hat es getan?
War er berechtigt, es zu tun?
Können wir es im Nachhinein beweisen?
In einer menschenzentrierten Umgebung entsprechen diese Benutzeridentitäten, Rollen, Genehmigungen und Audit-Trails. In einer agentischen Umgebung ist die Zuordnung nicht automatisch. Wenn Sie nicht feststellen können, ob ein „Akteur" ein Agent, ein Skript oder ein Mensch ist, der sich wie einer verhält, wird die Verantwortlichkeit schnell unklar.
Hören Sie auf, über Intelligenz zu streiten, und beweisen Sie stattdessen Durchsetzbarkeit
Viele KI-Governance-Gespräche beginnen und enden mit Modell-Performance: Genauigkeit, Bias, Halluzinationen. Diese Themen sind wichtig, aber sie sind nicht das erstrangige Finanzrisiko, wenn Agenten sich mit Systemen verbinden, die Geld bewegen oder Bücher und Aufzeichnungen ändern können.
Das erstrangige Risiko ist die Durchsetzbarkeit von Finanzkontrollen. Können Sie die Spielregeln jedes Mal, in großem Maßstab durchsetzen?
Können Sie präzise und zuverlässig einschränken, was der Agent tun darf?
Können Sie verhindern, dass er die Funktionstrennung aufhebt?
Können Sie sicherstellen, dass Genehmigungen echte Genehmigungen sind, keine auto-genehmigten Schleifen?
Können Sie Nachweise erstellen, die Prüfungen und Kontrollen standhalten?
Wenn die Antwort „wir denken schon" ist, sind Sie im Rückstand. Agentische Automatisierung funktioniert durch Verkettung von Aktionen. Betrug auch. Und selbst ohne Betrug schafft unkontrollierte Automatisierung Fehlerpropagierung. Beide Ergebnisse verschlechtern die Kennzahlen, die CFOs wichtig sind, einschließlich Kapitaleffizienz und Liquiditätsperformance.
Eine Diagnose, die CFOs nutzen können, bevor sie agentische Automatisierung skalieren
Wenn Sie diese vier Fragen nicht mit Sicherheit beantworten können, sind Sie nicht bereit, KI-Agenten in Finance zu skalieren.
Befugnis: Was genau darf der Agent tun, und was ist explizit verboten?
„KI kann helfen" ist kein Berechtigungsmodell. Definieren Sie erlaubte Aktionen auf der Ebene, auf der Sie Berechtigungen für einen Menschen definieren würden: erstellen, ändern, einreichen, genehmigen, freigeben, abgleichen. Seien Sie ebenso explizit darüber, was der Agent niemals tun darf.Funktionstrennung: Kann der Agent sowohl erstellen als auch genehmigen?
Wenn ein Agent eine Lieferantenänderung vorschlagen und auch genehmigen kann, haben Sie einen Kontrollfehler automatisiert. Maschinengeschwindigkeit macht es nicht sicherer. Sie macht es schneller.Nachvollziehbarkeit: Können wir beweisen, wer oder was jede Aktion ausgelöst hat und warum?
„Logs existieren" reicht nicht. Finance benötigt einen Beweispfad, der jede Aktion mit einer Identität, einer Policy-Entscheidung, einer Genehmigung und einem Geschäftszweck verknüpft. Er sollte so erfasst werden, dass er nachträglich nicht umgeschrieben werden kann.Resilienz: Haben wir einen Notausschalter, der mit Geldgeschwindigkeit funktioniert?
Wenn etwas schiefgeht, können Sie den Agenten sofort deaktivieren, Tokens widerrufen und nachgelagerte Aktionen stoppen? Und können Sie einen bekanntermaßen guten Zustand wiederherstellen, ohne weitere Integritätsprobleme einzuführen?
Wenn Sie Agenten intern entwickeln, ist dies das Gespräch, das Sie mit Ihrem Entwicklungsteam führen sollten, bevor die erste Codezeile geschrieben wird.
Das Fazit
Agentische Automatisierung wird Produktivität schaffen. Sie wird auch den Identitätsperimeter auf eine Weise erweitern, die viele Organisationen noch nicht steuern. Die Lektion aus jüngsten Vorfällen im Agenten-Ökosystem ist nicht „bewegen Sie sich nicht schnell". Sie lautet, dass grundlegende Kontrollfehler – offengelegte Zugangsdaten, schwache Zugriffskontrollen und unklare Identität – zu Integritätsfehlern mit weitreichenden nachgelagerten Auswirkungen werden können.
Für CFOs ist das die Neuausrichtung: Dies ist nicht nur Cyberrisiko. Es ist Liquiditätsrisiko. Es beeinflusst Automatisierungs-ROI, Kapitaleffizienz und Liquiditätsperformance. Es taucht auch unter SOX, in Audits und in Prüfungsausschuss-Gesprächen auf.
Die Gewinner werden nicht die Organisationen sein, die zuerst die meisten Agenten einsetzen. Es werden diejenigen sein, die beweisen können, bevor Geld sich bewegt, dass jede Agenten-Aktion autorisiert, eingeschränkt und nachvollziehbar ist.
Written By

Kevin Bailey
Chief Information Officer & Chief Information Security Officer
Kevin Bailey ist Chief Information & Security Officer bei Kyriba. Er treibt die unternehmensweite digitale Transformation voran und baut zugleich Sicherheitsfähigkeiten auf Weltklasseniveau aus. Mit mehr als 15 Jahren Führungserfahrung in der Technologie leitet Kevin Initiativen von Cloud-Modernisierung über die Optimierung der IT-Infrastruktur bis hin zur Entwicklung von Sicherheitsprogrammen in komplexen, globalen Umgebungen. Er ist darauf spezialisiert, Technologieinvestitionen konsequent auf Geschäftsergebnisse auszurichten, Security Operations zu skalieren und messbare Resultate in Innovation wie auch im Risikomanagement zu liefern. Sein integrierter Ansatz stellt sicher, dass digitale Transformation und Sicherheit Hand in Hand gehen, um das Unternehmenswachstum zu beschleunigen und die organisatorische Resilienz zu stärken.
Ähnliche Ressourcen


