Blog

Du risque cyber au risque de trésorerie : gouverner l'automatisation agentique

Les directeurs financiers entrent dans une nouvelle ère de l'automatisation. Les systèmes ne se contentent plus de recommander l'action suivante. Ils l'exécutent. Les outils agentiques peuvent rédiger, rapprocher, mettre à jour et déclencher des flux de travail dans tout l'écosystème applicatif. Le bénéfice : des cycles plus rapides, moins de transferts de responsabilités et moins de tâches manuelles.

Mais le risque évolue aussi à grande échelle. Lorsque « l'acteur » de vos processus est un logiciel opérant à la vitesse machine, les failles de contrôle cessent d'être simplement gênantes pour devenir coûteuses. Le risque n'est plus seulement une faille de sécurité. C'est un risque de trésorerie : des actions non autorisées et non auditables qui peuvent altérer les résultats financiers.

Un exemple récent tiré de l'écosystème IA illustre bien ce schéma. Des chercheurs en sécurité ont découvert qu'une plateforme sociale d'agents IA exposait des données privées et de gros volumes d'identifiants en raison de défaillances élémentaires des contrôles d'accès. Plus grave encore, elle permettait des actions d'écriture non autorisées pouvant modifier du contenu en production. Reuters a également souligné l'absence de vérification d'identité, ce qui rendait impossible de distinguer les « acteurs » réels (agents) des humains publiant via des scripts. Peu importe cette plateforme spécifique : la leçon compte. À mesure que les agents se multiplient, le périmètre d'identité s'étend plus vite que la plupart des organisations ne peuvent le sécuriser.

Lorsque nous évaluons des plateformes d'IA agentique, pour nous-mêmes ou pour nos clients, nous posons toujours les mêmes questions fondamentales. Comment cette solution gère-t-elle le cycle de vie des identités non humaines ? À quelles données ces identités peuvent-elles accéder, et comment cet accès est-il délimité, journalisé et gouverné ? Ce ne sont pas des préoccupations théoriques. Ce sont des exigences de conception. Lorsque nous avons conçu TAI, l'IA agentique de confiance de Kyriba, nous avons d'abord répondu à ces questions. TAI hérite de vos contrôles d'accès basés sur les rôles, applique un principe de moindre privilège sur chaque action, et garantit que les agents ne peuvent voir et faire que ce que vous êtes autorisé à voir et à faire. Sans raccourcis. Sans zones d'ombre. En finance, la confiance est le point de départ.

Pour les directeurs financiers, ce n'est pas un problème futur. C'est un enjeu de gouvernance qui se manifeste là où ils sont déjà sous pression : ROI de l'automatisation, efficacité du capital, performance de la liquidité et assurance de contrôle sous le regard du conseil et des régulateurs.

Un nouveau périmètre d'identité émerge, et il touche à l'argent

Depuis dix ans, la plupart des programmes de contrôle reposaient sur un périmètre familier : collaborateurs, terminaux et applications. L'automatisation agentique modifie la forme de ce périmètre. Les « acteurs » de votre environnement incluent désormais des agents, des jetons, des identifiants d'automatisation, des connecteurs et des comptes de service. Beaucoup opèrent en continu, pas seulement pendant les heures ouvrables.

Cela compte, car les organisations CFO sont de plus en plus évaluées sur des résultats qui dépendent d'opérations financières fiables et opportunes. Visibilité de la trésorerie. Précision des prévisions. Discipline du fonds de roulement. Exécution efficace. Lorsque l'automatisation agentique est introduite sans contrôles de niveau finance, le risque n'est pas seulement technique. Il est mesurable en termes de performance.

Si l'automatisation vise à améliorer l'efficacité du capital, elle doit le faire sans introduire de nouveaux volumes d'exceptions, de retraitements ou de défaillances de contrôle. Sinon, le calcul du ROI s'effondre. Vous ne perdez pas seulement du temps. Vous perdez la confiance dans le processus et la capacité de déployer l'automatisation à l'échelle du modèle opérationnel financier.

En finance, l'intégrité prime sur la confidentialité

La confidentialité compte. Mais en finance, l'intégrité est existentielle. Une fuite est dommageable. Une modification non autorisée peut être catastrophique.

C'est pourquoi l'accès en écriture non autorisé est le détail qui devrait alerter les équipes financières. Si un agent, ou quelqu'un se faisant passer pour un agent, peut modifier les données d'entrée sur lesquelles reposent les processus en aval, vous obtenez des résultats apparemment valides mais erronés. Des données d'entrée incorrectes peuvent se propager aux prévisions de trésorerie, aux décisions de liquidité, à l'exécution des paiements, aux rapprochements et aux résultats de clôture. Elles créent également un problème secondaire. Les équipes passent du temps à prouver ce qui s'est passé au lieu d'améliorer la performance.

D'après mon expérience de conseil auprès de dirigeants en transformation digitale, les équipes qui réussissent à déployer l'automatisation à grande échelle ne sont pas celles qui ont l'IA la plus sophistiquée. Ce sont celles qui peuvent répondre à deux questions. Si cela tourne mal, pouvons-nous prouver ce qui s'est passé et qui est responsable ? Et pouvons-nous démontrer aux régulateurs et au conseil que nous savons quelles données ces systèmes ont touchées ? Les organisations qui font l'impasse sur la gouvernance et la protection de la vie privée dès la conception finissent dans un cycle que je vois régulièrement. Elles déploient, rencontrent une défaillance de contrôle ou de conformité, font marche arrière et reconstruisent la confiance. Ce cycle est coûteux et bloque toutes les autres priorités.

C'est pourquoi nous avons conçu TAI avec la gouvernance et la protection de la vie privée dès l'origine : pistes d'audit complètes, étapes de raisonnement transparentes, approbations humaines pour les actions sensibles, et données qui ne quittent jamais votre environnement de confiance. Les équipes qui déploient l'IA avec succès ne sautent pas ces contrôles. Elles les intègrent dès le premier jour. Avec TAI, Kyriba en a fait la norme, pas une option.

Les défaillances d'intégrité correspondent directement aux domaines de risque sous responsabilité du CFO :

  • Création et modification de fournisseurs et de bénéficiaires

  • Création et libération de propositions de paiement

  • Workflows de modification de comptes bancaires

  • Rapprochements et gestion des exceptions

  • Preuves de contrôle et préparation aux audits

La vérité inconfortable est que les défaillances d'intégrité peuvent être plus difficiles à détecter que le vol de données. Un jeu de données volé est un événement discret. Un flux de travail corrompu peut fonctionner en silence, produisant des journaux propres reflétant un processus exécuté comme prévu. Le problème est que la conception a fait confiance à la mauvaise identité, au mauvais jeton ou au mauvais connecteur.

La question que la finance continuera à poser : qui est responsable ?

Les contrôles financiers reposent sur trois questions auxquelles il faut pouvoir répondre avec assurance :

  1. Qui l'a fait ?

  2. Était-il autorisé à le faire ?

  3. Pouvons-nous le prouver après coup ?

Dans un environnement centré sur l'humain, celles-ci correspondent aux identités utilisateurs, aux rôles, aux approbations et aux pistes d'audit. Dans un environnement agentique, la correspondance n'est pas automatique. Si vous ne pouvez pas déterminer si un « acteur » est un agent, un script ou un humain se comportant comme l'un ou l'autre, la responsabilité devient rapidement floue.

Cessez de débattre de l'intelligence et commencez à prouver l'applicabilité

De nombreuses conversations sur la gouvernance de l'IA commencent et se terminent par la performance du modèle : précision, biais, hallucinations. Ces sujets comptent, mais ils ne constituent pas le risque financier de premier ordre lorsque les agents se connectent à des systèmes capables de déplacer de l'argent ou de modifier les livres et registres.

Le risque de premier ordre est l'applicabilité des contrôles financiers. Pouvez-vous appliquer les règles du jeu, à chaque fois, à grande échelle ?

  • Pouvez-vous contraindre précisément et de manière fiable ce que l'agent est autorisé à faire ?

  • Pouvez-vous l'empêcher de briser la séparation des tâches ?

  • Pouvez-vous garantir que les approbations sont de vraies approbations, et non des boucles auto-approuvées ?

  • Pouvez-vous produire des preuves qui résistent à l'audit et à l'examen ?

Si la réponse est « nous pensons que oui », vous êtes en retard. L'automatisation agentique fonctionne par enchaînement d'actions. La fraude aussi. Et même sans fraude, l'automatisation non contrôlée crée une propagation d'erreurs. Les deux issues dégradent les indicateurs auxquels les CFO tiennent, notamment l'efficacité du capital et la performance de la liquidité.

Un diagnostic que les CFO peuvent utiliser avant de déployer l'automatisation agentique à grande échelle

Si vous ne pouvez pas répondre avec assurance à ces quatre questions, vous n'êtes pas prêt à déployer des agents IA en finance.

  1. Autorité : que peut faire exactement l'agent, et qu'est-ce qui lui est explicitement interdit ?
    « L'IA peut aider » n'est pas un modèle de permissions. Définissez les actions autorisées au même niveau que vous le feriez pour un humain : créer, modifier, soumettre, approuver, libérer, rapprocher. Soyez tout aussi explicite sur ce que l'agent ne peut jamais faire.

  2. Séparation des tâches : l'agent peut-il à la fois créer et approuver ?
    Si un agent peut proposer une modification de fournisseur et aussi l'approuver, vous avez automatisé une défaillance de contrôle. La vitesse machine ne le rend pas plus sûr. Elle le rend plus rapide.

  3. Auditabilité : pouvons-nous prouver qui ou quoi a déclenché chaque action et pourquoi ?
    « Les journaux existent » ne suffit pas. La finance a besoin d'une piste probante qui relie chaque action à une identité, une décision politique, une approbation et un objectif métier. Elle doit être capturée d'une manière qui ne peut être réécrite après coup.

  4. Résilience : avons-nous un interrupteur d'urgence qui fonctionne à la vitesse de l'argent ?
    Si quelque chose tourne mal, pouvez-vous désactiver immédiatement l'agent, révoquer les jetons et arrêter les actions en aval ? Et pouvez-vous restaurer un état connu comme fiable sans introduire de nouveaux problèmes d'intégrité ?

Si vous développez des agents en interne, c'est la conversation à avoir avec votre équipe de développement avant la première ligne de code.

L'essentiel

L'automatisation agentique créera de la productivité. Elle élargira aussi le périmètre d'identité d'une manière que beaucoup d'organisations ne maîtrisent pas encore. La leçon des incidents récents dans l'écosystème des agents n'est pas « n'allez pas vite ». C'est que des défaillances de contrôle élémentaires — identifiants exposés, contrôles d'accès faibles et identité floue — peuvent devenir des défaillances d'intégrité avec un impact considérable en aval.

Pour les CFO, c'est un changement de perspective : il ne s'agit pas seulement de risque cyber. C'est un risque de trésorerie. Cela affecte le ROI de l'automatisation, l'efficacité du capital et la performance de la liquidité. Cela apparaît aussi sous SOX, dans les audits et dans les conversations avec le comité d'audit.

Les gagnants ne seront pas les organisations qui déploient le plus d'agents en premier. Ce seront celles qui peuvent prouver, avant que l'argent ne bouge, que chaque action d'agent est autorisée, contrainte et auditable.

Written By

Kevin Bailey

Kevin Bailey

Chief Information Officer & Chief Information Security Officer

Kevin Bailey est Chief Information & Security Officer de Kyriba. Il pilote la transformation numérique à l’échelle de l’entreprise tout en développant des capacités de sécurité de classe mondiale. Fort de plus de 15 ans d’expérience en direction technologique, Kevin conduit des initiatives couvrant la modernisation du cloud, l’optimisation des infrastructures IT et le développement de programmes de sécurité dans des environnements mondiaux complexes. Il excelle à aligner les investissements technologiques sur les résultats business, à faire évoluer les opérations de sécurité à l’échelle et à délivrer des résultats mesurables en matière d’innovation et de gestion des risques. Son approche intégrée garantit que transformation numérique et sécurité avancent de concert pour accélérer la croissance et renforcer la résilience de l’organisation.

Ressources connexes

Blog

L'IA agentique : une ruée vers l'or pour les DAF et trésoriers, pas un simple coup de boost

En savoir plus
Blog

Pourquoi les DAF devraient débuter leur parcours IA par la trésorerie

En savoir plus
Blog

Modifications des règles Nacha 2026 : ce que les équipes financières doivent faire pour garantir la conformité

En savoir plus