Blog

Human-in-the-loop : un cadre opérationnel de contrôle de l'IA pour les dirigeants financiers

Et si le principal risque dans l'adoption de l'IA n'était pas la technologie elle-même, mais plutôt de traiter l'IA comme un simple outil au lieu d'un véritable membre de l'équipe ?

Avec 92 % des directeurs financiers qui utilisent déjà l'IA dans leurs opérations financières, le défi n'est plus de savoir s'il faut adopter l'IA, mais comment l'intégrer efficacement. Aucun directeur financier n'intégrerait un nouveau membre dans son équipe sans définir clairement son rôle, ses responsabilités et sa gouvernance, pourtant l'IA est souvent mise en œuvre sans ces éléments essentiels.

L'IA crée de la valeur lorsqu'elle est pilotée comme un professionnel qualifié : en travaillant au sein d'une équipe avec des responsabilités bien définies et un contrôle approprié. Le cadre human-in-the-loop (humain dans la boucle) offre aux équipes financières une méthode pratique pour décider ce qu'il faut automatiser, ce qu'il faut assister avec l'IA, et quand réserver les décisions aux professionnels expérimentés.

Ce que signifie le human-in-the-loop pour la fonction finance

Le human-in-the-loop fournit un cadre simple pour aligner l'adoption de l'IA avec les réalités fondamentales de la trésorerie : visibilité de la trésorerie, risque de liquidité, contrôle des paiements, conformité et prise de décision stratégique. Au lieu de se demander « Où pouvons-nous appliquer l'IA ? », cette méthode pose une meilleure question : Quel niveau d'intervention humaine chaque processus doit-il requérir pour être rapide, sûr et explicable ?

Pour répondre à cette question, les équipes doivent évaluer les processus selon deux dimensions critiques :

  • Fréquence : À quelle fréquence le processus s'exécute-t-il : quotidiennement, hebdomadairement, mensuellement ou de manière ponctuelle ?

  • Importance stratégique : Si le processus échoue, quel est l'impact sur la liquidité, le risque, la conformité, la réputation ou les décisions de la direction ?

Cadrer la mise en œuvre de l'IA selon ces dimensions fait évoluer la discussion de l'expérimentation technologique vers la conception opérationnelle stratégique. La conversation passe de « Pouvons-nous le faire ? » à « Devrions-nous le faire, et comment ? » Les dirigeants peuvent déployer l'IA là où la technologie créera un effet de levier, tout en s'assurant que les humains restent responsables là où l'imputabilité et le jugement métier sont primordiaux.

Une intelligence d'imitation, pas de création

Contrairement à une idée reçue, l'IA n'« invente » pas de la même manière que les humains. L'IA générative produit des résultats en apprenant des modèles à partir de vastes ensembles de données. Ces ensembles de données sont finalement créés, sélectionnés et étiquetés par l'activité humaine et les systèmes d'entreprise. Cette dépendance aux données générées par l'homme explique précisément pourquoi l'IA ne peut pas être traitée comme un acteur autonome dans la finance.

Si les systèmes d'IA s'entraînent de plus en plus sur du contenu produit par d'autres systèmes d'IA, plutôt que sur des données métier réelles et ancrées dans le terrain, les performances peuvent se dégrader avec le temps. Certains chercheurs décrivent ce phénomène comme l'« effet Habsbourg », une métaphore faisant référence aux risques de « consanguinité » au sein d'un système fermé.

Lorsqu'un modèle se nourrit de ses propres résultats, il peut dériver, amplifier les biais et perdre progressivement le lien avec la réalité. En termes de trésorerie, cela pourrait signifier des prévisions générées par l'IA qui semblent statistiquement valides mais qui manquent les facteurs opérationnels que votre équipe sait importants. La leçon est claire : l'IA ne peut pas fonctionner seule. L'IA nécessite un environnement humain, un contrôle approprié et un solide ancrage métier.

En termes financiers, le risque lié à l'IA n'est pas abstrait. Des prévisions formulées avec assurance peuvent devenir moins ancrées dans la réalité opérationnelle, la détection d'anomalies peut commencer à « apprendre la mauvaise norme », et les narratifs de reporting peuvent converger vers des explications génériques et peu utiles. Le remède n'est pas d'éviter l'IA (même si certaines équipes pourraient être tentées). Intégrer l'IA dans une dynamique d'équipe avec contrôle, feedback et un solide ancrage métier génère une valeur durable.

Machine learning vs. IA générative : comprendre les deux moteurs de l'IA dans la finance

Les équipes financières travaillent aujourd'hui avec deux catégories distinctes d'IA, et les confondre conduit à des attentes inadaptées. Le machine learning (ML) et l'IA générative sont construits différemment, entraînés différemment et adaptés à des tâches très différentes. Connaître cette distinction aide les dirigeants financiers à choisir le bon outil et à définir les bonnes attentes de gouvernance pour chacun.

Les modèles de machine learning sont entraînés sur des données structurées et numériques pour reconnaître des modèles et faire des prédictions. Un modèle de détection de fraude, par exemple, apprend à partir de milliers de transactions historiques pour noter les nouvelles selon le risque. Un modèle de prévision de trésorerie apprend la relation entre les flux de trésorerie passés, la saisonnalité et les facteurs métier pour projeter les soldes futurs. Ces modèles sont précis, auditables et fiables dans le domaine étroit pour lequel ils ont été conçus. Leurs résultats sont déterministes : avec les mêmes données d'entrée, ils produisent les mêmes résultats. Pour la finance, cette prévisibilité est une force. Les systèmes basés sur le ML excellent dans la détection d'anomalies, le rapprochement de transactions, l'allocation de codes budgétaires et les prévisions structurées.

Les modèles d'IA générative fonctionnent selon un principe fondamentalement différent. Des outils comme GPT d'OpenAI sont entraînés sur de vastes quantités de texte pour comprendre et générer du langage. Plutôt que de prédire un nombre, ils prédisent le mot ou le jeton suivant le plus probable, compte tenu du contexte. Cette approche rend les LLM exceptionnellement capables pour les tâches qui nécessitent une maîtrise du langage : résumer un rapport de liquidité, rédiger un commentaire pour le conseil d'administration, répondre à une question sur un covenant, ou expliquer pourquoi un écart de trésorerie s'est produit. Contrairement aux modèles ML, les LLM sont génératifs et probabilistes, ce qui signifie que la même instruction peut produire des réponses légèrement différentes. Leur valeur ne réside pas dans la précision numérique, mais dans la capacité à traduire les données en signification, à synthétiser des informations non structurées et à accélérer les workflows humains qui reposent sur la communication et l'interprétation.

Les déploiements d'IA les plus puissants dans la finance combinent les deux. Les modèles ML génèrent les chiffres ; les LLM traduisent ces chiffres en narratifs actionnables. Un workflow de prévision de trésorerie, par exemple, pourrait utiliser le ML pour calculer la prévision et faire ressortir les principaux facteurs, puis utiliser un LLM pour rédiger le commentaire de gestion dans le ton et le format appropriés pour la revue par la direction. Aucun modèle ne remplace l'autre, et aucun ne remplace le professionnel de la finance qui valide le résultat et assume la décision.

Les quatre modes opératoires de l'IA dans la finance

Comprendre quel type d'IA est à l'œuvre dans chaque processus est fondamental pour appliquer le bon niveau de contrôle humain. C'est là qu'interviennent les quatre modes opératoires.

Comme tout professionnel de la finance, l'IA n'excelle que lorsqu'elle travaille au sein d'une équipe. Une fois la fréquence et l'importance stratégique évaluées, la plupart des processus financiers tombent naturellement dans l'un des quatre modes opératoires. Ces modes donnent aux équipes un langage commun pour définir les rôles, les responsabilités et les contrôles.

  1. Piloté par l'humain (contrôle total) : Les humains exécutent et décident. L'IA peut fournir des informations (résumés, résultats de recherche, comparaisons) mais ne génère pas le résultat final. Ce mode est le mieux adapté aux décisions hautement stratégiques, aux situations nouvelles et à toute tâche où le contexte et la responsabilité ne peuvent être délégués. Les exemples incluent les stratégies de financement de fusions-acquisitions ou la négociation de nouvelles lignes de crédit.

  2. Dirigé par l'humain avec assistance IA : L'IA rédige, recommande, met en évidence les facteurs clés ou signale les incohérences. Les humains valident, ajustent et approuvent le résultat final. Le mode dirigé par l'humain est souvent le point de départ le plus rentable pour les équipes financières car il améliore la rapidité sans compromettre l'approbation ou l'imputabilité. Considérez cette approche comme donnant à votre équipe un analyste hautement capable pour préparer la première ébauche.

  3. Exécuté par l'IA sous contrôle humain : L'IA exécute le workflow et produit des résultats, tandis que les humains supervisent les résultats via des seuils, la gestion des exceptions et des files de révision. Les personnes ne révisent pas tout ; elles révisent ce qui compte. L'attention passe de l'exécution manuelle à la supervision et au contrôle qualité.

  4. Autonome IA, mais entièrement auditable : L'IA exécute de bout en bout dans des garde-fous stricts et avec une journalisation complète. « Autonome » ne signifie jamais « invisible ». Le terme signifie que le processus est suffisamment stable et contrôlé pour fonctionner sans attention humaine constante, tout en laissant une trace complète et transparente des entrées, sorties et décisions pour l'audit et l'amélioration continue.

Une erreur courante consiste à traiter tous les processus comme le Mode 4 (autonome) trop rapidement. Lorsque les approbations de paiement s'exécutent sans gestion des exceptions, un seul cas limite peut créer des problèmes en aval qui prennent des semaines à résoudre. La vitesse sans garde-fous crée un passif, pas de l'efficacité.

Pour les directeurs financiers et les dirigeants financiers, l'idée centrale est claire : l'objectif n'est pas l'automatisation pour elle-même. Le véritable objectif est une performance répétable dans un environnement de contrôle qui peut être défendu, tant en interne qu'en externe. Sans clarté sur la propriété, les points de contrôle et les preuves, les équipes génèrent soit des résultats rapides mais difficiles à faire confiance, soit créent des résultats fiables mais trop lents pour être mis à l'échelle.

À quoi ressemble le succès : cas d'usage en trésorerie

Le succès du human-in-the-loop se démontre mieux à travers des cas d'usage pratiques. Les exemples suivants montrent comment les bons modes opératoires et la bonne gouvernance de l'IA peuvent favoriser la rapidité, la précision et l'imputabilité.

  • Prévision de trésorerie (dirigé par l'humain avec assistance IA) : La prévision de trésorerie assistée par IA peut proposer des ajustements de prévision et faire ressortir les facteurs : changements dans les délais d'encaissement, pics de paie ou écarts inhabituels. L'équipe trésorerie examine ce qui est matériel, valide les hypothèses avec le contexte métier et assume le narratif présenté à la direction. En pratique, de nombreuses équipes voient des rendements cumulés ici : chaque cycle devient plus rapide car l'équipe part d'une meilleure première ébauche et concentre son temps sur ce qui a réellement changé.

  • Paiements et détection d'anomalies (exécuté par l'IA sous contrôle humain) : L'IA peut surveiller le comportement des paiements et signaler les anomalies : bénéficiaires inhabituels, nouvelles coordonnées bancaires, montants hors norme ou violations de règles. L'équipe examine uniquement les exceptions, valide les éléments légitimes et fait remonter les éléments suspects. Au fil du temps, les seuils et les contrôles évoluent en fonction des résultats validés, améliorant la qualité de détection tout en maintenant la séparation des tâches intacte.

  • Reporting de liquidité (dirigé par l'humain avec assistance IA) : Le reporting de liquidité assisté par IA peut rédiger une explication initiale du mouvement de trésorerie d'une semaine à l'autre et mettre en évidence les facteurs probables par comptes ou entités. La finance valide la précision, assure la cohérence avec les données réelles et ajuste le message pour les parties prenantes. Ce cas d'usage est particulièrement utile lorsque les dirigeants ont besoin à la fois de chiffres et de narratif rapidement.

  • Rapprochements de routine (autonome IA, mais auditable) : Pour les rapprochements stables basés sur des règles, l'IA peut rapprocher et clôturer automatiquement les éléments, à condition que chaque décision soit traçable et que la gestion des exceptions soit définie. L'autonomie se gagne grâce aux contrôles : règles de tolérance, gestion du changement et révision périodique. L'avantage va au-delà du temps économisé : le véritable gain est la cohérence et la capacité de concentrer l'attention des experts sur les exceptions.

Une gouvernance IA qui permet la rapidité

Une adoption efficace de l'IA réussit lorsque la gouvernance est conçue pour réduire (et non ajouter) les frictions. Pour les équipes financières, la check-list pratique de gouvernance est :

  • Clarté des données : Établir des définitions communes (par ex., « trésorerie disponible »), une lignage de données claire et des règles de qualité.

  • Accès et confidentialité : Appliquer l'accès au moindre privilège, la séparation des tâches et les politiques de conservation des données.

  • Auditabilité : Maintenir des journaux des entrées, sorties, approbations et changements de modèles ou de versions.

  • Suivi de la valeur : Lier l'utilisation de l'IA à des résultats mesurables comme le temps de cycle, la précision ou les taux d'exception.

  • Chemins d'escalade : Définir ce qui se passe lorsque la confiance de l'IA est faible ou qu'un résultat est matériel et nécessite un jugement humain.

Lorsque la gouvernance de l'IA est bien conçue, elle permet aux dirigeants de faire évoluer l'utilisation de l'IA en toute sécurité et avec confiance. Une gouvernance sans application n'est que de la documentation. Il ne suffit pas d'avoir des contrôles sur papier ; ils doivent produire des preuves auditables.

Faire évoluer l'IA avec confiance

L'IA ne remplace pas le jugement financier. L'IA étend le jugement financier. Comme tout nouveau membre d'équipe, l'IA performe au mieux avec un rôle clair, un responsable et un modèle opératoire qui transforme la capacité en résultats cohérents et défendables. Le cadre human-in-the-loop offre une approche structurée et fiable pour faire évoluer l'adoption de l'IA avec clarté et contrôle, plutôt qu'avec simplement de l'enthousiasme.

Parmi les 92 % de directeurs financiers utilisant l'IA dans leurs opérations financières, ceux qui réussiront seront ceux qui traitent l'IA comme un membre de l'équipe dès le premier jour.

Written By

Felix Grevy

SVP Platform, Data & AI

Félix Grévy est SVP, Platform, Data & AI chez Kyriba, où il pilote l’innovation en ingénierie de plateforme, data, IA et analytique avancée. Fort de plus de 20 ans d’expérience en technologies financières couvrant le développement produit, le product management et le management commercial, Félix a rejoint Kyriba en 2020 pour diriger la stratégie API et connectivité. Il a depuis mené les initiatives d’IA agentique de Kyriba, dont le portefeuille Trusted AI (TAI), qui intègre une intelligence gouvernée directement dans les processus de trésorerie et de finance en combinant LLMs et analytique prédictive, sans « boîtes noires » ni entraînement de modèles externes sur les données clients.

Vincent Siccardi

Director Product Management, Data, and Analytics

Ressources connexes

Blog

Pourquoi les éditeurs de logiciels ne vont nulle part à l'ère de l'IA agentique

En savoir plus
Blog

Optimisez vos prévisions de trésorerie avec l’IA

En savoir plus
Blog

L'IA agentique de Kyriba, TAI, est maintenant disponible

En savoir plus