Blog

Human-in-the-loop: un modello operativo di controllo dell'IA per i leader finanziari

E se il rischio più grande nell'adozione dell'IA non fosse la tecnologia, ma il trattare l'IA come un semplice strumento invece che come un membro del team?

Con il 92% dei CFO che già utilizza l'IA nelle proprie attività di Finance, la sfida non è più se adottare l'IA, ma come integrarla efficacemente. Nessun responsabile finanziario inserirebbe una nuova risorsa nel team senza ruoli, responsabilità e supervisione chiari, eppure l'IA viene spesso implementata senza questi elementi fondamentali.

L'IA genera valore quando è gestita come un professionista qualificato: lavorando all'interno di un team con responsabilità ben definite e una supervisione adeguata. Un modello human-in-the-loop (HITL) offre ai team finanziari un metodo pratico per decidere cosa automatizzare, cosa potenziare e quando riservare le decisioni a professionisti esperti.

Cosa significa human-in-the-loop per la finanza

L'approccio human-in-the-loop fornisce un modello semplice per allineare l'adozione dell'IA alle realtà fondamentali della tesoreria: visibilità della liquidità, rischio di liquidità, controllo dei pagamenti, compliance e processo decisionale del management. Invece di chiedersi "Dove possiamo applicare l'IA?", questo metodo pone una domanda migliore: quale livello di coinvolgimento umano dovrebbe richiedere ciascun processo per essere veloce, sicuro e spiegabile?

Per rispondere alla domanda, i team devono valutare i processi lungo due dimensioni critiche:

  • Frequenza: Con quale frequenza viene eseguito il processo: giornaliera, settimanale, mensile o ad hoc?

  • Importanza strategica: Se il processo fallisce, qual è l'impatto sulla liquidità, sul rischio, sulla compliance, sulla reputazione o sulle decisioni del management?

Inquadrare l'implementazione dell'IA lungo queste dimensioni sposta la discussione dalla sperimentazione tecnologica alla progettazione operativa strategica. La conversazione passa da "Possiamo farlo?" a "Dovremmo farlo, e come?" I leader possono implementare l'IA dove la tecnologia creerà efficienza, garantendo al contempo che le persone mantengano il controllo dove responsabilità e giudizio aziendale sono fondamentali.

Un'intelligenza di imitazione, non di creazione

Contrariamente a quanto si crede, l'IA non "inventa" nel modo in cui lo fanno gli esseri umani. L'IA generativa produce output apprendendo pattern da enormi set di dati. Questi dataset sono in definitiva creati, selezionati e classificati attraverso l'attività umana e i sistemi aziendali. La dipendenza da dati generati dall'uomo è proprio il motivo per cui l'IA non può essere trattata come un attore autonomo in ambito finanziario.

Se i sistemi di IA si addestrano sempre più su contenuti prodotti da altri sistemi di IA, anziché su dati aziendali reali e concreti, le prestazioni possono degradarsi nel tempo. Alcuni ricercatori descrivono questo fenomeno come "effetto Asburgo", una metafora che fa riferimento ai rischi della "consanguineità" all'interno di un sistema chiuso.

Quando un modello si alimenta dei propri output, può derivare, amplificare bias e gradualmente perdere il contatto con la realtà. In termini di tesoreria, ciò potrebbe significare previsioni generate dall'IA che sembrano statisticamente valide ma che non colgono i driver operativi che il vostro team sa essere rilevanti. La lezione è chiara: l'IA non può funzionare da sola. L'IA richiede un ambiente umano, una supervisione adeguata e solide basi aziendali.

In termini finanziari, il rischio dell'IA non è astratto. Previsioni che sembrano affidabili possono diventare meno ancorate alla realtà operativa, il rilevamento delle anomalie può iniziare a "imparare la normalità sbagliata" e le narrative di reporting possono convergere verso spiegazioni generiche e poco utili. Il rimedio non è evitare l'IA (anche se alcuni team potrebbero essere tentati). Integrare l'IA in una dinamica di team con supervisione, feedback e solide basi aziendali genera valore sostenibile.

Machine learning vs. IA generativa: comprendere i due motori dell'IA in finanza

I team finanziari oggi lavorano con due categorie distinte di IA e confonderle porta ad aspettative errate. Il machine learning (ML) e l'IA generativa sono costruiti in modo diverso, addestrati in modo diverso e adatti a compiti molto differenti. Conoscere la distinzione aiuta i leader finanziari a scegliere lo strumento giusto e a definire le giuste aspettative di governance per ciascuno.

I modelli di machine learning sono addestrati su dati strutturati e numerici per riconoscere pattern e fare previsioni. Un modello di rilevamento frodi, ad esempio, impara da migliaia di transazioni storiche per assegnare un punteggio di rischio a quelle nuove. Un modello di previsione di cassa apprende la relazione tra flussi di cassa passati, stagionalità e driver aziendali per proiettare i saldi futuri. Questi modelli sono precisi, verificabili e affidabili all'interno del dominio ristretto per cui sono stati progettati. I loro output sono deterministici: dati gli stessi input, producono gli stessi output. Per la finanza, questa prevedibilità è un punto di forza. I sistemi basati su ML eccellono nel rilevamento delle anomalie, nella riconciliazione automatica, nell'allocazione dei codici di budget e nelle previsioni strutturate.

I modelli di IA generativa operano secondo un principio fondamentalmente diverso. Strumenti come GPT di OpenAI sono addestrati su enormi quantità di testo per comprendere e generare linguaggio. Invece di prevedere un numero, prevedono la parola o il token successivo più probabile, dato il contesto. Questo approccio rende i Large Language Model (LLM) eccezionalmente capaci in compiti che richiedono fluidità linguistica: riassumere un report sulla liquidità, redigere un commento per il board, rispondere a una domanda su un covenant o spiegare perché si è verificata una varianza di cassa. A differenza dei modelli ML, gli LLM sono generativi e probabilistici, il che significa che lo stesso prompt può produrre risposte leggermente diverse. Il loro valore non risiede nella precisione numerica, ma nella capacità di tradurre i dati in significato, sintetizzare informazioni non strutturate e accelerare i flussi di lavoro umani che si basano sulla comunicazione e sull'interpretazione.

Le implementazioni di IA più efficaci in finanza combinano entrambe. I modelli ML generano i numeri; gli LLM traducono quei numeri in narrative azionabili. Un flusso di lavoro di previsione di cassa, ad esempio, potrebbe utilizzare il ML per calcolare la previsione e individuare i driver chiave, quindi utilizzare un LLM per redigere il commento gestionale nel tono e nel formato appropriati per la revisione del management. Nessun modello sostituisce l'altro e nessuno sostituisce il professionista finanziario che convalida l'output e si assume la responsabilità della decisione.

Le quattro modalità operative per l'IA in finanza

Capire quale tipo di IA è all'opera in ciascun processo è fondamentale per applicare il giusto livello di supervisione umana. È qui che entrano in gioco le quattro modalità operative.

Come qualsiasi professionista finanziario, l'IA eccelle solo quando lavora come parte di un team. Una volta valutate frequenza e importanza strategica, la maggior parte dei processi finanziari rientra naturalmente in una delle quattro modalità operative. Le modalità forniscono ai team un linguaggio condiviso per definire ruoli, responsabilità e controlli.

  1. Controllo umano (pieno controllo): Le persone eseguono e decidono. L'IA può fornire informazioni (riepiloghi, risultati di ricerca, confronti) ma non genera l'output finale. Questa modalità è più adatta per decisioni altamente strategiche, situazioni inedite e qualsiasi attività in cui contesto e responsabilità non possono essere delegati. Esempi includono strategie di finanziamento per M&A o negoziazione di nuove linee di credito.

  2. Guidata dall'uomo con assistenza IA: L'IA redige bozze, raccomanda, evidenzia driver o segnala incongruenze. Le persone validano, adattano e approvano l'output finale. La modalità guidata dall'uomo è spesso il punto di partenza più redditizio per i team finanziari perché migliora la velocità senza compromettere approvazione o responsabilità. Pensate a questo approccio come a dare al vostro team un analista altamente capace per preparare la prima bozza.

  3. Eseguita dall'IA sotto supervisione umana: L'IA esegue il flusso di lavoro e produce output, mentre le persone supervisionano i risultati attraverso soglie, gestione delle eccezioni e code di revisione. Le persone non revisionano tutto; revisionano ciò che conta. L'attenzione si sposta dall'esecuzione manuale alla supervisione e al controllo qualità.

  4. IA autonoma, ma completamente verificabile: L'IA esegue end-to-end all'interno di guardrail rigorosi e con logging completo. "Autonoma" qui non significa mai "invisibile". Il termine significa che il processo è abbastanza stabile e controllato da funzionare senza attenzione umana costante, lasciando comunque una traccia completa e trasparente di input, output e decisioni per audit e miglioramento continuo.

Un errore comune è trattare tutti i processi come Modalità 4 (autonoma) troppo rapidamente. Quando le approvazioni di pagamento vengono eseguite senza gestione delle eccezioni, un singolo caso limite può creare problemi a valle che richiedono settimane per essere risolti. Velocità senza guardrail crea responsabilità, non efficienza.

Per i CFO e i leader finanziari, l'idea centrale è chiara: l'obiettivo non è l'automazione fine a se stessa. Il vero obiettivo è una performance ripetibile all'interno di un ambiente di controllo che possa essere difeso, sia internamente che esternamente. Senza chiarezza su ownership, punti di controllo ed evidenze, i team generano output veloci ma difficili da fidare oppure creano output affidabili ma troppo lenti da scalare.

Come si presenta il successo: casi d'uso di tesoreria

Il successo dell'approccio human-in-the-loop si dimostra al meglio attraverso casi d'uso pratici. I seguenti esempi mostrano come le giuste modalità operative e la governance dell'IA possano favorire velocità, accuratezza e responsabilità.

  • Previsione di cassa (guidata dall'uomo con assistenza IA): La previsione di cassa basata su IA può proporre aggiustamenti previsionali e individuare i driver: cambiamenti nei tempi di incasso, picchi salariali o varianze insolite. Il team di tesoreria revisiona ciò che è rilevante, convalida le assunzioni con il contesto aziendale e si assume la responsabilità della narrative presentata al management. Nella pratica, molti team vedono ritorni crescenti qui: ogni ciclo diventa più veloce perché il team parte da una prima bozza migliore e concentra il tempo su ciò che è effettivamente cambiato.

  • Pagamenti e rilevamento anomalie (eseguita dall'IA sotto supervisione umana): L'IA può monitorare il comportamento dei pagamenti e segnalare anomalie: beneficiari insoliti, nuovi dati bancari, importi fuori pattern o violazioni di regole. Il team revisiona solo le eccezioni, autorizza gli elementi validi ed escalation quelli sospetti. Nel tempo, soglie e controlli evolvono in base ai risultati validati, migliorando la qualità del rilevamento mantenendo intatta la segregazione dei compiti.

  • Reporting di liquidità (guidato dall'uomo con assistenza IA): Il reporting di liquidità abilitato dall'IA può redigere una spiegazione iniziale del movimento di cassa settimanale ed evidenziare i probabili driver tra conti o entità. La finanza convalida l'accuratezza, garantisce la coerenza con i valori effettivi e adatta il messaggio per gli stakeholder. Questo caso d'uso è particolarmente utile quando i leader hanno bisogno rapidamente sia di numeri che di narrative.

  • Riconciliazioni di routine (IA autonoma, ma verificabile): Per riconciliazioni stabili basate su regole, l'IA può abbinare e chiudere elementi automaticamente, a condizione che ogni decisione sia tracciabile e che la gestione delle eccezioni sia definita. L'autonomia si guadagna attraverso i controlli: regole di tolleranza, change management e revisione periodica. Il beneficio va oltre il tempo risparmiato: il vero vantaggio è la coerenza e la capacità di concentrare l'attenzione degli esperti sulle eccezioni.

Governance dell'IA che abilita la velocità

Un'adozione efficace dell'IA ha successo quando la governance è progettata per ridurre (non aggiungere) attrito. Per i team finanziari, la checklist pratica di governance è:

  • Chiarezza dei dati: Stabilire definizioni comuni (es. "liquidità disponibile"), chiara lineage dei dati e regole di qualità.

  • Accesso e riservatezza: Applicare accesso con privilegi minimi, segregazione dei compiti e politiche di conservazione dei dati.

  • Verificabilità: Mantenere log di input, output, approvazioni e modifiche a modelli o versioni.

  • Tracciamento del valore: Collegare l'uso dell'IA a risultati misurabili come tempi di ciclo, accuratezza o tassi di eccezione.

  • Percorsi di escalation: Definire cosa succede quando la confidenza dell'IA è bassa o un risultato è rilevante e richiede giudizio umano.

Quando la governance dell'IA è ben progettata, consente ai leader di scalare l'utilizzo dell'IA in modo sicuro e con fiducia. Governance senza applicazione è solo documentazione. Non è sufficiente avere controlli sulla carta; devono produrre evidenze verificabili.

Scalare l'IA con fiducia

L'IA non sostituisce il giudizio finanziario. L'IA estende il giudizio finanziario. Come qualsiasi nuova risorsa del team, l'IA performa al meglio con un ruolo chiaro, un manager e un modello operativo che trasforma le capacità in risultati coerenti e difendibili. Il modello human-in-the-loop offre un approccio strutturato e affidabile per scalare l'adozione dell'IA con chiarezza e controllo, piuttosto che solo con entusiasmo.

Del 92% dei CFO che utilizzano l'IA nelle proprie attività di Finance, avranno successo coloro che tratteranno l'IA come un membro del team fin dal primo giorno.

Written By

Felix Grevy

SVP Platform, Data & AI

Félix Grévy è SVP Platform, Data & AI in Kyriba, dove guida l’innovazione in ambito platform engineering, dati, IA e advanced analytics. Con oltre 20 anni di esperienza nella tecnologia finanziaria tra sviluppo prodotto, product management e gestione commerciale, Félix è entrato in Kyriba nel 2020 per guidare la strategia di API e connettività. Da allora ha promosso le iniziative di IA agentica di Kyriba, incluso il portafoglio Trusted AI (TAI), che integra intelligence governata direttamente nei workflow di tesoreria e finanza attraverso LLM e analytics predittiva, senza “scatole nere” e senza addestrare modelli esterni con i dati dei clienti.

Vincent Siccardi

Director Product Management, Data, and Analytics

Risorse Correlate

Blog

Perché le aziende software non andranno da nessuna parte nell'era dell'IA agentica

Scopri di più
Ricerca

Sblocca il potenziale della IA Agentica nella tesoreria

Scopri di più