
Human-in-the-loop: un marco práctico de control de IA para líderes financieros

Por
Felix Grevy
SVP Platform, Data & AIVincent Siccardi
Director Product Management, Data, and AnalyticsShare
¿Y si el mayor riesgo al adoptar IA no fuera la tecnología, sino tratarla como una simple herramienta y no como un miembro del equipo?
El 92 % de los CFO (directores financieros) ya utilizan IA en sus operaciones financieras, por lo que el desafío ya no es si adoptar IA, sino cómo integrarla eficazmente. Ningún líder financiero incorporaría a un nuevo miembro del equipo sin roles, responsabilidades y supervisión claros, sin embargo, la IA suele implementarse sin estos elementos críticos.
La IA genera valor cuando se gestiona como a un profesional cualificado: trabajando dentro de un equipo con responsabilidades bien definidas y la supervisión adecuada. Un marco human-in-the-loop (HITL, con supervisión humana) proporciona a los equipos financieros un método práctico para decidir qué automatizar, qué potenciar y cuándo reservar decisiones para profesionales experimentados.
Qué significa human-in-the-loop para finanzas
Human-in-the-loop ofrece un marco sencillo para alinear la adopción de IA con las realidades fundamentales de tesorería: visibilidad de caja, riesgo de liquidez, control de pagos, cumplimiento normativo y toma de decisiones ejecutivas. En lugar de preguntar "¿Dónde podemos aplicar IA?", este método plantea una pregunta mejor: ¿Qué nivel de intervención humana debe requerir cada proceso para ser rápido, seguro y explicable?
Para responder la pregunta, los equipos deben evaluar los procesos en dos dimensiones críticas:
Frecuencia: ¿Con qué frecuencia se ejecuta el proceso: diaria, semanal, mensual o ad hoc?
Importancia estratégica: Si el proceso falla, ¿cuál es el impacto en liquidez, riesgo, cumplimiento, reputación o decisiones ejecutivas?
Enmarcar la implementación de IA a lo largo de estas dimensiones traslada la discusión desde la experimentación tecnológica al diseño operativo estratégico. La conversación cambia de "¿Podemos hacer esto?" a "¿Debemos hacer esto, y cómo?". Los líderes pueden desplegar IA donde la tecnología creará apalancamiento, al tiempo que garantizan que los humanos permanezcan a cargo donde la responsabilidad y el juicio empresarial son primordiales.
Una inteligencia de imitación, no de creación
Contrariamente a la creencia popular, la IA no "inventa" de la manera en que lo hacen los humanos. La IA generativa produce resultados aprendiendo patrones de vastos conjuntos de datos. Esos conjuntos de datos son, en última instancia, creados, seleccionados y etiquetados mediante la actividad humana y los sistemas empresariales. La dependencia de datos generados por humanos es precisamente la razón por la cual la IA no puede tratarse como un actor independiente en finanzas.
Si los sistemas de IA entrenan cada vez más con contenido producido por otros sistemas de IA, en lugar de con datos empresariales reales y fundamentados, el rendimiento puede degradarse con el tiempo. Algunos investigadores describen este fenómeno como el "efecto Habsburgo", una metáfora que hace referencia a los riesgos de "endogamia" dentro de un sistema cerrado.
Cuando un modelo se alimenta de sus propios resultados, puede desviarse, amplificar sesgos y perder gradualmente la conexión con la realidad. En términos de tesorería, esto podría significar proyecciones generadas por IA que parecen estadísticamente válidas pero omiten los impulsores operativos que tu equipo sabe que importan. La lección es clara: la IA no puede funcionar por sí sola. La IA requiere un entorno humano, supervisión adecuada y una sólida base empresarial.
En términos financieros, el riesgo de la IA no es abstracto. Las proyecciones que suenan convincentes pueden estar menos ancladas a la realidad operativa, la detección de anomalías puede comenzar a "aprender la normalidad equivocada" y las narrativas de informes pueden converger en explicaciones genéricas y poco útiles. El remedio no es evitar la IA (aunque algunos equipos pueden sentirse tentados). Integrar la IA en una dinámica de equipo con supervisión, retroalimentación y un sólido fundamento empresarial genera valor sostenible.
Machine learning vs. IA generativa: comprender los dos motores de la IA en finanzas
Los equipos financieros de hoy trabajan con dos categorías distintas de IA, y confundirlas lleva a expectativas erróneas. El machine learning (aprendizaje automático o ML) y la IA generativa se construyen de manera diferente, se entrenan de manera diferente y son adecuados para tareas muy diferentes. Conocer la distinción ayuda a los líderes financieros a elegir la herramienta correcta y establecer las expectativas de gobernanza adecuadas para cada una.
Los modelos de machine learning se entrenan con datos numéricos estructurados para reconocer patrones y hacer predicciones. Un modelo de detección de fraude, por ejemplo, aprende de miles de transacciones históricas para calificar nuevas transacciones según el riesgo. Un modelo de proyección de caja aprende la relación entre flujos de caja pasados, estacionalidad e impulsores de negocio para proyectar saldos futuros. Estos modelos son precisos, auditables y confiables dentro del dominio limitado para el que fueron diseñados. Sus resultados son deterministas: dados los mismos datos de entrada, producen los mismos resultados. Para finanzas, esa previsibilidad es una fortaleza. Los sistemas basados en ML sobresalen en detección de anomalías, conciliación automática, asignación de códigos presupuestarios y proyecciones estructuradas.
Los modelos de IA generativa operan bajo un principio fundamentalmente diferente. Herramientas como GPT de OpenAI se entrenan con vastas cantidades de texto para comprender y generar lenguaje. En lugar de predecir un número, predicen la siguiente palabra o token más probable, dado el contexto. Este enfoque hace que los LLMs (modelos de lenguaje grandes) sean excepcionalmente capaces en tareas que requieren fluidez lingüística: resumir un informe de liquidez, redactar un comentario para el consejo, responder una pregunta sobre un covenant, o explicar por qué ocurrió una variación de caja. A diferencia de los modelos de ML, los LLMs son generativos y probabilísticos, lo que significa que el mismo prompt puede producir respuestas ligeramente diferentes. Su valor no reside en la precisión numérica, sino en la capacidad de traducir datos en significado, sintetizar información no estructurada y acelerar los flujos de trabajo humanos que dependen de la comunicación y la interpretación.
Los despliegues de IA más potentes en finanzas combinan ambos. Los modelos de ML generan los números; los LLMs traducen esos números en narrativas accionables. Un flujo de trabajo de proyección de caja, por ejemplo, podría usar ML para calcular la proyección e identificar los impulsores clave, y luego usar un LLM para redactar el comentario de gestión en el tono y formato apropiados para revisión de la dirección. Ningún modelo reemplaza al otro, y ninguno reemplaza al profesional financiero que valida el resultado y es responsable de la decisión.
Los cuatro modos operativos de la IA en finanzas
Comprender qué tipo de IA está trabajando en cada proceso es fundamental para aplicar el nivel correcto de supervisión humana. Ahí es donde entran los cuatro modos operativos.
Como cualquier profesional financiero, la IA sobresale solo cuando trabaja como parte de un equipo. Una vez que se evalúan la frecuencia y la importancia estratégica, la mayoría de los procesos financieros encajan naturalmente en uno de cuatro modos operativos. Los modos proporcionan a los equipos un lenguaje común para definir roles, responsabilidades y controles.
Propiedad humana (control total): Los humanos ejecutan y deciden. La IA puede proporcionar información (resúmenes, resultados de búsqueda, comparaciones) pero no genera el resultado final. El modo es más adecuado para decisiones altamente estratégicas, situaciones novedosas y cualquier tarea donde el contexto y la responsabilidad no pueden delegarse. Los ejemplos incluyen estrategias de financiación de fusiones y adquisiciones o la negociación de nuevas líneas de crédito.
Liderazgo humano con asistencia de IA: La IA redacta borradores, recomienda, destaca impulsores o señala inconsistencias. Los humanos validan, ajustan y aprueban el resultado final. El modo de liderazgo humano suele ser el punto de partida con mayor retorno para los equipos financieros porque mejora la velocidad sin comprometer la aprobación o la responsabilidad. Piensa en el enfoque como dar a tu equipo un analista altamente capaz para preparar el primer borrador.
Ejecución de IA bajo supervisión humana: La IA ejecuta el flujo de trabajo y produce resultados, mientras los humanos supervisan los resultados mediante umbrales, gestión de excepciones y colas de revisión. Las personas no revisan todo; las personas revisan lo que importa. El enfoque cambia de la ejecución manual a la supervisión y el control de calidad.
IA autónoma, pero totalmente auditable: La IA ejecuta de extremo a extremo dentro de barreras de protección estrictas y registro exhaustivo. "Autónomo" aquí nunca significa "invisible". El término significa que el proceso es lo suficientemente estable y controlado para ejecutarse sin atención humana constante, mientras deja un rastro completo y transparente de entradas, salidas y decisiones para auditoría y mejora continua.
Un error común es tratar todos los procesos como Modo 4 (autónomo) demasiado rápido. Cuando las aprobaciones de pagos se ejecutan sin gestión de excepciones, un solo caso especial puede crear problemas posteriores que tardan semanas en resolverse. La velocidad sin barreras de protección crea responsabilidad, no eficiencia.
Para CFOs y líderes financieros, la idea central es clara: el objetivo no es la automatización por sí misma. El verdadero objetivo es el rendimiento repetible dentro de un entorno de control que pueda defenderse, tanto interna como externamente. Sin claridad sobre la propiedad, los puntos de control y la evidencia, los equipos generan resultados que son rápidos pero difíciles de confiar, o crean resultados confiables pero demasiado lentos para escalar.
Cómo se ve el éxito: casos de uso en tesorería
El éxito de human-in-the-loop se demuestra mejor a través de casos de uso prácticos. Los siguientes ejemplos muestran cómo los modos operativos correctos y la gobernanza de IA pueden impulsar velocidad, precisión y responsabilidad.
Proyección de caja (liderazgo humano con asistencia de IA): La proyección de caja potenciada por IA puede proponer ajustes de proyección e identificar impulsores: cambios en el tiempo de cobros, picos de nómina o variaciones inusuales. El equipo de tesorería revisa lo que es material, valida supuestos con contexto empresarial y es responsable de la narrativa presentada a la dirección. En la práctica, muchos equipos ven retornos compuestos aquí: cada ciclo se vuelve más rápido porque el equipo parte de un mejor primer borrador y concentra el tiempo en lo que realmente cambió.
Pagos y detección de anomalías (ejecución de IA bajo supervisión humana): La IA puede monitorear el comportamiento de pagos y señalar anomalías: beneficiarios inusuales, nuevos datos bancarios, montos fuera de patrón o violaciones de reglas. El equipo revisa solo las excepciones, autoriza partidas válidas y escala las sospechosas. Con el tiempo, los umbrales y controles evolucionan basándose en resultados validados, mejorando la calidad de detección mientras se mantiene la segregación de funciones intacta.
Reporting de liquidez (liderazgo humano con asistencia de IA): El reporting de liquidez habilitado por IA puede redactar una explicación inicial del movimiento de caja semana a semana y destacar los probables impulsores entre cuentas o entidades. Finanzas valida la exactitud, asegura consistencia con los datos reales y ajusta el mensaje para las partes interesadas. Este caso de uso es especialmente útil cuando los líderes necesitan tanto números como narrativa rápidamente.
Conciliaciones rutinarias (IA autónoma, pero auditable): Para conciliaciones estables basadas en reglas, la IA puede emparejar y cerrar partidas automáticamente, siempre que cada decisión sea rastreable y la gestión de excepciones esté definida. La autonomía se gana mediante controles: reglas de tolerancia, gestión del cambio y revisión periódica. El beneficio va más allá del tiempo ahorrado: la verdadera ganancia es la consistencia y la capacidad de concentrar la atención experta en las excepciones.
Gobernanza de IA que habilita velocidad
La adopción efectiva de IA tiene éxito cuando la gobernanza está diseñada para reducir (no añadir) fricción. Para los equipos financieros, la lista de verificación práctica de gobernanza es:
Claridad de datos: Establece definiciones comunes (p. ej., "caja disponible"), linaje de datos claro y reglas de calidad.
Acceso y confidencialidad: Aplica acceso de mínimo privilegio, segregación de funciones y políticas de retención de datos.
Auditabilidad: Mantén registros de entradas, salidas, aprobaciones y cambios de modelo o versión.
Seguimiento de valor: Vincula el uso de IA a resultados medibles como tiempo de ciclo, precisión o tasas de excepción.
Rutas de escalamiento: Define qué sucede cuando la confianza de la IA es baja o un resultado es material y requiere juicio humano.
Cuando la gobernanza de IA está bien diseñada, permite a los líderes escalar el uso de IA de manera segura y con confianza. La gobernanza sin aplicación es solo documentación. No basta con tener controles en papel; deben producir evidencia auditable.
Escalar la IA con confianza
La IA no reemplaza el juicio financiero. La IA extiende el juicio financiero. Como cualquier nuevo miembro del equipo, la IA rinde mejor con un rol claro, un supervisor y un modelo operativo que convierta la capacidad en resultados consistentes y defendibles. El marco human-in-the-loop ofrece un enfoque estructurado y confiable para escalar la adopción de IA con claridad y control, en lugar de solo entusiasmo.
Del 92 % de CFOs que usan IA en sus operaciones financieras, quienes tendrán éxito serán aquellos que traten la IA como un miembro del equipo desde el primer día.
Written By
Felix Grevy
SVP Platform, Data & AI
Félix Grévy es SVP de Platform, Data & AI en Kyriba, donde lidera la innovación en ingeniería de plataforma, datos, IA y analítica avanzada. Con más de 20 años de experiencia en tecnología financiera que abarcan desarrollo de producto, gestión de producto y gestión comercial, Félix se incorporó a Kyriba en 2020 para liderar la estrategia de APIs y conectividad. Desde entonces ha impulsado las iniciativas de IA agéntica de Kyriba, incluido el portafolio Trusted AI (TAI), que incorpora inteligencia gobernada directamente en los flujos de trabajo de tesorería y finanzas mediante la integración de LLMs y analítica predictiva, sin “cajas negras” ni entrenamiento de modelos externos con datos de clientes.
Recursos Relacionados


