
Del riesgo cibernético al riesgo de tesorería: gobernar la automatización agéntica

Por Kevin Bailey
Chief Information Officer & Chief Information Security OfficerShare
Los líderes financieros están entrando en una nueva fase de la automatización. Los sistemas ya no solo recomiendan el siguiente paso. Lo ejecutan. Las herramientas agénticas pueden redactar, conciliar, actualizar y activar flujos de trabajo en toda la pila de aplicaciones. El beneficio: ciclos más rápidos, menos traspasos y menos trabajo manual.
Pero el riesgo también escala. Cuando el "actor" en tu proceso es software operando a velocidad de máquina, las brechas de control dejan de ser molestas y se vuelven costosas. El riesgo no es simplemente una violación. Es riesgo de tesorería, es decir, acciones no autorizadas y no auditables que pueden alterar resultados financieros.
Un ejemplo reciente del ecosistema más amplio de IA ilustra el patrón. Investigadores de seguridad descubrieron que una plataforma social de agentes de IA exponía datos privados y grandes volúmenes de credenciales debido a fallos básicos de control de acceso. Más importante aún, habilitaba acciones de escritura no autorizadas que podían modificar contenido en vivo. Reuters también señaló la ausencia de verificación de identidad, lo que significaba que no estaba claro qué "actores" eran agentes reales versus humanos publicando a través de scripts. No necesitas preocuparte por esa plataforma específica para entender la lección. A medida que los agentes proliferan, el perímetro de identidad se expande más rápido de lo que la mayoría de las organizaciones pueden protegerlo.
Cuando evaluamos plataformas de IA agéntica, ya sea para nosotros o para clientes, hacemos siempre las mismas preguntas fundamentales. ¿Cómo gestiona esta solución el ciclo de vida de identidades no humanas? ¿A qué datos pueden acceder estas identidades, y cómo se define, registra y gobierna ese acceso? No son preocupaciones hipotéticas. Son requisitos de diseño. Cuando construimos TAI, la IA agéntica confiable de Kyriba, respondimos estas preguntas primero. TAI hereda tus controles de acceso basados en roles, aplica el principio de mínimo privilegio en cada acción y asegura que los agentes solo puedan ver y hacer lo que tú estás autorizado a ver y hacer. Sin atajos. Sin cajas negras. En finanzas, la confianza es el punto de partida.
Para los CFO, este no es un problema futuro. Es un problema de gobernanza que aparece en los mismos lugares donde los CFO ya sienten presión: ROI de automatización, eficiencia de capital, rendimiento de liquidez y garantía de control bajo escrutinio del consejo y reguladores.
Se está formando un nuevo perímetro de identidad, y toca el dinero
Durante la última década, la mayoría de los programas de control se construyeron alrededor de un perímetro familiar: empleados, dispositivos y aplicaciones. La automatización agéntica cambia la forma de ese perímetro. Los "actores" en tu entorno ahora incluyen agentes, tokens, credenciales de automatización, conectores y cuentas de servicio. Muchos de ellos operan continuamente, no solo durante horas laborales.
Esto importa porque las organizaciones CFO son cada vez más juzgadas por resultados que dependen de operaciones financieras confiables y oportunas. Visibilidad de efectivo. Precisión de pronósticos. Disciplina de capital de trabajo. Ejecución eficiente. Cuando la automatización agéntica se introduce sin controles de grado financiero, el riesgo no es solo técnico. Es medible en rendimiento.
Si la automatización tiene como objetivo mejorar la eficiencia del capital, debe hacerlo sin introducir nuevo volumen de excepciones, retrabajos o fallas de control. De lo contrario, las matemáticas detrás del ROI se rompen. No solo pierdes tiempo. Pierdes confianza en el proceso y la capacidad de escalar la automatización a través del modelo operativo financiero.
En finanzas, la integridad supera a la confidencialidad
La confidencialidad importa. Pero en finanzas, la integridad es existencial. Una filtración es dañina. Un cambio no autorizado puede ser catastrófico.
Por eso, el acceso de escritura no autorizado es el detalle que debería alertar a los equipos financieros. Si un agente, o alguien haciéndose pasar por un agente, puede cambiar los inputs en los que confían los procesos posteriores, obtienes outputs aparentemente válidos pero incorrectos. Inputs incorrectos pueden propagarse a través de pronósticos de efectivo, decisiones de liquidez, ejecución de pagos, conciliaciones y resultados de cierre. También crean un problema de segundo orden. Los equipos pasan tiempo demostrando qué pasó en lugar de mejorar el rendimiento.
En mi experiencia asesorando a líderes empresariales en transformación digital, los equipos que escalan la automatización con éxito no son los que tienen la IA más sofisticada. Son los que pueden responder dos preguntas. Si esto sale mal, ¿podemos demostrar qué pasó y quién es responsable? ¿Y podemos demostrar a los reguladores y al consejo que sabemos qué datos tocaron estos sistemas? Las organizaciones que omiten gobernanza y privacidad por diseño terminan en un ciclo que veo repetidamente. Implementan, encuentran una falla de control o cumplimiento, retroceden y reconstruyen la confianza. Ese ciclo es costoso y detiene todas las demás prioridades.
Por eso construimos TAI con gobernanza y privacidad por diseño: rastros de auditoría completos, pasos de razonamiento transparentes, aprobaciones humanas para acciones sensibles y datos que nunca abandonan tu entorno confiable. Los equipos que escalan IA exitosamente no omiten estos controles. Los integran desde el día uno. Con TAI, Kyriba lo hizo el estándar, no un complemento.
Las fallas de integridad se mapean claramente a áreas de riesgo de propiedad del CFO:
Creación y modificación de proveedores y beneficiarios
Creación y liberación de propuestas de pago
Flujos de trabajo de cambio de cuenta bancaria
Conciliaciones y manejo de excepciones
Evidencia de controles y preparación para auditorías
La verdad incómoda es que las fallas de integridad pueden ser más difíciles de detectar que el robo de datos. Un dataset robado es un evento discreto. Un flujo de trabajo envenenado puede ejecutarse silenciosamente, produciendo logs limpios que reflejan un proceso ejecutado según lo diseñado. El problema es que el diseño confió en la identidad, token o conector equivocado.
La pregunta que finanzas seguirá haciendo: ¿quién es responsable?
Los controles financieros se basan en responder tres preguntas con confianza:
¿Quién lo hizo?
¿Estaba autorizado a hacerlo?
¿Podemos probarlo después del hecho?
En un entorno centrado en humanos, estos se mapean a identidades de usuario, roles, aprobaciones y rastros de auditoría. En un entorno agéntico, el mapeo no es automático. Si no puedes determinar si un "actor" es un agente, un script o un humano comportándose como cualquiera de los dos, la responsabilidad se vuelve confusa rápidamente.
Deja de discutir sobre inteligencia y empieza a demostrar aplicabilidad
Muchas conversaciones sobre gobernanza de IA comienzan y terminan con el rendimiento del modelo: precisión, sesgo, alucinaciones. Esos temas importan, pero no son el riesgo financiero de primer orden cuando los agentes se conectan a sistemas que pueden mover dinero o cambiar libros y registros.
El riesgo de primer orden es la aplicabilidad de los controles financieros. ¿Puedes hacer cumplir las reglas del juego, cada vez, a escala?
¿Puedes limitar con precisión y confiabilidad lo que el agente puede hacer?
¿Puedes evitar que colapse la segregación de funciones?
¿Puedes asegurar que las aprobaciones sean aprobaciones reales, no bucles auto-aprobados?
¿Puedes producir evidencia que resista auditoría y escrutinio?
Si la respuesta es "creemos que sí", estás atrasado. La automatización agéntica funciona encadenando acciones. El fraude también. E incluso sin fraude, la automatización no controlada crea propagación de errores. Ambos resultados degradan las métricas que les importan a los CFO, incluyendo eficiencia de capital y rendimiento de liquidez.
Un diagnóstico que los CFO pueden usar antes de escalar la automatización agéntica
Si no puedes responder estas cuatro preguntas con confianza, no estás listo para escalar agentes de IA en finanzas.
Autoridad: ¿qué puede hacer exactamente el agente y qué está explícitamente prohibido?
"La IA puede ayudar" no es un modelo de permisos. Define acciones permitidas al nivel en que definirías permisos para un humano: crear, modificar, enviar, aprobar, liberar, conciliar. Sé igualmente explícito sobre lo que el agente nunca puede hacer.Segregación de funciones: ¿puede el agente crear y aprobar?
Si un agente puede proponer un cambio de proveedor y también aprobarlo, has automatizado una falla de control. La velocidad de máquina no lo hace más seguro. Lo hace más rápido.Auditabilidad: ¿podemos demostrar quién o qué desencadenó cada acción y por qué?
"Los logs existen" no es suficiente. Finanzas necesita un rastro probatorio que vincule cada acción a una identidad, una decisión de política, una aprobación y un propósito de negocio. Debe ser capturado de manera que no pueda ser reescrito después.Resiliencia: ¿tenemos un interruptor de emergencia que funcione a la velocidad del dinero?
Si algo sale mal, ¿puedes deshabilitar inmediatamente al agente, revocar tokens y detener acciones posteriores? ¿Y puedes restaurar un estado conocido como bueno sin introducir más problemas de integridad?
Si estás construyendo agentes internamente, esta es la conversación que debes tener con tu equipo de desarrollo antes de la primera línea de código.
La conclusión
La automatización agéntica creará productividad. También expandirá el perímetro de identidad de maneras que muchas organizaciones aún no están gobernando. La lección de incidentes recientes en el ecosistema de agentes no es "no te muevas rápido". Es que fallas básicas de control —credenciales expuestas, controles de acceso débiles e identidad poco clara— pueden convertirse en fallas de integridad con amplio impacto posterior.
Para los CFO, ese es el reencuadre: esto no es solo riesgo cibernético. Es riesgo de tesorería. Afecta el ROI de automatización, eficiencia de capital y rendimiento de liquidez. También aparece bajo SOX, en auditorías y en conversaciones del comité de auditoría.
Los ganadores no serán las organizaciones que implementen más agentes primero. Serán las que puedan demostrar, antes de que el dinero se mueva, que cada acción del agente está autorizada, limitada y es auditable.
Written By

Kevin Bailey
Chief Information Officer & Chief Information Security Officer
Kevin Bailey es Chief Information & Security Officer de Kyriba, donde impulsa la transformación digital a nivel empresarial mientras desarrolla capacidades de seguridad de clase mundial. Con más de 15 años de experiencia en liderazgo tecnológico, Kevin dirige iniciativas que abarcan la modernización en la nube, la optimización de la infraestructura de TI y el desarrollo de programas de seguridad en entornos globales complejos. Está especializado en alinear las inversiones tecnológicas con los resultados de negocio, escalar las operaciones de seguridad y ofrecer resultados medibles tanto en innovación como en gestión del riesgo. Su enfoque integrado garantiza que la transformación digital y la seguridad trabajen de la mano para acelerar el crecimiento del negocio y fortalecer la resiliencia organizacional.
Recursos Relacionados


Por qué los directores financieros deberían iniciar su andadura en IA con la tesorería
Obtener más información