En el sector financiero está emergiendo un problema silencioso y cada vez más crítico: la opacidad financiera de la AI.
La adopción no se detuvo. Por el contrario, se aceleró. Nuevos casos de uso en operaciones, underwriting, compliance, atención al cliente y análisis de riesgo comenzaron a desplegarse en paralelo. Aparecieron agentes que automatizan tareas completas, integraciones con modelos fundacionales y arquitecturas híbridas que combinan servicios propios y de terceros.
El consumo en la nube crece. Los equipos experimentan. Los proveedores amplían capacidades. Sin embargo, la visibilidad financiera sobre ese crecimiento no siempre evoluciona con la misma disciplina.
La AI avanza más rápido que la capacidad de muchas organizaciones para gobernarla. Y cuando eso ocurre, la factura aumenta mientras el ROI se vuelve más difícil de explicar con precisión ante el Board.
Cuando la experimentación no se convierte en sistema
Experimentar es necesario. El problema surge cuando la experimentación no se consolida en un modelo operativo consistente. En ese punto empiezan a aparecer fricciones que no siempre son visibles en el corto plazo, pero que afectan directamente la rentabilidad.
Falta de visibilidad total
En muchas organizaciones no existe trazabilidad granular del consumo de AI. Se sabe cuánto se paga en términos agregados, pero no siempre se puede desagregar con claridad por área, por agente, por usuario o por caso de uso.
Sin esa visibilidad es imposible responder preguntas básicas:
¿qué iniciativa está consumiendo más recursos?, ¿qué agente genera mayor costo por interacción?, ¿qué caso de uso está demostrando eficiencia tangible y cuál solo volumen?
Sin trazabilidad no hay accountability. Y sin accountability, la optimización deja de ser estratégica y pasa a ser reactiva.
Modelos mal optimizados
Cuando no existen estándares arquitectónicos comunes, cada equipo tiende a resolver su necesidad inmediata con el stack que considera más conveniente. Esto genera una diversidad tecnológica que, en principio, parece agilidad, pero que en la práctica complica la gestión.
Surgen modelos sobredimensionados para tareas simples, ausencia de políticas de fallback que permitan usar versiones más eficientes cuando el contexto lo permite, criterios dispares de selección de modelos y duplicación de esfuerzos técnicos.
El resultado no es solo mayor costo, sino mayor complejidad operativa. No es un problema técnico aislado; es una cuestión de arquitectura y gobierno.
Incertidumbre en el ROI
A medida que el gasto crece, el Board comienza a formular preguntas inevitables. ¿Cuánto estamos invirtiendo realmente en AI? ¿Qué parte del gasto está generando eficiencias medibles? ¿Qué iniciativas deberían escalar y cuáles deberían detenerse?
La confianza no se erosiona por falta de innovación. Se erosiona cuando no se puede vincular inversión con resultado.
Pilotos sin coordinación
La fragmentación es uno de los principales riesgos financieros de la AI. Distintas áreas contratan herramientas diferente y definen políticas de seguridad y medición sin coordinación central.
Con el tiempo, la organización termina operando múltiples mini-estrategias de AI. Integrarlas se vuelve complejo. Auditarlas, aún más. Escalarlas, costoso.
Esto se transforma en una estructura difícil de gobernar y con costos acumulativos que no siempre se anticiparon.
El verdadero problema: la falta de estructura
La AI no es el problema. Tampoco lo es la nube ni la velocidad de adopción. El verdadero desafío es la falta de estructura que sostiene esa adopción.
Escalar sin un marco claro de gobierno es equivalente a expandir una red sin un sistema de control financiero integrado. La tecnología puede funcionar correctamente desde el punto de vista técnico. Pero si no existe un modelo que articule estándares, métricas y mecanismos de control, la eficiencia se diluye.
En entornos regulados como el financiero, esta falta de estructura no solo impacta en costos, sino también en trazabilidad, auditoría y riesgo.
Qué se necesita para escalar
Para que la AI sea sostenible y rentable se requiere tener en cuenta algunos aspectos clave:.
Primero, observabilidad completa de uso y costos, con capacidad de desagregar consumo por caso de uso, área y tipo de modelo. No se trata solo de saber cuánto se paga, sino de entender por qué se paga y qué se obtiene a cambio.
Segundo, estándares que definan criterios de selección de modelos, lineamientos de integración y principios de optimización.
Tercero, métricas de impacto alineadas al negocio. Cada caso de uso debería tener indicadores claros. Sin ese vínculo, la AI queda atrapada en la narrativa de experimentación permanente.
La diferencia entre las organizaciones que escalan con éxito y aquellas que simplemente acumulan gasto no está en el modelo que eligen. Está en cómo lo gobiernan.
Sobre nuestro newsletter
Este artículo forma parte de AI Ready Spotlight, nuestro newsletter quincenal sobre innovación y transformación con AI en la industria financiera y de seguros. Cada edición ofrece análisis prácticos, tendencias relevantes y puntos de vista diseñados para líderes de negocio y tecnología que buscan avanzar con claridad en su camino hacia una adopción responsable de la AI.
Si querés estar al tanto de los temas que están moviendo a la industria y recibir contenido como este directamente en tu correo, suscribite aquí:



