Las organizaciones, incluyendo las instituciones financieras, se enfrentan a la complejidad de maniobrar con las oportunidades y los retos que se presentan a un ritmo sin precedentes. En 2026, la IA empresarial pasará de la fase “¿funciona?” a la de “¿cómo podemos adoptarla de forma segura?”. Con todo, la realidad es que esta tecnología no es una solución milagrosa; su eficacia depende de los datos y la lógica empresarial que la sustentan.
De acuerdo con un reporte reciente del World Economic Forum (WEF), las compañías de servicios financieros gastaron $35,000 millones de dólares en IA en 2023, y se estima que, para 2027, la cifra llegará a los $97,000 millones. Otros estudios[1] muestran que el 54% de los bancos han adoptado la IA en producción, con casos de uso como la identificación de riesgos emergentes, el aseguramiento y control de calidad, y la generación de informes.
Ciertamente, el impulso de las inversiones en IA en sectores esenciales para la economía de los países, como el de servicios financieros, está marcando una transformación crítica que impactará a miles de millones de personas en el mundo. Sin embargo, a medida que los entornos de datos se vuelven más complejos, el costo de las fallas en ciberseguridad, privacidad y calidad de los datos aumenta. Si la infraestructura de datos subyacente no puede soportar la confianza en la IA a gran escala, los líderes no sólo se arriesgan a costosos proyectos fallidos, sino también a daños operativos, regulatorios y reputacionales. En este contexto, es visible por qué los enfoques tradicionales de respaldo y cumplimiento ya no son suficientes; ante el panorama actual, la resiliencia unificada de los datos y la confianza en la IA, conocida como “AI Trust”, son ingredientes vitales para los negocios.
Una IA confiable depende de la resiliencia de datos
Pensemos en la IA como la voz de los datos. Cuando éstos se comprenden, son seguros y recuperables, y su integridad es demostrable ante cualquier problema, la confianza en la IA se mantiene firme, tanto al interior del negocio como de cara al escrutinio externo de reguladores, socios y clientes. Es entonces cuando se puede liberar el verdadero potencial de la IA.
Los bancos están en el camino. Según un estudio de Temenos , el año pasado el 81% de los profesionales de TI de instituciones financieras tenían claro que no aplicar la IA en sus procesos significaría quedar detrás de sus competidores. Si bien apenas un 11% habían implementado entonces la IA generativa por completo, el 43% estaban en el proceso. Además, desde entonces el 77% ya invertían en analítica de datos y en información impulsada por IA.
Pero muchas organizaciones se apresuran a adoptar la IA subestimando los fundamentos que la hacen confiable: datos limpios y gobernados, propiedad y supervisión claras, y planes de recuperación que funcionen bajo presión. Los ataques impulsados por IA pueden dirigirse tanto a los responsables humanos como a las herramientas de IA con acceso privilegiado a la información. El contexto de los flujos de datos y la exposición a la información deben tener sentido en tiempo real; de lo contrario, los riesgos correspondientes se detectarán de inmediato. Si el riesgo no se integra en el diseño del sistema, la confianza se vuelve frágil.
¿Cómo se manifiesta la falta de confianza en la IA? A medida que esta tecnología y la avalancha de datos siguen creciendo exponencialmente y los agentes de IA actúan de forma autónoma a la velocidad y escala de las máquinas, la preocupación primordial está en las faltas relacionadas con 3 categorías de riesgo críticas: filtración de datos confidenciales, ciberataques e incumplimiento normativo. Es decir, cuando falla la resiliencia de los datos, también falla la confianza en la IA.
Los bancos saben que la auditabilidad y la continuidad operativa son cruciales. Un modelo de IA que toma decisiones de crédito necesita un registro completo y auditable de los datos con los que se entrenó y de las decisiones que tomó. Si esos datos no se pueden recuperar o verificar tras una falla del sistema, los responsables de cumplimiento no pueden defenderlos, y los reguladores no los aceptarán. Las recientes estafas bancarias con deepfakes son un ejemplo de omisiones en la procedencia de la identidad (lo que pone de manifiesto casos en los que una empresa se equivoca al tratar el video/voz como datos no confiables).
Los bancos están en la fase de Transformación Digital 2.0. Los líderes en el terreno de la IA que alcanzan el éxito se centran en generar confianza, asegurándose de que sus datos y su IA sean explicables. Desarrollar IA sin resiliencia de datos sería totalmente erróneo, pues significaría ignorar el riesgo operando de forma aislada. El éxito implica contar con equipos de TI y Seguridad que colaboran estrechamente y tienen visibilidad completa, controles más robustos y una mayor resiliencia que nunca. Conforme la IA y los agentes de IA se generalizan, se necesita una capa de control unificado que operacionalice la seguridad y la resiliencia de la IA basada en datos. Escalar la “AI Trust” implica que los bancos puedan detectar riesgos, proteger sus activos de IA y corregir errores al instante.
Es importante que los equipos se pregunten: ¿Podemos detectar y catalogar todos los activos de IA basada en datos? ¿Nuestra detección de riesgos se basa en inteligencia contextual profunda de IA impulsada por datos? ¿Podemos pasar de la prueba de concepto de IA a la producción gracias a la corrección proactiva de riesgos? ¿Nuestras iniciativas de IA cuentan con controles robustos para todo nuestro sistema de IA basada en datos? ¿Se puede rastrear la actividad de nuestros agentes de IA y corregir sus errores? ¿Cumplimos continuamente con los marcos necesarios? Responder a estas preguntas constituye la base de una infraestructura fundamental unificada de resiliencia de datos y “AI Trust”, que debe soportar diversos flujos de trabajo en toda la empresa.
A medida que las empresas construyen una infraestructura fundamental unificada de resiliencia de datos y confianza en la IA, es importante tener en cuenta que la evolución regulatoria representa puntos ciegos que requieren atención. Al equilibrar los proyectos de IA con soluciones estándar y personalizadas, comprender los parámetros de los datos que entrenan sus modelos es otro factor de explicabilidad. Las políticas regulatorias fragmentadas en diferentes regiones aumentan la complejidad operativa. El éxito de la IA depende, en última instancia, de los líderes, quienes intensifican la experiencia práctica de los proyectos piloto y el análisis detallado del plan de recuperación.

En el marco del Día Mundial del Emprendimiento, celebrado el pasado 16 de abril, el panorama empresarial atraviesa un proceso de cambio constante. Hoy, emprender exige más que capital inicial: requiere acceso a infraestructura flexible que permita operar con eficiencia, escalar con rapidez y responder de forma ágil a un entorno en continua transformación. De ...
La Inteligencia Artificial ha cumplido gran parte de su promesa. Hoy optimiza diagnósticos médicos, mejora las cadenas de suministro y permite a las organizaciones gestionar recursos con una precisión sin precedentes. Pero a medida que se integra en el núcleo de las decisiones empresariales, emerge un dilema más profundo. Esto ya no se trata únicamente ...
Rogelio Prado, Sr. Sales Specialist de Amazon Connect, y Fernando Fouillioux, Sr. Solutions Architect Connect en Amazon Web Services (AWS), comparten su perspectiva sobre lo que hoy necesitan las organizaciones para integrar Inteligencia Artificial en sus operaciones, destacando la importancia de construir procesos de automatización sólidos y, al mismo tiempo, implementar esquemas de mejora continua ...
Leonardo Coca, Chief Digital Officer Latam de Konecta, reflexiona sobre los elementos que hoy marcan el rumbo de la tecnología, desde su evolución continua y la integración de diversas soluciones hasta las innovaciones de segundo y tercer orden que surgen al construir sobre avances previos; frente a este panorama, destaca que el verdadero reto para ...