Tendencias y predicciones de Identidad Digital para 2024

Por: Redacción IMT.

Este año, el volumen de ataques de identidad generados por Inteligencia Artificial ha aumentado a tal nivel que se ha convertido en un tema de consideración para consumidores, organizaciones e incluso líderes mundiales. La biometría se erige como una fuerza transformadora en la remodelación de la forma en que las personas interactúan con los sistemas digitales y la forma en que las organizaciones protegen la información confidencial. A medida que se acerca el 2024, el panorama de la identidad digital está preparado para avances significativos, con innovaciones que redefinirán la verificación, elevarán los estándares de seguridad y mejorarán las experiencias de los usuarios.

A continuación, profundizamos más sobre el futuro inminente de la biometría, donde la fusión de la ciencia y la seguridad promete un cambio de paradigma en la forma en que autenticamos, identificamos y protegemos dentro del ámbito digital.

1. Biometría e infraestructura de seguridad.

Durante el último año, muchas organizaciones de servicios financieros han ampliado el acceso digital remoto para satisfacer la demanda de los usuarios. Sin embargo, esto ha ampliado la superficie de ataque digital y ha creado oportunidades para los estafadores. El sector de servicios financieros de EE. UU. ha sido más lento en adoptar tecnologías de identidad digital que otras regiones, lo que podría atribuirse a los desafíos que enfrenta en torno a la regulación de la interoperabilidad y el intercambio de datos. Sin embargo, dado que se espera que el fraude de identidad sintética genere al menos 23.000 millones de dólares en pérdidas para 2030, la presión está aumentando desde todos los ángulos. Los consumidores esperan abrir cuentas y acceder a los servicios de forma remota con rapidez y facilidad, mientras que los estafadores socavan la seguridad a través de canales en línea y desvían dinero. Al mismo tiempo, existe la grave amenaza del incumplimiento de la norma "Conozca a su Cliente" (Know Your Customer - KYC) y de "Prevención Blanqueo de Capitales" (Anti-Money Laundering – AML).

Las sanciones por esto incluyen enormes multas e incluso procedimientos penales. Además, existe un mayor riesgo de eludir las sanciones y financiar a los adversarios del Estado. En respuesta, muchas instituciones financieras se están viendo obligadas a tomar medidas. Esto ha implicado reemplazar los engorrosos procesos de incorporación y suplantar los métodos de autenticación obsoletos, como contraseñas y códigos de acceso, con tecnologías avanzadas para incorporar y autenticar de forma remota a los clientes existentes de banca en línea.

Uno de los principales avances es la tecnología de verificación biométrica facial, que ofrece una comodidad y accesibilidad inigualables para los clientes y, al mismo tiempo, desafíos de seguridad inigualables para los adversarios. Más instituciones financieras reconocerán cómo la verificación biométrica remodelará y redefinirá el impacto positivo que la tecnología puede tener en el equilibrio de la seguridad con la experiencia del cliente y harán el cambio.

2. Programas de Identidad Digital basados en la identidad descentralizada.

Se estima que 850 millones de personas en todo el mundo carecen de una forma legal de identificación y, sin identidad, las personas luchan por abrir una cuenta bancaria, obtener empleo y acceder a la atención médica, lo que las deja excluidas financieramente. Los programas de identidad digital mejoran el acceso a servicios y oportunidades digitales, permiten a las personas afirmar su identidad, acceder a plataformas en línea y participar en iniciativas de gobierno digital. Con el apoyo de la inversión de fondos del Banco Mundial, los programas de identidad digital pueden ayudar a las economías menos avanzadas a prevenir el robo de identidad y el fraude, así como proporcionar una forma alternativa de demostrar su identidad y acceder a servicios esenciales como beneficios, atención médica y educación. Basados en una identidad descentralizada, estos programas permitirán a los usuarios almacenar e intercambiar digitalmente documentos de identidad, como una licencia de conducir, credenciales, diplomas, así como autenticarse sin una autoridad central.

3. Prohibición de videollamadas remotas para verificar la identidad

La verificación con videollamadas implica una videollamada individual entre el usuario y un operador capacitado. Se le pide al usuario que sostenga un documento de identidad y el operador lo compara con su cara. Sin embargo, se ha demostrado que la verificación de videollamadas proporciona pocas garantías de que el usuario final sea una persona real y no imágenes artificiales generadas por IA.

Si los programas de identidad digital no pueden defenderse contra la amenaza de los deepfakes en la incorporación y la autenticación, serán explotados con fines delictivos, como el fraude en los pagos, el blanqueo de capitales y la financiación del terrorismo. Como tal, veremos movimientos por parte de los reguladores de servicios financieros para prohibir los métodos de verificación de videollamadas, con una directiva para elegir métodos más confiables basados en híbridos que combinen la coincidencia automatizada de IA y la detección de vida con la supervisión humana del proceso de aprendizaje automático.

4. Autenticación mutua entre los empleados para la comunicación de alto riesgo y la incorporación remota de nuevos empleados.

A medida que las organizaciones confían cada vez más en los medios digitales para la comunicación confidencial, la necesidad de medidas sólidas de ciberseguridad es primordial para mitigar el riesgo. La introducción de la autenticación mutua para las comunicaciones y transacciones de alto riesgo es una medida de seguridad crucial que añade una capa adicional de protección contra el acceso no autorizado y las posibles amenazas. Además, en ciertas industrias, el cumplimiento normativo exige la implementación de medidas de seguridad sólidas. La autenticación mutua ayuda a las organizaciones a cumplir con estos requisitos de cumplimiento al demostrar un compromiso para garantizar canales de comunicación seguros y proteger la información confidencial.

5. Ataques exitosos generados por Inteligencia Artificial.

Desde hace algunos años, las organizaciones y las personas han confiado en la detección de correos electrónicos de phishing a través de errores ortográficos y gramaticales. Ese tiempo ya pasó. Tal es la calidad de Chat GPT que los actores de amenazas ahora pueden usarlo para generar ataques de phishing de alta calidad en comunicaciones muy convincentes y sin pistas sospechosas. En consecuencia, 2024 será testigo de un fuerte aumento tanto en la calidad como en el volumen de los ataques generados por IA. La formación en materia de seguridad se convertirá en una herramienta redundante y las organizaciones se verán obligadas a buscar métodos alternativos para autenticar de forma fiable a los usuarios internos y externos de sus plataformas.

6. El potencial de la IA para desinformar a la población en temas políticos.

Habrá una gran cantidad de videos deepfake generados por IA que se utilizarán para persuadir a los votantes a medida que avanzamos hacia las elecciones. Para contrarrestar esto, habrá amplios movimientos por parte de las empresas de tecnología para que las personas verifiquen la autenticidad de las imágenes que suben. Por ejemplo, soluciones que permiten a las personas poner marcas de agua en las imágenes y firmarlas cuando se crean o modifican.
Es probable que en 2024 se produzcan muchos intentos en este ámbito porque el uso de deepfakes está muy extendido. Será un requisito previo que cualquier contenido que utilice imágenes debe ofrecer alguna forma de garantizar su autenticidad y, de no hacerlo, esas imágenes se devaluarán.

7. Suplantación de identidad a nivel organizacional.

El fraude del CEO se dirige al menos a 400 empresas por día y representa una amenaza significativa para las organizaciones de todo el mundo. En este tipo de delito, los atacantes se hacen pasar por altos ejecutivos de la empresa e intentan engañar a los empleados para que transfieran fondos, revelen información confidencial o inicien otras actividades fraudulentas. A menudo implican sofisticados ataques de Ingeniería Social, lo que los hace difíciles de detectar. Las herramientas de IA generativa están siendo ampliamente utilizadas por los estafadores para crear deepfakes e imitar a una persona. Los ciberdelincuentes ahora pueden crear audios e imágenes convincentes generados por IA e implementarlos en plataformas como Zoom, Microsoft Teams y Slack. Sin herramientas sofisticadas de monitoreo y detección, es casi imposible detectar este tipo de imágenes sintéticas.