El volumen de ataques de identidad generados por IA aumentó en 2023 a tal nivel que se ha convertido en un problema que afecta a consumidores, organizaciones e incluso líderes mundiales. La biometría representa una fuerza transformadora en la forma en que las personas interactúan con los sistemas digitales y en cómo las organizaciones protegen la información confidencial. A medida que se acerca 2024, el panorama de la identidad digital apunta cada vez más a avances significativos, con innovaciones delineadas para redefinir la verificación, elevar los estándares de seguridad y mejorar la experiencia del usuario.

Para comprender el futuro inminente de la biometría, iProov seleccionó para Cointelegraph en Español ocho tendencias y predicciones sobre lo que cree la empresa que se espera que afecten al mercado de la identidad digital en 2024.

La biometría se convertirá en la piedra angular de la infraestructura de seguridad del mercado de servicios financieros.

El año pasado, muchas organizaciones de servicios financieros ampliaron el acceso digital remoto para satisfacer la demanda de los usuarios. Sin embargo, esto ha ampliado la superficie de ataque digital y ha creado oportunidades para los estafadores. En Estados Unidos, este sector ha tardado más en adoptar tecnologías de identidad digital que otras regiones, lo que puede atribuirse a los desafíos que enfrenta el país en términos de regulación de la interoperabilidad y el intercambio de datos. Sin embargo, dado que se espera que el fraude de identidad sintética genere al menos 23 mil millones de dólares en pérdidas para 2030, es probable que la presión aumente.

Los consumidores esperan abrir cuentas y acceder a servicios de forma remota de forma rápida y sencilla, mientras que los estafadores socavan la seguridad de los canales en línea para desviar dinero. Al mismo tiempo, existe una grave amenaza de incumplimiento de las prácticas Conozca a su Cliente (KYC – Know Your Customer) y Anti-Lavado de Dinero (AML – Anti Money Laundering). Las sanciones por esto incluyen fuertes multas e incluso procesos penales. Pero existe un mayor riesgo de evadir sanciones, así como de financiar a adversarios gubernamentales.

En respuesta, se insta a muchas instituciones financieras a tomar medidas que implican intercambiar engorrosos procesos de incorporación y reemplazar métodos de autenticación obsoletos, como contraseñas y códigos de acceso, con tecnologías avanzadas que les permitan incorporar y autenticar de forma remota a los clientes de servicios de banca en línea.

Habrá un rápido aumento en el número de países en desarrollo que crearán programas de identidad digital basados en identidad descentralizada

Se estima que 850 millones de personas en todo el mundo no cuentan con una forma legal de identificación y, sin una identidad, las dificultades van desde abrir una cuenta bancaria, conseguir un trabajo e incluso acceder a servicios como la salud, situaciones que los debilitan financieramente y socialmente, ya que quedan excluidos.

Los programas de identidad digital mejoran la accesibilidad a los servicios y oportunidades digitales al permitir que las personas afirmen su identidad y utilicen plataformas en línea, así como participar en iniciativas de gobierno digital. Con el respaldo de recursos del Banco Mundial, los programas de identidad digital pueden ayudar a las economías menos avanzadas a prevenir el robo de identidad y el fraude, así como proporcionar una forma alternativa para que las personas demuestren su identidad y accedan a servicios esenciales como beneficios, incluida la atención médica y la educación.

Basados en una identidad descentralizada, estos programas permitirán a los usuarios almacenar e intercambiar digitalmente documentos de identidad, como una licencia de conducir, y diversas credenciales, como diplomas, y autenticar a estas personas sin la necesidad de una autoridad central.

Las videollamadas remotas para verificación de identidad deberían desaparecer

Las videollamadas para verificación de identidad implican una conexión de video entre un operador capacitado y la persona que se está verificando, a quien se le pide que muestre un documento de identidad para compararlo con su rostro ante la cámara. Sin embargo, se ha demostrado que la verificación por videollamada ofrece poca seguridad de que el usuario sea una persona "viva" y no imágenes producidas por Inteligencia Artificial (IA) generativa superpuestas de manera convincente en el rostro del actor de la amenaza.

En 2022, investigadores del Chaos Computer Club lograron eludir la tecnología de verificación de videollamadas utilizando IA generativa y falsificar una identificación. El caso demostró cómo esta tecnología y los operadores humanos en los que se basa son altamente susceptibles a ataques de imágenes sintéticas. Desde entonces, la Oficina Federal Alemana para la Seguridad de la Información ha advertido contra la comprobación de las videollamadas debido a su vulnerabilidad a este tipo de ataques.

Los programas de identidad digital podrían explotarse con fines delictivos, como fraude de pagos, blanqueo de dinero y financiación del terrorismo.

Las organizaciones introducirán autenticación mutua entre empleados para comunicaciones de alto riesgo y para la incorporación remota de nuevos empleados

A medida que las organizaciones dependen cada vez más de medios digitales para la comunicación confidencial, implementar medidas sólidas de ciberseguridad es fundamental para mitigar las amenazas. La introducción de la autenticación mutua para comunicaciones y transacciones de alto riesgo es una medida de seguridad esencial que agrega una capa adicional de protección contra el acceso no autorizado y posibles amenazas. Además, en determinadas industrias, el cumplimiento requiere la implementación de medidas de seguridad más sólidas. La autenticación mutua ayuda a las organizaciones a cumplir con estos requisitos al garantizar canales de comunicación seguros y proteger la información confidencial.

Las filtraciones de datos corporativos se triplicarán gracias a los ataques exitosos generados por IA

Durante años, organizaciones e individuos han confiado en herramientas de detección de correo electrónico de phishing que se basan en errores ortográficos y gramaticales. Pero ese tiempo ya pasó. La calidad de las respuestas generadas por la IA es tal que los actores de amenazas ahora pueden utilizar la plataforma generativa para crear ataques de phishing de alta calidad en comunicaciones muy convincentes, sin pistas sospechosas.

Para 2024, podríamos presenciar un fuerte aumento en la calidad y el volumen de los ataques de phishing generados por IA. Es probable que mejorar la capacidad de generar alertas de seguridad se convierta en una herramienta redundante y las organizaciones se verán obligadas a buscar métodos alternativos y más confiables para autenticar a los usuarios internos y externos de sus plataformas.

El precio de los kits de síntesis de voz y vídeo sobre el crimen como servicio bajará a menos de 100 dólares

El crimen como servicio y la disponibilidad de herramientas de síntesis de voz y video aceleran la evolución del panorama de amenazas al permitir a los delincuentes lanzar ataques avanzados más rápido y a mayor escala. Se espera que los ataques exitosos aumenten en volumen y frecuencia, al igual que el riesgo de daños graves.

Los delincuentes están utilizando sofisticada tecnología de inteligencia artificial generativa para crear y lanzar ataques para explotar los sistemas de seguridad de las organizaciones y defraudar a individuos.

iProov ha visto indicios similares de delincuentes poco cualificados que han adquirido la capacidad de crear y lanzar ataques avanzados de imágenes sintéticas. En su informe de inteligencia sobre amenazas biométricas más reciente, se destacó la aparición y el rápido crecimiento de los intercambios de rostros en vídeo. Este tipo de amenaza es una de las formas de imágenes sintéticas en las que el delincuente combina más de una cara para crear una imagen de vídeo 3D falsa.

El precio de las herramientas necesarias para este tipo de ataques está bajando rápidamente y lo ideal es tener muy pronto kits de Crime-as-a-Service que cuesten menos de 100 dólares.

El potencial de la IA para difundir desinformación política hará que la autoría autenticada de imágenes y contenido escrito sea una herramienta legalmente requerida

A medida que se acercan las elecciones, se puede ver una gran cantidad de vídeos falsos generados por IA que se utilizan para persuadir a los votantes. Para remediar esta situación, se esperan importantes iniciativas por parte de las empresas de tecnología para proporcionar formas para que las personas verifiquen la autenticidad de las imágenes que se generan. Esto incluye soluciones que permiten a las personas agregar marcas de agua a las imágenes y firmarlas cuando se crean o modifican.

Es probable que, en 2024, el número de intentos en este ámbito aumente porque el uso de deepfakes ya está generalizado.

Una videoconferencia generada por IA provocará el primer fraude de CEO por valor de mil millones de dólares

El fraude de los directores ejecutivos afecta al menos a 400 empresas todos los días y representa una amenaza importante para las organizaciones a nivel mundial. En este tipo de delito, los atacantes se hacen pasar por altos ejecutivos de la empresa e intentan engañar a los empleados para que transfieran fondos, revelen información confidencial o participen en otras actividades fraudulentas. A menudo implican sofisticados ataques de ingeniería social, lo que los hace más difíciles de detectar.

Los estafadores utilizan ampliamente las herramientas de inteligencia artificial generativa para crear deepfakes que imitan a una persona. Los malos actores ahora pueden crear audio e imágenes convincentes generados por IA e implementarlos en plataformas como Zoom, Microsoft Teams y Slack. Sin herramientas sofisticadas de seguimiento y detección, es casi imposible identificar este tipo de imágenes sintéticas.

En este contexto, es muy probable que en 2024 se produzca la primera llamada de Zoom generada por IA que conducirá a un fraude de directores ejecutivos por valor de más de mil millones de dólares.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.