El campo de la inteligencia artificial (IA) ha presenciado un crecimiento notable en los últimos años, con proyecciones que indican que, para 2030, la industria podría agregar hasta USD 15,7 billones a la economía global, una cifra que supera con creces los resultados económicos actuales de los principales actores, incluidos China e India juntos.

Un desarrollo particular en este sentido que emana de este espacio y que ha estado ganando mucha tracción recientemente es el de los "deepfakes", es decir, grabaciones de video y/o audio altamente realistas creadas con IA que pueden imitar apariencias o voces humanas reales, a menudo indistinguibles de sus contrapartes genuinas.

Hasta este punto, una reciente publicación viral en X demostró cómo algunos están explotando software de código abierto y comercial fácilmente disponible para alterar el selfie de una persona con herramientas de IA generativa, creando imágenes de identificación falsas que pueden engañar potencialmente a muchos de los controles de seguridad actuales.

El dilema de los deepfakes

A medida que el panorama digital ha evolucionado, el surgimiento de deepfakes generados por IA plantea desafíos significativos al paradigma existente de Conoce a tu Cliente (KYC, por sus siglas en inglés). Toufi Saliba, CEO de HyperCycle —una empresa que construye los componentes necesarios para permitir que los microservicios de IA se comuniquen entre sí—, le dijo a Cointelegraph que un gran problema de este desafío son los procesos de seguridad existentes en sí mismos, y agregó:

"Quizás el KYC en sí mismo sea el vector de ataque a la soberanía propia, y estas herramientas [deepfake] están demostrando cómo los sistemas KYC actuales podrían quedar obsoletos en un futuro cercano. Una solución resiliente implicaría usar cierta criptografía de manera adecuada para atender la intención declarada de los defensores del KYC, protegiendo así también a las futuras generaciones."

Saliba señaló además las implicaciones de la IA y los deepfakes en el sector de las criptomonedas, enfatizando la urgencia de una adaptación rápida. "Este problema de creación de imágenes falsas probablemente perturbará sistemas centralizados enteros desde adentro hacia afuera, presentando así una de las mejores oportunidades para que los reguladores bien intencionados y las entidades centralizadas se den cuenta de que la criptografía puede venir al rescate cuando sea necesario", afirmó.

Sobre el tema de la detección de contenido deepfake, Dimitry Mihaylov, experto en investigación de IA para las Naciones Unidas, le dijo a Cointelegraph que, con los criminales comenzando a usar herramientas sofisticadas para generar documentos de identificación falsos realistas, ahora nos enfrentamos a desafíos imprevistos. Como resultado, cree que es imperativo que las industrias evolucionen rápidamente, agregando:

"El mercado de la detección de imágenes generadas por IA está evolucionando con proyectos como FakeCatcher, un proyecto que ha sido desarrollado en asociación con Umur Ciftci. La tecnología muestra el potencial de detección de deepfakes en tiempo real con una tasa de precisión del 96%".

Mirando hacia adelante, Mihaylov también anticipa un cambio significativo en los enfoques regulatorios para el KYC, sugiriendo un futuro donde los procesos de verificación dinámicos e interactivos podrían convertirse en la norma. "Podríamos ver la introducción de procedimientos KYC más dinámicos, como el KYC de video, a medida que los marcos regulatorios se adapten a estos avances tecnológicos", sugirió.

Impacto en los exchanges de criptomonedas

El impacto de los deepfakes se siente en una serie de industrias, incluida la cripto. Hasta este punto, una plataforma llamada OnlyFake recientemente copó los titulares por supuestamente eludir con éxito los protocolos KYC de varias plataformas de trading de criptomonedas conocidas.

Por apenas USD 15 cada uno, la plataforma afirma producir licencias de conducir y pasaportes falsos para 26 naciones, incluidas, entre otras, los Estados Unidos, Canadá, el Reino Unido, Australia y varios estados miembros de la Unión Europea.

El 5 de febrero, una empresa llamada 404 Media reveló que había utilizado los servicios de OnlyFake para eludir con éxito el proceso de verificación KYC del popular exchange de criptomonedas OKX.

De manera similar, discusiones filtradas han revelado que la clientela de OnlyFake celebra su capacidad para eludir los procesos de verificación en numerosos otros exchanges de criptomonedas e instituciones financieras, incluidos Kraken, Bybit, Bitget, Huobi y PayPal.

Se informa que el proceso de generar un documento falso en el sitio web es notablemente rápido, con la plataforma supuestamente capaz de generar hasta 100 identificaciones falsas a la vez usando solo datos de hojas de cálculo de Excel. Además, los usuarios tienen la opción de incorporar su propia foto o seleccionar una de una "biblioteca personal de imágenes", sin depender de una red neuronal.

Las licencias de conducir y los pasaportes falsos aparecen dispuestos en varias superficies domésticas como mesadas de cocina, sábanas, alfombras y escritorios, imitando la presentación típica para verificaciones en línea. Una publicación incluso mostró un pasaporte australiano fabricado con los detalles de un ex presidente de los Estados Unidos sobre un trozo de tela.

El impacto de la IA se siente en todas partes

Durante la última parte de 2022, la empresa de seguridad blockchain CertiK reveló la existencia de un mercado negro donde las personas ofrecían sus identidades a la venta por tan solo $8. Estas personas consintieron en servir como el rostro legítimo para iniciativas de criptomonedas engañosas y para establecer cuentas bancarias e intercambio para usuarios que de otra manera estarían prohibidos en cierta plataforma.

Además, la disponibilidad prevalente y directa de la tecnología de deepfake de IA ha causado alarma entre los líderes del sector de las criptomonedas, especialmente cuando se trata de determinar la confiabilidad de los procesos de verificación de video empleados en ciertas validaciones de identidad.

Jimmy Su, director de seguridad de Binance, le dijo a Cointelegraph en mayo de 2023 que le preocupaba el aumento de los estafadores que utilizan la tecnología de deepfake para eludir los procedimientos KYC de los exchanges. Advirtió que estas falsificaciones de video estaban alcanzando un nivel de realismo capaz de engañar a evaluadores humanos.

Finalmente, un estudio publicado por Sensity AI con sede en los Países Bajos indicó que las pruebas de vida utilizadas para la verificación de identidad eran significativamente susceptibles a ataques de deepfake, lo que permitía a estafadores sustituir sus propias caras por las de otras personas.

Hasta este punto, un hombre de Kerala, India, recientemente cayó víctima de un engaño donde el estafador, fingiendo ser su amigo, le robó 40,000 rupias (aproximadamente $500). De manera similar, un video deepfake de Elon Musk compartiendo consejos de inversión en criptomonedas engañosos también circuló en Twitter el año pasado.

¿Qué nos depara el futuro?

A medida que avanzamos hacia un futuro impulsado por la inteligencia artificial, hay evidencia suficiente para sugerir que la amenaza de los ataques "face swap" de deepfake continuará aumentando. De hecho, un estudio reciente señaló que los ataques contra los sistemas de verificación de identidad remota aumentaron un 704% entre 2022 y 2023, y este aumento se atribuyó a la accesibilidad de herramientas gratuitas y de bajo costo de face swap, cámaras virtuales y emuladores móviles.

Además, con cada mes que pasa, parece que los hackers y estafadores se vuelven más sofisticados con sus ataques, como se ha visto con la aparición de vectores de ataque de inyección digital y emuladores, lo que permite a los malhechores crear y usar deepfakes en tiempo real, planteando un desafío serio tanto para los sistemas de autenticación móvil como de video. Así, mirando hacia adelante, será interesante ver cómo evoluciona este paradigma de seguridad incipiente, especialmente dada la creciente dependencia de los humanos en estas tecnologías avanzadas.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión