En su sentido más básico, un deepfake es una combinación de tecnologías de IA de clonación de cara y voz que permiten la creación de videos reales generados por computadora de una persona real.

Para desarrollar un deepfake de alta calidad de un individuo, los desarrolladores necesitan acumular decenas de horas de material de vídeo asociado con la persona cuyo rostro/voz se va a clonar, así como un imitador humano que ha aprendido los gestos faciales y la voz del objetivo.

Hay dos humanos involucrados en la creación de un deepfake, de tal manera que la cara/voz del objetivo es la de la persona famosa mientras que la otra pertenece a un individuo desconocido que generalmente está estrechamente asociado con el proyecto.

De la tecnología a la realidad

Desde el punto de vista técnico, los deepfake visuales se conciben mediante el uso de herramientas de aprendizaje automático que son capaces de decodificar y despojar de las imágenes de todas las expresiones faciales relacionadas con los dos individuos en una matriz que consta de ciertos atributos clave, como la posición de la nariz, los ojos y la boca del objetivo. Además, los detalles más finos, como la textura de la piel y el vello facial, reciben menos importancia y pueden considerarse secundarios.

La deconstrucción, en general, se realiza de tal manera que casi siempre es posible recrear completamente la imagen original de cada rostro a partir de sus elementos desnudos. Además, uno de los aspectos primarios de la creación de un deepfake de calidad es lo bien que se reconstruye la imagen final - de tal manera que cualquier movimiento en la cara del imitador se realiza también en la cara del objetivo.

Para profundizar en el tema, Matthew Dixon, profesor asistente e investigador de la Escuela de Negocios Stuart del Instituto Tecnológico de Illinois, dijo a Cointelegraph que tanto el rostro como la voz pueden ser fácilmente reconstruidos a través de ciertos programas y técnicas, añadiendo que:

"Una vez que una persona ha sido clonada digitalmente es posible generar imágenes de video falsas de ella diciendo cualquier cosa, incluyendo palabras de propaganda maliciosa en los medios sociales. El seguidor medio de las redes sociales sería incapaz de discernir que el vídeo es falso".

De manera similar, hablando sobre los aspectos más finos de la tecnología deepfake, Vlad Miller, director general de Ethereum Express - una solución multiplataforma que se basa en un modelo innovador con su propia Blockchain y que utiliza un protocolo de consenso de Proof-of-Autorithy (Prueba de Autoridad en español)- dijo a Cointelegraph que los deepfake son simplemente una forma de sintetizar imágenes humanas haciendo uso de una técnica de aprendizaje automático llamada GAN, un algoritmo que despliega una combinación de dos redes neuronales.

La primera genera las muestras de imagen, mientras que la segunda distingue las muestras reales de las falsas. La utilidad operativa de GAN puede compararse con el trabajo de dos personas, de manera que la primera persona se dedica a la falsificación mientras que la otra trata de distinguir las copias de los originales. Si el primer algoritmo ofrece una falsificación obvia, el segundo la determinará inmediatamente, tras lo cual el primero mejorará su trabajo ofreciendo una imagen más realista.

En cuanto a las implicaciones sociales y políticas negativas que los videos de deepfake pueden tener en las masas, Steve McNew, un experto en Blockchain/codificación entrenado por el MIT y director general de FTI Consulting, dijo a Cointelegraph:

"Los videos en línea están explotando como una fuente de información principal. Imagínese que las redes sociales y los medios de noticias compartan frenéticamente y tal vez sin saberlo videos alterados - de video de la cámara del cuerpo de policía, de políticos en situaciones desagradables o de líderes mundiales que pronuncian discursos incendiarios - para crear una verdad alternativa. Las posibilidades de que los deepfakes creen propaganda maliciosa y otras formas de fraude son significativas".

Ejemplos de deepfakes que se utilizan con fines nefastos

Dado que la tecnología de deepfake es capaz de manipular e imitar los rasgos faciales y las características de la personalidad de los individuos del mundo real, plantea muchas preocupaciones legítimas, especialmente en relación con su uso para diversas actividades turbias.

Además, desde hace muchos años, Internet se ha inundado de sencillos tutoriales que enseñan a la gente a crear datos de audio/video alterados digitalmente que pueden engañar a varios sistemas de reconocimiento facial.

No sólo eso, sino que recientemente han aparecido algunos casos verdaderamente inquietantes de manipulación de audio/video que han puesto en tela de juicio la utilidad de los deepfakes. Por ejemplo, un artículo reciente afirma que desde 2014, la tecnología de deepfakes ha avanzado a tales niveles que hoy en día se puede utilizar para producir vídeos en los que el objetivo no sólo puede ser hecho para expresar ciertas emociones, sino que también tiene un parecido con ciertos grupos étnicos, así como una apariencia de cierta edad. Sobre el tema, Martin Zizi, director general de Aerendir, un proveedor de tecnología biométrica fisiológica, señaló a Cointelegraph:

"La IA no aprende de los errores, sino de las simples estadísticas. Puede parecer un pequeño detalle, pero la IA basada en estadísticas simples - incluso con trillones de bytes de datos - es sólo eso, un análisis estadístico de muchas dimensiones. Por lo tanto, si juegas con la estadística, puedes morir por la estadística".

Zizi añadió entonces que otra faceta clave del reconocimiento facial es que se basa en redes neuronales que son bastante frágiles por naturaleza. Desde un punto de vista estructural, estas redes pueden ser pensadas como catedrales, en las que una vez que se quita una piedra angular, todo el edificio se desmorona. Para profundizar en el tema, Zizi declaró:

"¡Quitar de 3 a 5 píxeles de una imagen de 12 millones de píxeles de la cara de alguien lleva el reconocimiento a cero!  Los investigadores han descubierto que los ataques adversos a los ataques de redes neuronales pueden encontrar esos 3 a 5 píxeles que representan las 'piedras angulares' en la imagen”.

Un último gran ejemplo de mal uso de la tecnología deepfake por razones financieras fue cuando el director general de una empresa de energía no identificada con sede en el Reino Unido fue estafado recientemente para que transfiriera 220.000 euros (243.000 dólares) a una cuenta bancaria desconocida porque creía que estaba hablando por teléfono con su jefe, el director general de la empresa matriz de la empresa. En realidad, la voz pertenecía a un estafador que había hecho uso de la tecnología de voz de deepfake para engañar al ejecutivo.

Blockchain puede ayudar contra las falsificaciones

Según un reciente informe de 72 páginas publicado por el Witness Media Lab, la tecnología Blockchain ha sido citada como una herramienta legítima para contrarrestar las diversas amenazas digitales que plantea la tecnología de deepfake.

A este respecto, mediante el uso de la tecnología Blockchain, las personas pueden firmar digitalmente y confirmar la autenticidad de diversos archivos de vídeo o de audio que están directa o indirectamente relacionados con ellos. Así, cuantas más firmas digitales se añadan a un determinado vídeo, más probabilidades habrá de que se considere auténtico.

Relacionados: A medida que se propagan los videos de Deepfake, se puede utilizar la tecnología Blockchain para detenerlos

Comentando el asunto, Greg Forst, director de marketing de Factom Protocol, dijo a Cointelegraph que cuando se trata de deepfakes, Blockchain tiene el potencial de ofrecer a la comunidad tecnológica global una solución única - o al menos una parte importante de ella. Señaló:

"Si el contenido del video está en la Blockchain una vez que ha sido creado, junto con una etiqueta de verificación o un gráfico, pone un obstáculo frente a los esfuerzos de los deepfakes. Sin embargo, esto depende de que el contenido de vídeo se añada a la Blockchain desde el principio. A partir de ahí, las identidades digitales deben subrayar los orígenes y el creador del contenido. Asegurar los datos en la fuente y tener cierta estandarización para los medios de comunicación será de gran ayuda".

McNew también cree que debido a la inmutabilidad general de la Blockchain, una vez que la red ha confirmado un determinado bloque de datos, su contenido no puede ser alterado. Por lo tanto, si se hace que los vídeos (o incluso las fotos, para el caso) fluyan inmediatamente en una aplicación de verificación en la Blockchain antes de que estén disponibles para compartir, los vídeos alterados podrían identificarse fácilmente como falsos.

Por último, una idea similar fue compartida por Miller, quien opina que la tecnología Blockchain junto con la inteligencia artificial puede ayudar a resolver muchas de las preocupaciones de privacidad y seguridad planteadas por las falsificaciones. Añadió:

"La IA se enfrenta perfectamente a la recogida, análisis, clasificación y transmisión de datos, mejorando la velocidad y la calidad de ejecución de los procesos internos. La Blockchain, a su vez, 'asegura' que nadie intervenga en el trabajo de la IA - protege los datos y su secuencia de cualquier invasión".

La tecnología Blockchain tiene sus propias limitaciones

Tal y como están las cosas, hay algunos pequeños inconvenientes que impiden que la tecnología Blockchain se utilice activamente para controlar las falsificaciones en Internet. Para empezar, la tecnología es limitada en su escalabilidad general, ya que la cantidad de recursos computacionales y de memoria necesarios para combatir los datos de Audio/Visual manipulados digitalmente en tiempo real es bastante intensa.

Otro problema potencial que podría surgir como resultado de la utilización de tecnología Blockchain para la detección de deepfakes es la reducción sustancial del contenido de vídeo de origen público (como el material que está disponible actualmente en YouTube). Sobre este tema, Dixon señaló:

"¿Cómo puede alguien en un país pobre llegar al mundo con su mensaje si tiene que ser aprobado por una compañía con sede en Silicon Valley? ¿Deberíamos confiar a las empresas tecnológicas ese poder? La libertad siempre está en juego cuando la confianza se debilita".

Una opinión similar es compartida por Hibryda, creador y fundador de Bitlattice, un sistema de libro mayor distribuido que utiliza una estructura de red multidimensional para abordar cuestiones como la escalabilidad, la seguridad, la sincronización, etc. En su opinión:

"El mayor inconveniente de la tecnología de las redes Blockchain reside en su incapacidad para determinar si los medios firmados son realmente genuinos o no. Pero no se trata de una cuestión interna de la tecnología Blockchain o afines - sólo proporcionan libros de contabilidad extremadamente difíciles de manipular. Es externo y no hay una buena manera de resolverlo. Mientras que la verificación impulsada por la multitud podría ser una solución parcial, dado que las multitudes pueden ser manipuladas es bastante imposible construir un sistema que proporcione una verificación de hechos fiable y objetiva".

Sin embargo, Forst dijo a Cointelegraph que aunque la mayoría de la gente tiende a creer que el aprovechamiento de la tecnología Blockchain podría ser demasiado caro para la detección de deepfakes, hay varias soluciones de código abierto que buscan hacer esto. Forst añadió entonces que, "El mayor inconveniente es que la tecnología Blockchain no resuelve el problema de los deepfakes en su totalidad, sino que puede ser una parte de la solución".

Sigue leyendo: