En un momento en que el término "fake news" se ha convertido en un nombre muy conocido gracias a su uso repetido por el presidente Donald Trump, las “deepfake”, es decir, los vídeos aparentemente realistas que de hecho están manipulados, pueden agravar aún más el problema asociado con la desconfianza hacia los medios de comunicación. Los tecnólogos están examinando la naturaleza inherente de la tecnología Blockchain como agregador de confianza para devolver al sistema una mayor confianza pública. 

La verdad se está convirtiendo cada vez más en un término relativo. Cuando cada uno tiene su propia versión de la verdad, la democracia carece de sentido. La llegada de las “deepfake” está llevando a la sociedad a un punto en el que los hechos se pueden fabricar de acuerdo con las opiniones y los objetivos de cada uno, porque en unos pocos años, el ojo o el oído desnudo ya no será suficiente para saber si un clip de vídeo o de audio es auténtico. La humanidad tiene un gran problema que resolver.

Si unimos el “Deep learning” (aprendizaje profundo) y el “fake” (falso), obtendremos el “deepfake”, un trabajo de Photoshop con esteroides que hace uso de la inteligencia artificial. Si el algoritmo de una “deepfake” tiene suficientes datos (o material) de un sujeto existente, alguien más puede usar la tecnología para manipular el vídeo y hacer que parezca que el sujeto está diciendo o haciendo casi cualquier cosa.

Implicaciones sociales de las “deepfake”

Las falsificaciones profundas tienen el potencial de cambiar la opinión pública, sesgar los resultados de las elecciones, desencadenar la violencia étnica o escalar situaciones que pueden conducir a la guerra. La propaganda y los falsos ataques personales no son nada nuevo, pero con las “deepfake”, la contorsión estratégica de la información adquiere una dimensión diferente. Impulsados por los rápidos avances de la IA y la naturaleza viral de las redes sociales, las “deepfake” podrían convertirse en una de las tecnologías más desestabilizadoras para acechar a la humanidad. 

Las “deepfake” pueden cambiar el juego por dos razones. La primera es que representan un nivel de sofisticación que ahora se puede lograr a través de la IA. Pero la segunda razón, más importante, es que también representan una democratización del acceso a la tecnología.

Las implicaciones de las “deepfake” ni siquiera tienen que ser sociales; también pueden ser personales. Hay una cuenta anónima de Reddit que se hizo infame por crear videos falsos asistidos por IA de celebridades, que a menudo son pornográficos. Aunque el subreddit del creador fue prohibido en febrero de 2018, sus vídeos siguen siendo de dominio público. 

Sin embargo, la popularidad de las “deepfake” ha atraído a varias personas en el mismo negocio. Las celebridades no son las únicas que están en el punto de mira. La amplia disponibilidad y la facilidad de uso del software ha hecho posible que cualquiera pueda generar un vídeo de "porno de venganza".

Software específico

Desde entonces, han surgido varias Startups que trabajan para resolver el problema de la “deepfake”, siendo Ambervideo.co una de las empresas más prominentes. En medio de la amenaza de videos falsos que deslegitiman las grabaciones genuinas, Amber está construyendo una capa intermedia para detectar alteraciones maliciosas y ha desarrollado tecnología de detección y autenticación. 

Para la detección, Amber tiene un software que mira las pistas de vídeo y audio, así como los aspectos dentro de ellas en busca de signos de modificaciones potenciales. Amber está entrenando a su IA para retomar los patrones específicos que inevitablemente se dejan atrás mientras altera un video.

El problema con este método es que es estrictamente reactivo, ya que la IA sólo aprende de patrones pasados. Los algoritmos de “deepfake” más recientes pasarán prácticamente desapercibidos por este enfoque retroactivo, por lo que se considera que los métodos de detección van a la zaga de los métodos de creación más avanzados. 

Aquí es donde entra en juego la tecnología de autenticación de Amber: Las huellas dactilares criptográficas se imprimen en el vídeo tan pronto como se graba. Amber Authenticate utiliza una infraestructura Blockchain para almacenar hashes cada 30 segundos, y por lo tanto cualquier alteración de estos hashes puede indicar una posible manipulación.

Aparte de las soluciones de software como Amber, también se necesitan soluciones basadas en hardware, y empresas como Signed at Source lo están proporcionando al dar a las partes interesadas la capacidad de integrarse con cámaras para firmar automáticamente los datos capturados. Es muy improbable que se produzca un vídeo falsificado con la misma firma que la cámara de la víctima, lo que significa que se puede probar qué vídeo fue grabado por la cámara y cuál no.

Usos de la vida real

El 3 de octubre de 2019, Axon Enterprise Inc. un fabricante de tecnología para las fuerzas de seguridad de Estados Unidos, anunció que está explorando una nueva tecnología de rastreo de datos para las cámaras de su cuerpo y se basará en la tecnología Blockchain para verificar la autenticidad de los videos de las cámaras corporales que utilizan los policías. 

Axon no es la única organización que ha estado trabajando en temas relacionados con las “deepfake”. El programa Media Forensics de la Agencia de Proyectos de Investigación Avanzada de la Defensa, comúnmente conocido como DARPA, por sus siglas en inglés, está desarrollando "tecnologías para la evaluación automatizada de la integridad de una imagen o vídeo". Para ayudar a probar las alteraciones de vídeo, Factom Protocol ha desarrollado una solución llamada Off-Blocks. En un correo electrónico a Cointelegraph, Greg Forst, director de marketing de Factom Protocol, dijo:

"En un momento de mayor escrutinio en torno a la veracidad de las noticias, el contenido y la documentación, el auge de la tecnología de “deepfake” representa una amenaza significativa para nuestra sociedad. A medida que este fenómeno se hace más pronunciado y accesible, podríamos llegar a una situación en la que se ponga en tela de juicio la autenticidad de una amplia gama de contenidos de vídeo. Se trata de una evolución peligrosa que difumina la línea que rodea a la identidad digital, algo que debería mantenerse con las medidas de seguridad más rigurosas".

Forst cree que también depende de los desarrolladores, los evangelistas Blockchain y los expertos en ciberseguridad explorar diferentes vías para mitigar los riesgos derivados de las “deepfakes”. La prueba de la autenticidad de los medios digitales es crucial para eliminar el contenido falsificado, aunque actualmente las soluciones son ineptas para proporcionar un seguimiento histórico y la procedencia de los medios digitales.

¿Es la tecnología Blockchain la solución?

Tomando el ejemplo de la solución de Axiom para las cámaras corporales que utilizarán los policías, se toman las huellas dactilares de los vídeos en la grabadora de la fuente. Estas huellas dactilares están escritas en una Blockchain inmutable que se puede descargar desde el dispositivo y cargar en la nube. Cada uno de estos eventos está escrito en un Contrato Inteligente que deja una pista de auditoría.

La tecnología utilizada por Axiom se denomina "sistema de captura controlada" y tiene aplicaciones mucho más amplias que las cámaras de la policía. Extrae una firma de la fuente del contenido y la firma criptográficamente - después, la grabación es verificable.

Sin embargo, debido a la codificación de vídeo, es poco probable que tenga los datos originales incluso en circunstancias ideales. Incluso si se ha realizado un cambio menor en el vídeo, la firma ya no es válida. La codificación no es el único problema: si alguien vuelve a capturar el vídeo utilizando un dispositivo distinto de la cámara original, los datos del vídeo original serán inaccesibles. 

El identificador de contenido de Google puede ser la solución a este problema. Es un servicio que fue desarrollado originalmente para descubrir violaciones de derechos de autor, pero que potencialmente puede ser utilizado para detectar “deepfake”. Después de gastar más de 100 millones de dólares en el desarrollo de sus sistemas, Google pudo crear un algoritmo que hace coincidir un vídeo cargado por el usuario con un conjunto de vídeos de referencia registrados, incluso si se trata de una coincidencia parcial o algo modificada.

Esto sólo funcionará si el “deepfake” es lo suficientemente similar al original. Además, mantener suficientes huellas dactilares y ajustar el algoritmo para detectar tales cambios tiene un impacto dramático en los requisitos de datos y computación. Hablando de cómo la Blockchain puede ser la solución a las “deepfake”, agregó Frost of Factom:

"Cuando se trata de “deepfakes”, la Blockchain tiene el potencial de ofrecer una solución única. Con el contenido de vídeo en la Blockchain desde la creación, junto con una etiqueta o gráfico de verificación, pone una barrera frente a los esfuerzos de “deepfake”. Las identidades digitales deben subrayar el origen y el creador de los contenidos. Podríamos ver a prominentes industrias de noticias y cine buscando potencialmente este tipo de solución, pero se vuelve muy difícil, ya que los posibles manipuladores podrían registrarse como usuarios verificados e insertar un archivo “deepfake” en el sistema. Los datos erróneos siguen siendo datos erróneos incluso si están en la Blockchain. Tiendo a pensar que se necesita una combinación de soluciones".

A menudo, estas técnicas de detección no tendrán la oportunidad de funcionar, dada la capacidad de los clips virales de causar daño sin haber sido verificados. La reputación de una figura pública puede ser dañada más allá de toda reparación, las tensiones étnicas o raciales se intensifican, o una relación personal se arruina antes de la verificación de los medios de comunicación. Estos son algunos de los principales inconvenientes de la difusión rápida e incontrolada de la información.

Todas las fuerzas se están uniendo para luchar contra las falsificaciones

En una conversación con Cointelegraph, Roopa Kumar, directora de operaciones de la firma de búsqueda de ejecutivos para empresas de tecnología, Purple Quarter, cree que la tecnología no puede ser buena o mala:

"Tomemos un ejemplo de la energía nuclear. Se puede utilizar para alimentar los hogares de millones de personas. Cuando está en las manos equivocadas, puede incluso ser usado para matar a millones. La tecnología por sí misma no tiene ningún código moral, pero los humanos sí. Las “Deepfakes” se pueden utilizar para hacer aplicaciones de entretenimiento que pronto pueden estar en sus teléfonos móviles. Pero las mismas aplicaciones pueden arruinar vidas y la estructura de la sociedad si son usadas por actores maliciosos".

La confianza en las instituciones centralizadas establecidas, como los gobiernos y los bancos, es probablemente baja. La minimización de la confianza es una propiedad clave de la tecnología Blockchain. Sin embargo, la Blockchain -o la tecnología en su conjunto- no puede asumir la responsabilidad exclusiva de luchar contra las falsificaciones profundas.

Muchas fuerzas tienen que unirse en este esfuerzo. Los creadores y desarrolladores que trabajan en tecnología de “deepfake” tendrán que publicar sus códigos en línea de forma gratuita para que puedan ser verificados por terceros. Los reguladores también deberían estudiar cómo pueden supervisar este espacio. Lo más importante es que las masas deben estar bien informadas sobre esa tecnología y recordar que toda la información consumida debe tomarse con mucha precaución.

Sigue leyendo: