El Servicio Canadiense de Inteligencia y Seguridad (CSIS), principal agencia nacional de inteligencia de Canadá, expresó su preocupación por las campañas de desinformación que se llevan a cabo en Internet mediante deep fakes (o falsificaciones profundas) de inteligencia artificial (IA).

Canadá considera que el creciente "realismo de los deep fakes", unido a la "incapacidad para reconocerlos o detectarlos", constituye una amenaza potencial para los canadienses. En su informe, el CSIS cita casos en los que se han utilizado deep fakes para perjudicar a personas.

“Los deep fakes y otras tecnologías avanzadas de IA amenazan la democracia, ya que ciertos actores buscan capitalizar sobre la incertidumbre o perpetuar 'hechos' basados en información sintética y/o falsificada. Esto se exacerbará aún más si los gobiernos no pueden 'probar' que su contenido oficial es real y factual.”

También se refería a la cobertura de Cointelegraph de los deep fakes de Elon Musk dirigidos a los criptoinversores.

Desde 2022, los malos actores han utilizado sofisticados vídeos de deep fake para convencer a los incautos inversores de criptomonedas de que se desprendan voluntariamente de sus fondos. La advertencia de Musk contra los deep fakes se produjo después de que apareciera en X (antes Twitter) un vídeo suyo inventado en el que promocionaba una plataforma de criptomonedas con rentabilidades poco realistas.

La agencia canadiense señaló las violaciones de la privacidad, la manipulación social y la parcialidad como otras de las preocupaciones que plantea la IA. El departamento insta a que las políticas, directivas e iniciativas gubernamentales evolucionen con el realismo de los deep fakes y los medios sintéticos:

“Si los gobiernos evalúan y abordan la IA de forma independiente y a su velocidad típica, sus intervenciones se volverán rápidamente irrelevantes.”

El CSIS recomendó una colaboración entre gobiernos socios, aliados y expertos de la industria para abordar la distribución global de información legítima.

La intención de Canadá de involucrar a las naciones aliadas para abordar las preocupaciones de la IA se cimentó el 30 de octubre, cuando el Grupo de los Siete (G7) países industriales acordó un código de conducta de IA para desarrolladores.

Como informó anteriormente Cointelegraph, el código tiene 11 puntos que pretenden promover "una IA segura y fiable en todo el mundo" y ayudar a "aprovechar" los beneficios de la IA sin dejar de abordar y solucionar los riesgos que plantea.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión