Los ciudadanos de New Hampshire recibieron una inusual petición política el fin de semana del 20 y 21 de enero. Llamadas automáticas en las que sonaba la voz del presidente de Estados Unidos, Joe Biden, les pedían que no votaran en las primarias del 23 de enero. 

Al parecer, los mensajes automáticos fueron generados por una herramienta de deepfake de inteligencia artificial (IA) con el aparente propósito de inmiscuirse en las elecciones presidenciales de 2024.

Los votantes de NH están recibiendo llamadas automáticas de Biden diciéndoles que no voten mañana.

Excepto que no es Biden. Es una imitación de su voz.

Esto es lo que pasa cuando el poder de la IA va sin control.

Si no lo regulamos, nuestra democracia está condenada.

Según el audio grabado por NBC, a los residentes se les pidió que se quedaran en casa durante las primarias:

"Votar este martes solo permite a los republicanos en su búsqueda de elegir a Donald Trump de nuevo. Tu voto marca la diferencia en noviembre, no este martes".

La oficina del fiscal general del estado emitió un comunicado denunciando las llamadas como desinformación, agregando que "los votantes de New Hampshire deben ignorar por completo el contenido de este mensaje". Mientras tanto, un portavoz del expresidente Donald Trump negó cualquier participación por parte del candidato del Partido Republicano o su campaña.

Hasta ahora, los investigadores no parecen haber identificado la fuente de las llamadas automáticas, pero las investigaciones están en curso.

En noticias relacionadas, otro escándalo político relacionado con la falsificación de audio mediante inteligencia artificial ocurrió durante el fin de semana, cuando el 21 de enero se dio a conocer un audio deepfake que imitaba la voz del líder demócrata de Manhattan, Keith Wright. El audio deepfake presentaba una imitación de la voz de Wright hablando mal de la miembro de la asamblea demócrata Inez Dickens.

De acuerdo con un informe de Politico, algunos desestimaron el audio como falso, pero al menos un conocedor de la política quedó momentáneamente convencido de que era real.

La demócrata de Manhattan y ex presidenta del Concejo Municipal, Melissa Mark-Viverito, le dijo a Politico que al principio pensaron que las grabaciones falsas eran creíbles:

"Yo estaba como 'oh, mi**da'. Pensé que era real".

Los expertos creen que los malos actores han optado por las falsificaciones de audio en lugar de las de vídeo porque los consumidores tienden a ser más exigentes cuando se trata de falsificaciones visuales. Como dijo recientemente Henry Ajder, asesor de IA, al Financial Times, "todo el mundo está acostumbrado a Photoshop o al menos sabe que existe".

En el momento de la publicación de este artículo, no parece existir ningún método universal que permita detectar o disuadir los deepfakes. Los expertos recomiendan actuar con cautela a la hora de acceder a medios de fuentes desconocidas o dudosas, especialmente cuando se trata de afirmaciones extraordinarias.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión