El uso de la inteligencia artificial (IA) en las redes sociales ha sido señalado como una posible amenaza para influir en el sentimiento o la opinión de los votantes en las próximas elecciones presidenciales de 2024 en Estados Unidos.
Las principales empresas tecnológicas y entidades gubernamentales de Estados Unidos han estado monitoreando activamente la situación en torno a la desinformación. El 7 de septiembre, la unidad de investigación de Microsoft llamada "Centro de Análisis de Amenazas de Microsoft" (MTAC) publicó una investigación que observó a "actores afiliados a China" aprovechando esta tecnología.
El informe indicó que estos actores utilizaron medios visuales generados por IA en lo que llamaron una "campaña amplia" que se centró en "temas políticamente divisivos, como la violencia armada, y en denigrar a figuras políticas y símbolos de Estados Unidos".
Se espera que China "perfeccione esta tecnología con el tiempo", y aún está por verse cómo se desplegará a gran escala para tales fines.
Por otro lado, la IA también se está utilizando para detectar dicha desinformación. El 29 de agosto, Accrete AI implementó software de IA para la predicción en tiempo real de amenazas de desinformación en las redes sociales, según lo contratado por el Comando de Operaciones Especiales de Estados Unidos (USSOCOM).
Prashant Bhuyan, fundador y CEO de Accrete, afirmó que estos deep fakes y otras "aplicaciones basadas en IA en las redes sociales" representan una amenaza seria.
"Las redes sociales son ampliamente reconocidas como un entorno no regulado donde los adversarios rutinariamente explotan vulnerabilidades de razonamiento y manipulan el comportamiento mediante la propagación intencional de desinformación".
En las elecciones estadounidenses anteriores de 2020, se informó que las granjas de trolls llegaron a 140 millones de estadounidenses cada mes, según un informe del MIT.
Las granjas de trolls son un "grupo institucionalizado" de trolls de Internet con la intención de interferir en las opiniones políticas y la toma de decisiones.
Ya los reguladores en Estados Unidos han estado buscando formas de regular los deep fakes antes de las elecciones.
El 10 de agosto, la Comisión Federal de Elecciones de Estados Unidos concluyó con un voto unánime para avanzar en una petición que regularía los anuncios políticos mediante IA. Uno de los miembros de la comisión detrás de la petición llamó a los deep fakes una "amenaza significativa para la democracia".
Google anunció el 7 de septiembre que actualizará su política de contenido político a mediados de noviembre de 2023, lo que hará que la divulgación de la IA sea obligatoria para los anuncios de campañas políticas.
Dijo que se requerirán divulgaciones cuando haya "contenido sintético que represente de manera inauténtica a personas o eventos reales o de apariencia real".
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión