Un estudio de dos organizaciones sin ánimo de lucro con sede en Europa ha revelado que el chatbot de inteligencia artificial (IA) Bing de Microsoft, ahora rebautizado como Copilot, produce resultados engañosos sobre información electoral y cita erróneamente a sus fuentes.

El estudio, publicado por AI Forensics y AlgorithmWatch el 15 de diciembre, concluye que el chatbot de IA de Bing da respuestas erróneas el 30% de las veces a preguntas básicas sobre las elecciones políticas en Alemania y Suiza. Las respuestas inexactas se referían a información sobre candidatos, encuestas, escándalos y votaciones.

También dio respuestas inexactas a preguntas sobre las elecciones presidenciales de 2024 en Estados Unidos.

El chatbot de IA de Bing se utilizó en el estudio porque fue uno de los primeros chatbots de IA en incluir fuentes en sus respuestas, y el estudio afirma que las imprecisiones no se limitan a Bing. Al parecer, realizaron pruebas preliminares con ChatGPT-4 y también encontraron discrepancias.

Las organizaciones sin ánimo de lucro aclararon que la información falsa no ha influido en el resultado de las elecciones, aunque podría contribuir a la confusión y desinformación del público.

"A medida que la IA generativa se generaliza, esto podría afectar a una de las piedras angulares de la democracia: el acceso a una información pública fiable y transparente".

Además, el estudio descubrió que las salvaguardas integradas en el chatbot de IA estaban distribuidas de forma "desigual" y provocaban que diera respuestas evasivas el 40 % de las veces.

Según un informe del Wall Street Journal sobre el tema, Microsoft respondió a los hallazgos y dijo que planea corregir los problemas antes de las elecciones presidenciales de Estados Unidos de 2024. Un portavoz de Microsoft animó a los usuarios a comprobar siempre la exactitud de la información obtenida de los chatbots de IA.

En octubre de este año, varios senadores estadounidenses propusieron un proyecto de ley que reprendería a los creadores de réplicas no autorizadas de seres humanos vivos o muertos.

En noviembre, Meta, la empresa matriz de Facebook e Instagram, introdujo un mandato que prohibía el uso de herramientas de creación de anuncios de IA generativa a los anunciantes políticos como medida de precaución ante las próximas elecciones.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión