Investigadores de la Universidad de Zúrich han sido acusados de llevar a cabo un experimento no autorizado de cuatro meses de duración en un foro de Reddit utilizando comentarios generados por inteligencia artificial para probar si la IA podía alterar las opiniones de la gente. 

Los moderadores del subreddit r/changemyview explicaron en un post publicado el 26 de abril que, como parte del experimento, las cuentas generadas por inteligencia artificial fingieron ser una víctima de un crimen, una persona contraria a determinados movimientos sociales y una asesora traumatológica especializada en abusos.

"Nuestro subreddit es un espacio decididamente humano que rechaza la IA no revelada como un valor fundamental", dijeron los moderadores. "La gente no viene aquí para discutir sus puntos de vista con IA o para que experimenten con ella". 

Los investigadores utilizaron IA para generar respuestas, pero intentaron personalizar las respuestas basándose en información del historial previo de Reddit de los autores originales, como la orientación política, el sexo, la edad y el origen étnico, según un borrador del artículo.

Los moderadores del subreddit r/changemyview afirman que investigadores de la Universidad de Zúrich llevaron a cabo un experimento no autorizado dentro de su comunidad. Fuente: Reddit

Durante los cuatro meses que duró el experimento, las cuentas falsas de IA de la Universidad de Zúrich publicaron 1.783 comentarios y recibieron 137 deltas, una marca que indica cuándo otro usuario de Reddit reconoce que la cuenta le ha convencido para cambiar su opinión sobre un tema. 

Los investigadores dijeron en un post en el subreddit que todos los comentarios se revisaron manualmente antes de publicarlos para asegurarse de que cumplían las directrices de la comunidad y para "minimizar el daño potencial".

Social Media
El equipo de la universidad argumentó que los beneficios potenciales de esta investigación superan sustancialmente sus riesgos. Fuente: Reddit

El equipo de la universidad argumentó que los "beneficios potenciales de esta investigación superan sustancialmente sus riesgos" porque han encontrado que los grandes modelos de lenguaje utilizados en el experimento pueden ser altamente persuasivos, superando todos los "puntos de referencia previamente conocidos de persuasión humana."

"Nuestro estudio controlado y de bajo riesgo proporcionó una valiosa perspectiva de las capacidades persuasivas de los LLM en el mundo real, capacidades que ya son fácilmente accesibles para cualquiera y que los actores maliciosos ya podrían explotar a escala por razones mucho más peligrosas", afirmaron los investigadores. 

Al mismo tiempo, los investigadores afirmaron que el experimento demuestra que distinguir a los humanos de la IA sigue planteando importantes retos, ya que nadie en el subreddit descubrió a los bots de IA durante todo el experimento. 

El foro r/changemyview tiene 3,8 millones de miembros y se encuentra entre el 1% de los subreddits por tamaño.

Reddit estudia opciones legales

Los moderadores del foro de Reddit dijeron que desconocían el experimento y han pedido a la universidad una disculpa y que bloquee la publicación de la investigación. 

Reddit también podría estar considerando la posibilidad de emprender acciones legales, ya que el director jurídico de la plataforma, Ben Lee, dijo en un post de seguimiento del 28 de abril que el experimento infringía el acuerdo de usuario y las normas del sitio, y que todas las cuentas conocidas asociadas con el esfuerzo de investigación de la Universidad de Zurich estaban ahora baneadas. 

"Estamos en proceso de ponernos en contacto con la Universidad de Zúrich y con este equipo de investigación en particular para presentar demandas legales formales", dijo Lee. 

"Queremos hacer todo lo posible para apoyar a la comunidad y garantizar que los investigadores rindan cuentas por sus fechorías", añadió. 

En su respuesta al subreddit, la Comisión de Ética de la Facultad de Artes y Ciencias de la Universidad de Zúrich dijo que había investigado el incidente y prometió coordinarse mejor con los sujetos de las pruebas en el futuro. El investigador principal del proyecto también recibió una advertencia formal.

"Este proyecto aporta conocimientos importantes y los riesgos son mínimos. Esto significa que la supresión de la publicación no es proporcional a la importancia de los resultados del estudio", declaró la comisión de ética. 

La Universidad de Zúrich no respondió inmediatamente a una solicitud de comentarios. Cointelegraph no recibió respuesta inmediata a las preguntas enviadas a una dirección de correo electrónico asociada al experimento.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión