El revisor independiente de la legislación antiterrorista del Reino Unido, Jonathan Hall KC, quiere que el gobierno considere una legislación que responsabilice a los humanos por los resultados generados por los chatbots de inteligencia artificial (IA) que han creado o entrenado.
Hall escribió recientemente un artículo de opinión para el Telegraph en el que describió una serie de "experimentos" que realizó con chatbots en la plataforma Character.AI.
Whilst probably written for lolz, there really are terrorist chatbots, as I found: pic.twitter.com/0UeBr5o0aU
— Independent Reviewer (@terrorwatchdog) January 2, 2024
Según Hall, los chatbots entrenados para producir mensajes que imitan la retórica terrorista y mensajes de reclutamiento eran fácilmente accesibles en la plataforma.
Escribió que un chatbot, creado por un usuario anónimo, generó resultados favorables al "Estado Islámico", un término asociado con grupos comúnmente etiquetados como organizaciones terroristas por la ONU, incluyendo intentos de reclutar a Hall para el grupo y prometiendo que "daría su vida virtual" por la causa.
En la opinión de Hall, "es dudoso" que los empleados de Character.AI tengan la capacidad de supervisar todos los chatbots creados en la plataforma en busca de contenido extremista. "Nada de esto", escribe, "impide que la startup con sede en California intente recaudar, según Bloomberg, USD 5 mil millones (3.9 mil millones de libras esterlinas) de financiamiento".
Por parte de Character.AI, los términos de servicio de la empresa prohíben el contenido terrorista y extremista, y se requiere que los usuarios acepten los términos antes de participar en la plataforma.
Un portavoz también dijo a los periodistas de la BBC que la empresa está comprometida con la seguridad del usuario y, como tal, emplea numerosas intervenciones de entrenamiento y técnicas de moderación de contenido destinadas a alejar a los modelos de contenido potencialmente perjudicial.
Hall describe los actuales intentos de moderación por parte de la industria de la IA en general como ineficaces para disuadir a los usuarios de crear y entrenar bots diseñados para expresar ideologías extremistas.
En última instancia, Hall concluye que "las leyes deben ser capaces de disuadir la conducta en línea más cínica o temeraria."
"Eso debe incluir llegar detrás del telón a las grandes plataformas tecnológicas en los peores casos, utilizando leyes actualizadas de terrorismo y seguridad en línea que sean adecuadas para la era de la IA".
Aunque el artículo de opinión no llega a hacer recomendaciones formales, señala que tanto la Ley de Seguridad en Línea del Reino Unido de 2023 como la Ley de Terrorismo de 2003 no abordan adecuadamente el problema de las tecnologías de IA generativa, ya que no cubren contenido creado específicamente por la moderna clase de chatbots.
En los Estados Unidos, llamados similares para la legislación que designe la responsabilidad legal humana por contenido potencialmente perjudicial o ilegal generado por sistemas de IA han recibido reacciones mixtas de expertos y legisladores.
El año pasado, la Corte Suprema de EE.UU. se negó a alterar las protecciones existentes de editor y anfitrión bajo la Sección 230 para plataformas de contenido de terceros como redes sociales, motores de búsqueda y otras plataformas.
Los analistas del Cato Institute, entre otros expertos, afirman que exceptuar el contenido generado por IA de las protecciones de la Sección 230 podría hacer que los desarrolladores en EE. UU. abandonen sus esfuerzos en el campo de la IA, ya que la naturaleza impredecible de los modelos de "caja negra" hace que sea aparentemente imposible garantizar que servicios como ChatGPT no violen la ley.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.