Un reciente estudio de investigación titulado «Larger and more instructable language models become less reliable» (Los modelos de lenguaje más grandes e instructivos se vuelven menos fiables), publicado en la revista Nature Scientific Journal, revela que los chatbots de inteligencia artificial cometen más errores con el paso del tiempo a medida que se lanzan nuevos modelos.
Lexin Zhou, uno de los autores del estudio, teorizó que, dado que los modelos de IA están optimizados para ofrecer siempre respuestas creíbles, las respuestas aparentemente correctas se priorizan y se envían al usuario final sin tener en cuenta la precisión.
Estas alucinaciones de la IA se refuerzan a sí mismas y tienden a agravarse con el tiempo, un fenómeno exacerbado por el uso de grandes modelos lingüísticos antiguos para entrenar grandes modelos lingüísticos más recientes, lo que provoca un «colapso del modelo».
El editor y escritor Mathieu Roy advirtió a los usuarios de que no confíen demasiado en estas herramientas y que comprueben siempre los resultados de búsqueda generados por la IA en busca de incoherencias:
«Aunque la IA puede ser útil para diversas tareas, es importante que los usuarios verifiquen la información que obtienen de los modelos de IA. La comprobación de hechos debe ser un paso en el proceso de todos cuando se utilizan herramientas de IA. Esto se complica cuando se trata de chatbots de atención al cliente».
Para empeorar las cosas, «a menudo no hay forma de comprobar la información, salvo preguntando al propio chatbot», asegura Roy.
El persistente problema de las alucinaciones de la IA
La plataforma de inteligencia artificial de Google fue objeto de burlas en febrero de 2024 después de que la IA empezara a producir imágenes históricamente inexactas. Ejemplos de ello fueron la representación de personas de color como oficiales nazis y la creación de imágenes inexactas de personajes históricos conocidos.
Por desgracia, este tipo de incidentes son demasiado comunes con la actual iteración de la inteligencia artificial y los grandes modelos lingüísticos. Ejecutivos del sector, entre ellos el CEO de Nvidia, Jensen Huang, han propuesto mitigar las alucinaciones de la IA obligando a sus modelos a investigar y proporcionar fuentes para cada respuesta dada a un usuario.
Sin embargo, estas medidas ya están presentes en los modelos más populares de IA y grandes lenguajes, y aun así persiste el problema de las alucinaciones de la IA.
Hace poco, en septiembre, el CEO de HyperWrite AI, Matt Shumer, anunció que el nuevo modelo 70B de la empresa utiliza un método llamado «Reflection-Tuning», que supuestamente proporciona al robot de IA una forma de aprender analizando sus propios errores y ajustando sus respuestas a lo largo del tiempo.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.