Hay otro nuevo chatbot de inteligencia artificial entrando en el ya saturado espacio, pero este aparentemente puede hacer lo que la mayoría no puede: aprender de sus errores.  

En una publicación del 5 de septiembre en X, el CEO de HyperWrite AI, Matt Shumer, anunció el desarrollo de ‘Reflection 70B’, afirmando que es “el modelo de código abierto más avanzado del mundo”.

Agregó que la nueva IA fue entrenada utilizando “Reflection-Tuning”, una técnica desarrollada para permitir que los modelos de lenguaje de gran tamaño (LLM) corrijan sus propios errores.

Reflection Llama-3.1 70B puede “competir” con incluso los mejores modelos de código cerrado como Claude 3.5 Sonnet de Anthropic y el GPT-4o de OpenAI en varias pruebas de referencia, afirmó. Llama 3.1 es la IA de código abierto de Meta que fue lanzada en julio.

Dijo que los modelos de IA actuales a menudo pueden alucinar, pero Reflection-Tuning les permite reconocer sus errores y corregirlos antes de comprometerse con una respuesta.

“Los LLM actuales tienen una tendencia a alucinar y no pueden reconocer cuando lo hacen”.

Una alucinación de IA es un fenómeno en el que un chatbot generativo de IA percibe patrones u objetos que no existen o son imperceptibles para los observadores humanos, creando resultados que son inexactos.

Ejemplo de Reflection-Tuning. Fuente: Matt Shumer

El Reflection-Tuning, o afinación por reflexión, es una técnica utilizada para mejorar los modelos de IA haciendo que analicen y aprendan de sus propias respuestas.

Las respuestas de la IA pueden ser retroalimentadas a la propia IA, donde se le puede pedir que evalúe sus propias respuestas, identificando fortalezas, debilidades y áreas de mejora, por ejemplo.

El proceso se repite muchas veces, lo que permite que la IA refine continuamente sus capacidades con el objetivo de hacerse más consciente de sus propios resultados y mejorar su capacidad para criticar y mejorar su propio rendimiento.

Shumer agregó que "con el 'prompting' correcto, es una verdadera bestia para muchos casos de uso", proporcionando un enlace demo para el nuevo modelo.

OpenAI, respaldada por Microsoft, publicó un documento de investigación en 2023 con ideas sobre cómo ayudar a prevenir las alucinaciones de la IA.

Una idea fue la "supervisión de procesos", que consiste en entrenar modelos de IA para recompensarse por cada paso correcto de razonamiento cuando llegan a una respuesta, en lugar de recompensar solo una conclusión final correcta.

"Detectar y mitigar los errores lógicos de un modelo, o las alucinaciones, es un paso crítico hacia la construcción de una AGI [inteligencia general artificial] alineada", dijo Karl Cobbe, investigador en OpenAI, a CNBC en ese momento.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.