AI21 Labs acaba de lanzar "Contextual Answers", un motor de respuesta de preguntas para grandes modelos lingüísticos (LLM).
Cuando se conecta a un LLM, el nuevo motor permite a los usuarios cargar sus propias bibliotecas de datos para restringir los resultados del modelo a información específica.
El lanzamiento de ChatGPT y otros productos similares de inteligencia artificial (IA) ha supuesto un cambio de paradigma para el sector de la IA, pero la falta de fiabilidad hace que su adopción sea una perspectiva difícil para muchas empresas.
Según un estudio, los empleados dedican casi la mitad de su jornada laboral a buscar información. Esto representa una gran oportunidad para los chatbots capaces de realizar funciones de búsqueda; sin embargo, la mayoría de los chatbots no están orientados a la empresa.
AI21 ha desarrollado Contextual Answers para cubrir el vacío existente entre los chatbots diseñados para uso general y los servicios de respuesta a preguntas de nivel empresarial, ofreciendo a los usuarios la posibilidad de canalizar sus propias bibliotecas de datos y documentos.
Según una publicación de AI21, Contextual Answers permite a los usuarios dirigir las respuestas de la IA sin necesidad de volver a entrenar los modelos, mitigando así algunos de los mayores impedimentos para su adopción:
"La mayoría de las empresas tienen dificultades para adoptar la IA, alegando el coste, la complejidad y la falta de especialización de los modelos en sus datos organizativos, lo que da lugar a respuestas incorrectas, 'alucinadas' o inadecuadas para el contexto".
Uno de los retos pendientes relacionados con el desarrollo de LLM útiles, como ChatGPT de OpenAI o Bard de Google, es enseñarles a expresar falta de confianza.
Normalmente, cuando un usuario consulta a un chatbot, éste emite una respuesta aunque no haya suficiente información en su conjunto de datos para dar información objetiva. En estos casos, en lugar de dar una respuesta poco fiable como "no lo sé", los LLM suelen inventarse información sin ninguna base factual.
Los investigadores llaman a estos resultados "alucinaciones" porque las máquinas generan información que aparentemente no existe en sus conjuntos de datos, como los humanos que ven cosas que en realidad no existen.
We're excited to introduce Contextual Answers, an API solution where answers are based on organizational knowledge, leaving no room for AI hallucinations.
— AI21 Labs (@AI21Labs) July 19, 2023
➡️ https://t.co/LqlyBz6TYZ pic.twitter.com/uBrXrngXhW
Según A121, Contextual Answers debería mitigar por completo el problema de las alucinaciones emitiendo información solo cuando sea relevante para la documentación proporcionada por el usuario o no emitiendo nada en absoluto.
En los sectores en los que la precisión es más importante que la automatización, como las finanzas y el derecho, la aparición de los sistemas de transformadores generativos preentrenados (GPT) ha dado resultados diversos.
Algunos expertos siguen recomendando cautela en las finanzas a la hora de utilizar sistemas GPT debido a su tendencia a alucinar o confundir la información, incluso cuando están conectados a Internet y son capaces de enlazar con las fuentes. Y en el sector legal, un abogado se enfrenta ahora a multas y sanciones tras basarse en resultados generados por ChatGPT durante un caso.
Al dotar a los sistemas de IA de datos pertinentes e intervenir antes de que el sistema pueda alucinar con información no fáctica, AI21 parece haber demostrado una forma de mitigar el problema de la alucinación.
Esto podría dar lugar a una adopción masiva, especialmente en el ámbito de la tecnología financiera, donde las instituciones financieras tradicionales se han mostrado reacias a adoptar la tecnología GPT, y las comunidades de criptomonedas y blockchain han tenido un éxito desigual en el mejor de los casos al emplear chatbots de IA.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo:
- OpenAI lanza "instrucciones personalizadas" para ChatGPT para que no tengas que repetirte en cada prompt
- Cerebras Systems cierra un acuerdo de USD 100 millones con G42
- Las capacidades de ChatGPT han empeorado con el tiempo, según un nuevo estudio
- OpenAI crea un nuevo equipo para abordar los posibles riesgos de los sistemas de IA "superinteligentes"
- Grupos de protección al consumidor de la UE instan a los gobiernos a investigar la inteligencia artificial
- Senadores estadounidenses proponen proyectos de ley sobre inteligencia artificial en pro de la transparencia e innovación
- Tribunal del Reino Unido concede apelación de Craig Wright en demanda de derechos sobre Bitcoin