OpenAI ha introducido la opción de ajuste fino para GPT-3.5 Turbo, que permite a los desarrolladores de inteligencia artificial (IA) mejorar el rendimiento en tareas específicas utilizando datos dedicados. Sin embargo, los desarrolladores han expresado tanto críticas como entusiasmo por el acontecimiento.

OpenAI aclaró que, mediante el proceso de ajuste, los desarrolladores pueden personalizar las capacidades de GPT-3.5 Turbo en función de sus necesidades. Por ejemplo, un desarrollador podría ajustar GPT-3.5 Turbo para crear código personalizado o resumir documentos jurídicos en alemán de forma competente, utilizando un conjunto de datos procedentes de las operaciones comerciales del cliente.

El reciente anuncio ha suscitado una respuesta cautelosa por parte de los desarrolladores. Un comentario atribuido a un usuario de X llamado Joshua Segeren afirma que, aunque la introducción del ajuste fino a GPT-3.5 Turbo es intrigante, no es una solución completa. Según sus observaciones, mejorar los prompts, emplear bases de datos vectoriales para búsquedas semánticas o pasar a GPT-4 suele dar mejores resultados que el entrenamiento personalizado. Además, hay factores a tener en cuenta, como los costes de instalación y mantenimiento.

Los modelos GPT-3.5 Turbo fundacionales tienen un coste inicial de USD 0.0004 por cada 1,000 tokens (las unidades fundamentales procesadas por los grandes modelos lingüísticos). Sin embargo, las versiones refinadas mediante ajuste fino conllevan un coste superior de USD 0.012 dólares por cada 1,000 tokens de entrada y USD 0.016 por cada 1,000 tokens de output. Además, se aplica una tasa de formación inicial vinculada al volumen de datos.

Esta característica es importante para las empresas y desarrolladores que deseen crear interacciones personalizadas con los usuarios. Por ejemplo, las organizaciones pueden ajustar el modelo para armonizarlo con su marca, garantizando que el chatbot muestre una personalidad y un tono coherentes que complementen la identidad de la marca.

 Para garantizar un uso responsable de la función de ajuste, los datos de entrenamiento utilizados para el ajuste fino se someten a revisión a través de su API de moderación y del sistema de moderación de GPT-4. Esto se hace para mantener los atributos de seguridad del modelo por defecto durante todo el procedimiento de ajuste fino.

El sistema se esfuerza por detectar y eliminar los datos de entrenamiento potencialmente inseguros, garantizando así que el resultado refinado se ajuste a las normas de seguridad establecidas por OpenAI. También significa que OpenAI tiene un cierto nivel de control sobre los datos que los usuarios introducen en sus modelos.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Sigue leyendo: