OpenAI ha introducido la opción de ajuste fino para GPT-3.5 Turbo, que permite a los desarrolladores de inteligencia artificial (IA) mejorar el rendimiento en tareas específicas utilizando datos dedicados. Sin embargo, los desarrolladores han expresado tanto críticas como entusiasmo por el acontecimiento.
OpenAI aclaró que, mediante el proceso de ajuste, los desarrolladores pueden personalizar las capacidades de GPT-3.5 Turbo en función de sus necesidades. Por ejemplo, un desarrollador podría ajustar GPT-3.5 Turbo para crear código personalizado o resumir documentos jurídicos en alemán de forma competente, utilizando un conjunto de datos procedentes de las operaciones comerciales del cliente.
You can now fine-tune GPT-3.5-Turbo!
— Mark Tenenholtz (@marktenenholtz) August 22, 2023
Seems like inference is significantly more expensive (8x more) though.
My guess is that anyone with the ability to deploy their own models won’t be swayed by this. https://t.co/p2LbSq4D2H
El reciente anuncio ha suscitado una respuesta cautelosa por parte de los desarrolladores. Un comentario atribuido a un usuario de X llamado Joshua Segeren afirma que, aunque la introducción del ajuste fino a GPT-3.5 Turbo es intrigante, no es una solución completa. Según sus observaciones, mejorar los prompts, emplear bases de datos vectoriales para búsquedas semánticas o pasar a GPT-4 suele dar mejores resultados que el entrenamiento personalizado. Además, hay factores a tener en cuenta, como los costes de instalación y mantenimiento.
Los modelos GPT-3.5 Turbo fundacionales tienen un coste inicial de USD 0.0004 por cada 1,000 tokens (las unidades fundamentales procesadas por los grandes modelos lingüísticos). Sin embargo, las versiones refinadas mediante ajuste fino conllevan un coste superior de USD 0.012 dólares por cada 1,000 tokens de entrada y USD 0.016 por cada 1,000 tokens de output. Además, se aplica una tasa de formación inicial vinculada al volumen de datos.
Esta característica es importante para las empresas y desarrolladores que deseen crear interacciones personalizadas con los usuarios. Por ejemplo, las organizaciones pueden ajustar el modelo para armonizarlo con su marca, garantizando que el chatbot muestre una personalidad y un tono coherentes que complementen la identidad de la marca.
Para garantizar un uso responsable de la función de ajuste, los datos de entrenamiento utilizados para el ajuste fino se someten a revisión a través de su API de moderación y del sistema de moderación de GPT-4. Esto se hace para mantener los atributos de seguridad del modelo por defecto durante todo el procedimiento de ajuste fino.
El sistema se esfuerza por detectar y eliminar los datos de entrenamiento potencialmente inseguros, garantizando así que el resultado refinado se ajuste a las normas de seguridad establecidas por OpenAI. También significa que OpenAI tiene un cierto nivel de control sobre los datos que los usuarios introducen en sus modelos.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo:
- Experto en blockchain e IA de IBM afirma que ChatGPT plantea varios "riesgos clave" para su uso empresarial
- YouTube publica "principios" para trabajar con la industria musical en lo que respecta a inteligencia artificial
- Iniciativa conjunta de Globant, LaLiga Tech y Microsoft busca transformar la experiencia deportiva con IA generativa
- Zoom actualiza sus términos tras la polémica y no entrenará modelos de IA sin el consentimiento de los usuarios
- OpenAI anuncia el lanzamiento de la aplicación oficial de ChatGPT para Android
- Meta lanzará herramientas comerciales de IA para competir con Google y OpenAI
- Esto es lo que revela la última corrección del precio de Bitcoin