El sector de los grandes modelos lingüísticos sigue creciendo. StabilityAI, fabricante de la popular herramienta de generación de imágenes Stable Diffusion, ha lanzado un paquete de herramientas de modelos lingüísticos de código abierto.
Bautizadas como "StableLM", las versiones alfa del paquete de acceso público contienen actualmente modelos con 3,000 y 7,000 millones de parámetros, con modelos de 15,000, 30,000 y 65,000 millones de parámetros "en desarrollo" y un modelo de 175,000 millones previsto para el futuro.
Announcing StableLMâ—
— Stability AI (@StabilityAI) April 19, 2023
We’re releasing the first of our large language models, starting with 3B and 7B param models, with 15-65B to follow. Our LLMs are released under CC BY-SA license.
We’re also releasing RLHF-tuned models for research use. Read more→ https://t.co/R66Wa4gbnW pic.twitter.com/gvDDJMFBYJ
En comparación, GPT-4 tiene un recuento de parámetros estimado en un billón, seis veces superior al de su predecesor GPT-3.
Sin embargo, el recuento de parámetros puede no ser una medida uniforme de la eficacia de LLM, como señaló StabilityAI en la entrada de blog en la que anunciaba el lanzamiento de StableLM:
"StableLM está entrenada en un nuevo conjunto de datos experimental construido sobre The Pile, pero tres veces más grande con 1.5 billones de tokens de contenido [...] La riqueza de este conjunto de datos proporciona a StableLM un rendimiento sorprendentemente alto en tareas conversacionales y de programación, a pesar de su pequeño tamaño de 3 a 7 billones de parámetros".
Por el momento no está claro hasta qué punto son robustos los modelos de StableLM. El equipo de StabilityAI señaló en la página de Github de la organización que pronto se ofrecería más información sobre las capacidades de LM, incluidas las especificaciones del modelo y los ajustes de entrenamiento.
Siempre que los modelos funcionen lo suficientemente bien en las pruebas, la llegada de una potente alternativa de código abierto a ChatGPT de OpenAI podría resultar interesante para el mundo del comercio de criptomonedas.
Como ya te contamos anteriormente, la gente está construyendo bots de comercio avanzados usando la API GPT y nuevas variantes que incorporan el acceso a herramientas de terceros, como BabyAGI y AutoGPT.
La incorporación de modelos de código abierto a la mezcla podría ser una bendición para traders expertos en tecnología que no quieran pagar las primas de acceso de OpenAI.
Los interesados pueden probar una interfaz en tiempo real para el modelo StableLM de 7B parámetros alojada en HuggingFace. Sin embargo, en el momento de la publicación de este artículo, nuestros intentos de hacerlo encontraron el sitio web desbordado o al límite de su capacidad.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo:
- La UE crea un centro de investigación para analizar los algoritmos de inteligencia artificial de grandes empresas tecnológicas
- La Agencia Española de Protección de Datos investiga a OpenAI, propietaria de ChatGPT
- Amazon lanza "Bedrock"; un nuevo servicio de inteligencia artificial para competir con Google y OpenAI
- El gigante tecnológico Alibaba lanzará la IA competidora de ChatGPT
- 10 maneras en que los desarrolladores de blockchain pueden utilizar ChatGPT
- El CTO de Ripple desmiente la teoría conspirativa de XRP de la inteligencia artificial ChatGPT
- OpenAI tiene hasta el 30 de abril para cumplir la legislación de la UE, "casi imposible" según expertos