Groq, el último modelo de inteligencia artificial (IA) que ha aparecido en escena, está arrasando en las redes sociales gracias a su velocidad de respuesta y a una nueva tecnología que podría prescindir de las GPU.
Groq se convirtió en una sensación de la noche a la mañana después de que sus pruebas comparativas públicas se hicieran virales en la plataforma de redes sociales X, revelando que su velocidad de cálculo y respuesta superaba a la del popular chatbot de IA ChatGPT.
The first public demo using Groq: a lightning-fast AI Answers Engine.
— Matt Shumer (@mattshumer_) February 19, 2024
It writes factual, cited answers with hundreds of words in less than a second.
More than 3/4 of the time is spent searching, not generating!
The LLM runs in a fraction of a second.https://t.co/dVUPyh3XGV https://t.co/mNV78XkoVB pic.twitter.com/QaDXixgSzp
La primera demostración pública de Groq: un motor de respuestas de inteligencia artificial ultrarrápido.
Escribe respuestas objetivas y citadas con cientos de palabras en menos de un segundo.
Más de 3/4 del tiempo se dedica a buscar, ¡no a generar!
El LLM se ejecuta en una fracción de segundo.
Esto se debe a que el equipo de Groq ha desarrollado su propio circuito integrado de aplicación específica (ASIC) para grandes modelos de lenguaje (LLM), lo que le permite generar unos 500 tokens por segundo. En comparación, ChatGPT 3.5, la versión pública del modelo, puede generar unos 40 tokens por segundo.
Groq Inc., el desarrollador de este modelo, afirma haber creado la primera Unidad de Procesamiento de Lenguaje (LPU) con la que ejecuta su modelo, en lugar de las escasas y costosas unidades de procesamiento gráfico (GPU) que suelen utilizarse para ejecutar modelos de IA.
Wow, that's a lot of tweets tonight! FAQs responses.
— Groq Inc (@GroqInc) February 19, 2024
• We're faster because we designed our chip & systems
• It's an LPU, Language Processing Unit (not a GPU)
• We use open-source models, but we don't train them
• We are increasing access capacity weekly, stay tuned pic.twitter.com/nFlFXETKUP
Vaya, ¡han sido muchos tuits esta noche! Respuestas a las preguntas más frecuentes.
• Somos más rápidos porque hemos diseñado nuestro chip y sistemas
• Es una LPU, Unidad de Procesamiento de Lenguaje (no una GPU)
• Utilizamos modelos de código abierto, pero no los entrenamos.
• Estamos aumentando la capacidad de acceso semanalmente, permanezca atento
Sin embargo, la empresa detrás de Groq no es nueva. Se fundó en 2016, también cuando registró el nombre Groq. El pasado noviembre, cuando el modelo de inteligencia artificial de Elon Musk, también llamado Grok, pero escrito con k, estaba ganando adeptos, los desarrolladores del Groq original publicaron un blog en el que criticaban a Musk por la elección del nombre:
"Ya vemos por qué te gustaría adoptar nuestro nombre. Te gustan las cosas rápidas (cohetes, hyperloops, nombres de empresas de una sola letra) y nuestro producto, el motor de inferencia Groq LPU, es la forma más rápida de ejecutar grandes modelos de lenguaje (LLM) y otras aplicaciones de IA generativa. Sin embargo, debemos pedirle que por favor elijas otro nombre, y rápido".
Desde que Groq se hizo viral en las redes sociales, ni Musk ni la página de Grok en X han hecho comentario alguno sobre la similitud entre el nombre de ambos modelos.
No obstante, muchos usuarios de la plataforma han empezado a hacer comparaciones entre el modelo LPU y otros modelos populares basados en GPU.
Un usuario que trabaja en el desarrollo de IA calificó Groq de "cambio de juego" para productos que requieren baja latencia, que se refiere al tiempo que se tarda en procesar una petición y obtener una respuesta.
side by side Groq vs. GPT-3.5, completely different user experience, a game changer for products that require low latency pic.twitter.com/sADBrMKXqm
— Dina Yerlan (@dina_yrl) February 19, 2024
Otro usuario publicó que las LPU de Groq podrían ofrecer una "mejora masiva" a las GPU a la hora de satisfacer las necesidades de las aplicaciones de IA en el futuro y afirmó que también podrían resultar una buena alternativa al "hardware de alto rendimiento" de los demandados chips A100 y H100 producidos por Nvidia.
Esto llega en un momento de la industria en el que los principales desarrolladores de IA buscan desarrollar chips propios, para no depender únicamente de los modelos de Nvidia.
Al parecer, OpenAI está buscando billones de dólares de financiación de gobiernos e inversores de todo el mundo para desarrollar su propio chip y superar así los problemas de escalabilidad de sus productos.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión