En un reciente avance destinado a mejorar la seguridad y transparencia de la inteligencia artificial, Google ha presentado tres nuevos modelos generativos de IA. Los modelos, que forman parte de la serie Gemma 2 de Google, están diseñados para ser más seguros, eficaces y transparentes que muchos de los modelos existentes.
En una entrada del blog de la empresa se afirma que los nuevos modelos -Gemma 2 2B, ShieldGemma y Gemma Scope- se basan en los cimientos establecidos por la serie Gemma 2 original, que se lanzó en mayo.
Una nueva era de IA con Gemma 2
A diferencia de los modelos Gemini de Google, la serie Gemma es de código abierto. Este enfoque refleja la estrategia de Meta con sus modelos Llama, cuyo objetivo es proporcionar herramientas de IA accesibles y sólidas para un público más amplio.
Gemma 2 2B es un modelo ligero para generar y analizar texto. Es lo suficientemente versátil como para funcionar en diversos equipos, incluidos ordenadores portátiles y dispositivos de última generación. Su capacidad para funcionar en distintos entornos lo convierte en una opción atractiva para desarrolladores e investigadores que buscan soluciones de IA flexibles, según Google.
Por su parte, Google dijo que el modelo ShieldGemma se centra en mejorar la seguridad actuando como una colección de clasificadores de seguridad. ShieldGemma está diseñado para detectar y filtrar contenidos tóxicos, como incitación al odio, acoso y material explícito. Funciona sobre Gemma 2, proporcionando una capa de moderación de contenidos.

Según Google, ShieldGemma puede filtrar las indicaciones a un modelo generativo y el contenido generado, lo que lo convierte en una valiosa herramienta para mantener la integridad y seguridad del contenido generado por IA.
El modelo Gemma Scope permite a los desarrolladores profundizar en el funcionamiento interno de los modelos Gemma 2. Según Google, Gemma Scope consiste en redes neuronales especializadas que ayudan a desentrañar la información densa y compleja procesada por Gemma 2.
Al ampliar esta información en una forma más interpretable, los investigadores pueden entender mejor cómo Gemma 2 identifica patrones, procesa datos y hace predicciones. Esta transparencia es vital para mejorar la fiabilidad de la IA.
Seguridad y respaldo gubernamental
El lanzamiento de estos modelos por parte de Google también se produce tras la advertencia de Shane Jones, ingeniero de Microsoft, que expresó su preocupación por el hecho de que las herramientas de IA de Google crearan imágenes problemáticas e ignoraran los derechos de autor.
El lanzamiento de estos nuevos modelos coincide con un informe preliminar del Departamento de Comercio de EE.UU. que respalda los modelos abiertos de IA. El informe destaca las ventajas de hacer la IA generativa más accesible a las pequeñas empresas, los investigadores, las organizaciones sin ánimo de lucro y los desarrolladores individuales.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión