Los gigantes tecnológicos Google, Microsoft, OpenAI, fabricante de ChatGPT, y la empresa de IA Anthropic anunciaron el 26 de julio la creación de un nuevo grupo de vigilancia del sector para ayudar a regular el desarrollo de la IA. 

En una declaración conjunta publicada en el blog de Google, las empresas dieron a conocer su nuevo Frontier Model Forum, cuyo objetivo es supervisar el desarrollo "seguro y responsable" de los modelos de IA de vanguardia.

En él se señalaba que, aunque los gobiernos de todo el mundo ya han empezado a esforzarse por regular el desarrollo y el despliegue de la IA, "es necesario seguir trabajando en las normas de seguridad y las evaluaciones".

"El Foro será un vehículo para debates y acciones interinstitucionales sobre la seguridad y la responsabilidad de la IA".

Los principales objetivos actuales de la iniciativa son avanzar en la investigación sobre la seguridad de la IA, identificar las mejores prácticas para el desarrollo responsable y el despliegue de modelos vanguardistas, la colaboración con gobiernos y líderes civiles y el apoyo a los esfuerzos para desarrollar aplicaciones. 

La pertenencia al Foro está abierta a las organizaciones que se ajusten a los criterios predefinidos, que incluyen el desarrollo y despliegue de modelos vanguardistas. 

"Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano", declaró Brad Smith, vicepresidente y presidente de Microsoft.

"Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad."

Según el anuncio, el Frontier Model Forum creará un consejo asesor en los próximos meses para dirigir las prioridades y la estrategia del grupo. También se dice que las empresas fundadoras tienen previsto consultar a "la sociedad civil y los gobiernos" sobre el diseño del Foro.

Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, afirmó que los sistemas avanzados de Inteligencia Artificial suponen un "profundo beneficio" para la sociedad, pero que para alcanzar este potencial se necesita supervisión y gobernanza.

"Es vital que las empresas de IA -especialmente las que trabajan en los modelos más potentes- se alineen en un terreno común y avancen en prácticas de seguridad reflexivas y adaptables para garantizar que las potentes herramientas de IA tengan el mayor beneficio posible."

Ya el 21 de julio, destacadas empresas de IA, como OpenAI, Google, Microsoft y Anthropic, se reunieron con funcionarios de la Casa Blanca y se comprometieron a un desarrollo seguro y transparente de la IA.

En junio, los legisladores estadounidenses presentaron un proyecto de ley para crear su propia comisión de IA con el fin de abordar las preocupaciones del sector.

Hazte con este artículo como NFT para preservar este momento de la historia y mostrar tu apoyo al periodismo independiente en el criptoespacio.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión