El 21 de julio, la Casa Blanca anunció que destacadas empresas de inteligencia artificial (IA), como OpenAI, Google y Microsoft, se han comprometido a desarrollar tecnología de IA que sea segura y transparente. La Casa Blanca también reconoció a otras empresas como Amazon, Anthropic, Meta e Inflection por comprometerse con la seguridad de la IA.

La Administración Biden hizo hincapié en la responsabilidad de las empresas de garantizar la seguridad de sus productos y aprovechar el potencial de la IA, promoviendo al mismo tiempo normas estrictas en su desarrollo.

Kent Walker, presidente de asuntos globales de Google, reconoció que alcanzar el éxito en IA requiere colaboración. Expresó su satisfacción por unirse a otras empresas líderes en IA para apoyar estos compromisos y aseguró que Google seguirá colaborando con otras empresas compartiendo información y mejores prácticas.

Captura de pantalla del comunicado. Fuente: La Casa Blanca

Entre los compromisos se encuentran las pruebas de seguridad previas al lanzamiento de los sistemas de IA, compartir las mejores prácticas en materia de seguridad de la IA, invertir en ciberseguridad y salvaguardas contra amenazas internas, y permitir la notificación por parte de terceros de las vulnerabilidades de los sistemas de IA. Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, declaró que los responsables políticos de todo el mundo están estudiando nuevas normativas para los sistemas avanzados de IA.

En junio, unos legisladores bipartidistas de Estados Unidos presentaron un proyecto de ley para crear una comisión de IA que aborde los problemas de este sector en rápido crecimiento. La Administración Biden afirma que está colaborando con socios mundiales como Alemania, Australia, Canadá, Filipinas, Francia, India, Israel, Italia, Japón, Nigeria y Reino Unido para establecer un marco internacional para la IA.

Según el presidente de Microsoft, Brad Smith, la empresa respalda los compromisos voluntarios de la Casa Blanca y se compromete de forma independiente a adoptar prácticas adicionales que se ajusten a los objetivos. Con ello, Microsoft pretende ampliar sus prácticas seguras y responsables en materia de IA y colaborar con otros líderes del sector.

Líderes mundiales, incluido el secretario general de las Naciones Unidas, han expresado su preocupación por el posible uso indebido de la IA generativa y la tecnología deepfake en zonas de conflicto. En mayo, la vicepresidenta de Estados Unidos, Kamala Harris, se reunió con líderes de la IA para sentar las bases de un desarrollo ético de la IA, y anunció una inversión de 140 millones de dólares en investigación y desarrollo de la IA por parte de la Fundación Nacional de la Ciencia.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo: