El 21 de julio, la Casa Blanca anunció que destacadas empresas de inteligencia artificial (IA), como OpenAI, Google y Microsoft, se han comprometido a desarrollar tecnología de IA que sea segura y transparente. La Casa Blanca también reconoció a otras empresas como Amazon, Anthropic, Meta e Inflection por comprometerse con la seguridad de la IA.
La Administración Biden hizo hincapié en la responsabilidad de las empresas de garantizar la seguridad de sus productos y aprovechar el potencial de la IA, promoviendo al mismo tiempo normas estrictas en su desarrollo.
Kent Walker, presidente de asuntos globales de Google, reconoció que alcanzar el éxito en IA requiere colaboración. Expresó su satisfacción por unirse a otras empresas líderes en IA para apoyar estos compromisos y aseguró que Google seguirá colaborando con otras empresas compartiendo información y mejores prácticas.
Entre los compromisos se encuentran las pruebas de seguridad previas al lanzamiento de los sistemas de IA, compartir las mejores prácticas en materia de seguridad de la IA, invertir en ciberseguridad y salvaguardas contra amenazas internas, y permitir la notificación por parte de terceros de las vulnerabilidades de los sistemas de IA. Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, declaró que los responsables políticos de todo el mundo están estudiando nuevas normativas para los sistemas avanzados de IA.
En junio, unos legisladores bipartidistas de Estados Unidos presentaron un proyecto de ley para crear una comisión de IA que aborde los problemas de este sector en rápido crecimiento. La Administración Biden afirma que está colaborando con socios mundiales como Alemania, Australia, Canadá, Filipinas, Francia, India, Israel, Italia, Japón, Nigeria y Reino Unido para establecer un marco internacional para la IA.
Según el presidente de Microsoft, Brad Smith, la empresa respalda los compromisos voluntarios de la Casa Blanca y se compromete de forma independiente a adoptar prácticas adicionales que se ajusten a los objetivos. Con ello, Microsoft pretende ampliar sus prácticas seguras y responsables en materia de IA y colaborar con otros líderes del sector.
Líderes mundiales, incluido el secretario general de las Naciones Unidas, han expresado su preocupación por el posible uso indebido de la IA generativa y la tecnología deepfake en zonas de conflicto. En mayo, la vicepresidenta de Estados Unidos, Kamala Harris, se reunió con líderes de la IA para sentar las bases de un desarrollo ético de la IA, y anunció una inversión de 140 millones de dólares en investigación y desarrollo de la IA por parte de la Fundación Nacional de la Ciencia.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.- Regular la inteligencia artificial: ¿Cómo evitar repetir los problemas de las redes sociales?
- Los deepfakes de IA son cada vez mejores a la hora de falsificar la verificación KYC, dice un ejecutivo de Binance
- Alethea AI presenta su proyecto para combatir los problemas generados por los "deepfakes"
- La Corte Federal de los EE.UU. niega la petición de prisión preventiva contra Ripple
- Credit Suisse completa transacciones conjuntas de fondos mutuos utilizando blockchain
- Bogotá: Realizarán un encuentro sobre Blockchain en el Sector Público
- La aplicación nigeriana de pagos sociales Bundle cierra sus servicios de exchange de criptomonedas