Estados Unidos y el Reino Unido han rechazado firmar la declaración final de una cumbre sobre inteligencia artificial organizada por Francia, que pedía un desarrollo inclusivo, ético y seguro de la tecnología.
La vicepresidenta de EE.UU. criticó fuertemente las regulaciones europeas sobre IA, calificándolas de masivas y potencialmente sofocantes para la innovación, mientras rechazaba la moderación de contenido como “censura autoritaria”.
Por su parte, el gobierno británico indicó que tenía preocupaciones sobre ciertos términos del acuerdo, señalando que el enfoque difería significativamente de su propia cumbre de seguridad sobre IA celebrada en 2023, según Reuters.
Más de 100 países, incluidos líderes gubernamentales, organizaciones internacionales, académicos e investigadores, se reunieron en París los días 10 y 11 de febrero en la Cumbre de Acción sobre IA.
Las principales prioridades establecidas en la cumbre incluyeron mejorar el acceso a la IA, garantizar que sea ética, segura y confiable, fomentar la innovación mientras se evita la concentración del mercado, utilizar la IA para generar impactos positivos en los mercados laborales, hacer que la IA sea ambientalmente sostenible y fortalecer la cooperación internacional en la gobernanza de la IA.
Sesenta países firmaron la declaración, que incluyó el llamado a lanzar una plataforma e incubadora de IA de interés público y la creación de una red de “observatorios” para estudiar su impacto en el empleo y los lugares de trabajo.
Sin embargo, EE.UU. y el Reino Unido no estuvieron entre los firmantes.
Restringir el desarrollo de la IA ahora “significaría paralizar una de las tecnologías más prometedoras que hemos visto en generaciones”, dijo el vicepresidente de EE.UU. JD Vance en la cumbre.
“Creemos que una regulación excesiva del sector de la IA podría matar a una industria transformadora justo cuando está despegando".
“Sentimos con mucha firmeza que la IA debe permanecer libre de sesgo ideológico y que la IA estadounidense no será cooptada como una herramienta de censura autoritaria”, agregó.
JD Vance habla en la AI Action Summit. Fuente: AP/YouTube
Expertos, incluido Russell Wald del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford, interpretaron esto como un “cambio inequívoco” en la política de EE.UU. hacia la innovación acelerada en lugar de las preocupaciones de seguridad.
“La seguridad no va a ser el enfoque principal, sino que será la innovación acelerada y la creencia de que la tecnología es una oportunidad, y seguridad equivale a regulación, regulación equivale a perder esa oportunidad”, dijo a Reuters en un informe del 11 de febrero.
La Ley de IA de la Unión Europea entró en vigor en agosto, introduciendo el primer marco regulatorio integral del mundo para gobernar la tecnología.
En septiembre, la UE, EE.UU., el Reino Unido y varios otros países firmaron un tratado histórico sobre seguridad de la IA llamado la Convención Marco sobre la IA, que aborda los derechos humanos y los valores democráticos como clave para regular los modelos de IA del sector público y privado.
Sin embargo, poco después de asumir el cargo en enero, el presidente Donald Trump eliminó el decreto ejecutivo de la administración Biden que establecía un marco para la IA, el cual incluía mecanismos de reporte para las empresas.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.