La Casa Blanca ha presentado su primera política integral para gestionar los riesgos asociados con la inteligencia artificial (IA), ordenando a las agencias intensificar la presentación de informes sobre la utilización de la IA y abordar los riesgos potenciales que plantea la tecnología.
Según un memorando de la Casa Blanca del 28 de marzo, las agencias federales deben, en un plazo de 60 días, nombrar a un oficial jefe de IA, divulgar el uso de la IA e integrar medidas de protección.
Esta directiva se alinea con la orden ejecutiva sobre IA del presidente de los Estados Unidos, Joe Biden, de octubre de 2023. En una teleconferencia con periodistas, la vicepresidenta Kamala Harris dijo:
“Creo que todos los líderes de los gobiernos, la sociedad civil y el sector privado tienen el deber moral, ético y social de asegurarse de que la inteligencia artificial se adopte y avance de manera que proteja al público de posibles daños, al tiempo que garantice que todos puedan disfrutar de sus beneficios plenos.”
La última regulación, una iniciativa de la Oficina de Administración y Presupuesto (OMB), tiene como objetivo guiar a todo el gobierno federal en la utilización segura y eficiente de la inteligencia artificial en medio de su rápida expansión.
Mientras el gobierno busca aprovechar el potencial de la IA, la administración Biden sigue siendo cautelosa ante los riesgos en evolución.
Según se indica en el memorando, ciertos casos de uso de la IA, especialmente los dentro del Departamento de Defensa, no se requerirán divulgar en el inventario, ya que su compartición contradiría las leyes y políticas gubernamentales existentes.
Para el 1 de diciembre, las agencias deben establecer salvaguardias específicas para las aplicaciones de IA que podrían afectar los derechos o la seguridad de los estadounidenses. Por ejemplo, los viajeros deberían tener la opción de rechazar la tecnología de reconocimiento facial utilizada por la Administración de Seguridad del Transporte en los aeropuertos.
Las agencias que no puedan implementar estas salvaguardias deben dejar de utilizar el sistema de IA a menos que el liderazgo de la agencia pueda justificar cómo hacerlo aumentaría los riesgos para la seguridad o los derechos o obstaculizaría operaciones críticas de la agencia.
Las recientes directivas de IA de la OMB se alinean con el proyecto de ley de derechos de IA del gobierno de Biden desde octubre de 2022 y el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología desde enero de 2023. Estas iniciativas enfatizan la importancia de crear sistemas de IA confiables.
La OMB también busca opiniones sobre cómo hacer cumplir el cumplimiento y las mejores prácticas entre los contratistas del gobierno que suministran tecnología. Pretende garantizar la alineación entre los contratos de IA de las agencias y su política más adelante en 2024.
La administración también dio a conocer su intención de reclutar a 100 profesionales de IA para el gobierno para el verano, como se detalla en la "oleada de talento" de la orden ejecutiva de octubre.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.