El Instituto Nacional de Normas y Tecnología de los Estados Unidos (NIST) dentro del Departamento de Comercio de los EE. UU. ha publicado una solicitud de información para respaldar sus funciones establecidas en la última orden ejecutiva del presidente sobre el desarrollo y uso seguro y responsable de la inteligencia artificial (IA).
La organización anunció que invita a la participación pública hasta el 2 de febrero de 2024, para recopilar comentarios esenciales para realizar pruebas que garanticen la seguridad de los sistemas de IA.
La secretaria de Comercio de los EE. UU., Gina Raimondo, declaró que la iniciativa está inspirada en la orden ejecutiva de octubre del presidente Joe Biden, que instruye al NIST a crear pautas, incluida la evaluación y las pruebas de seguridad, fomentar estándares basados en el consenso y establecer entornos de prueba para la evaluación de sistemas de IA. Este marco tiene como objetivo respaldar a la comunidad de IA en el desarrollo seguro, confiable y responsable de la IA.
La solicitud de información del NIST busca aportes de empresas de IA y del público en general sobre la gestión de riesgos de la IA generativa y la reducción de los riesgos de la desinformación generada por la IA.
La IA generativa, capaz de generar texto, fotos y videos según indicaciones abiertas, ha generado entusiasmo y preocupaciones. Existen preocupaciones sobre la pérdida de empleo, interrupciones electorales y la posibilidad de que la tecnología supere las capacidades humanas con consecuencias posiblemente catastróficas.
La solicitud del NIST también busca detalles sobre la determinación de las áreas más efectivas para realizar "red teaming" en la evaluación de riesgos de la IA y el establecimiento de mejores prácticas. El "red teaming" es una práctica de simulaciones de la Guerra Fría en la que un grupo de individuos, conocido como el equipo rojo, simula posibles escenarios o ataques adversarios para evaluar las vulnerabilidades y debilidades de un sistema, proceso u organización. Este método se ha utilizado durante mucho tiempo en ciberseguridad para descubrir nuevos riesgos.
En agosto, se llevó a cabo el primer evento de evaluación pública de red teaming en EE. UU. en una conferencia de ciberseguridad coordinada por AI Village, SeedAI y Humane Intelligence.
En noviembre, el NIST anunció la formación del nuevo consorcio de IA, junto con un aviso oficial expresando la solicitud de candidatos con las credenciales relevantes. El consorcio tiene como objetivo crear e implementar políticas y medidas específicas para garantizar que los legisladores estadounidenses adopten un enfoque centrado en el ser humano para la seguridad y gobernanza de la IA.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión