La Fuerza Espacial de los Estados Unidos ha prohibido temporalmente a su personal el uso de herramientas generativas de inteligencia artificial mientras estén de servicio para proteger los datos del gobierno, según informes.

Los miembros de la Fuerza Espacial fueron informados de que "no están autorizados" a utilizar herramientas generativas de IA basadas en web, para crear texto, imágenes y otros medios, a menos que estén específicamente aprobados, según un informe del 12 de octubre de Bloomberg, citando un memorando dirigido a la Fuerza Guardian (miembros de la Fuerza Espacial) el 29 de septiembre.

"La IA generativa "sin duda revolucionará nuestra fuerza laboral y mejorará la capacidad de Guardian para operar a alta velocidad," dijo supuestamente Lisa Costa, subdirectora de operaciones espaciales de la Fuerza Espacial para tecnología e innovación, en el memorando.

Sin embargo, Costa citó preocupaciones sobre las normas actuales de ciberseguridad y manejo de datos, explicando que la adopción de la IA y los modelos de lenguaje grandes (LLM) necesita ser más "responsable."

La Fuerza Espacial de los Estados Unidos es una rama de servicio espacial de las Fuerzas Armadas de los Estados Unidos encargada de proteger los intereses de los Estados Unidos y sus aliados en el espacio.

La decisión de la Fuerza Espacial ya ha afectado al menos a 500 individuos que utilizan una plataforma de IA generativa llamada "Ask Sage", según Bloomberg, citando comentarios de Nick Chaillan, ex director de software principal de la Fuerza Aérea de los Estados Unidos y la Fuerza Espacial.

Chaillan supuestamente criticó la decisión de la Fuerza Espacial. "Claramente, esto nos va a retrasar años respecto a China", escribió en un correo electrónico de septiembre en el que se quejaba a Costa y otros altos funcionarios de defensa.

"Es una decisión muy miope", agregó Chaillan.

Chaillan señaló que la Agencia Central de Inteligencia de los Estados Unidos y sus departamentos han desarrollado sus propias herramientas de IA generativa que cumplen con los estándares de seguridad de datos.

La preocupación de que los modelos de lenguaje grandes (LLM) puedan filtrar información privada al público ha sido un temor para algunos gobiernos en los últimos meses.

Italia bloqueó temporalmente el chatbot de IA ChatGPT en marzo, citando presuntas violaciones de las normas de privacidad de datos, antes de revertir su decisión aproximadamente un mes después.

Gigantes tecnológicos como Apple, Amazon y Samsung se encuentran entre las empresas que también han prohibido o restringido a los empleados el uso de herramientas de IA similares a ChatGPT en el trabajo.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.