Un grupo de reguladores advirtió que la rápida adopción de la inteligencia artificial (IA) podría plantear nuevos riesgos para el sistema financiero de Estados Unidos si la tecnología no se supervisa adecuadamente.
El Consejo de Supervisión de la Estabilidad Financiera (FSOC), formado por los principales reguladores financieros y presidido por la secretaria del Tesoro estadounidense, Janet Yellen, señaló por primera vez los riesgos que plantea la IA en su informe anual de estabilidad financiera publicado el 14 de diciembre.
El FSOC reconoció el potencial de la IA para impulsar la innovación y la eficiencia en las instituciones financieras, pero subrayó la necesidad de que empresas y reguladores se mantengan vigilantes debido a los rápidos avances tecnológicos.
En su informe anual, la organización subrayó que la IA conlleva riesgos específicos, como la ciberseguridad y los riesgos de modelo. Sugiere que las empresas y los reguladores mejoren sus conocimientos y capacidades para supervisar la innovación y el uso de la IA e identificar los riesgos emergentes.
Según el informe, las herramientas específicas de IA son muy técnicas y complejas, lo que plantea retos a las instituciones a la hora de explicarlas o supervisarlas eficazmente. El informe advierte que las empresas y los reguladores pueden pasar por alto resultados sesgados o inexactos sin una comprensión exhaustiva.
El informe también destaca que las herramientas de IA dependen cada vez más de amplios conjuntos de datos externos y de terceros proveedores, lo que plantea problemas de privacidad y ciberseguridad.
Algunos reguladores, entre ellos la Comisión del Mercado de Valores de Estados Unidos, cuyo presidente forma parte del FSOC, han examinado el uso de la IA por parte de las empresas. La Casa Blanca también ha emitido una orden ejecutiva para abordar y reducir los riesgos de la IA.
El Papa Francisco, en una carta del 8 de diciembre, expresó su preocupación por las amenazas potenciales de la IA para la humanidad. Aboga por un tratado internacional que regule éticamente el desarrollo de la IA, advirtiendo del riesgo de una "dictadura tecnológica" sin los controles adecuados.
Personalidades del mundo de la tecnología como Elon Musk y Steve Wozniak también han expresado su preocupación por el rápido avance de la IA. Más de 2,600 líderes tecnológicos e investigadores, entre ellos Musk y Wozniak, firmaron una petición en marzo de 2023, pidiendo que se "pausara" el desarrollo de la IA. Hicieron hincapié en los posibles "profundos riesgos para la sociedad y la humanidad" que plantean los avances de la IA por encima de la GPT-4.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión

