El auge del desarrollo de la inteligencia artificial (IA) generativa ha llevado a los gobiernos de todo el mundo a apresurarse a regular esta tecnología emergente. La tendencia coincide con los esfuerzos de la Unión Europea por implantar el primer conjunto de normas exhaustivas del mundo para la IA.
La Ley de IA de la UE está reconocida como un conjunto innovador de normativas. Tras varios retrasos, los informes indican que el 7 de diciembre los negociadores acordaron un conjunto de controles para herramientas de IA generativa como ChatGPT de OpenAI y Bard de Google.
La preocupación por el posible uso indebido de la tecnología también ha impulsado a Estados Unidos, Reino Unido, China y otros países del G7 a acelerar sus trabajos para regular la IA.
En junio, el gobierno australiano anunció que haría una consulta de ocho semanas para recabar opiniones sobre la conveniencia de prohibir las herramientas de IA "de alto riesgo". La consulta se amplió hasta el 26 de julio. El gobierno buscaba opiniones sobre estrategias para respaldar el "uso seguro y responsable de la IA", explorando opciones como medidas voluntarias como marcos éticos, la necesidad de normativas específicas o una combinación de ambos enfoques.
Por su parte, China introdujo medidas temporales a partir del 15 de agosto para supervisar la industria de la IA generativa, exigiendo que los proveedores de servicios se sometan a evaluaciones de seguridad y obtengan autorización antes de introducir productos de IA en el mercado masivo. Tras obtener la aprobación del gobierno, cuatro empresas tecnológicas chinas, entre ellas Baidu y SenseTime, presentaron al público sus chatbots de IA el 31 de agosto.
Según un informe de Politico, la Comisión Nacional de Informática y Libertades (CNIL) de Francia declaró en marzo que estaba investigando varias quejas sobre ChatGPT después de que el chatbot fuera prohibido temporalmente en Italia por un presunto incumplimiento de las normas de privacidad, haciendo caso omiso de las advertencias de grupos de derechos civiles.
La Autoridad Italiana de Protección de Datos anunció el 22 de noviembre el inicio de una investigación que examinará los procesos de recopilación de datos para entrenar algoritmos de IA. La investigación pretende confirmar la aplicación de medidas de seguridad adecuadas en sitios web públicos y privados para impedir el "web scraping" de datos personales utilizados para el entrenamiento de IA por terceros.
EE.UU., el Reino Unido, Australia y otros 15 países recientemente publicaron directrices mundiales para ayudar a proteger los modelos de IA contra la manipulación, instando a las empresas a hacer que sus modelos sean "seguros por diseño".
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión