La Unión Europea avanza en la configuración del futuro de la inteligencia artificial con la elaboración del primer «Código de buenas prácticas de propósito general» para modelos de IA en el marco de su Ley de IA.

Según se anunció el 30 de septiembre, la iniciativa está encabezada por la Oficina Europea de Inteligencia Artificial y reúne a cientos de expertos mundiales del mundo académico, la industria y la sociedad civil para redactar en colaboración un marco que abordará cuestiones clave como la transparencia, los derechos de autor, la evaluación de riesgos y la gobernanza interna.

Casi 1,000 participantes en la configuración del futuro de la IA en la UE

La sesión plenaria inicial, celebrada en línea con casi 1,000 participantes, marcó el inicio de un proceso de meses que concluirá con el proyecto final en abril de 2025. 

El Código de Buenas Prácticas se convertirá en la piedra angular de la aplicación de la Ley de Inteligencia Artificial a los modelos de IA de propósito general, como los grandes modelos lingüísticos (LLM) y los sistemas de IA integrados en diversos sectores.

En esta sesión también se presentaron cuatro grupos de trabajo, dirigidos por distinguidos presidentes y vicepresidentes del sector, que impulsarán el desarrollo del Código de buenas prácticas.

Entre ellos figuran notables expertos como Nuria Oliver, investigadora en inteligencia artificial, y Alexander Peukert, especialista alemán en legislación sobre derechos de autor. Estos grupos se centrarán en la transparencia y los derechos de autor, la identificación de riesgos, la mitigación de riesgos técnicos y la gestión interna de riesgos.

Según la Oficina Europea de IA, estos grupos de trabajo se reunirán entre octubre de 2024 y abril de 2025 para redactar disposiciones, recabar aportaciones de las partes interesadas y perfeccionar el Código de Buenas Prácticas mediante consultas continuas.

Preparando el terreno para la gobernanza mundial de la IA

La Ley de Inteligencia Artificial de la UE, aprobada por el Parlamento Europeo en marzo de 2024, es un hito legislativo que pretende regular la tecnología en todo el bloque.

Se creó para establecer un enfoque de la gobernanza de la IA basado en el riesgo. Clasifica los sistemas en diferentes niveles de riesgo -desde mínimo hasta inaceptable- y exige medidas de cumplimiento específicas.  

La ley es especialmente relevante para los modelos de IA de propósito general debido a sus amplias aplicaciones y a su potencial para tener un impacto social significativo, lo que a menudo los sitúa en las categorías de mayor riesgo descritas por la legislación. 

Sin embargo, algunas grandes empresas de IA, entre ellas Meta, han criticado la normativa por considerarla demasiado restrictiva y argumentar que podría ahogar la innovación. En respuesta, el planteamiento de colaboración de la UE para redactar el Código de Buenas Prácticas pretende equilibrar la seguridad y la ética con el fomento de la innovación. 

La consulta a las múltiples partes interesadas ha recibido ya más de 430 propuestas, que contribuirán a influir en la redacción del Código. 

El objetivo de la UE es que, para el próximo mes de abril, la culminación de estos esfuerzos siente un precedente sobre cómo pueden desarrollarse, desplegarse y gestionarse responsablemente los modelos de IA de uso general, haciendo especial hincapié en minimizar los riesgos y maximizar los beneficios sociales.

Dado que el panorama mundial de la IA evoluciona rápidamente, es probable que este esfuerzo influya en las políticas de IA de todo el mundo, especialmente a medida que más países busquen en la UE orientación para regular las tecnologías emergentes.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.