En el último año, a medida que la inteligencia artificial (IA) se ha ido convirtiendo en una herramienta de uso cotidiano, el panorama jurídico en torno a esta tecnología ha empezado a desarrollarse.
Desde normativas y leyes mundiales que empiezan a tomar forma hasta las innumerables demandas por infracción de derechos de autor y de datos, la IA ha estado en el radar de todo el mundo.
A medida que se acercaba el 2024, Cointelegraph pidió a personas del sector que trabajan en la intersección del derecho y la IA que nos ayudaran a desglosar las lecciones de 2023 y lo que podrían significar para el año nuevo. Para una visión completa de lo que ocurrió en el espacio de la IA en 2023, no olvides consultar la “Guía definitiva de IA de 2023” de Cointelegraph.
Retrasos en la aplicación de la Ley de IA de la UE
En 2023, la Unión Europea se convirtió en una de las primeras regiones en avanzar significativamente en cuanto a la aprobación de legislación para regular el despliegue y desarrollo de modelos de IA de alto nivel.
La "Ley de IA de la UE" se propuso inicialmente en abril y fue aprobada por el Parlamento en junio. El 8 de diciembre, los negociadores del Parlamento Europeo y el Consejo alcanzaron un acuerdo provisional sobre el proyecto de ley.
Una vez que entre plenamente en vigor, regulará el uso gubernamental de la IA en la vigilancia biométrica, supervisará los grandes sistemas de IA como ChatGPT y establecerá normas de transparencia que los desarrolladores deberán seguir antes de entrar en el mercado.
Sin embargo, el proyecto de ley ya ha recibido críticas del sector tecnológico por "exceso de regulación".
Con el rechazo de los desarrolladores y un historial de retrasos, Lothar Determann, socio de Baker McKenzie y autor de Determann's Field Guide to Artificial Intelligence Law, dijo a Cointelegraph:
“No parece del todo imposible que veamos un retraso similar con la promulgación de la Ley de IA de la UE.”
Determann señaló que, aunque el acuerdo se alcanzó a principios de diciembre, aún no se ha visto un texto definitivo. Añadió que varios políticos de Estados miembros clave, entre ellos el presidente francés, han expresado su preocupación por el borrador actual.
“sto me recuerda a la trayectoria del reglamento de privacidad electrónica, que la UE anunció en 2016 que entraría en vigor con el Reglamento General de Protección de Datos en mayo de 2018, pero que aún no se ha finalizado cinco años después.”
Laura De Boel, socia de la oficina de Bruselas del bufete de abogados Wilson Sonsini Goodrich & Rosati, también señaló que el desarrollo de diciembre es un "acuerdo político", cuya adopción formal aún está por llegar a principios de 2024.
Explicó además que los legisladores de la UE han incluido un "periodo de gracia escalonado", durante el cual:
“Las normas sobre sistemas de IA prohibidos se aplicarán al cabo de seis meses, y las normas sobre IA de uso general se aplicarán al cabo de 12 meses", dijo. "Los demás requisitos de la Ley de IA se aplicarán a los 24 meses, salvo las obligaciones para los sistemas de alto riesgo definidos en el anexo II, que se aplicarán a los 36 meses.”
Retos de cumplimiento
A pesar de la avalancha de nuevas normativas que entran en escena, 2024 presentará algunos retos para las empresas en términos de cumplimiento.
De Boel dijo que la Comisión Europea ya ha pedido a los desarrolladores de IA que apliquen voluntariamente las obligaciones clave de la Ley de IA incluso antes de que sean obligatorias:
“Tendrán que empezar a crear los procesos internos necesarios y preparar a su personal.”
Sin embargo, Determann dijo que incluso sin un esquema regulatorio integral de IA, "veremos desafíos de cumplimiento a medida que las empresas lidien con la aplicación de los esquemas regulatorios existentes a la IA."
Esto incluye el Reglamento General de Protección de Datos de la UE (GDPR), las leyes de privacidad de todo el mundo, las leyes de propiedad intelectual, las regulaciones de seguridad de los productos, las leyes de propiedad, los secretos comerciales, los acuerdos de confidencialidad y las normas de la industria, entre otros.
En este sentido, en Estados Unidos, la administración del Presidente Joe Biden emitió el 30 de octubre una extensa orden ejecutiva destinada a proteger a los ciudadanos, los organismos gubernamentales y las empresas garantizando normas de seguridad para la IA.
La orden establecía seis nuevas normas de seguridad y protección de la IA, incluidas intenciones de uso ético de la IA en los organismos gubernamentales.
Aunque se cita que Biden afirma que la orden se ajusta a los principios gubernamentales de "seguridad, protección, confianza y apertura", los conocedores del sector afirman que ha creado un clima "desafiante" para los desarrolladores.
Esto se reduce principalmente a discernir normas de cumplimiento concretas a partir de un lenguaje vago.
En una entrevista anterior con Cointelegraph, Adam Struck, socio fundador de Struck Capital e inversor en IA, dijo a Cointelegraph que la orden hace que sea difícil para los desarrolladores anticipar los riesgos futuros y el cumplimiento de acuerdo con la legislación, que se basa en suposiciones sobre productos que aún no están completamente desarrollados. Dijo:
“Esto es ciertamente un desafío para las empresas y los desarrolladores, particularmente en la comunidad de código abierto, donde la orden ejecutiva fue menos directiva.”
Leyes más específicas
Otra anticipación en el panorama jurídico de 2024 son las leyes más específicas y estrechamente enmarcadas. Esto ya se puede observar en algunos países que están desplegando normativas contra las falsificaciones generadas por IA.
Los organismos reguladores de Estados Unidos ya están estudiando la introducción de normas sobre falsificaciones políticas en vísperas de las elecciones presidenciales de 2024. A finales de noviembre, la India ha empezado a ultimar leyes contra las falsificaciones.
Determann advirtió a las empresas relacionadas con la IA y a las que utilizan productos de IA:
“En el futuro, las empresas tendrán que mantenerse al día sobre estos desarrollos, que incluirán requisitos de divulgación para bots, restricciones sobre 'deepfakes' y requisitos de auditoría para sistemas de evaluación de solicitudes de empleo.”
Continuó diciendo que tales leyes específicamente enfocadas tienden a tener una "mejor oportunidad" de conseguir el impacto deseado que las regulaciones demasiado amplias.
"Esto se debe a que las empresas pueden entenderlas y cumplirlas más fácilmente, y las autoridades pueden hacerlas cumplir con mayor eficacia", explicó.
También se ha rumoreado que en 2024 podría haber una normativa centrada en las inversiones en tecnología. Entre los legisladores estadounidenses ya se ha hablado de regular las inversiones.
En julio, el Senado estadounidense respaldó una ley bipartidista que obliga a las empresas locales a informar de cualquier inversión en tecnologías chinas, en particular en semiconductores utilizados en IA.
Clarificación de los derechos de autor
Muchos en la industria también esperan ver una aclaración de lo que se considera infracción de los derechos de autor y violación de la ley de derechos de autor.
En el último año se han producido una serie de demandas de gran repercusión relacionadas con los derechos de autor en las que se acusa a los principales desarrolladores de IA, como OpenAI, Microsoft, Meta y Google, de infringir las leyes de propiedad intelectual.
Estas demandas han abarcado casi todas las formas de contenido, desde el arte y la música hasta la literatura y las noticias.
Más recientemente, el 7 de diciembre, The New York Times presentó una demanda contra OpenAI y Microsoft por violación de los derechos de autor de sus contenidos informativos durante el entrenamiento de modelos de IA. Destacados abogados del sector han calificado este caso como un posible "momento decisivo" para la IA y los derechos de autor.
Dado que la mayoría de estos casos está en curso, se espera que 2024 traiga algún tipo de resolución a este asunto, aunque aún está por verse si será total o parcial.
¿Qué opina la IA?
En el espíritu de todo lo relacionado con la IA, Cointelegraph decidió preguntar a la propia ChatGPT qué cree que ocurrirá respecto a la escena legal que rodea a la IA en el nuevo año.
A la pregunta: "¿Puedes darme algunas predicciones para las leyes relacionadas con IA en 2024?". ChatGPT respondió con las siguientes hipótesis:
- Habrá más "regulaciones estrictas" a nivel mundial sobre preocupaciones éticas y sesgos.
- Se desarrollarán "normas de responsabilidad" más claras para los incidentes relacionados con IA para desarrolladores y usuarios.
- Habrá un mayor "énfasis en las leyes de privacidad de datos".
- Habrá una "mayor demanda de transparencia en los algoritmos de IA".
- La aparición de "consejos especializados u organismos reguladores" dedicados a supervisar la implantación de la IA.
- Habrá posibles actualizaciones de la legislación laboral y nuevos modelos de empleo teniendo en cuenta la IA.
- Se realizarán esfuerzos para establecer un "marco internacional cohesivo que rija las tecnologías de IA".
- Se implementarán "medidas para proteger a los consumidores" de aplicaciones de IA engañosas o perjudiciales.
Sólo el tiempo dirá si ChatGPT tiene razón, y 2024 será el año que nos informe a todos. No dejes de consultar este espacio en 2024 para conocer las últimas novedades en todo lo relacionado con la IA.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión