El New York Times (NYT) ha emprendido una batalla legal sin precedentes contra OpenAI y Microsoft, acusando a las empresas de infracción de derechos de autor al entrenar modelos de IA con información obtenida indebidamente de los archivos de la publicación.

Ambas partes han emitido declaraciones cruzadas dando sus perspectivas, con OpenAI calificando las afirmaciones del NYT como carentes de mérito y los abogados del NYT afirmando que el uso del material por parte de OpenAI "no es un uso legítimo en ningún sentido".

El caso ha atraído la atención tanto de expertos en IA como de expertos legales, quienes están observando de cerca cómo podría remodelar el panorama de la regulación de la IA y los derechos de los creadores de contenido.

Cointelegraph habló con Bryan Sterba, socio de Lowenstein Sandler y miembro del grupo de práctica de IA de Lowenstein, y Matthew Kohel, socio de Saul Ewing, para entender mejor las complejidades legales del caso.

Sterba señala que OpenAI aboga por una interpretación amplia de la defensa de "uso legítimo", una posición que no es completamente respaldada por las leyes existentes pero que se considera necesaria para el avance de la IA generativa.

Dijo que es "básicamente un argumento de política pública" que OpenAI está enmarcando en torno a la defensa de uso legítimo, que ya ha sido adoptada en otros países para evitar frenar el progreso de la IA.

"Siempre es difícil decir con certeza cómo un tribunal decidirá sobre un tema determinado, pero el NYT ha presentado fuertes elementos básicos de una demanda por infracción".

Kohel también comentó que "indudablemente" hay mucho en juego en esta demanda.

"El NYT está buscando miles de millones de dólares en daños", dijo, agregando que "alega que OpenAI está proporcionando su valioso contenido, que no se puede acceder sin una suscripción paga, de forma gratuita".

Él cree que un fallo a favor de OpenAI sin cometer ninguna infracción significaría que ella y otros proveedores de tecnologías de IA pueden usar y reproducir libremente uno de los "activos más valiosos" del NYT: su contenido.

Kohel destacó que, en este momento, no hay un marco legal específico que regule el uso de datos de entrenamiento para un modelo de IA. Como resultado, los creadores de contenido como el NYT y autores como Sarah Silverman presentaron demandas basadas en la Ley de Derechos de Autor para proteger sus derechos de propiedad intelectual.

Esto podría cambiar, sin embargo, ya que los legisladores de Estados Unidos presentaron el AI Foundation Model Transparency Act en nombre del Grupo de Trabajo de Inteligencia Artificial del Congreso en diciembre de 2023.

Según Kohel, si se aprueba la ley, implicaría el uso y la transparencia de los datos de entrenamiento.

En su defensa, OpenAI ha dicho que al proporcionar a los editores la opción de excluirse de ser utilizados para la recopilación de datos, está haciendo lo "correcto".

Sterba comentó sobre la movida diciendo:

"El concepto de exclusión voluntaria será un pequeño consuelo para el NYT y otros editores, ya que no tienen ninguna idea de qué partes de su material con derechos de autor ya han sido recopiladas por OpenAI".

A medida que avanza la demanda, pone de manifiesto el cambiante panorama legal en torno a la IA tanto para desarrolladores como para creadores. Kohel destacó la importancia de la conciencia para ambas partes:

"Los desarrolladores de IA deben comprender que el Congreso y la Casa Blanca, como se muestra en la Orden Ejecutiva que el Presidente Biden emitió en octubre de 2023, están examinando detenidamente las diversas implicaciones que los modelos de IA tienen en la sociedad".

Esto se extendería más allá de los derechos de propiedad intelectual hasta asuntos de seguridad nacional.

"Los creadores de contenido deben proteger sus intereses registrando sus obras en la Oficina de Derechos de Autor, porque los desarrolladores de IA pueden terminar teniendo que pagarles una tarifa de licencia si usan sus obras para entrenar sus LLM (modelos de lenguaje grandes)".

El resultado de esta demanda sigue siendo anticipado por los expertos de la industria. Es probable que influya en futuras discusiones sobre la regulación de la IA, el equilibrio entre la innovación tecnológica y los derechos de propiedad intelectual, y las consideraciones éticas en torno al entrenamiento de modelos de IA con datos de acceso público.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión