Cuando un sistema de inteligencia artificial (IA) genera algo sorprendentemente similar a los datos con los que se ha entrenado, ¿se trata de una infracción de los derechos de autor o de un fallo del sistema? Esta es la cuestión central de la reciente demanda del New York Times contra OpenAI, fabricante de ChatGPT.
El Times alega que OpenAI utilizó más contenido del sitio web del NYT para entrenar sus modelos de IA que casi cualquier otra fuente patentada, con sólo Wikipedia y conjuntos de datos que contienen documentos de patentes de EE.UU. superándolo.
OpenAI afirma que el entrenamiento con datos protegidos por derechos de autor es un "uso justo" y que la demanda del New York Times "carece de fundamento".
We build AI to empower people, including journalists.
— OpenAI (@OpenAI) January 8, 2024
Our position on the @nytimes lawsuit:
• Training is fair use, but we provide an opt-out
• "Regurgitation" is a rare bug we're driving to zero
• The New York Times is not telling the full storyhttps://t.co/S6fSaDsfKb
Construimos IA para capacitar a las personas, incluidos los periodistas.Nuestra posición sobre la demanda de @nytimes:- La formación es un uso justo, pero ofrecemos una opción de exclusión
- La "regurgitación" es un error raro que estamos reduciendo a cero
- El New York Times no está contando toda la historia
Las apuestas
La demanda podría resolverse extrajudicialmente, podría terminar con una indemnización por daños y perjuicios o con la desestimación, o con otros muchos resultados. Pero más allá de la compensación económica o las medidas cautelares (que podrían considerarse temporales, pendientes de apelación, o activarse en caso de que la apelación no prospere), las ramificaciones podrían afectar a la sociedad estadounidense en general, con posibles repercusiones mundiales.
En primer lugar, si los tribunales fallan a favor de OpenAI que el entrenamiento de sistemas de IA en material protegido por derechos de autor es un uso legítimo, podría tener un impacto sustancial en el sistema legal estadounidense.
Como escribió recientemente Mike Cook, profesor titular del King's College, en The Conversation:
"Si has utilizado la IA para responder correos electrónicos o resumirte el trabajo, puede que veas en ChatGPT un fin que justifica los medios. Sin embargo, quizá debería preocuparnos si la única forma de conseguirlo es eximir a determinadas entidades corporativas de leyes que se aplican a todos los demás.
El New York Times argumenta que tal exención representaría una clara amenaza para su modelo de negocio.
OpenAI ha admitido que ChatGPT tiene un "fallo" por el que ocasionalmente emite pasajes de texto que guardan sorprendentes similitudes con obras protegidas por derechos de autor. Según el Times, esto podría servir para eludir los muros de pago, privar a la empresa de ingresos publicitarios y afectar a su capacidad para desempeñar sus funciones principales.
Si se permitiera a OpenAI seguir entrenándose con material protegido por derechos de autor sin restricciones, las consecuencias a largo plazo para el New York Times y cualquier otro medio periodístico cuyo trabajo pudiera utilizarse para entrenar sistemas de IA podrían ser catastróficas, según la demanda.
Lo mismo podría decirse de otros campos en los que el material protegido por derechos de autor genera beneficios, como el cine, la televisión, la música, la literatura y otros medios impresos.
Por otra parte, en los documentos presentados a la comisión de comunicaciones y asuntos digitales de la Cámara de los Lores del Reino Unido, OpenAI afirmó que "sería imposible entrenar los principales modelos de IA actuales sin utilizar material protegido por derechos de autor".
La empresa de IA añadió:
"Limitar los datos de entrenamiento a libros y dibujos de dominio público creados hace más de un siglo podría dar lugar a un experimento interesante, pero no proporcionaría sistemas de IA que satisfagan las necesidades de los ciudadanos de hoy."
La caja negra
Para complicar aún más las cosas, el compromiso podría ser difícil de alcanzar. OpenAI ha tomado medidas para impedir que ChatGPT y otros productos generen material protegido por derechos de autor, pero no hay garantías tecnológicas de que no siga haciéndolo.
Los modelos de IA como ChatGPT se denominan sistemas de "caja negra". Esto se debe a que los desarrolladores que los crean no tienen forma de saber exactamente por qué el sistema genera sus resultados.
Debido a esta caja negra, y al método con el que se entrenan los grandes modelos de lenguaje como ChatGPT, no hay forma de excluir los datos del New York Times o de cualquier otro titular de derechos de autor una vez que se ha entrenado un modelo.
Con la tecnología y los métodos actuales, es muy probable que OpenAI tuviera que eliminar ChatGPT y volver a empezar desde cero si se le prohibiera por completo el uso de material protegido por derechos de autor. En última instancia, esto podría resultar demasiado caro e ineficaz para que mereciera la pena.
OpenAI espera hacer frente a esto ofreciendo asociaciones a organizaciones de noticias y medios de comunicación junto con la promesa de seguir trabajando para eliminar el "bug" de la regurgitación.
El peor escenario
El peor escenario posible para el campo de la inteligencia artificial sería perder la capacidad de monetizar modelos entrenados con materiales protegidos por derechos de autor. Aunque esto no afectaría necesariamente, por ejemplo, a los esfuerzos relacionados con los coches autoconducidos o a los sistemas de IA utilizados para realizar simulaciones con superordenadores, podría hacer ilegal la comercialización de productos generativos como ChatGPT.
Y, en lo que respecta a los titulares de derechos de autor, el peor de los casos sería una declaración judicial de que el material protegido por derechos de autor puede utilizarse libremente para entrenar sistemas de IA.
En teoría, esto podría dar a las empresas de IA vía libre para redistribuir materiales protegidos por derechos de autor ligeramente modificados, mientras que los usuarios finales serían legalmente responsables de los casos en que las modificaciones no cumplieran los requisitos legales para evitar la infracción de los derechos de autor.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión