Anthropic, una startup de inteligencia artificial (IA) generativa, ha prometido no utilizar datos de clientes para el entrenamiento de grandes modelos lingüísticos, según las actualizaciones de las condiciones comerciales de servicio del desarrollador de Claude. La empresa se compromete a ayudar a los usuarios en litigios por derechos de autor.

Anthropic, dirigida por antiguos investigadores de OpenAI, ha revisado sus condiciones comerciales para aclarar su postura. A partir de enero de 2024, los cambios establecen que los clientes comerciales de Anthropic también son propietarios de todos los resultados del uso de sus modelos de IA. El desarrollador de Claude "no prevé obtener ningún derecho sobre el Contenido del Cliente en virtud de estos Términos".

OpenAI, Microsoft y Google se comprometieron a apoyar a los clientes que se enfrenten a problemas legales debido a reclamaciones de derechos de autor relacionadas con el uso de sus tecnologías en el segundo semestre de 2023.

Anthropic se ha comprometido de forma similar en sus condiciones comerciales de servicio actualizadas a proteger a los clientes frente a reclamaciones por infracción de derechos de autor derivadas de su uso autorizado de los servicios o productos de la empresa. Anthropic declaró que:

"Los clientes disfrutarán ahora de una mayor protección y tranquilidad cuando construyan con Claude, así como de una API más ágil y fácil de usar". 

Como parte de su compromiso de protección jurídica, Anthropic dijo que pagará cualquier acuerdo o sentencia aprobados que resulten de las infracciones de su IA. Las condiciones se aplican a los clientes de la API de Claude y a quienes utilicen Claude a través de Bedrock, la suite de desarrollo de IA generativa de Amazon.

Los términos establecen que Anthropic no planea adquirir ningún derecho sobre el contenido de los clientes y no proporciona a ninguna de las partes derechos sobre el contenido o la propiedad intelectual de la otra parte de forma implícita o de otro modo.

Los sistemas avanzados de IA, como Claude, GPT-4 y LlaMa de Anthropic, conocidos como grandes modelos lingüísticos (LLM, por sus siglas en inglés), se entrenan a partir de una gran cantidad de datos de texto. La eficacia de los LLM depende de la diversidad y amplitud de los datos de entrenamiento, que mejoran la precisión y el conocimiento contextual al aprender de diversos patrones lingüísticos, estilos y nueva información.

Universal Music Group demandó a Anthropic AI en octubre por infringir los derechos de autor de "grandes cantidades de obras protegidas por derechos de autor, incluidas las letras de innumerables composiciones musicales" que son propiedad o están bajo el control de los editores.

Anthropic no es el único objeto de este tipo de demandas. El autor Julian Sancton ha demandado a OpenAI y Microsoft por presuntamente utilizar sin autorización obras de autores de no ficción para entrenar modelos de inteligencia artificial, como ChatGPT.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.