Google se ha enfrentado recientemente a una ola de litigios a medida que las implicaciones de la inteligencia artificial generativa en los derechos de autor y la privacidad se vuelven más claras.
En medio del debate cada vez más intenso, Google no solo ha defendido sus prácticas de entrenamiento de IA, sino que también se ha comprometido a proteger a los usuarios de sus productos de IA generativa de acusaciones de violación de derechos de autor.
Sin embargo, el paraguas protector de Google abarca solo siete productos específicos con atributos de IA generativa y deja conspicuamente fuera la herramienta de búsqueda Google Bard. Este movimiento, aunque es un consuelo para algunos, plantea una serie de preguntas sobre la responsabilidad, la protección de los derechos creativos y el floreciente campo de la IA.
Además, la iniciativa también se percibe como algo más que una simple medida reactiva de Google, sino más bien como una estrategia cuidadosamente elaborada para indemnizar el creciente panorama de la IA.
La nube legal de la IA
El auge de la IA generativa en los últimos años ha reavivado los debates sobre los derechos de autor con un toque moderno. El meollo de la cuestión actualmente gira en torno a si los datos utilizados para entrenar modelos de IA y los resultados generados por ellos violan la propiedad intelectual asociada a entidades privadas.
En este sentido, las acusaciones contra Google se centran en esto y, si se demuestran, no solo podrían costarle mucho dinero, sino que también sentarían un precedente que podría sofocar el crecimiento de la IA generativa en su conjunto.
La estrategia legal de Google, diseñada minuciosamente para infundir confianza entre su clientela, se basa en dos pilares principales, es decir, la indemnización de sus datos de entrenamiento y su producción generada. Para ser más específico, Google se ha comprometido a asumir la responsabilidad legal en caso de que los datos utilizados para desarrollar sus modelos de IA enfrenten acusaciones de violación de propiedad intelectual.
Además de eso, el gigante tecnológico también busca proteger a los usuarios de reclamaciones de que el texto, las imágenes u otro contenido generado por sus servicios de IA no infringe los datos personales de otras personas, abarcando una amplia variedad de sus servicios, incluidos Google Docs, Slides y Cloud Vertex AI.
Google ha argumentado que la utilización de información de acceso público para entrenar sistemas de IA no equivale a robo, invasión de la privacidad o violación de derechos de autor.
Sin embargo, esta afirmación está siendo sometida a un riguroso escrutinio, ya que una serie de demandas acusan a Google de usar de manera indebida información personal y con derechos de autor para alimentar sus modelos de IA. Una de las demandas colectivas propuestas incluso alega que Google ha construido toda su destreza en IA a partir de datos secretamente sustraídos de millones de usuarios de Internet.
La perspectiva de un artista
La relación entre la IA generativa y la protección de los derechos de propiedad intelectual es un campo que parece estar evolucionando rápidamente.
La artista de tokens no fungibles Amitra Sethi dijo a Cointelegraph que el reciente anuncio de Google es un desarrollo importante y bienvenido, y agregó:
"La política de Google, que extiende la protección legal a los usuarios que puedan enfrentar reclamaciones por infracción de derechos de autor debido al contenido generado por la IA, refleja una creciente conciencia de los desafíos potenciales planteados por la IA en el campo creativo".
Sin embargo, Sethi considera importante tener una comprensión matizada de esta política. Si bien actúa como un escudo contra la infracción no intencionada, es posible que no cubra todos los escenarios posibles. En su opinión, la eficacia protectora de la política podría depender de las circunstancias únicas de cada caso.
Cuando una obra generada por IA se asemeja vagamente a una obra original de un artista, Sethi cree que la política podría ofrecer algún recurso. Pero en casos de "plagio intencional a través de la IA", el escenario legal podría volverse más confuso. Por lo tanto, cree que es responsabilidad de los artistas tomar medidas proactivas para garantizar la plena protección de su producción creativa.
Sethi dijo que recientemente registró su género artístico único, "SoundBYTE", para destacar la importancia de que los artistas tomen medidas activas para asegurar su trabajo. "Al registrar mi derecho de autor, he establecido un reclamo legal claro sobre mis expresiones creativas, lo que facilita la afirmación de mis derechos si alguna vez son cuestionados", agregó.
Ante estos desarrollos, la comunidad artística global parece estar uniendo fuerzas para crear conciencia y abogar por leyes y regulaciones más claras que rigen el contenido generado por IA.
También han aparecido herramientas como Glaze y Nightshade para proteger las creaciones de los artistas. Glaze realiza cambios menores en las obras de arte que, aunque prácticamente imperceptibles para el ojo humano, suministran datos incorrectos o malos a los generadores de arte de IA. Del mismo modo, Nightshade permite a los artistas agregar cambios invisibles a los píxeles en sus obras, envenenando así los datos para los raspadores de IA.

Implicaciones a nivel de la industria
La narrativa actual no se limita a Google y su conjunto de productos. Otros gigantes tecnológicos como Microsoft y Adobe también han hecho esfuerzos para proteger a sus clientes contra reclamaciones de derechos de autor similares.
Microsoft, por ejemplo, ha presentado una estrategia de defensa sólida para proteger a los usuarios de su herramienta de inteligencia artificial generativa, Copilot. Desde su lanzamiento, la empresa ha defendido firmemente la legalidad de los datos de entrenamiento de Copilot y la información generada, afirmando que el sistema simplemente sirve como un medio para que los desarrolladores escriban nuevo código de manera más eficiente.
Adobe ha incorporado pautas en sus herramientas de inteligencia artificial para garantizar que los usuarios no se vean involucrados involuntariamente en disputas de derechos de autor y también ofrece servicios de inteligencia artificial agrupados con garantías legales contra infracciones externas.
Los inevitables casos judiciales que surgirán en relación con la inteligencia artificial, sin lugar a dudas, moldearán no solo los marcos legales, sino también los fundamentos éticos sobre los cuales operarán los futuros sistemas de inteligencia artificial.
Tomi Fyrqvist, cofundador y director financiero de la aplicación social descentralizada Phaver, dijo a Cointelegraph que en los próximos años, no sería sorprendente ver más demandas de esta naturaleza surgir:
“Siempre habrá alguien demandando a alguien. Lo más probable es que haya muchas demandas que sean oportunistas, pero algunas serán legítimas.”
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.