Un grupo de artistas y beta testers descontentos con la herramienta de texto a video no lanzada de OpenAI, Sora, filtraron acceso al nuevo modelo como acto de protesta tras afirmar que fueron utilizados para “investigación y desarrollo no remunerados”.

El grupo publicó lo que parece ser una versión de interfaz de Sora en la plataforma de desarrollo de IA HuggingFace el 26 de noviembre, permitiendo que cualquiera utilizara la herramienta para crear; sin embargo, OpenAI aparentemente intervino para cerrarla.

Tecnología, OpenAI

Artistas y probadores beta afirman haber sido explotados por OpenAI en su último modelo de texto a video, Sora. Fuente: Hugging Face

La filtración fue llevada a cabo por un grupo de artistas y probadores beta que operan colectivamente bajo el nombre de usuario “PR-Puppets”.

“Recibimos acceso a Sora con la promesa de ser probadores iniciales, red teamers y socios creativos. Sin embargo, creemos que en realidad se nos atrajo para realizar ‘lavado artístico’ y mostrar al mundo que Sora es una herramienta útil para artistas”, declaró el grupo.

Según la carta abierta publicada junto con la filtración de Sora, el grupo afirmó que “cientos de artistas” proporcionaron trabajo no remunerado a través de pruebas de errores, retroalimentación y trabajo experimental, solo para encontrarse excluidos de cualquier esperanza de compensación o reconocimiento por parte de OpenAI.

Los artistas aseguran que OpenAI — ahora valorada en 157,000 millones de dólares en privado — impidió injustamente que los artistas y colaboradores fueran remunerados por las pruebas, retroalimentación y desarrollo.

La herramienta estuvo en línea durante varias horas antes de ser desactivada, y varios usuarios se apresuraron a publicar ejemplos de videos generados por la versión filtrada de la herramienta en X.

“Es impresionante lo bien que maneja los brazos y las piernas,” escribió el director de cine Huang Lu en una publicación del 26 de noviembre en X, junto a un clip de la herramienta filtrada.

La versión filtrada de Sora parece ser una variante “turbo” más rápida, según el código descubierto por usuarios de X, con líneas de código adicionales que también insinúan ciertos controles sobre la personalización y estilos de video que podrían generarse en el futuro.

Sora fue presentada por primera vez por OpenAI el 16 de febrero y sorprendió a los usuarios de X con el nivel de contenido de video hiperrealista que podía generar a partir de simples indicaciones.

Según un informe del 17 de febrero de The Information, OpenAI había estado entrenando a Sora con “cientos de millones de horas” de clips de video para abarcar una amplia gama de estilos y mejorar la calidad general de sus videos generados por IA.

OpenAI no respondió de inmediato a una solicitud de comentarios.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión