Meta implantará en los próximos meses nuevas normas sobre los contenidos generados por inteligencia artificial en Facebook, Instagram y Threads, según una entrada del blog de la empresa publicada el 6 de enero.
El contenido que se identifique como generado por IA, debido a metadatos u otras marcas de agua intencionadas, recibirá una etiqueta visible. Los usuarios de las plataformas Meta también tendrán la opción de marcar los contenidos no etiquetados sospechosos de ser generados por IA.
Crowd-sourcing
Si algo de esto te suena familiar, es porque refleja las primeras prácticas de moderación de contenidos de Meta. Antes del inicio de la era de los contenidos generados por IA, la empresa (entonces Facebook) desarrolló un sistema para que los usuarios denunciaran los contenidos que infringían las condiciones de servicio de la plataforma.
En 2024, Meta vuelve a equipar a los usuarios de sus redes sociales con herramientas para marcar contenidos, aprovechando lo que podría ser la mayor fuerza de crowdsourcing de consumidores del mundo.
Esto también significa que los creadores en las plataformas de la empresa tendrán que etiquetar su propio trabajo como generado por IA, siempre que sea aplicable, o podría haber consecuencias.
Según la entrada del blog:
"Exigiremos que las personas utilicen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un video fotorrealista o audio con sonido realista que haya sido creado o alterado digitalmente, y podemos aplicar sanciones si no lo hacen".
Detección de contenido generado por IA
Meta afirma que siempre que se utilizan sus herramientas integradas para crear contenidos generados por IA, esos contenidos reciben una marca de agua y una etiqueta que indican claramente su origen. Sin embargo, no todos los sistemas de IA generativa llevan incorporados estos controles.
La empresa afirma que está colaborando con otras empresas a través de consorcios -entre ellas Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock- y que seguirá desarrollando métodos para detectar marcas de agua invisibles a gran escala.
Por desgracia, es posible que estos métodos sólo se apliquen a imágenes generadas por IA. "Aunque las empresas están empezando a incluir señales en sus generadores de imágenes", se lee en la entrada del blog, "no han empezado a incluirlas en las herramientas de IA que generan audio y vídeo a la misma escala".
Según el post, esto significa que Meta no puede detectar actualmente audio y vídeo generados por IA a escala, incluida la tecnología deepfake.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión