El gigante de las redes sociales Meta, antes conocido como Facebook, incluirá una marca de agua invisible en todas las imágenes que cree utilizando inteligencia artificial (IA), al tiempo que intensificará las medidas para evitar el uso indebido de esta tecnología.
En un informe del 6 de diciembre en el que se detallan las actualizaciones de Meta AI -el asistente virtual de Meta-, la empresa revela que pronto añadirá una marca de agua invisible a todas las imágenes generadas por IA y creadas con la experiencia "imagina con Meta AI". Al igual que muchos otros chatbots de IA, Meta AI genera imágenes y contenidos basándose en las indicaciones del usuario. Sin embargo, Meta pretende evitar que los malos actores vean el servicio como una herramienta más para engañar al público.
Al igual que muchos otros generadores de imágenes, Meta AI genera imágenes y contenidos basándose en las indicaciones de los usuarios. La última función de marca de agua hará más difícil que un creador elimine la marca de agua.
“En las próximas semanas, añadiremos una marca de agua invisible a la imagen con la experiencia de Meta AI para aumentar la transparencia y la trazabilidad.”
Meta dice que utilizará un modelo de aprendizaje profundo para aplicar marcas de agua a las imágenes generadas con su herramienta de IA, que serían invisibles para el ojo humano. Sin embargo, las marcas de agua invisibles pueden detectarse con un modelo correspondiente.
A diferencia de las marcas de agua tradicionales, Meta afirma que sus marcas de agua de IA -denominadas Imagine with Meta AI- son "resistentes a manipulaciones comunes de imágenes como recortes, cambios de color (brillo, contraste, etc.), capturas de pantalla y más." Si bien los servicios de marca de agua se desplegarán inicialmente para las imágenes creadas a través de Meta AI, la compañía planea llevar la función a otros servicios de Meta que utilizan imágenes generadas por IA.
En su última actualización, Meta AI también introdujo la función "reimaginar" para Facebook Messenger e Instagram. La actualización permite a los usuarios enviar y recibir imágenes generadas por IA entre sí. Como resultado, ambos servicios de mensajería también recibirán la función de marca de agua invisible.
Servicios de IA como Dall-E y Midjourney ya permiten añadir marcas de agua tradicionales a los contenidos que genera. Sin embargo, estas marcas de agua pueden eliminarse simplemente recortando el borde de la imagen. Además, algunas herramientas específicas de IA pueden eliminar automáticamente las marcas de agua de las imágenes, algo que, según Meta AI, es imposible de hacer con sus resultados.
Desde la generalización de las herramientas de IA generativa, numerosos empresarios y famosos han criticado campañas de estafa realizadas con IA. Los estafadores utilizan herramientas de fácil acceso para crear vídeos, audios e imágenes falsos de personajes populares y difundirlos por Internet.
En mayo, una imagen generada por IA que mostraba una explosión cerca del Pentágono -sede del Departamento de Defensa de Estados Unidos- provocó una breve caída de la bolsa.
Prime example of the dangers in the pay-to-verify system: This account, which tweeted a (very likely AI-generated) photo of a (fake) story about an explosion at the Pentagon, looks at first glance like a legit Bloomberg news feed. pic.twitter.com/SThErCln0p
— Andy Campbell (@AndyBCampbell) May 22, 2023
Un buen ejemplo de los peligros del sistema pay-to-verify: Esta cuenta, que tuiteó una foto (muy probablemente generada por IA) de una noticia (falsa) sobre una explosión en el Pentágono, parece a primera vista una noticia legítima de Bloomberg. pic.twitter.com/SThErCln0p
La imagen falsa, como se muestra arriba, fue posteriormente difundida por otros medios de noticias, lo que provocó un efecto de bola de nieve. Sin embargo, las autoridades locales, incluida la Agencia de Protección de Fuerzas del Pentágono, a cargo de la seguridad del edificio, dijeron que estaban al tanto del informe que circulaba y confirmaron que no se produjo "ninguna explosión o incidente".
@PFPAOfficial and the ACFD are aware of a social media report circulating online about an explosion near the Pentagon. There is NO explosion or incident taking place at or near the Pentagon reservation, and there is no immediate danger or hazards to the public. pic.twitter.com/uznY0s7deL
— Arlington Fire & EMS (@ArlingtonVaFD) May 22, 2023
@PFPAOfficial y el ACFD son conscientes de un informe de redes sociales que circula en línea acerca de una explosión cerca del Pentágono. NO hubo ninguna explosión o incidente en o cerca de la reserva del Pentágono, y no hay peligro inmediato o riesgos para el público. pic.twitter.com/uznY0s7deL
Ese mismo mes, el grupo Amnistía Internacional publicó una imagen generada por IA que mostraba brutalidad policial para hacer campañas contra las autoridades.

"Hemos retirado las imágenes de las publicaciones en redes sociales, pues no queremos que las críticas por el uso de imágenes generadas por IA distraigan del mensaje central de apoyo a las víctimas y a sus peticiones de justicia en Colombia", declaró Erika Guevara Rosas, directora para las Américas de Amnistía.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión