La plataforma de videoconferencias Zoom ha actualizado sus condiciones de servicio tras la polémica a una sección relativa al análisis de datos de IA, aclarando que no utilizará el contenido de los usuarios para entrenar modelos de IA sin consentimiento.
En un post del 7 de agosto, Zoom afirma que ha actualizado sus condiciones de servicio para confirmar que no utilizará contenidos de chat, audio o vídeo de sus clientes para entrenar modelos de IA sin su consentimiento expreso.
Durante el fin de semana, varios usuarios de Zoom amenazaron con dejar de utilizar la plataforma tras descubrir unas condiciones que supuestamente significaban que la empresa utilizaría una amplia gama de contenidos de los clientes para entrenar modelos de IA.
En la última publicación, Zoom afirma que las condiciones relativas a la IA se añadieron en marzo y reitera que no utilizará datos de clientes para el entrenamiento de IA sin su consentimiento. Los términos se han actualizado ahora para incluir una aclaración similar:
"No obstante lo anterior, Zoom no utilizará contenido de audio, vídeo o chat del cliente para entrenar nuestros modelos de inteligencia artificial sin su consentimiento".
El post de Zoom explica que sus ofertas de IA -una herramienta de resumen de reuniones y un redactor de mensajes- son opt-in con propietarios de cuentas o administradores capaces de controlar la habilitación de las herramientas.
Antes de que Zoom aclarara sus condiciones, usuarios de X (Twitter) expresaron su preocupación por las condiciones de la IA, y muchos pidieron que se boicoteara a Zoom hasta que se actualizaran las condiciones.
Well, not using @Zoom again until these over-reaching permissions are gone. https://t.co/mfu3ygnSJx pic.twitter.com/UiqyMywmUZ
— Justine Bateman (@JustineBateman) August 7, 2023
La preocupación surgió en torno a los términos en los que los usuarios daban su consentimiento para que Zoom utilizara, recopilara, distribuyera y almacenara "datos generados por el servicio" para cualquier fin, incluido el entrenamiento de modelos de IA y aprendizaje automático.
Otras condiciones permitían el derecho de Zoom a utilizar contenidos generados por los clientes para, entre otros usos, el aprendizaje automático y la formación y pruebas de IA.
Otras empresas tecnológicas también han actualizado recientemente sus políticas de privacidad para dar cabida a la extracción de datos para entrenar IA. Las políticas de Google se actualizaron en julio, lo que le permite tomar datos públicos para su uso en el entrenamiento de IA.
Mientras tanto, crece la preocupación por el uso de la IA por parte de las empresas tecnológicas y sus posibles implicaciones para la privacidad. En junio, grupos de protección de los consumidores de la Unión Europea instaron a los reguladores a investigar los modelos de IA utilizados en chatbots como ChatGPT de OpenAI o Bard de Google.
Los grupos estaban preocupados por la desinformación, la recopilación de datos y la manipulación generada por los bots. La UE aprobó el 14 de junio la Ley de Inteligencia Artificial, que entrará en vigor en los próximos dos o tres años y establece un marco para el desarrollo y despliegue de la IA.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo:
- La Cámara de la India aprueba un proyecto de ley para facilitar el cumplimiento de la normativa sobre datos de BigTech
- Jefe de producto de Worldcoin espera que más empresas se integren en los próximos meses
- Un servicio de datos descentralizado Web3 utiliza pruebas de conocimiento cero para consultas SQL a prueba de manipulaciones
- Alibaba lanza dos modelos de IA de código abierto para competir con Llama 2 de Meta
- Investigadores de IA dicen haber encontrado la forma de burlar las medidas de seguridad de Bard y ChatGPT
- Google, OpenAI y Microsoft crean el "Frontier Model Forum" para regular el desarrollo de la inteligencia artificial
- La comunidad cripto cree que PayPal USD (PYUSD) beneficia a Ethereum, pero perjudica la descentralización