El prominente desarrollador de inteligencia artificial (IA) OpenAI ha sido el centro de una nueva queja de privacidad lanzada por un grupo de defensa de los derechos de protección de datos en Austria.
El 29 de abril, Noyb presentó la queja alegando que OpenAI no ha corregido la información falsa proporcionada por su chatbot de IA generativo ChatGPT. El grupo dijo que estas acciones, o la falta de ellas, podrían infringir las normas de privacidad de la Unión Europea.
Según el grupo, el demandante del caso, una figura pública no nombrada, solicitó información sobre sí mismo al chatbot de OpenAI y siempre recibió información incorrecta.
OpenAI supuestamente rechazó la solicitud del demandante de corregir o borrar los datos, diciendo que no era posible. También se negó a revelar información sobre sus datos de entrenamiento y su origen.
Maartje de Graaf, abogada de protección de datos de Noyb, comentó sobre el caso en una declaración:
“Si un sistema no puede producir resultados precisos y transparentes, no se puede utilizar para generar datos sobre individuos. La tecnología debe seguir los requisitos legales, no al revés.”
Noyb llevó su queja a la autoridad de protección de datos de Austria, solicitando que investigara el procesamiento de datos de OpenAI y cómo asegura la precisión de los datos personales que sus grandes modelos de lenguaje procesan.
De Graaf dijo que “está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE cuando procesan datos sobre individuos”.
Noyb, también conocido como el Centro Europeo para los Derechos Digitales, opera desde Viena, Austria, con el objetivo de lanzar “casos judiciales estratégicos e iniciativas mediáticas” que apoyen las leyes europeas de protección de datos generales.
No es la primera vez que los chatbots han sido criticados en Europa por activistas o investigadores.
En diciembre de 2023, un estudio de dos organizaciones sin fines de lucro europeas reveló que el chatbot de IA de Microsoft Bing, rebautizado como Copilot, estaba proporcionando información engañosa o inexacta sobre las elecciones locales en Alemania y Suiza.
El chatbot proporcionó respuestas inexactas sobre información de candidatos, encuestas, escándalos y votaciones, mientras citaba erróneamente sus fuentes.
Otro ejemplo, aunque no específicamente en la UE, se vio con el chatbot de IA Gemini de Google, que estaba proporcionando imágenes "despiertas" e inexactas en su generador de imágenes. Google se disculpó por el incidente y dijo que actualizaría su modelo.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión