En medio de problemas de privacidad y ciberseguridad, y de recientes prohibiciones en diferentes países, la empresa de inteligencia artificial (IA) OpenAI ha lanzado un programa para combatir los problemas de vulnerabilidad.
El 11 de abril, OpenAI, la empresa que está detrás de ChatGPT, anunció el lanzamiento del "Bug Bounty Program" de OpenAI para ayudar a identificar y solucionar vulnerabilidades en sus sistemas. Según el anuncio, el programa recompensa a los investigadores de seguridad por sus contribuciones para mantener la seguridad de la tecnología y la empresa de OpenAI.
OpenAI invitó a la comunidad mundial de investigadores de seguridad, hackers éticos y entusiastas de la tecnología, ofreciendo incentivos por información cualificada sobre vulnerabilidades. La empresa de IA cree que la experiencia y la vigilancia repercutirán directamente en la seguridad de sus sistemas y de los usuarios.
El lanzamiento del programa se produce luego de que el Secretario Jefe del Gabinete japonés, Hirokazu Matsuno, declarara el lunes que Japón contemplaría la posibilidad de incorporar la tecnología de IA a los sistemas gubernamentales, siempre que se aborden los problemas de privacidad y ciberseguridad.
OpenAI sufrió una filtración de datos el 20 de marzo, en la que los datos de los usuarios quedaron expuestos a otro usuario debido a un error en una biblioteca de código abierto.
En el anuncio, OpenAI afirma que se ha asociado con Bugcrowd -una plataforma de recompensas por fallos- para gestionar el proceso de presentación y recompensa, que está diseñado para garantizar una experiencia ágil a todos los participantes. Las recompensas en metálico se concederán en función de la gravedad y el impacto de los problemas notificados. Las recompensas oscilan entre USD 200 por hallazgos de baja gravedad y USD 20,000 por descubrimientos excepcionales.
Se proporciona protección de puerto seguro para la investigación de vulnerabilidades realizada de acuerdo con las directrices específicas enumeradas por OpenAI. Se espera que los investigadores cumplan todas las leyes aplicables.
Si un tercero emprende acciones legales contra un investigador de seguridad que participó en el programa de recompensas por fallos de OpenAI y el investigador siguió las normas del programa, OpenAI informará a los demás de que el investigador actuó dentro de las directrices del programa. Esto se debe a que los sistemas de OpenAI están conectados con otros sistemas y servicios de terceros.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.