El Gobernador de California, Gavin Newsom, anunció que el estado de EE. UU. establecería salvaguardias regulatorias para las plataformas de redes sociales y los chatbots de compañía de IA en un esfuerzo por proteger a los niños.
En un aviso del lunes, la oficina del gobernador dijo que Newsom había promulgado varios proyectos de ley que requerirán que las plataformas agreguen funciones de verificación de edad, protocolos para abordar el suicidio y la autolesión, y advertencias para los chatbots de compañía. El proyecto de ley de IA, SB 243, fue presentado por los senadores estatales Steve Padilla y Josh Becker en enero.
Padilla citó ejemplos de niños comunicándose con bots de compañía de IA, lo que supuestamente resultó en algunos casos de incitación al suicidio. El proyecto de ley exige que las plataformas revelen a los menores que los chatbots son generados por IA y pueden no ser adecuados para niños, según Padilla.
“Esta tecnología puede ser una poderosa herramienta educativa y de investigación, pero dejada a su suerte, la industria tecnológica se ve incentivada a captar la atención de los jóvenes y retenerla a expensas de sus relaciones en el mundo real”, dijo Padilla en septiembre.
Es probable que la ley afecte a las empresas de redes sociales y a los sitios web que ofrecen servicios a los residentes de California que utilizan herramientas de IA, lo que podría incluir plataformas descentralizadas de redes sociales y juegos. Además de las salvaguardias para los chatbots, los proyectos de ley buscan limitar las afirmaciones de que la tecnología “actúa de forma autónoma” para que las empresas no evadan responsabilidades.
Se espera que la SB 243 entre en vigor en enero de 2026.
Se han reportado algunos casos en los que chatbots de IA supuestamente emitieron respuestas que incitaban a menores a autolesionarse o que potencialmente creaban riesgos para la salud mental de los usuarios. El Gobernador de Utah, Spencer Cox, promulgó proyectos de ley similares a los de California en 2024, que entraron en vigor en mayo, exigiendo a los chatbots de IA que revelaran a los usuarios que no estaban hablando con un ser humano.
Acciones federales a medida que la IA se expande
En junio, la senadora de Wyoming Cynthia Lummis presentó la Ley Responsible Innovation and Safe Expertise (RISE), que crea “inmunidad de responsabilidad civil” para los desarrolladores de IA que podrían enfrentar demandas de líderes de la industria en “salud, derecho, finanzas y otros sectores críticos para la economía”.
El proyecto de ley recibió reacciones mixtas y fue remitido al Comité de Educación y Trabajo de la Cámara de Representantes.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.