El gobernador de California, Gavin Newsom, ha vetado un polémico proyecto de ley sobre inteligencia artificial (IA), argumentando que obstaculizaría la innovación y no protegería al público de las amenazas "reales" que plantea esta tecnología.
Newsom vetó el proyecto de ley SB 1047, conocido como la Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, el 30 de septiembre, tras haber recibido una oposición significativa de Silicon Valley.
El proyecto proponía pruebas de seguridad obligatorias para los modelos de IA y otras medidas de control, lo que preocupaba a las empresas tecnológicas, quienes temían que esto frenara la innovación.
En una declaración del 29 de septiembre, Newsom dijo que el proyecto se centraba demasiado en regular a las principales empresas de IA existentes sin proteger al público de las amenazas "reales" planteadas por la nueva tecnología.
“En cambio, el proyecto aplica estándares estrictos incluso a las funciones más básicas, siempre y cuando las despliegue un sistema grande. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología”.
Redactado por el senador demócrata de San Francisco, Scott Wiener, el SB 1047 también requeriría que los desarrolladores en California — incluidos grandes nombres como OpenAI, Meta y Google — implementen un "interruptor de apagado" para sus modelos de IA y publiquen planes para mitigar riesgos extremos.
Si el proyecto de ley se implementara, los desarrolladores de IA también podrían ser demandados por el fiscal general del estado en caso de una amenaza continua proveniente de modelos como una toma de control de la red por IA.
Newsom dijo que había pedido a los principales expertos en seguridad de IA del mundo que ayudaran a California a "desarrollar medidas viables" que se enfoquen en crear un "análisis de trayectoria basado en la ciencia". Agregó que había ordenado a las agencias estatales expandir su evaluación de los riesgos derivados de posibles eventos catastróficos relacionados con el desarrollo de la IA.
Aunque Newsom vetó el SB 1047, afirmó que deben adoptarse protocolos de seguridad adecuados para la IA, y agregó que los reguladores no pueden permitirse “esperar a que ocurra una gran catástrofe antes de tomar medidas para proteger al público”.
Newsom añadió que su administración ha firmado más de 18 proyectos de ley relacionados con la regulación de la IA en los últimos 30 días.
Políticos y grandes tecnológicas se oponen al proyecto de ley de seguridad en IA
El proyecto de ley no fue bien recibido entre legisladores, asesores y grandes empresas tecnológicas antes de la decisión de Newsom.
La presidenta de la Cámara de Representantes, Nancy Pelosi, y empresas como OpenAI dijeron que dificultaría significativamente el crecimiento de la IA.
El jefe de políticas de IA en Abundance Institute, Neil Chilson, advirtió que, si bien el proyecto se dirige principalmente a modelos de cierto costo y tamaño, aquellos que cuestan más de 100 millones de dólares, su alcance podría fácilmente ampliarse para reprimir también a desarrolladores más pequeños.
Sin embargo, algunos están a favor del proyecto de ley. El multimillonario Elon Musk, quien está desarrollando su propio modelo de IA llamado "Grok", es uno de los pocos líderes tecnológicos que apoya el proyecto de ley y las regulaciones generales sobre IA.
En una publicación en X el 26 de agosto, Musk dijo que “probablemente California debería aprobar el proyecto de ley de seguridad en IA SB 1047”, aunque admitió que respaldar el proyecto era una “decisión difícil”.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.